アメリカの有力な軍事科学者の一人によれば、戦争を戦うために地上に武装した人間の兵士を派遣するという概念は、時とともに消えていくだろうという。
「我々人類は知的生命体の一種に過ぎないという根本的な考えに慣れる必要がある」と、米陸軍研究所ネットワーク科学部門の責任者、アレクサンダー・コット氏は金曜日、情報セキュリティのための応用機械学習会議(CAMLIS)で語った。
コットは、人間の戦士がロボット、センサー、スマート兵器、自律走行車、ウェアラブル機器といった知能エージェントと戦場を共にするディストピア的な未来を予測した。これらは現在もある程度存在しているが、将来的にははるかに知能が高まり、機械学習ソフトウェアを用いて最新の情報を自動的に取り込み、絶えず変化する環境において意思決定を行うようになるだろう。
「それはもうすぐやって来る。20年後には現実になるだろう」とコット氏は言った。「人間の姿は以前よりずっと見えにくくなり、私たちはそれに慣れていくだろう」
一方、サイバー戦争は増加しており、外国の敵対勢力は国の電力網、銀行、その他の民間組織を攻撃していると彼は主張した。これは、AIを活用して侵入してくる攻撃を分析し、対抗する十分な機会が提供される未来だ。
「AIと機械学習は三刃の剣です」とコット氏は述べた。「エージェントは攻撃の標的、加害者、そして防御者となるでしょう。人間はおそらく最も効果が低く、サイバー世界における最も弱いリンクとなることが多いでしょう。」
コット氏は、防衛業務の大部分が知能を持つ人工存在によって行われる未来を思い描いています。自律エージェントがコンピュータネットワークを積極的に巡回し、人間よりも速く異常な活動を検知し、人間をベッドから出させることなく敵のマルウェアを破壊するのです。
米陸軍研究所はこうしたプロジェクトに取り組んでいるが、現在のAI技術だけではコット氏のビジョンを実現するには不十分だろう。コット氏は主要な問題領域を「5つのD」、つまり「dinky(ディンキー)、dirty(ダーティ)、dynamic(ダイナミック)、deceptive(デセプティブ)、data(データ)」と名付けた。
エンジニア、プログラマー、AIの武器化を防ぐのはあなた次第です
続きを読む
エージェントが真に知的であると言えるのは、少数、あるいはごくわずかな例から学習できる場合に限られます。今日のニューラルネットワークモデルは、データ内のパターンを識別する方法を学習するために、数千、あるいは数百万ものサンプルを必要とします。戦場のニューラルネットワークに入力できる軍事シナリオの歴史的記録はそれほど多くありません。また、軍事研究に関するデータセット、特に機密性の高いデータセットを収集・共有することは容易ではありません。
このトレーニング マテリアルも、大抵の AI システムが学習する、きちんとラベル付けされた例とは異なり、乱雑で汚いものになる可能性が高いです。
将来のシステムへの入力の中には、欺瞞的なものも含まれるでしょう。ニューラルネットワークは敵対的なデータに影響を受けやすいことがよく知られており、自ら欺瞞的なデータを作成することさえ可能です。システムは、動的に変化する環境に適応することを学習する必要もあります。
「AIは常に大きな可能性を秘めており、当然のことながら懐疑的な見方も常に受けてきました」とコット氏は述べた。「AIは未来であり、これからもそうあり続けるでしょう。ニューラルネットワークがディープラーニングと改名されたこの10年間で、AIは素晴らしい成功を収めてきました。」
コット氏はThe Registerに対し、現在のディープラーニング技術は真に知的なエージェントの構築には使用できない、あるいは使用できないだろうが、汎用人工知能は可能だとまだ期待していると語った。
「2点間の最適経路を見つける問題は、かつてはAIの問題と考えられていました」と彼は述べた。「何百もの論文がこの問題について書かれました。今ではGPSによって解決されており、もはやAIではありません。ディープラーニングについても同じことが言えるでしょう。」®
10 月 15 日から 17 日までロンドンで開催される Minds Mastering Machines で、機械学習、人工知能、データ分析、そしてそれらがあなたにとってどのような意味を持つのかを検討します。詳細なプログラムとチケット情報については、Web サイトをご覧ください。