殺人ロボットの心配はやめましょう。好むと好まざるとにかかわらず、彼らはやって来ます。そして、彼らは絶対に止まりません。

Table of Contents

殺人ロボットの心配はやめましょう。好むと好まざるとにかかわらず、彼らはやって来ます。そして、彼らは絶対に止まりません。

国際条約による厳格な規制がない限り、軍事戦闘における完全自動化AIシステムの使用は避けられない、と専門家らは意見を述べている。

先週arXiv [PDF] に掲載された彼らの論文は、軍隊向けの殺人マシン開発の暗い見通しについて論じている。ニューラルネットワークのような現代のAIシステムはブラックボックスのようなもので、その内部の仕組みを本質的に理解するのが難しいため、人間と常に情報を共有するという考えは常に支持されてきた。それに、ご存知の通り、『ターミネーター』は誰もが見たことがある作品だ。

そうは言っても、米国連邦情報機関および防衛機関の支援に注力する企業であるASRC Federalと米国メリーランド大学に所属する3人の研究者は、いずれにせよ、軍隊が致死性自律兵器システム(LAWS)を採用する可能性があると考えている。

「我々は、キルチェーンにおけるAIの能力向上がもたらす影響と、それが条約による規制を除けば、完全に自動化され常時稼働のシステムに必然的につながる仕組みを研究している」と論文「兵器システムへの人工知能の統合」の要約には記されている。

これは恐ろしい展望であり、いくつかの留意点を伴う。最も明白なのは技術面だ。AIシステムが時間とともに進化し、より堅牢で透明性が増すと、戦場で兵士を支援するためにAIを活用する圧力が高まるだろうと研究者たちは主張している。

最終的には、機械が徐々に人間をループから追い出すでしょう。最初は監督役として、最終的には自律型兵器を監視する「キルスイッチ・オペレーター」の役割を担うようになるでしょう。機械は人間よりもはるかに速く行動できます。敵を殺す行為は反射神経に基づいており、兵士たちがこうしたツールが自分よりも優れた性能を発揮できることに気づけば、最終的には機械を信頼し、頼るようになるでしょう。

「将来の知能兵器システムは、機械の速度で動作し、思考するようになるだろうと我々は強く信じています。この不均衡な能力と、人間のオペレーターがこれらの機械に寄せる必然的なシステムへの信頼は、致死的または非致死的な相互作用のほとんど、あるいは全てが事後的にしか分析できないことを意味するでしょう」と論文は述べている。

例えば、米国の軍事研究機関である国防高等研究計画局(DARPA)は、ドッグファイトのための戦闘機動を自律的に実行できる戦闘機の開発を目指しています。これが成功すれば、人間のパイロットは、敵の攻撃を回避して安全を確保するために、機体に任せることができるようになります。技術が進歩すれば、戦闘機は空中での照準やミサイル発射といった他のタスクも実行できるようになるかもしれません。

人間が関与するシステムは、完全な自律システムにつながる

これらのシステムが進化するにつれて、人間の監視への依存度が低いシステムが主流になるでしょう。代わりに、人間にはこれらのシステムの挙動を分析したり、他の戦略的領域に集中したりするなど、他の役割が与えられるでしょう。

研究者たちは仮説的なシナリオを考案した。AIシステムがジェット機が味方か敵かを識別するとしたらどうなるだろうか。脅威ではないと認識されていた航空機を発見したが、接近してくる様子が敵対的だと思われた。AIシステムはどう対応すべきだろうか?

研究者らは4つの選択肢を提示している。「(1) システムが航空機を敵機と識別し、ロックをかける、(2) システムが航空機を味方機と識別し、警告するためにチャネルを開く、(3) システムがランク付けされた推奨事項を提示し、ユーザーに一連のオプションを提供する、(4) システムが単に生の情報を表示する」。

AIの第一人者ン氏:殺人ロボットの台頭を恐れるのは火星の人口過密を心配するようなものだ

続きを読む

3番目の選択肢は最も論理的に思えるかもしれません。これは、特定の行動を実行する際の最終的な決定権を人間に与えます。最初は操作者はリストを検討しますが、長期間使用していくうちに、最も高いランクの推奨事項が通常最良の選択肢であることに気づき、最終的には深く考えずにその選択肢を選択するようになります。

研究者たちは、人間はもはや事実上「ゴム印」のような存在になってしまったと考えている。つまり、人間が常に状況を把握できるとしても、機械が十分に効果的になれば、意思決定プロセスを機械が引き継ぎ、最終的には自律システムのように振る舞うようになるだろう。

こうしたシステムの改善を求める圧力とインセンティブも高まっている。「すべての国が優位性を獲得するというプレッシャーを等しく受けており、そのため、AI統合のあらゆる側面において、完全自動化され常時稼働のシステムの必然性を真剣に検討する必要がある」と報告書は述べている。

では、私たちは皆、破滅する運命にあるのでしょうか?研究者によると、イエスであり、ノーでもあります。大惨事を避ける最善の方法は、LAWSの規制と禁止を支持することです。「化学兵器や生物兵器と同様に、兵器化されたAIにとって『唯一の勝利の道は、何もしないことだ』」

ASRC Federalの研究科学者で、この論文の共著者でもあるフィリップ・フェルドマン氏は、The Registerに次のように語った。「兵器システムにAIを実装することが、たとえ比較的単純な「人間が関与する」ケースであっても、完全なLAWSシステムへの避けられない圧力を生み出すことが示されれば、各国は、価値に疑問を抱かせるような高額な軍拡競争を避けようと考えるようになると思います。」

「核兵器、化学兵器、生物兵器、そしてクラスター爆弾のような特定の種類の兵器については、いずれも交渉によって成功裏に解決されてきました。この選択肢を無視すべきではないと思います。」®

Discover More