英国議会での公聴会によると、テロ集団や傭兵など非国家主体による兵器システムへのAIの普及を阻止するのは事実上不可能だという。
貴族院の兵器システムにおけるAI委員会は昨日、軍事的状況で使用される可能性のあるAIモデルのソフトウェアとしての性質により、それを封じ込めて悪意ある者の手から守ることがいかに困難であるかを聴取した。
非国家主体というと、暴力的な過激派組織のイメージが思い浮かびますが、この技術開発の最前線にいる大規模な多国籍企業も含まれるはずです。
ランド研究所ヨーロッパの防衛・安全保障研究グループのジェームズ・ブラック副所長は、委員会に対し、「多くのものは、本質的にソフトウェアベースであるため、核拡散防止の観点から管理するのが非常に困難になるだろう。既存の輸出管理や核拡散防止体制の多くは、ミサイル、エンジン、核物質といった旧来型のハードウェアに重点を置いている」と述べた。
更なる不確実性として、敵対的な非国家主体がAIベースの兵器を用いてどのように行動するかについての確立された「戦争ゲーム」理論が存在しないことが挙げられます。さらに不確実性として、今日の人工知能は必ずしも信頼できるものではないという点も付け加えておきたいと思います。この点は誰もが認識していることでしょう。
RANDは1945年、ダグラス・エアクラフト社との特別契約に基づく米国政府機関として設立されましたが、すぐに独立した非営利団体へと発展し、科学的厳密さに基づいた政策立案の改善を目指しました。冷戦期における核兵器拡散へのゲーム理論の適用において、RANDは先駆者の一つでした。
ブラック氏は次のように述べた。「エスカレーションについてですが、一般的に、非国家主体を抑止する方法を理解するための優れた理論は存在しません。抑止理論の多くは、ソ連、米国、そして西側諸国における冷戦期の核抑止力から発展したものです。非国家主体、特に非常に分散化され、緩やかな非階層的なネットワーク指揮統制構造を持つ非国家主体については、従来のトップダウン型の軍事的敵対者のような影響力を発揮することは困難であり、その考え方は実際には同じではありません。」
AI強化兵器の状況は、物理的な脅威の場合とは異なり、民間部門が政府の研究よりはるかに先行しているという点で、これまでの軍事分析とは異なっていると彼は述べた。
- Googleはバードに広告制作を委託しており、創造性が向上するようだ
- Google Brain、タンパク質折り畳みDeepMindが1つに折り畳まれる
- DARPAは信頼を組み込むためにAIの基礎を再考しようとしている
- EU議員らは、ChatGPTのような汎用AIがすでに規制当局を出し抜いていると懸念している。
防衛分野、特にこの分野におけるイノベーションの拠点は、公共部門から民間部門へと移行しています。非国家主体というと、暴力的過激派組織を思い浮かべがちですが、この技術開発の最前線に立つ大規模な多国籍企業も含まれるべきです。これは、政府資金による研究所から生まれた初期のコンピューターやジェットエンジンとは異なります。これは民間部門が主導権を握り、ガバナンスのあり方や実際に利用可能な能力に関する議論を形作っている分野です。
キングス・カレッジ・ロンドンの戦略教授ケネス・ペイン氏は委員会に対し、たとえ各国政府がAI強化兵器の拡散を抑制するための法律を制定できたとしても、不正行為を行う大きな動機が存在するだろうと語った。
自律型兵器が人間を悪化させるのを防ぐには「スローAI」が必要
続きを読む
「軍備管理をするなら、何らかの検証プロセスが必要だ」と彼は言った。「しかし、AI開発のシグネチャーは非常に小さい。例えば、ウラン濃縮施設など必要ない。コンピューターと科学者が収容されている倉庫があればいい。軍備管理体制からの離脱の可能性をどうやって監視できるというのか?これらの技術が軍事的に大きな優位性をもたらすと信じれば、規制を破る大きな動機が生まれる。それが少し不安で…規制の見通しには少し懐疑的だ」
先月、数百人のコンピューター科学者、テクノロジー業界のリーダー、そしてAI専門家が、GPT-4よりも強力なAIシステムの訓練を少なくとも6ヶ月間一時停止するよう求める公開書簡に署名しました。署名者には、Appleの共同創業者であるスティーブ・ウォズニアック氏、SpaceXのCEOであるイーロン・マスク氏、そしてIEEEのコンピューティングのパイオニアであるグレイディ・ブーチ氏が含まれています。
しかし、一時停止の見通しは全く非現実的だとペイン氏は述べた。「それは、人々が自分たちに向かって迫りくる急速な変化に対する社会の不安の度合いを反映している。しかし、現実的な提案だとは思えない。」®