先週、英国貴族院で行われた兵器システムにおける人工知能に関する公開証言セッションでは、めったに議論されることのないAIパズルの一片、すなわち、この技術が人間自身に与える影響、特に人間の精神的能力や意思決定能力を低下させる可能性について懸念が提起された。
上院議員たちが熟考するための証拠を提供するために出席した講演者たちは、予想通りの多くの議論をしました。例えば、世界の軍隊が特定の境界線を防衛するために数十の自律型ユニットを使用する可能性、あるいは数週間から数ヶ月にわたって標的を追跡し、現地住民に溶け込もうとする自軍の戦闘員が危険にさらされたり殺害されたりする事態を防ぐ方法について検討されました。また、彼らはAIが「巻き添え被害」というひどく控えめな表現のリスクを軽減する可能性、そしてAI技術が標的を誤認する可能性があることが十分に裏付けられていることについても語りました。
しかし、こうした懸念の中に、非常に興味深い点が次々と浮かび上がってきた。それは、AIシステムが人間としての私たちの最悪の性質を増幅させる可能性、そしてこの影響が軍隊において最も避けるべきものであるという事実だ。軽率な意思決定、反応時間の短縮によって増幅される誤解、戦術上の失策、そして時折の威圧的な嘘、そして通常の外交手続きが発動される前に敵対行為がエスカレートすることなどだ。
委員会は先週、自律型兵器システムの開発と配備が英国の外交政策と国際舞台における英国の立場にどのような影響を与えるかを調査することを目的として、第2回公開証言セッションを開催したが、証人らはそこで証言していた。
「スローAI」という言葉を導入したのは、最初の証人の一人である国際問題シンクタンク、チャタムハウスのヤスミン・アフィナ氏で、人間が回復不能な急降下を始める前に、そのスピードを落とすべきだと提言した。
彼女は、「現在私たちが目にしている軍拡競争の動向」と比較した「低速AIの価値」を指摘した。
アフィナ氏はさらにこう付け加えた。「ChatGPT、GPT-4、Bardといった大規模言語モデルの分野で開発が進んでいるのを目にしていますが、私には追いつくことができません。スローAIの価値は、より堅牢で徹底的なテスト、評価、検証、そして妥当性確認のプロセスを可能にし、システム開発に倫理的・法的基準を組み込むことを可能にすることです。」
資金的にも人材的にも、多くのリソースが必要ですが、誰もがそれを持てるわけではありません。こうした設備を利用できる企業はほんの一握りです。
「AIについて考えるとき、私たちは非国家主体について語ります。AI研究を行うことができるあらゆる人々のことを考えています。」
もちろん、誰でもAI研究やコンピューターを使った作業を行うことができます。しかし同時に、高度な技術を実行するには、高い計算能力とハードウェアが必要です。資金的にも人材的にも多くのリソースが必要であり、誰もがそれを利用できるわけではありません。こうした設備を利用できるのは、ほんの一握りの企業だけです。スローAIの価値は、この強力なAI研究を行う力を持つ企業との関係性を再考できる点にあります。
イタリア、日本、英国、2035年までに第6世代戦闘機を共同導入へ
続きを読む
コベントリー主教ジョン・コックスワース氏は疑問を呈した。「(軍の)指揮官は…開発の様々な段階で他の人々が持つような技術的専門知識を必ずしも備えているとは限りません。状況が変化し、兵器も進化する中で、指揮官はどのようにして適切な人的介入を調整できるのでしょうか?兵器の変化に合わせて、それも変化するのでしょうか?」と彼は問いかけた。
ストックホルム国際平和研究所(SIPRI)の人工知能ガバナンス・プログラムのディレクター、ヴィンセント・ブラナン氏は、システムの適応に伴い調整が必要になると証言した。「学習を続け、新たなデータを取り入れ、使用パラメータを再調整するシステムであれば、問題が生じるでしょう。学習が性能に影響を与え、その効果が本質的に無差別なものになっていないことを確認するために、新たな法的審査が必要となるため、この兵器は本質的に違法であると主張する人もいるでしょう。」
はい、でもそれは誰のものですか?
国連軍縮局の政治担当官である証人チャールズ・オヴィンク氏は、自律型兵器システム(公聴会を通してAWSと略されていたことをアマゾンは知る由もないだろう)について、別の点を指摘した。「自律型兵器システムは、国際的な緊張が高まる時期に予測不可能な要素をもたらす可能性がある。原因の特定が難しい行動につながる可能性がある」
オヴィンク氏はさらに、「責任の所在を特定することの難しさは、今日頻繁に問題となり、誤解や意図しない事態の拡大のリスクを生み出しており、これは深刻な懸念事項であることに皆さんも同意していただけると思います」と述べた。
同氏はまた、政府が意思決定を行う時間を短縮するという問題についても言及し、「AI技術は、システムやデータのリアルタイム分析を高速化し、状況認識を向上させることで、意思決定者を支援する可能性を秘めている」と述べた。
しかし、これには独自の懸念があります。意思決定の期間が短縮され、緊張、誤解、そして誤解が増大する可能性があります。特に私の事務所が懸念しているのは、核兵器国間の誤解です。
戦場で機械を使って敵を倒すのは公平なことでしょうか?
SIPRIのブラナン氏はその後、倫理学者が公正な戦いと見なすことができるかどうかという問題を提起した。これは、GDPR(一般データ保護規則)においてデータ主体は自動処理のみに基づく決定の対象とされない権利を有すると規定されている欧州法と類似している。ブラナン氏は公聴会で次のように述べた。「戦場で軍人を識別するために自律型兵器を使用することは道徳的に間違っているという倫理的見解を持つ人々もいますが、これには異論があります。戦闘員の尊厳の権利を侵害することになります。この点は政策議論において非常に議論の的となっています。これは人道的配慮によるものです。」
彼はまた、システムが「十分に信頼できない、あるいは民間人を危険にさらすような形で機能不全に陥るのではないか」という懸念があると付け加えた。「例えば、システムが民間人を合法的な標的と誤認したり、国際人道法で保護されている戦闘外の人々を認識できなかったりする可能性がある」
委員会は、このような技術は追跡が困難になるだけでなく、侵略軍に対するゲリラ戦を展開する勢力の手に渡る可能性もあるという点も考慮すべきだと、彼は付け加えた。「ロボットシステムであるため、犯人特定が困難になると考え、一部の国は武力紛争につながる可能性のある作戦を実行する動機を持つ可能性がある」
ここで指摘しておきたいのは、これはAWS特有の問題ではないということです。基本的にはロボット全般に共通する問題です。
「テロリスト集団や、商業部門の技術を寄せ集めているだけの人間によって開発される可能性のある、こうした低技術の自律型兵器のアイデアは、明らかに検討する必要がある。」
ルディさんへのメッセージ
英国政府は先週、AIに関する政策文書を発表した。同日、数百人のコンピューター科学者、業界関係者、AI専門家らが、GPT-4よりも強力なAIシステムのトレーニングを少なくとも6か月間一時停止するよう求める公開書簡に署名した。
署名者には、Appleの共同創業者スティーブ・ウォズニアック氏、SpaceXのCEOイーロン・マスク氏、IEEEのコンピューティングの先駆者グレイディ・ブーチ氏などが含まれていた。
この書簡には複数の演説者が言及したが、そのほとんどが6ヶ月では不十分だと考えているようだった。資金力のある技術開発企業もこの動きを見逃すことはできなかった。チャタムハウスのアフィナ氏は次のように指摘した。「民間部門に話を戻すと、軍拡競争のダイナミズムがあり、最先端の優位性を得るために技術を革新し、導入したいという衝動が存在します。軍事分野においても、このダイナミズムから逃れられるとは考えていません。例えば、ウクライナでは、パランティアとクリアビューが開発したとされるAIベースの技術が導入されていると報じられています。これらは非常に実験的な技術です。」
- 今日の軍拡競争はAIに関するものであり、それは中国対アメリカであると米国防長官は述べた。
- 歴史的な米国メイフラワー号の航海を記念するIBMのAIボートがついにカナダに着陸
- 船員は不要?米海軍の最新ロボット船は30日間自動航行可能
- レポート:グーグルがペンタゴンのAIドローン計画から撤退した後、マイクロソフトとAWSは5000万ドルの契約を獲得した
国連のオヴィンク氏はさらに、「技術の性質を考慮すると、あくまでも民間向けの能力であっても、近隣諸国からは潜在的な軍事力とみなされる可能性がある。たとえ、ある程度、国内で重要なAI能力の開発に特化しているとしても、影響は出るだろう」と付け加えた。
企業自体、そしてそれらの潜在的な法的責任についても疑問が投げかけられた。「前述の企業の性質上、データがどこで収集されるのか、サーバーはどこにあるのか、といった点において、必ずしも全ての側面が単一の管轄区域内に所在するわけではない」とオヴィンク氏は述べた。
「権限委譲について話すとき、問題は説明責任でもあります。たとえ、これらのことが実証され、ブラックボックス要素がなく、完全に説明可能で、なぜその決定が下されたのか理解できるシステムがあったとしても、人間による説明責任という要素は依然として必要です。私たちが強調したいのはまさにこの点です。」
リッチモンドのホートン卿はこれに疑問を呈し、自身の観点からは「人間、究極的には政治家や大臣が、誰にも理解できないブラックボックスでない限り、特定の状況下でこの特定の自律型機械に、事前に決定されたアルゴリズムなどに基づいて動作するように委任することに満足するという指示を与えたのだから、依然として人間の説明責任は存在する」と主張した。
オヴィンク氏は「その場合、その決定を下した人物がその決定の結果に対して法的責任を負うことになる」と答えた。
アフィナ氏はさらに、「責任は常に人間が負う。それは確かだ。問題は、ある程度の人間による制御が可能なAIを導入することのリスクよりもメリットの方が大きい適切な状況を選択することにある…あるいはそうではない」と述べた。
ここでその一部始終を見ることができます
英国在住で、意見を述べることに関心のあるReg読者は、4 月 14 日までに書面による証拠を提出する必要があります。®
ブートノート:
レジスターは、ライブ配信映像と録画映像の両方からの引用を参照しており、提供されたトランスクリプトと照合しました。メンバーおよび目撃者の皆様には、記録を訂正する機会がまだありますので、その場合は記事を更新いたします。