朗報:AIは2040年までに核戦争を引き起こし、年金危機を解決する可能性がある

Table of Contents

朗報:AIは2040年までに核戦争を引き起こし、年金危機を解決する可能性がある

米国の政策・防衛シンクタンクであるランド研究所が今月発表した報告書によると、AIは2040年までに核戦争を引き起こす可能性があるという。

技術的に簡素な報告書では、機械学習技術が核兵器の標的を追跡・設定する複数のシナリオが提示されている。これは、AIが情報を収集し、軍や政府の指導者に提示し、大量破壊兵器の発射を決定するというシナリオである。

しかし、赤いボタンに指を半分乗せたようなインテリジェントソフトウェアの開発と導入には危険が伴います。他国はこれをエスカレーションと解釈し、最終的には先制攻撃や「終末兵器」を発動させ、完全に破壊される前に攻撃を開始する可能性があります。

コンピュータが脅威を適切に認識し、抑止力としてであっても報復を推奨するようにプログラムされている場合、このテクノロジーが存在するだけで、世界を大惨事に陥れる可能性があります。核保有国はロボットによって最初に壊滅することを望んでいないため、最初にロボットを発射する必要があるからです。

ある意味、AIの技術的飛躍は相互確証破壊に不可欠な均衡、あるいは均衡を破り、全面的な熱核戦争につながる可能性がある。機械が暴走し、壊滅的な攻撃を命令したり推奨したりするのではないかと恐れて、国家は先走ってしまう可能性がある。

さらに悪いことに、軍隊が敵国のAIシステムの能力を過大評価したり、行動を誤解したりすることで、全く不必要な紛争を引き起こす可能性があります。一方、欠陥のあるAIが先走って、人間を何らかの方法で騙し、不必要な攻撃を仕掛ける可能性もあります。冷戦時代の誤報のように、ソフトウェアがミサイルの飛来を誤認してしまう可能性もあります。これは2040年までに起こり得ると警告されています。

「人工知能への依存度が高まると、新たな種類の壊滅的なミスにつながる可能性があると懸念する専門家もいる」と、論文の共著者でランド研究所の準エンジニアであるアンドリュー・ローン氏は述べた。

AIが技術的に成熟する前に利用を迫られる可能性や、敵対的な妨害の影響を受ける可能性もある。そのため、今後数十年にわたり戦略的安定を維持することは極めて困難となる可能性があり、すべての核保有国は核リスクの抑制に役立つ制度の構築に協力する必要がある。

トランプ

終末時計は午前0時150秒前へ。ありがとう、トランプ

続きを読む

冷戦期の類似した状況を考慮すると、AI軍拡競争の可能性は極めて大きいと研究者らは主張した。報告書は、ランド研究所が昨年、核セキュリティの専門家とAI研究者を対象に開催した3つのワークショップに基づいて作成された。

「AIの核戦略への影響は、AIが実際に何ができるかということと同じくらい、敵対国がAIの能力をどう認識しているかに左右される」と論文は述べている。

AIは最終的に、人間が完全に理解・制御できない力を持つ「超知能」へと進化すると考える人もいました。一方で、AIは脅威とみなされるほどの進歩を遂げることはないだろうと懐疑的な見方をする人もいました。

ワークショップに招待された研究者の中には、AIが成熟するにつれて、優秀なエンジニアやデータセットに制限されなくなると述べる者もいる。むしろ、ハードウェアと利用可能な計算能力の量に焦点が絞られるだろう。

この報告書は、AIの現在の能力やそれがAI核兵器開発にどのようにつながるかについては、ほとんど触れていません。言及されている数少ないプロジェクトの一つは、戦略バトルゲーム「スタークラフト」をボットで制覇するという目標です。DeepMind、Facebook、Alibabaはいずれもスタークラフトの研究に携わっています。

研究者たちは、このゲームは「兵站、インフラ、そして詳細に定義することが難しい様々な動きや戦略を含む、軍事的な交戦を反映している」と考えている。スタークラフトは核戦争よりもはるかに扱いやすいことは明らかだと彼らは認めているが、2040年までにAIエージェントが軍事戦争ゲームのシナリオやステージを超人的なレベルでプレイできるようになると想定するのは不合理ではない。

「現時点では、これらのシナリオのうちどれが実現するかを予測することはできないが、これらの課題が深刻化する前に、AIが核セキュリティに及ぼす潜在的な影響について検討を始める必要がある」と報告書は結論付けている。

つまり、2040年はまだずっと先の話で、その頃にコンピューターがどんなことができるようになるかなんて誰にも分からないということですね! ありがとうございます。2040年にまたお会いしましょう。®

Discover More