汎用人工知能が存在する前にそれを禁止しようとする抗議者たちに会う

Table of Contents

汎用人工知能が存在する前にそれを禁止しようとする抗議者たちに会う

特集土曜日、サンフランシスコのシルバーストーンカフェに少数の活動家が集まり、人工知能のさらなる進歩を阻止する計画について話し合った。

彼らの非暴力市民抵抗グループの名前「STOP AI」はその使命を明確に示しています。

この組織は、ほと​​んどの見方ではまだ存在しないものを禁止したいと考えている。それは、OpenAIが「経済的に最も価値のある仕事で人間を上回る能力を発揮する高度に自律的なシステム」と定義する汎用人工知能(AGI)だ。

STOP AIはウェブサイトでより広範な目標を概説しています。例えば、「私たちは、政府に対し、AI企業に対し、汎用AIモデルの作成に関連するあらゆる活動を停止させ、既存の汎用AIモデルを破壊し、その開発を永久に禁止するよう強制することを求めます。」

「STOP AIはすべてのAIを禁止したいのか?」という質問に対するグループの答えは、「必ずしもそうではありません。人類の生存を維持するために必要なものだけです。」です。

抗議、内部告発、そして監視下での死

私たちの主な要求は、汎用人工知能(AGI)の開発を永久に禁止することです。

バラジさんの死は当初自殺と判断されましたが、当時は裏付けとなる資料は公開されていませんでした。決定的な証拠がない中、ソーシャルメディア上で憶測が飛び交いました。12月、両親は私立探偵を雇い、2度目の検死を依頼したと発表しましたが、結果は警察の調査結果と一致しませんでした。

金曜日、サンフランシスコ郡検視官の報告書はバラジ氏が犯罪行為ではなく自殺で死亡したことを確認した。

バラジさんの母親、プーニマ・ラオさんは依然として納得していない。日曜日のソーシャルメディアへの投稿で、彼女はこう述べた。「先週金曜日に検死報告書を受け取りました。私たち弁護士もその決定に納得できません。彼らの決定には多くの矛盾があります。報告書の根拠となる前提は、事実関係を裏付けるものではありません。私たちは捜査を続けています。アパートで見つかった毛髪は検査に送りました。私たちは正義のために闘っているのです。決して後退ではありません。」

サム・キルヒナー(左)とグイド・ライヒシュタッター(右)の写真

STOP AIのサム・キルヒナー氏(左)とグイド・ライヒシュタッター氏(シルバーストーン・カフェにて)

STOP AIはこれまでにもOpenAIのオフィス前などで抗議活動を行ってきた。共同創設者のサム・キルヒナー氏とグイド・ライヒシュタッター氏は、昨年10月に団体の入り口を封鎖したことで、市民的不服従の罪で逮捕された。サンフランシスコでの裁判は2025年2月18日(火)に開始され、The Register紙の報道によると、被告側は審理を延期するために審理の延期を求める意向だという。

終末への恐怖

「…我々は汎用人工知能(AGI)の開発を永久に禁止しようとしている」とキルヒナー氏はThe Register紙のインタビューで語った。「大まかに言えば、AGIとはあらゆる技術分野において、あらゆる人間の専門家よりも優れた能力を持つシステムのことだ。」

AIの第一人者ジェフリー・ヒントン氏は、今後20年以内にAIが人間の知能を超える可能性は約50%だと見積もっているが、キルヒナー氏は他のAI反対派と同様に、人類が制御を失う可能性を懸念している。

「AI分野の専門家は、そのシステム、つまり超知能システムを人間が制御できるという証拠はなく、将来のある時点で、人間が意図せずして多くの知能の低い種を絶滅させているのと同じように、そのシステムが意図せずして人間の絶滅につながるようなことを欲しがることはないだろうと言っている」とキルヒナー氏は語った。

これはターミネーター映画のスカイネットのシナリオですが、機械の悪意というよりはむしろ事故です。

あるいは、イーロン・マスクが 2014 年に言ったように、それは悪魔を「召喚」することです...

それはマスク氏がOpenAI(2015年)とxAI(2023年)の設立に携わり、トランプ大統領の政府効率化局(DOGE)の局長として、政権がバイデン政権時代のAI安全規則を廃止する一方で連邦政府の縮小を推進する前のことだった。

キルヒナー氏は機械工学と電気工学のバックグラウンドを持ち、ライヒシュタッター氏は20年間宝石職人として働き、物理学と数学の学士号を取得していると述べた。他のグループメンバーも技術的なバックグラウンドを持っている。フィン・ファン・デル・ヴェルデ氏はコンピュータサイエンス、特にAIの学士号を取得しており、LinkedInのプロフィールにあるように「AIの安全性に関する研究を行うため」にラドバウド大学のAI修士課程を中退した。デレク・アレン氏はプログラミングも行っている。また、キルヒナー氏によると、デニス氏というパートタイムのグループメンバーが現在AIの修士号取得を目指しているという。

私たちが主に抗議しているのはOpenAIです。彼らのウェブサイトに掲げられている使命は、汎用人工知能の構築です。

AIに反対する動機を問われると、キルヒナー氏はこう答えた。「私たちが主に抗議活動を行っているのはOpenAIです。彼らのウェブサイトには、汎用人工知能の構築を使命として掲げています。そして、AGIとは、ほとんどの人間よりも一般的に知能が高く、経済的にも生産性の高いシステムであると定義しています。」

「本当にすべての人類のことです。でも、たとえ超知能やAGI(汎用人工知能)が作られ、それが私たちの代わりに何でもやってくれて、誰も仕事をしなくて済む代わりに、その超知能の成果から誰もが最低限の収入を得て、24時間365日パーティーをして働かなくて済むようになったとしても、個人的には少し気が滅入ると思います。

「すべてが私たちのために行われてしまうと、人生に意味がなくなってしまうという問題があると思います。」

AI超知能が人類を絶滅させるというヒントン氏の懸念に触れ、キルヒナー氏は「これは根本的に許されない行為だ。我々は全員が死ぬか刑務所に入るまで抗議を続けるつもりだ。家族の命が心配だ」と述べた。

AI、一つ一つの抗議活動

キルチネル氏は、全体的な目標として、米国人口の3.5%の支持を集めることを目指していると述べた。これはある推定によれば、変化の転換点となる。

「大まかな目標は、米国人口の3.5%をAI反対の平和的な抗議活動に参加させることです」と彼は述べた。「1100万人という数字は、かなり大きな数字に思えます。」

キルチネル氏は、政治学者エリカ・チェノウェス氏によれば、国民からのそのレベルの支持があれば、専制的な政府を打倒したり、政治的要求を達成したりできると説明した。

「もし企業が人々の命を脅かすものを作るのを阻止するためにそれが必要だとしたら、我々はそうするつもりだ」と彼は語った。

「2024年現在、世界には、私たちが話しているような方法、つまり道路を封鎖したり企業事務所をバリケードで封鎖したりといった非暴力の市民抵抗運動を行っているグループが存在する。英国の『ジャスト・ストップ・オイル』のようなグループだ」とキルヒナー氏は語った。

「2024年、彼らは最初の政治的要求を達成することに成功しました。それは、英国政府が英国の石油会社に新たな石油・天然ガス採掘ライセンスを発行しないことを求めるというものでした。しかも、抗議活動に参加した英国人口は1%にも満たない数にとどまり、彼らはそれを達成したのです。」

「つまり、私たちの目標は、Just Stop Oilのようなグループの戦略を採用し、それをAIへの抗議に適用することです。」

キルヒナー氏は、OpenAIは同グループとの関わりをほとんど避けてきたが、OpenAIが構築しようとしているものについて懸念を共有した同社の安全チームのメンバーは、グループのメンバーと礼儀正しく議論したと述べた。

「我々はOpenAIやあらゆるAI企業の人々とオープンに話し合うように努めている。なぜなら、これらの企業は人間で構成されており、彼らには子供がおり、自分たちが作っているものが愛する人々の命を危険にさらす可能性があることを理解しているからだ」と同氏は説明した。

キルヒナー氏は、ソーシャルメディアでの議論中に相手がボットだと気づいた以外、AIによる個人的な影響はないと述べた。しかし、AIのせいで職を失ったグラフィックデザイナーがいることは知っているという。

AIの拡大する戦いを止めよう

STOP AIには現在、フルタイムのメンバーが4人おり、サンフランシスコ湾岸地域でパートタイムで手伝ってくれるボランティアが約15人いる。

汎用人工知能の影響は非常に大きく危険であるため、私たちはそのようなことが決して起こってほしくないのです。

「路上で出会った人たちの中には、『ああ、あの企業はターミネーターを作ろうとしている。ヤバい』と言う人もいました。中には失業を心配する人もいます」とキルヒナー氏は述べた。「ですから、私たちは存在の脅威や絶滅の脅威だけに焦点を当てているわけではありません。AIに関するあらゆる問題に対処しようとしており、失業であれ、民主主義の喪失であれ、人類の絶滅であれ、懸念を抱いている人は誰でも歓迎します。」

週末のシルバーストーンカフェのミーティングで、フィン・ファン・デル・ベルデ氏は、AGI を開発する企業は存在すべきではないと主張した。

「汎用人工知能の影響は甚大で危険なので、私たちは決してそのような事態が起きてほしくありません」とファン・デル・ベルデ氏は述べた。「つまり、実際には、各国政府がAGIを開発しないことに合意する国際条約が必要になるでしょう。」

「つまり、AGIの構築を具体的に目標とするOpenAIのような企業を解散させるということです。」

隣接する目標は、誰も AGI モデルをトレーニングできないように計算能力を規制することです。

  • Grok 3が「ベータ版」リリースでAI戦争に参入
  • プライバシーの懸念からDeepSeekが韓国のアプリストアから消える
  • 英国のAIに関する新たな考え方:深刻な問題を引き起こさない限り、AI導入は可能
  • AIがホバーボード訴訟で捏造した事例を引用し、弁護士らは裁判官の怒りに直面

グイド・ライヒシュタッター氏は、これらのシステムが監査され理解できるような形で構築されていないことが問題だと述べた。

AIに対する法的責任が重要かどうか問われると、ライヒシュタッター氏は「法的責任は必要だが、それだけでは十分ではない。なぜなら、熟考の領域にあるような危害は、実存的なレベルでは壊滅的だからだ。実存的な損害から回復する方法はない」と述べた。

「したがって、責任は必要ですが、非常に強力なシステム、特に完全に一般的な認知作業を実行できるシステムの開発を禁止する必要があります。」

グループのメンバーは、大量破壊兵器や有毒化学物質を除けば、あまりにも危険すぎるという理由で禁止されている技術や物質は比較的少ないことを認識している。

キルヒナー氏はクロロフルオロカーボン(CFC)を例に挙げたが、AGIの禁止は困難な戦いになるだろうと認めた。

「非常に強力な勢力が我々に敵対しているのが分かっている中で、非常に高度な禁止措置を実施するのは、非常に難しい問題です」と彼は述べた。「しかし、人類の絶滅を防ぐためにそれが必要なのであれば、たとえ成功しなくても、我々は戦い続け、その目標を達成しようと努力するでしょう。」®

Discover More