科学者:AIの達人たちが、自分たちのコードが悪質にならないように努力してくれれば、それは素晴らしいことだ

Table of Contents

科学者:AIの達人たちが、自分たちのコードが悪質にならないように努力してくれれば、それは素晴らしいことだ

AIの専門家たちは、近い将来、インテリジェントソフトウェアが人間に敵対するようになる可能性について概説した長いレポートを発表しました。

彼らの目的は、パニックをあおるのではなく、機械学習技術の悪意ある使用を取り締まるための安全策や政策を発動し、科学者やエンジニアにコードの二重使用、つまりそれが善にも悪にも使用される可能性があることを理解させることだ。

「人工知能の悪用:予測、予防、そして緩和」と題されたこの論文は、火曜日の夜に公開されました。これは、昨年英国オックスフォード大学で開催されたワークショップの続編であり、このワークショップでは、安全やドローンからサイバーセキュリティ、テロ対策に至るまで、機械学習の文脈において様々なテーマが議論されました。

この報告書の26人の著者は、様々な大学、研究機関、オンライン権利運動団体、そしてサイバーセキュリティ企業出身です。報告書では、人工知能ソフトウェアが悪用される可能性のあるシナリオ例が提示されており、研究チームはこれらのシナリオが既に発生している、あるいは今後5年以内に発生する可能性があると考えています。

H-AI-ckers

作業は、デジタル セキュリティ、物理的セキュリティ、政治的セキュリティの 3 つのカテゴリに大別されます。

デジタルセキュリティはサイバー攻撃に焦点を当てています。研究チームは、数千、数百万回の仮想サイバー攻撃演習を繰り返すことで、AI駆動型ハッキングツールは現実世界のネットワークにおいて誰を、あるいは何を標的として攻撃するかを優先順位付けし、検知を回避し、あらゆる脅威に「創造的に対応」できるようになると主張しました。

ツールキットは、基本的に、散弾銃攻撃のような攻撃方法ではなく、ニューラルネットワークを用いて攻撃を最適化することができます。もちろん、ソフトウェアが熟練したハッカーをすぐに失わせるわけではありません。

「自律ソフトウェアは長らくシステムの脆弱性を悪用することができてきたが、より洗練されたAIハッキングツールは、歴史的に可能であったものと比較しても、そして最終的には(しばらくはそうならないかもしれないが)人間と比較しても、はるかに優れたパフォーマンスを発揮する可能性がある」と論文は述べている。

論文で最も現実的な例は、敵対的機械学習です。これは、特別に細工されたデータをAIシステムに入力することで、AIシステムに誤った判断をさせるものです。例えば、胸に歪んだバッジを付けていると、オフィスの顔認識システムはあなたをCEOだと誤認してしまいます。

これはすでにAIの主要な研究テーマとなっており、画像認識モデルが騙された事例もいくつかあります。あちこちに数ピクセルを追加するだけで、カメをライフル、バナナをトースターと誤認させることが可能です。

オフィススペース

まさにステッカーショック:粘着ラベルが画像認識AIをトースターに夢中にさせる

続きを読む

AIが悪用される未来的な例としては、スマートチャットボットや、コンピューターで生成されたスピアフィッシングメールなどが挙げられます。これらは、ユーザーを騙してパスワードなどの機密情報を渡させようとします。例えば、ソフトウェアは、ユーザーに関する基本情報を取得し、説得力のある会話やメッセージを作成し、正規のサービスと話していると思わせるように仕立て上げることができます。

今日の巧妙に巧妙に仕組まれたフィッシングメールやインスタントメッセージは、既にかなり本物らしく見えます。懸念されるのは、このプロセスが自動化され、規模が拡大することで、攻撃がさらに高度なレベルに引き上げられる可能性があることです。しかしながら、現時点では、本物そっくりなチャットボットを作成するのは依然として困難です。

論文の共著者であり、サイバーセキュリティ企業エンドゲームのデータサイエンス担当テクニカルディレクターを務めるハイラム・アンダーソン氏は、ハッキングチームや同様の犯罪者がすでにAIと機械学習に「多額の投資」をしていると考えて間違いないとレジスター紙に語った。

実際、彼は、今後 1 年ほどで AI がサイバー攻撃に利用されるようになると考えています。おそらく、自動化された大量のスピアフィッシングや CAPTCHA コードの回避といった形で利用されるでしょう。

延々と続く

AI が関わる物理的なセキュリティは、もう少し簡単に想像できます。中程度の知能を持つソフトウェアによって制御されるドローンや自律型兵器の大群を想像してみてください。

論文の共著者でOpenAIの戦略コミュニケーションディレクターのジャック・クラーク氏は、The Registerに対し、市販のドローンは将来、「オープンソースの事前トレーニング済みモデルなどの既成ソフトウェア」を使って再プログラムされ、「テロの機械」が作られる可能性があると語った。

誰かの家に荷物を配達するためにクワッドコプターを制御するソフトウェアは、人の頭に爆発物を落とすためにそれほど調整する必要がないことを考えてみてください。

さらに、これらの攻撃は、爆破される前に犠牲者を一瞥することさえなく、遠くから自動的に実行できます。今日の遠隔操作型軍用ドローンでは、パイロットと指揮官が数百マイル、数千マイル離れたブースに快適に座り、砂漠を越えて機体を誘導し、標的に発砲する必要があります。

この技術が完全に自律制御されれば、自律飛行ドローンは地域を巡回し、必要に応じて攻撃を指示できるようになるでしょう。おそらく、誰もその結果をあまり心配する必要もありません。民間ドローンを悪意のある行為や暴力に転用する人々も同様です。目につかず、ほとんど意識されることもありません。

Command & Conquer コンピュータ ゲームのように、ポイントしてクリックします。

政治

3つ目の分野である政治安全保障は、すでに大きな注目を集めています。機械学習ソフトウェアが著名人の顔をアダルトシーンに合成し、偽のポルノ動画を作成するディープフェイクの台頭は、本物そっくりのコンピューター生成フェイクニュースへの懸念を引き起こしています。

選挙運動中に政治家がわいせつな行為や違法行為を行っている動画をAIで加工して共有されたらどうなるでしょうか?その動画が電子的に加工されたことを証明するのはどれほど難しいでしょうか?

ディープフェイクの背後にある技術や、バラク・オバマ氏に一度も言ったことのないことを言わせるために口や音声サンプルを操作する別のシステムは、まだそれほど説得力があるわけではない。

その一方で、監視能力が増すにつれ、悪質な政権が国民のビデオ録画、写真、音声クリップを収集し、その映像や音声を操作して国民を中傷したり、有罪にしたりすることが容易になります。

意味合い

論文の共著者であり、オックスフォード大学人類の未来研究所の研究員であるマイルズ・ブランデージ氏は、エル・レグ紙に対し、技術者や科学者はAIシステムが二重用途であることを単に認めるだけでは不十分であり、次にどのような措置を講じるべきかが重要な問題であると語った。

「どのような研究がセキュリティ上の影響を持つのかを一概に言うのは難しいですが、場合によってはかなり明確なものもあります」と彼は述べた。「例えば、AIシステムを偽装するために特別に設計された敵対的サンプルなどです。セキュリティ上の影響があることがわかっていても、その情報をどう扱うべきかは必ずしも明確ではありません。」

つまり、この疑問は今のところ未解決のままです。そのため、報告書の著者らが提示した提言は、やや曖昧で、結論が出ていません。彼らは、政策立案者と技術研究者のより緊密な連携、そして研究者が自らの研究にセキュリティリスクがないかより綿密に精査することを求めています。

この研究の推奨事項の概要は次のとおりです。

研究者にとって、特にセキュリティの専門家でない場合は、自身の研究成果の二重利用について考えるのは難しい場合があります。しかし、エンドゲームのアンダーソン氏によると、盲点を探す際に考慮すべきいくつかの簡単なポイントがあります。

訓練データについては慎重に考える必要があると彼は述べた。「データはどこから来ているのか?その情報源は信頼できるのか?」

AIプログラマーは不足しており、カスタムモデルを構築する専門家に業務をアウトソーシングすることが容易になっています。アンダーソン氏は、開発中にバックドアが埋め込まれる可能性を考慮することを推奨し、コンピュータービジョンアプリケーションをスキャンして敵対的サンプルに対する潜在的な脆弱性を検出することができるPythonライブラリであるCleverHansなどのツールを紹介しました。

「機械学習の脆弱性を特定するのにセキュリティの専門家である必要はない」と彼は語った。

結論

基本的に、息苦しい規制や法律は誰も望んでいません。しかし、どこかで線を引かなければなりません。一体どこに線を引くべきなのでしょうか?議論はまだ始まったばかりです。

クラーク氏は、政策立案者は「AIについて多少は懸念しているものの、その進歩の速度を概ね認識していないわけではない」と分析した。彼は、科学者、エンジニア、議員への助言者、その他の専門家が懸念を表明できるワークショップを、より多くの人々が主催するようになることを期待している。

「これはこの問題に関する対話の始まりであり、終わりではない」とブランデージ氏は付け加えた。®

Discover More