まとめこれまでに取り上げた内容に加えて、今週の AI ニュースをまとめます。
自律型兵器をめぐる倫理的な議論、無料のオンライン AI コース、そしてロシアのドローンの衝撃的なビデオに備えてください。
殺人ロボットを止めろ!
国際的に著名なAI研究者の大規模グループが、自律型兵器の開発に取り組む韓国のトップ大学との協力をボイコットすると警告する公開書簡に署名した。
この書簡は、国連が来週の会合で殺人ロボットについて議論する予定の直前に出された。この書簡はサウスウェールズ大学のAI教授トビー・ウォルシュ氏が主導し、ジェフリー・ヒントン氏、ヨシュア・ベンジオ氏、スチュアート・ラッセル氏、ズービン・ガフラマニ氏、ユルゲン・シュミットフーバー氏など50名以上の名前が挙げられている。
この報告書は、韓国の科学と工学を専門とするトップクラスの大学であるKAISTが、韓国の大手兵器企業であるハンファシステムと提携して軍事目的のAIを開発していると非難している。
「国連が自律型兵器による国際安全保障への脅威をいかに封じ込めるかを議論しているときに、KAISTのような権威ある機関がそのような兵器の開発競争を加速させようとしていることは残念だ。」
「したがって、我々はKAIST学長が、センターが意味のある人間による制御を欠いた自律型兵器を開発しないという保証(我々はこれを求めてきたが、得られていない)を与えるまで、KAISTのいかなる部分とも一切の協力をボイコットすることを公に宣言する。例えば、我々はKAISTを訪問したり、KAISTからの訪問者を受け入れたり、KAISTが関与するいかなる研究プロジェクトにも貢献したりしない」と書簡には記されている。
同報告書は、自律型兵器により独裁者やテロリストが倫理的な制約なしに罪のない人々に対して兵器を使用できるようになると警告した。
自律型兵器が開発されれば、戦争における第三の革命となるでしょう。…このパンドラの箱は一度開けてしまうと、閉めるのが難しいでしょう。過去に禁止された盲目化レーザーなどの技術と同様に、開発を中止するという決断さえ下せば済むのです。KAISTには、この道を歩み、人命を害するのではなく、より良いものにするためのAIの活用に取り組むよう強く求めます。
KAISTとハンファシステムズは2月に国防と人工知能の融合研究センターを開設したと報じられている。しかし、KAISTのシン・ソンチョル学長は声明の中で、殺人ロボットの開発計画を否定し、ボイコットのリスクを「残念に思う」と述べた。
Google従業員がCEOにプロジェクト・メイブンからの離脱を命令
ここに、Googleの従業員数千人が署名した新たな書簡があります。この書簡は、サンダー・ピチャイCEOに対し、ドローン映像をAIで分析するプロジェクト「Project Maven」における国防総省との協力を中止するよう求めています。
この書簡はニューヨーク・タイムズが最初に報じたもので、グーグルに対し「プロジェクトを直ちに中止する」ことと、「グーグルとその請負業者が決して戦争技術を開発しないという明確な方針を起草、公表、施行する」ことを求めている。
宇宙に生命体は存在するのか? AIに頼ろう、今日の問題解決者
続きを読む
先月、Google が国防総省を支援し、同社のコンピューター ビジョン TensorFlow API の 1 つを使用して、ドローンで撮影されたビデオ内のオブジェクトの追跡と識別を支援していると報じられました。
Googleがどの程度関与しているかはまだ不明です。しかし、2つの点が浮き彫りになっています。1) 米軍は戦争においてAIと機械学習をますます活用している。2) 米軍は独自にこの技術を開発するのがあまり得意ではない。
この件はGoogle社員の間で倫理的な議論を巻き起こした。「Googleは戦争ビジネスに関与すべきではないと考えています。したがって、Project Mavenを中止し、Googleとその請負業者が戦争技術を開発することは決してないという明確な方針を策定、公表し、施行するようGoogleに要請します」と書簡には記されている。
また、プロジェクト・メイヴンの継続はグーグルのブランドと人材獲得の競争力を著しく損なうことになる、またその技術の道徳的責任を国防総省のような第三者にアウトソーシングすることはできない、とも警告している。
赤十字国際委員会のAI倫理報告書
El Regでは、常に楽しい雰囲気を大切にしています。そこで、AIがどのように人々を殺害するために利用される可能性があるのか、改めて改めて思い起こさせてくれる記事をお届けします。赤十字国際委員会は、昨年の国連会議に基づき、自律型兵器の倫理に関する報告書を発表しました。
報告書の主なメッセージは、最終的には人間が兵器システムの制御を維持しなければならないということ、そして各国は将来の兵器がどの程度自律的であるかの限界を明らかにする必要があるということだ。
この技術によって無人機攻撃などの兵器の精度が向上するため、罪のない民間人の犠牲者を減らすことができると主張する声もある。しかし、ICRCは「殺害、負傷、破壊の決定を機械に委ねるべきではないという見解を持つ人は多い」と主張する。
倫理的および法的配慮から、人間が介入して兵器を無効化する能力が必須となる可能性があります。また、兵器が使用される可能性のあるシナリオの種類、標的の種類、そして作業環境についても検討する必要があります。
この報告書では、ディープラーニングのブラックボックス的な性質についても議論されており、こうしたタイプのアルゴリズムに基づく自律システムは「本質的に予測不可能」であると警告している。
ICRCの広報担当者はThe Registerに対し、「特に機動性、適応性、および/または複数システム(群れとして)の相互作用が増加した場合、自律型兵器システムの予測可能性がますます低下する可能性がある」と語った。
自律型兵器の使用結果に関する予測可能性の喪失は、深刻な法的および倫理的懸念を引き起こすでしょう。したがって、ICRCは、各国政府が兵器システムの自律性に関する国際的に合意された制限を確立するために早急に取り組む必要があると考えています。
無料のAIコース
Microsoft は AI に興味のあるソフトウェア エンジニア向けにオンライン コースをリリースしました。
10コースで構成されており、PythonによるAI入門、統計と数学、倫理的配慮、機械学習、ディープラーニング、強化学習などが含まれます。コースの受講順序は自由で、修了には8~16時間かかりますので、ある程度の学習意欲が必要です。
また、「最終プロジェクト」もあり、Microsoft が最後の 1 つの問題を提示して取り組み、成績と証明書が与えられます。
プログラムは 1 月~ 3 月、4 月~ 6 月、7 月~ 9 月、10 月~ 12 月の 3 か月間実行されます。
こちらから登録できます。
ミュージカルAIチェア
Google本社で人事異動がありました。検索とAI部門を率いていたエンジニアリング担当シニアバイスプレジデントのジョン・ジャンナンドレア氏がAppleに移籍しました。
Google Brainを率いるジェフ・ディーン氏が、同社のAI部門の責任者に就任しました。検索エンジニアリング担当バイスプレジデントのベン・ゴメス氏が、検索部門の責任者に就任します。
よくやった!
ロシア初の郵便ドローンの初配達は期待外れだった。
動画には、郵便局の外の床に敷かれたマットから6本腕のドローンが飛び立つ様子が映っている。ドローンが離陸すると、人々が周囲に集まり、首を伸ばしてドローンの軌道を追っている。
かなり高くまで上昇し、高速で飛行しているように見えますが、レンガの壁に衝突します。
ロシア初の郵便ドローンが初飛行したが、壁に激突した。@ReutersTVより:https://t.co/4WEQdacXFY pic.twitter.com/StcBC1DKJ1
— ロイタートップニュース (@Reuters) 2018年4月3日
次回はもっと幸運を祈ります。®