アメリカの連邦取引委員会は、生成AIツールを使って人々を詐欺する企業だけでなく、たとえ詐欺を目的として作成されたものでなくても、そもそもソフトウェアを作成した企業も取り締まる可能性があると警告した。
先月、監視機関は「AI」製品の能力を誇大宣伝する開発者や詐欺師を厳しく非難した。今度は、生成型機械学習ツールを使って被害者を騙し、金銭などを支払わせようとする者や、そもそもコードを作成した者たちを厳しく非難している。
商用ソフトウェアやクラウドサービス、そしてオープンソースツールを使えば、偽の画像、テキスト、動画、音声を大量生産することが可能で、これは得点を不正に操作するのに最適です。有名人による偽の推薦を謳った、説得力のある商品広告など、こうした行為はFTC(連邦取引委員会)の監視対象となっています。
「詐欺師がこれらのツールを使って、本物らしくない偽のコンテンツを迅速かつ安価に作成し、大規模なグループに配布したり、特定のコミュニティや特定の個人をターゲットにしたりできるという証拠はすでに存在している」とFTCの広告実務部門の弁護士マイケル・アトルソン氏は今週のメモに記した。
「欺瞞行為や不正行為に関するFTC法の禁止は、欺瞞を効果的に目的として設計されたツールを製造、販売、または使用する場合、それが本来の目的または唯一の目的でなくても適用される可能性があります。」
誤解のないように言っておくと、ここには新たな規則や規制は適用されていない。少なくとも米国では、今日のハイテク流行は依然として消費者保護法の対象となることを FTC がいつものように人々に思い出させているだけだ。
- マイクロソフトはAI倫理チームを解散させる絶好のタイミングを選んだ
- スタンフォード大学、安全性とコストを優先し「幻覚」を起こすアルパカAIモデルを牧場へ送る
- 研究によると、AIアシスタントは開発者がバグの多いコードを作成するのを助けていることが判明
- 2023年は、ならず者国家がでっち上げた、爆発的な偽情報のディープフェイクの年になるのでしょうか?
アトルソン氏は、FTC が問題視するであろう以下のシナリオを強調した。
生成AIの実現:法律の専門家は、人々を騙すほどリアルなコンテンツを作成できる機械学習モデルの必要性について疑問を呈した。「合成メディアや生成AI製品を開発または提供する場合、設計段階だけでなくその後も、詐欺やその他の危害をもたらす可能性のある、合理的に予測可能な、そして多くの場合明白な方法を考慮する必要があります」と同氏は指摘した。「そして、そのようなリスクが、そもそも製品を提供すべきでないほど高いかどうかを自問自答してください。」
OpenAIのリスク研究を読みました。GPT-4は毒性がありません…十分な量の漂白剤を加えれば
参照
アトルソン氏はまた、開発者に対し、生成AIモデルのリリース前に、ソフトウェアが被害者を騙すために利用されるリスクを大幅に削減するために、あらゆる可能な措置を講じるよう強く求めた。また、こうした検出機能は巧妙な犯罪者によって回避・克服される可能性があるため、AIの悪用を検出するために検出エンジンに頼るべきではないと警告した。
「そもそも、生成AIツールが詐欺に使われているかどうかを見極める責任は消費者にあるべきではない」と同氏は付け加えた。
最後に彼は、AI モデルを使用して人々を騙すのはやはり詐欺であると皆に思い出させた。
私たちにとって、結局のところ、新しいモデルを使って法律を破ることは、やはり法律を破ることです。そして、この種の犯罪を助長するツールを作ったからといって、起訴を免れるなどとは思わないでください。®
関係ない話だが... Firefox の開発元 Mozilla は今週、3,000 万ドルの資金を調達し、「信頼できる、独立した、オープンソースの AI エコシステム」の構築を目指すスタートアップ企業 Mozilla.ai を発表した。