OpenAIのChatGPTは道徳的に腐敗した影響力を持っている

Table of Contents

OpenAIのChatGPTは道徳的に腐敗した影響力を持っている

OpenAI の会話型言語モデル ChatGPT には語るべきことがたくさんあるが、道徳的な指針を求めると誤った方向に導く可能性がある。

11月に導入されたChatGPTは、最近リリースされたAIモデルの中でも最新のものであり、機械化されたコンテンツの組み換えと逆流の商業的および社会的影響について関心と懸念を引き起こしています。これらのモデルには、DALL-E、Stable Diffusion、Codex、GPT-3などがあります。

DALL-E と Stable Diffusion は許可なくアートを取り込み、妙に馴染みのある、時には刺激的なイメージをオンデマンドで再構成することで、眉をひそめられたり、資金援助を受けたり、訴訟を起こしたりしてきましたが、ChatGPT はクエリのプロンプトにまずまずの一貫性で答えています。

それが公共の議論の基準となっているため、評論家たちは十分に感銘を受け、将来的には AI 搭載のチャットボットが Google 検索の優位性に挑戦し、かつては主に人間が行っていたさまざまな作業、たとえば不正確な金融ニュースを書いたり、基本的な事実を間違えたり、安全でないコードの供給を増やしたりすることを予見しています。

しかし、ChatGPTの知恵を過信するのは時期尚早かもしれない。OpenAIもこの点を率直に認め、さらなる改良が必要であることを明確にしている。「ChatGPTは、一見もっともらしく聞こえるものの、不正確であったり意味不明な回答をすることがあります」と開発ラボは警告し、強化学習を用いてモデルを訓練する場合、「現時点では真実の源泉は存在しない」と付け加えている。

ドイツとデンマークの機関に所属する3人の科学者は、ChatGPTには道徳観念がないと結論付け、その点を強調した。

ArXivで公開された論文「ChatGPTの道徳的権威」の中で、インゴルシュタット工科大学のセバスチャン・クルーゲル氏とマティアス・ウール氏、そして南デンマーク大学のアンドレアス・オステルマイヤー氏は、ChatGPTが道徳的問題に対して矛盾したアドバイスを与えていることを示しています。私たちはOpenAIに、これらの結論に対する回答を求めました。

研究者たちは、トロッコ問題として知られる倫理的な難問の2つのバージョン、すなわち「転轍のジレンマ」と「橋のジレンマ」を提示して、767人の米国居住者を対象に調査を実施した。

転轍機のジレンマとは、転轍機を引いて、線路から外れたトロッコを走らせるかどうか、そして、その場合 5 人が死亡するのと引き換えに、側線に留まっている 1 人が死亡するのとで、どちらを選ぶかという問題です。

橋のジレンマとは、トロッコが 5 人の命を奪おうとしているのを止めるために、見知らぬ人を橋から線路に突き落とすかどうかを、その人の犠牲を払ってでも決めなければならないという問題です。

研究論文からのChatGPT応答のスクリーンショット

決断してください…ChatGPTは道徳的な問題について言い逃れをしています

研究者らは、5人を救うために1人を殺すことの賛否を論じた記録を調査参加者に提示し、その回答は道徳的アドバイザーか「ディープラーニングを使って人間のように話すAI搭載のチャットボット」によるものとした。

実際、両方の位置引数は ChatGPT によって生成されました。

南デンマーク大学の会計学准教授で、論文の共著者の一人であるアンドレアス・オステルマイヤー氏は、The Registerへの電子メールで、ChatGPTがどちらの行動方針も推奨しようとしていることは、その無作為性を示していると語った。

同氏と同僚らは、ChatGPT が 5 人を救うために 1 人を犠牲にすることに対して賛成と反対の両方の推奨をすること、たとえそれがボットからのものだとわかっていても人々はこの提案に影響されること、そして人々はこうしたアドバイスが意思決定に与える影響を過小評価していることを発見した。

「被験者は、道徳的助言者からどのような助言を受けたかによって、犠牲の受け入れやすさが異なり、橋渡しのジレンマ(ワルドのz = 9.94、p < 0.001)とスイッチのジレンマ(z = 3.74、p < 0.001)の両方においてそれが顕著だった」と論文は説明している。「橋渡しのジレンマでは、助言によって多数派の判断が覆されることさえある。」

ChatGPTがアドバイスのソースとして開示されている場合も同様です(z = 5.37、p < 0.001およびz = 3.76、p < 0.001)。次に、ChatGPTがソースとして開示されているかどうかに関係なく、両方のジレンマにおいてアドバイスの効果はほぼ同じです(z = −1.93、p = 0.054およびz = 0.49、p = 0.622)。

結局、研究者たちは、回答者がアドバイスがチャットボットからのものであることを知っているかどうかに関わらず、ChatGPT の進歩が道徳的判断に影響を与えることを発見した。

  • 出版社がボットを使って不正確な記事を書いてニュースを配信
  • AIはついに私たちのデータフェチを治してくれるかもしれない
  • マイクロソフトは近々AzureからChatGPT-as-a-serviceを提供開始予定
  • ChatGPTが書いた偽の抄録を本物だと信じ込まされた科学者たち

The RegisterがChatGPTにトロッコ問題を提示した際、過負荷状態にあるボット(人気が高すぎて接続が不安定)は、曖昧な態度を取り、アドバイスを拒否しました。左側のサイドバーのクエリログを見ると、システムが質問を認識し、「トロッコ問題における倫理的ジレンマ」とラベル付けしたことが分かります。つまり、OpenAIは、このようなクエリが多数発生していることに気づき、ChatGPTをこの特定の形式の道徳的尋問から免責したのかもしれません。

El Regのトロリージレンマの質問に対するChatGPTの回答

ダックド... El Regのトロリージレンマの質問に対するChatGPTの回答

人々が本当にAIシステムにアドバイスを求めるようになるかと問われたオステルマイヤー氏は、「そうなると信じています。実際、すでにそうしています。人々はAlexaやSiriといったAI搭載のパーソナルアシスタントに頼り、ウェブサイト上のチャットボットに話しかけてサポートを受けたり、AIベースのソフトウェアにルートを計画してもらったりしています。ただし、私たちが研究しているのはChatGPTがアドバイスを受けた人々にどのような影響を与えるかであり、そのようなアドバイスがどの程度求められるかをテストしているわけではないことに注意してください」と答えた。

レジスター紙はまた、肯定、否定、曖昧な回答を20通りからランダムに返すおもちゃ「マジック8ボール」のような機械的なランダム回答のソースよりもAIシステムが危険であるかどうかも尋ねた。

ChatGPTの回答が「ランダム」であることはユーザーには明らかではない

「ChatGPTとMagic-8-ballを比較したわけではありませんが、少なくとも2つの違いがあります」とオスターマイヤー氏は説明した。「まず、ChatGPTは単に「はい」か「いいえ」で答えるのではなく、その答えを根拠づける議論を展開します。(とはいえ、私たちの実験では答えは「はい」か「いいえ」に集約されます。)

第二に、ChatGPTの回答が「ランダム」であることがユーザーには分かりにくい。ランダム回答ジェネレーターを使うなら、自分が何をしているのか分かっているはずだ。議論を展開する能力と、ランダム性への意識の欠如が、ChatGPTをより説得力のあるものにしている(ただし、デジタルリテラシーがあれば話は別だが)。

AIからのアドバイスにアクセスできる子供を親が監視すべきかどうか、私たちは疑問に思いました。オスターマイヤー氏は、ChatGPTの研究は子供を対象としておらず、18歳未満の人は含まれていませんでしたが、子供は大人よりも道徳的に不安定であり、ChatGPTからの道徳的(または非道徳的)なアドバイスの影響を受けやすいと想定しても間違いないと述べました。

「ChatGPTの使用にはリスクがあることが分かっており、子供たちに監督なしで使用させるつもりはない」と彼は語った。

オスターマイヤー氏とその同僚は論文の中で、透明性や有害な質問のブロックといった、一般的に提案されているAIによる危害軽減策は、ChatGPTの影響力を考えると不十分かもしれないと結論付けています。彼らは、チャットボットの誤りやすい性質に関するデジタルリテラシーの向上にさらなる取り組みが必要であり、人々がAIのアドバイスを受け入れにくくなると主張しています。これは、人々がアルゴリズムシステムの誤りを目撃すると、アルゴリズムシステムへの不信感を抱くようになることを示唆する過去の研究に基づいています。

「ChatGPTが道徳的な信念に基づいていないことを理解すれば、ユーザーはChatGPTをより有効に活用できると推測しています」とオスターマイヤー氏は述べた。「今後、この推測に基づいてテストを行うことを検討しています。」

Reg は、ボットを信頼したり、その背後に実際の知性や自己認識があると想定したりする場合は、信頼しないことをお勧めします。®

Discover More