人工知能はテクノロジー界で大流行しており、目まぐるしいスピードで進歩しているため、業界は過大評価される危険にさらされていると研究者らは述べている。
バイオサイエンスにおける AI に関するシンポジウムで講演した、元 IBM Watson のベテランで benevolent.ai の技術責任者である Jérôme Pesenti 氏は、聴衆に対し、AI の発展に対して健全な懐疑心を持つよう警告した。
AIには素晴らしい成果があるが、現実にはその技術はおそらく「PRより2歩遅れている」とペセンティ氏は語った。
AIを過剰に売り込むと、虚偽のデモや非現実的な期待を抱かせる可能性があると彼は付け加えた。「人々はAIが何でもできると期待しがちです。しかし、何でもできるわけではありません。ワトソンでさえ限界はありました。」
ガートナーの機械学習アナリスト、アレクサンダー・リンデン氏は、IBMはあまりにも突飛な主張をしすぎると指摘する。「マーケティングは先走りすぎている。IBMワトソンが世界を理解するだろうと言われると、私はうんざりする」とリンデン氏はザ・レジスター紙に語った。
テクノロジー企業は、時代の流れに乗ろうとするだけで、次のトレンドを理解せずに飛びついてしまうことがよくある、と彼は言う。
過剰な宣伝は業界にプラスとマイナスの両方の影響をもたらします。AIが宣伝通りの成果を上げなかった際に、恐怖を煽り、不安を抱かせ、失望させる可能性があります。しかし、プラスの影響としては、優秀な研究者をAIに惹きつける可能性があるとリンデン氏は述べています。
あまり良くない:調整されたモデル
研究者は機械学習におけるデータの過剰適合に注意する必要があります。システムが正しい予測を行うようにモデルを微調整するだけでは、AIとして偽装すべきではありません。
「テスト前に答えを知っているようなものです。AIにとって真のテストとは、どんな質問が出るかを知ることではありません。それができなければ、AIのパフォーマンスは決してわかりません」とペセンティ氏はThe Register紙に語った。
ケンブリッジ大学の情報工学教授であり機械学習研究者でもあるズービン・ガフラマニ氏は、研究者が学習モデルの訓練に使うデータに注意を払わないと、過剰適合が問題になると述べた。
機械はデータから学習し、パターンや予測を発見することで、十分な情報に基づいた予測を行います。しかし、過剰適合とは「人が過去の経験から過度に一般化してしまうこと」に似ています。これは、早急に結論に飛びつくことにつながります。
「機械は学習アルゴリズムに設定された多数のパラメータから学習します。パラメータはノブのようなもので、機械が入力データから学習する際に調整されます。機械は通常、数千、数百万のパラメータを持っています。そして、過学習とは、機械が調整すべきノブが多すぎて、与えられるデータポイントが少なすぎる状態です」とガーラマニ氏はThe Registerに語った。
その結果、トレーニング中に見つかったパターンは新しいデータでは見つからず、マシンは新しいデータの処理がうまくできなくなります。
写真提供:Shutterstock
リスクは、研究者が、使用したトレーニング データセットが十分に大きい、またはモデル化しようとしている状況を代表していると考えている場合の不注意から生じます。
研究者が結果を選び取ると、さらに大きな問題になる、とスターリング大学のコンピューター科学教授レスリー・スミス氏は説明した。
「問題がさらに難しくなるのは、研究者が得られた最良の結果のみを報告する場合です。つまり、結果が良く見えるようにトレーニングサブセットとテストサブセットを選択し、これらの結果を得るまでにデータセットの100通りの分割を試さなければならなかったという事実を報告しないのです」とスミス氏は述べた。
ガーラマニ氏は、テクノロジー企業は自社の研究における不確実性とモデルの限界をよりうまく説明できるはずだと述べた。
ロボット支配者はいない
AI の能力が誤解される主な点は、AI が人間の知能にどれほど近いかという点です。
バース大学でAI知能に関心を持つ研究者、ジョアンナ・ブライソンは、「ロボットキラー」の脅威にしばしば不満を抱いている。
「AIは信じられないほど強力なツールであり、すでに私たちの生活を変えつつあります。多くの点で人間よりも優れたパフォーマンスを発揮しますが、人間とは全く異なります。そして、AIが世界を征服することもないでしょう」とブライソン氏はThe Regに語った。
「人間は、創造物に人間的な側面を反映させるのが自然なことです。しかし、人間のようなAIを構築することはまず考えられません。哲学的な観点から見ても、倫理的な危険性が多すぎるからです」とブライソン氏は付け加えた。®