GitHubは著作権侵害の申し立てを避けるためにCopilotの出力を変えたと非難されている
続きを読む
Microsoft、Copilot、そしてOpenAIのコードプロンプターに対する申し立てのうち、どれだけが全くの馬鹿げた箱に収まるのかはまだ分からない。ルールが制定された当時、AIがオープンソースコードのグローバルデータベースを取り込むとは誰も予想していなかった。また、検索エンジンがあらゆるコンテンツを大量に取り込み、分析し、提示するとは誰も予想していなかった。確かにこれには問題があるが、あまりにも有用であり、違法にするにはそれほど有害ではないという点で一致している。インターネットコンテンツを利用するCopilotなどの機械学習システムも、その点では検索エンジンとほぼ同じだ。そこで疑問となるのは、その結果は有用ではないのか、それとも受け入れるには有害すぎるのか、ということだ。利害のバランスはどこにあるのだろうか?
この問題に取り組むための有効な方法はいくつかあり、それは倫理に関わるものです――企業経営者の皆さん、さあ目をそらしてください――。そう、倫理的なAIに関する一時流行りの議論は、訴訟よりもはるかに効果的な具体的な前進の道筋を示しているのです。
知的財産法は、特定の利益によって歪められてきたとはいえ、その根幹は、作成者の合理的な意思が尊重されるべきだという点にあります。ソフトウェアがオープンソースであるならば、作成者は人々がそれを読み、利用できることを当然に望んでいるはずです。このような行為を助長するような行為は、この世で最悪の罪とは思えません。
おそらく、コードの提案を文脈を無視して提示するやり方が問題なのでしょう。結局のところ、オープンソースライセンスは数多く存在し、中には、我らがCopilotのカット&ペースト機能が知っておくべき条件が含まれているかもしれません。Copilotが他人のコードを提案していることを認識できるのであれば、そのライセンス条件を報告できるのも無理はありません。そうすれば、コード作成者に遵守の責任が生じることになります。これは、結果を隠したまま誘惑を与えるよりも倫理的に正しい判断です。オープンソースのルール遵守の成功率も向上するかもしれません。
もし元の開発者が、自分のコンテンツがCopilotの奥底に押し込まれることを本当に望んでいなかったらどうでしょうか?検索エンジンの世界は、robots.txtの発明によってこの問題に対処しました。Webルートディレクトリにrobots.txtというファイルを置けば、Webクローラーに対して「立入禁止」の標識を立てることになります。最近は状況が少し進歩しているので、GitHubの仕組みに、作成者の意図を最もよく表す微調整を加えて、そのような機能を組み込むのは良いでしょう。いずれにせよ、コンテンツプロバイダーに「検索結果にコンテンツを表示したくないですか?構いませんよ」と伝えることで、人々はそれを受け入れる方法を考える傾向にあります。結果を説明しながら選択肢を与えるというのは、素晴らしいことです。
Copilotなどからコードを削除する権利を付与することで、多くの優れた機能が失われるとしても、それは世界の終わりではありません。1980年代にIBMの支配的地位を揺るがし、市場を驚異的なスピードで加速させた「クリーンルーム原則」があります。これは機械学習が学ぶべき点です。
ベージュ色の箱の中にあった法的な落とし穴は、BIOS(Basic Input-Output System)でした。これは比較的小さな永続的なソフトウェアで、割り込みを通じてオペレーティングシステムやアプリケーションに標準的なハードウェアサービスセット(今で言うAPI)を提供していました。もしそのコードをそのままクローンにコピーしただけなら、IBMはあなたを徹底的に罰するでしょう。コードを書き直すことはできますが、IBMは訴訟に巻き込み、コピーしていないことを証明するよう要求するでしょう。たとえ勝訴したとしても、遅延と費用で窮地に陥るでしょう。
- マイクロソフトのAzureの事故は、業界が大きな問題に気づいていないことを露呈している
- Windows XPの死後の世界での冒険は著作権の不正行為を示す
- オープンソースの商標文化を理解していないなら、悪い言葉遣いを覚悟しなければならない
- マイクロソフトとグーグルの戦いにおいて、LLMは使用するにはあまりにも危険な武器である
そこで、2つの自動化システムを用意しましょう。1つはコード内のインターフェースを見つけて分離することに特化したシステム、もう1つはそれらのインターフェースを提供するコードを生成するためのルールを適用することに特化したシステムです。仮想的なエアギャップを越えてコード行が転送されることはありません。元のコードとAIコードを比較する自動テストによって品質が向上します。ついでに言えば、リファクタリングのための非常に優れたツールセットが生まれ、すべての人にメリットをもたらすでしょう。倫理的に良さそうですよね?
なるほど。もしCopilotの仕組みに本当に問題があるなら、実用性を維持しながら新たなメリットを生み出しつつ、それを回避する方法は複数あります。ルールを守りつつ、物事をより良くしていく?それは良い方向性ですね。®