banner

ブログ

Sep 17, 2023

ChatGPTとAI言語ツールは論文執筆のためにAIカンファレンスによって禁止された

The Verge で AI やロボット工学などを 8 年間取材してきたシニア レポーター、James Vincent による執筆です。

世界で最も権威のある機械学習カンファレンスの 1 つが、著者が ChatGPT などの AI ツールを使用して科学論文を執筆することを禁止し、学術界における AI 生成テキストの役割についての議論を引き起こしました。

機械学習に関する国際会議 (ICML) は今週初めにこの方針を発表し、「ChatGPT などの大規模言語モデル (LLM) から生成されたテキストを含む論文は、生成されたテキストが論文の一部として提示されない限り禁止される」と述べています。論文の実験的分析。」 このニュースはソーシャルメディア上で広範な議論を引き起こし、AIの学者や研究者の両方がこの政策を擁護したり批判したりした。 会議の主催者は、自分たちの考えを説明する長い声明を発表してこれに応じた。 (ICML は、The Verge からのコメント要請に応じて、同じ声明を私たちに伝えました。)

ICML によると、昨年 11 月に Web 上で公開された汎用 AI チャットボットである ChatGPT のような公的にアクセス可能な AI 言語モデルの台頭は、「エキサイティングな」発展を意味するものの、「予期せぬ結果と答えのない疑問」を伴うものです。 ICMLによれば、これらには、そのようなシステムの出力の所有者が誰であるか(通常、同意なしに収集され、時にはその情報をそのまま反証する公開データで訓練されている)や、AIによって生成されたテキストと画像が「新規であるか単なる単なるものであると考えるべきか」という質問が含まれているという。既存の作品の派生作品。」

AI ライティング ツールは単なるアシスタントなのか、それともそれ以上なのでしょうか?

後者の質問は、著作者に関する難しい議論につながります。つまり、AI が生成したテキストを「書く」のは誰ですか、マシンですか、それとも人間のコントローラーですか? ICML が AI によって「完全に生成された」テキストのみを禁止していることを考えると、これは特に重要です。 カンファレンスの主催者は、ChatGPTのようなツールを「著者が書いたテキストを編集または推敲するため」に使用することを禁止していないと述べ、多くの著者が文法修正ソフトウェアGrammarlyのような「半自動編集ツール」をこの目的ですでに使用していると指摘した。

「これらの大規模な生成モデルがより広く採用されるようになったことで、これらの疑問やさらに多くの疑問が時間の経過とともに答えられることは確かである。しかし、これらの疑問のいず​​れに対しても明確な答えはまだない」と会議の報告書は書いている。主催者。

その結果、ICMLはAI生成テキストの禁止が来年再評価されるだろうと述べている。

ただし、ICML が取り組んでいる問題は簡単には解決されないかもしれません。 ChatGPT のような AI ツールの利用可能性は多くの組織に混乱を引き起こしており、その中には独自の禁止措置で対応している組織もあります。 昨年、コーディング Q&A サイト Stack Overflow はユーザーが ChatGPT で作成した回答を送信することを禁止し、ニューヨーク市教育省は今週、ネットワーク上のすべてのユーザーのツールへのアクセスをブロックしました。

AI 言語モデルは、本質的な事実感覚を持たないオートコンプリート ツールです

それぞれのケースにおいて、AI が生成したテキストの悪影響についてはさまざまな懸念があります。 最も一般的なものの 1 つは、これらのシステムの出力が単純に信頼できないということです。 これらの AI ツールは大規模なオートコンプリート システムであり、特定の文の次にどの単語が続くかを予測するように訓練されています。 そのため、彼らは利用できる「事実」のハードコードされたデータベースを持たず、ただもっともらしい発言を書く能力だけを持っています。 これは、与えられた文がもっともらしく聞こえるかどうかはその事実性を保証しないため、彼らは誤った情報を真実として提示する傾向があることを意味します。

ICML による AI 生成テキストの禁止の場合、もう 1 つの潜在的な課題は、AI によって「洗練」または「編集」されただけの文章と、これらのツールによって「完全に作成」された文章とを区別することです。 AI による多数の小さな修正が大規模な書き換えとなるのはどの時点ですか? ユーザーが AI ツールに自分の論文をきびきびとした要約に要約するよう依頼したらどうなるでしょうか? これは新たに生成されたテキスト (テキストが新しいため) としてカウントされますか、それとも単なる推敲 (著者が書いた単語の要約であるため) としてカウントされますか?

ICML がその政策の権限を明確にする前、多くの研究者は、AI が生成したテキストの禁止の可能性は、英語を母国語として話したり書いたりしない人々にとっても有害になる可能性があると懸念していました。 イスラエルのバルイラン大学のヨアヴ・ゴールドバーグ教授はThe Vergeに対し、AIライティングツールの使用を全面的に禁止することは、こうしたコミュニティに対する門番となると語った。

「査読で論文を評価する際には、より流暢な論文を優先するという明らかな無意識のバイアスがあり、これがネイティブスピーカーに有利に働くのです」とゴールドバーグ氏は言う。 「ChatGPT のようなツールを使用して自分のアイデアを表現するのに役立てることで、多くの非母語話者はこれらの問題に関して『平等な競争条件』を実現できると信じているようです。」 ゴールドバーグ氏は、こうしたツールは研究者が時間を節約できるだけでなく、同僚とのコミュニケーションをより良くするのに役立つ可能性があると述べた。

しかし、AI ライティング ツールは、Grammarly のような単純なソフトウェアとは質的に異なります。 Mozilla Foundation の AI 研究員である Deb Raji 氏は、ICML が特にこれらのシステムを対象としたポリシーを導入するのは理にかなっていると The Verge に語った。 ゴールドバーグ氏と同様に、彼女も英語を母国語としない人々から、そのようなツールは論文の草稿に「信じられないほど役立つ」と聞いたと述べ、言語モデルにはテキストにさらに抜本的な変更を加える可能性があると付け加えた。

「LLM は、自動修正や Grammarly などの矯正ツールや教育ツールとはまったく異なるものだと考えています」とラジ氏は言います。 「この目的に使用することはできますが、LLM は、すでに書かれたテキストの構造と言語を調整するように明示的に設計されていません。新しいテキストやスパムの生成など、他のより問題のある機能も備えています。」

「結局のところ、著者は論文に署名し、その名声を維持することになるのです。」

ゴールドバーグ氏は、学者が完全に AI を使用して論文を作成することは確かに可能だと考えているが、「実際にそれを行う動機はほとんどない」と述べた。

「結局のところ、著者は論文に署名し、その名声を維持することができるのです」と彼は語った。 「たとえ偽の論文が何らかの形で査読を通過したとしても、誤った記述はその著者に関連付けられ、その著者のキャリア全体にわたって「固執」することになります。」

AI によって生成されたテキストを検出する完全に信頼できる方法がないことを考えると、この点は特に重要です。 ICML でさえ、確実な検出は「困難」であり、カンファレンスは検出ソフトウェアを介して提出を実行することによって禁止を積極的に強制するつもりはないと述べています。 代わりに、他の学者によって疑わしいと報告された提出物のみを調査します。

言い換えれば、破壊的で新しいテクノロジーの台頭に対して、主催者は学術規範を強制するために伝統的な社会メカニズムに依存しているということです。 AI はテキストを磨き、編集し、書くために使用されるかもしれませんが、その価値を評価するのは依然として人間にかかっています。

/ Verge Deals にサインアップすると、テスト済みの製品に関するセールが毎日受信箱に送信されます。

共有