ワカリタイムズ

🌍 海外ニュースを「わかりやすく」

AI学会が査読での不正なAI利用を摘発、497本の論文が不採択に

ChatGPTに「この論文をレビューして」と頼んだことがある研究者は、いまや珍しくないかもしれません。しかし、それがルール違反だったら?「AI学会が不正なAI使用を検出し、数百本の論文を不採択にした」というニュースが、学術界で注目を集めています。AIを研究する学会が、AI利用のルール違反に厳しい対応を取ったこの出来事。何が起きたのかを解説します。

電子透かしで「AIレビュー」を見破る

舞台は、機械学習分野で最も権威ある国際学会の一つ、ICML(国際機械学習会議)です。2026年7月にソウルで開催予定のこの学会には、約25,000件もの論文が投稿されました。

ICMLには独特の仕組みがあります。論文を投稿した著者は、他の人の論文の査読(専門家による審査)も担当しなければなりません。これを「相互査読制度」と呼びます。

主催者は今回、査読で大規模言語モデル(ChatGPTなどのAI)が不正に使われていないかを検出するため、巧妙な仕掛けを用意しました。査読用に配布する論文のPDFに電子透かしを埋め込んだのです。この透かしには、人間の目には見えにくい形で、AIに反応する隠し指示が含まれていました。もし査読者がAIに論文を読み込ませてレビューを生成させると、AIが特定のフレーズを自動的に含めてしまい、不正使用が発覚するという仕組みです。

497本が不採択、研究者の反応は

結果、全投稿の約2%にあたる497本の論文が不採択になりました。論文そのものに問題があったのではなく、著者が担当した査読でAI使用ポリシーに違反していたためです。

主催者は3月18日のブログ投稿で、「私たちの分野が急速に変化するなかで、最も積極的に守るべきは互いへの信頼です」と声明を出しました。

研究者の反応は分かれています。SNS上では「他の学会も見習うべき」「不正著者の再投稿を禁止すべき」といった支持の声がある一方で、「査読者の意欲を削ぐだけだ。結局、AIを使って意味のないレビューを書くようになる」という批判もありました。

研究者の半数以上がAIを査読に使用

背景には、AI利用の急速な広がりがあります。学術出版社Frontiersが2025年に行った調査では、研究者の半数以上がすでに査読にAIを使っていると回答しました。多くの学術誌や学会がAI使用を禁止しているにもかかわらず、です。

AI研究者のあいだでも意見は分かれています。「AIは査読の効率化に役立つ」という肯定的な見方と、「人間の専門的判断を機械に委ねるべきではない」という慎重な見方があります。

ICMLはこの問題に正面から取り組み、今回初めて2つの査読ストリームを設けました。AIの限定的な使用を認めるストリームと、完全に禁止するストリームです。著者と査読者は、自分がどちらのストリームに参加するかを選べる仕組みでした。

記者の視点:「AIを研究する人がAIで不正」の矛盾

最も興味深いのは、この事件がAIの学会で起きたという事実です。AIの可能性と限界を誰よりも理解しているはずの研究者が、AIに依存した査読を行っていたわけです。

学術論文の査読は「科学の品質管理」ともいわれる重要なプロセスです。専門家が時間をかけて論文の妥当性を検証することで、信頼できる知識が積み上がっていきます。AIに丸投げすれば、このシステムの根幹が揺らぎかねません。

一方で、年間数万件の投稿を人力で処理する限界も明らかです。ICMLの2ストリーム制は、AIとの「共存ルール」を模索する実験的な試みといえます。

学術界が問われる「AIとの付き合い方」

今回のICMLの対応は、学術界全体に影響を与えそうです。電子透かしという技術的な手段でルール違反を検出し、厳格に処分するという姿勢は、他の学会や学術誌にとっても参考になるでしょう。AI時代の学術研究で「何が公正で、何が不正なのか」を定義する議論は、まだ始まったばかりです。