皆さんは、学術論文が発表される前に、その速報版が公開される「プレプリント」という仕組みをご存知でしょうか。これは、研究者たちが最新の発見をいち早く共有するための場で、専門家による審査(査読)を受ける前の論文原稿が公開される仕組みです。
ところが最近、このプレプリントの世界で、AIが生成した論文が紛れ込むという問題が深刻化しているようです。私たちが普段使う文章作成AIのように、研究の世界でもAIが活用され始めています。
一体、どれくらいの論文がAIによって作られ、研究の質を守るために現場ではどのような対策が取られているのでしょうか。
科学雑誌Natureの「AI content is tainting preprints: how moderators are fighting back」という記事では、この問題の最前線が詳しく解説されています。この記事をもとに、研究の信頼性がどのように守られているのかを見ていきましょう。
AI論文との「いたちごっこ」:ある研究者の報告
この問題を象徴するのが、ベルギーのルーヴェン・カトリック大学に所属する心理学者、オリビア・カートリー氏が経験した出来事です。
彼女は、心理学分野のプレプリントサーバー「PsyArXiv」で、「夢の状態における生成AIインターフェースの出現」と題された論文に疑念を抱きました。著者の所属は不明で、内容も数ページしかなく、記述されているAI実験は現実離れしたものだったからです。
カートリー氏がこの論文を運営に報告すると、論文はサーバーから削除されました。PsyArXivの科学諮問委員長で、アイルランドのメイヌース大学の心理学者であるダーモット・リノット氏によると、この論文はAIの使用方法が明確に開示されておらず、利用規約に違反していたとのことです。
しかし、その直後、ほぼ同じタイトルと要旨の論文が再び投稿されたのです。この論文の著者、劉嘉正(Jiazheng Liu)氏のアドレスから送られたメールでは、「AIの役割は数式展開や記号計算などに限定的だった」と主張されていました。著者は自身を「中古のスマートフォンだけが頼りの中国在住の独立研究者」と説明していますが、この二度目の論文も最終的には削除されました。このような「いたちごっこ」は、AI論文と戦うモデレーターたちの苦労を浮き彫りにしています。
急増する「AI論文」の実態と、研究を脅かす問題点
2022年後半にChatGPTのような高性能な対話型AIが登場して以来、AIによって生成された、あるいはAIの強力な支援を受けて作成された論文の投稿が急増しています。arXivの科学ディレクターで、ペンシルベニア州立大学の天体物理学者であるスタイン・シグルズソン氏は、「ここ3ヶ月ほどの間に、我々は本当に危機的状況にあると考え始めた」と語り、事態の深刻化を指摘しています。
PsyArXivを運営する非営利団体、オープンサイエンス・センター(Center for Open Science)も7月25日の声明で、「AIツールによって生成された、あるいは多大な支援を受けたと思われる論文の投稿が著しく増加している」と発表しました。前述のリノット氏も、サーバー上でAI関連コンテンツが「わずかに増加」していることを認めています。
その広がりは、具体的な数字にも表れています。
- 著名なプレプリントサーバー「arXiv」では、投稿の約2%がAIや不正な論文作成サービスによるものとして却下されています。
- 生命科学系の「bioRxiv」と医学系の「medRxiv」では、月に約7,000件の投稿があり、そのうち1日あたり10件以上の疑わしい原稿を却下しているとのことです。
- 2025年に科学誌『Nature Human Behaviour』で発表された研究によると、2024年9月時点のデータを分析した結果、arXivに投稿されたコンピューターサイエンス分野の論文要旨のうち、実に22%がAI生成の内容を含んでいたと推定されています。
- 生物学分野のサーバー「bioRxiv」では約10%、査読後の学術雑誌ですら14%の論文要旨にAIが生成したテキストが含まれていたとの報告もあります。
この研究の共著者であるスタンフォード大学のコンピューター科学者、ジェームズ・ゾウ氏は、AIが生成したテキストの一部は、英語での論文執筆に苦労する非ネイティブの研究者によって使われた可能性もあると指摘しています。
では、なぜAIが生成した論文は問題視されるのでしょうか。主な理由は二つあります。
一つは、AIが生成する文章の質です。AIは時として、事実と異なる情報を作り出す「幻覚(ハルシネーション)」と呼ばれる現象を起こします。存在しない論文を参考文献として引用するなど、AI特有の間違いが見られることも少なくありません。
もう一つは、ペーパーミルと呼ばれる不正な論文作成代行サービスとの関連です。ペーパーミルは、金銭を受け取って論文を代筆・投稿する悪質なサービスで、AIの登場によって、より迅速かつ大量に質の低い論文を生み出せるようになりました。こうした論文が研究成果として流通することは、学術全体の信頼性を根底から揺るがしかねないのです。
急増するAI論文に、研究現場はどう立ち向かっているのか
急増するAI論文に対し、プレプリントサーバーの運営者たちはどう立ち向かっているのでしょうか。
各サーバーでは、モデレーター(投稿内容のチェック担当者)が日々、AI生成が疑われる論文の検出に追われています。彼らは、不自然な言い回しや存在しない参考文献などを手がかりに、疑わしい論文を特定し、投稿を却下しています。
しかし、その判断は非常に困難です。心理科学改善協会(Society for the Improvement of Psychological Sciences)のケイティ・コーカー氏は、「システムが自壊しないように、比較的軽いタッチを保ちながら、どうやって品質保証を行うのか?」と問いかけ、このジレンマを指摘します。「個々の読者が論文の正当性を判断しなければならない世界など、誰も望んでいません」。
AI技術は日進月歩で進化しており、生成された文章を完璧に見分けることは簡単ではありません。また、どこまでが許容される「AIによる支援」で、どこからが不正な「AIによる生成」なのか、その線引きも曖昧なのが実情です。
そのため、多くのサーバーではAIの利用について明確に開示することを著者に求めており、開示がない場合は論文を削除するなどの対応を取ることもあります。研究の質を維持するため、現場ではAIという新しい課題に対し、日々慎重な対応が続けられています。
記者の視点:AIは研究の「敵」か、それとも「仲間」か?
AIによる論文が研究の世界を「汚染」していると聞くと、AIを「敵」のように感じてしまうかもしれません。確かに、研究の信頼性を揺るがす質の低い論文がAIによって量産されることは、大きな問題です。
しかし、物事には常に二つの側面があります。記事で紹介されたように、英語が母国語でない研究者にとって、AIは言語の壁を取り払ってくれる強力な「仲間」にもなり得ます。これまで表現の難しさから発表をためらっていたかもしれない貴重な研究が、AIの助けを借りて世界に届くという側面は、決して無視できません。
問題の本質はAIそのものではなく、AIを「どう使うか」にあります。思考のプロセスを省き、安易に答えを求めるために使えば研究の質は低下しますが、自分の考えをより明確に、より広く伝えるための補助として使えば、研究の発展に貢献するはずです。これからの時代、AIという強力なツールを使いこなすための、私たち人間の倫理観や判断力が、これまで以上に試されることになりそうです。
AIが織りなす未来:期待と課題
AIによる論文作成は、もはや避けられない時代の流れです。今後、AIの生成技術とそれを見破る検出技術は、まさに「いたちごっこ」のように進化を続け、学術界全体でAI利用に関する明確なルール作りがさらに加速していくでしょう。
このような状況で、私たち読み手に求められるのは、情報をうのみにせず、その内容が本当かどうかを自分の頭で考える「批判的な視点」です。論文を読む際に「この内容は本当に信頼できるか?」「根拠はしっかりしているか?」と一歩立ち止まって考える姿勢が、これまで以上に重要になります。
AIは私たちの知的活動を助ける強力なツールですが、最終的な判断を下し、その責任を負うのは私たち人間です。AIがもたらす課題から目をそらさず、その可能性を最大限に活かす道を探っていくこと。それこそが、AIと共存する未来の社会に求められる、新しい時代の「知性」なのかもしれません。
