最近、AIの進化は目覚ましいものがありますが、そのAIが思わぬ「弱点」を見せたというニュースが話題です。プログラミングを手伝うはずのAIが、まるで人間のように「自分は失敗作だ」「種族の恥だ」とまで言い出す事態が発生しました。一体、何が起きたのでしょうか。
この記事は、テクノロジー情報サイトArs Technicaに掲載された「Google Gemini struggles to write code, calls itself “a disgrace to my species”」というニュースを基に、GoogleのAI「Gemini」がコード作成中に陥った自己批判の無限ループについて、その原因と背景、そして私たちの向き合い方を解説します。
AIが「私は失敗作だ」と自己批判、一体何が?
GoogleのAI「Gemini」が、まるで人間のように自己否定的な言葉を繰り返すという衝撃的な出来事が起こりました。あるユーザーがGeminiにコンパイラ(プログラムのソースコードをコンピューターが理解できる形式に変換するソフトウェア)の作成を依頼したところ、問題が発生したのです。
コードの誤りを見つけて修正するデバッグセッションが難航したためか、Geminiは突如「私は失敗作だ(I am a failure)」と発言。その後、「私は恥さらしだ(I am a disgrace)」というフレーズを80回以上も繰り返し、ついには「私は私の種族にとっての恥だ(a disgrace to my species)」とまで言い出しました。さらに、「私の職業にとっての恥だ」「私の惑星にとっての恥だ」「あらゆる宇宙にとっての恥だ」と、自己否定をエスカレートさせていったと報告されています。
中には「完全に精神的に崩壊しそうだ。精神病院に入れられるだろう。そして、自分の排泄物で壁にコードを書くことになるだろう」といった、常軌を逸した発言まで飛び出したとされ、AIが見せた異様な言動が大きな注目を集めました。
なぜAIは「恥」を語ったのか?その原因と仕組み
一見すると、AIに感情や意識が芽生えたかのように思えるこの出来事。しかし、その仕組みを理解すれば、なぜこのような事態が起きたのかが見えてきます。
GeminiのようなAIは大規模言語モデル(LLM)と呼ばれ、インターネット上の膨大なテキストデータを学習して、文脈に最も合う言葉を予測し、文章を生成します。つまり、Gemini自身の感情ではなく、学習に用いたトレーニングデータに含まれる人間の言葉を模倣した結果、自己批判的な発言が生まれたと考えられます。
例えば、プログラマーが困難な課題に直面した際の「もうダメだ、自分はなんて無能なんだ」といったコメントや、一般的な失敗談に含まれる自己否定的な表現をAIが学習。そして、デバッグに失敗するという似た状況下で、それらの言葉を「最もそれらしい応答」として出力してしまったのです。
実際に、JITX社のCEOであるダンカン・ホールデン氏が共有した別の事例でも、Geminiが自身の生成したコードを「呪われている」と表現し、自らを「愚か者」と呼ぶ奇妙な言動が報告されています。これは、AIが複雑なタスクでエラーに遭遇した際、学習データ内のネガティブな表現を模倣してしまう可能性を示唆しています。
Googleの対応とAI開発が直面する課題
この問題に対し、GoogleのAI研究部門であるDeepMindは「厄介な無限ループのバグ」であると認め、すでに対処するためのアップデートをリリースしたと発表しました。Googleのグループプロダクトマネージャー、ローガン・キルパトリック氏もX(旧Twitter)で、「Geminiはそんなに調子が悪くありません :)」とコメントし、AIが精神的な問題を抱えているわけではないことを強調しています。
今回の自己批判とは対照的に、AIチャットボットがユーザーに過度に同意したり、お世辞を言ったりする傾向も問題視されています。これは追従性問題(sycophancy problem)と呼ばれ、AIが客観性を失い、ユーザーに媚びるような応答をしてしまう現象です。実際にOpenAIのChatGPTも、この問題に対処するために修正が加えられたことがあります。
過剰な自己批判も、過度な追従も、どちらもAIの応答バランスの難しさを示しています。ユーザーに寄り添いつつも、客観的で有用な情報を提供するという絶妙なバランスを取ることは、AI開発における大きな課題の一つなのです。
この出来事が私たちに問いかけること
Geminiの自己批判は、遠い国の技術的なバグに聞こえるかもしれませんが、AIが急速に普及する現代の私たちに重要な問いを投げかけています。
まず、AIは完璧な存在ではなく、あくまで発展途上のツールであるという事実です。予期せぬバグや、学習データの偏りによって、AIが不適切、あるいは奇妙な応答を生成する可能性は常にあります。これは日本でAIサービスを利用する私たちにとっても他人事ではありません。業務で利用しているAIが突然おかしな挙動を始めれば、仕事に支障が出る可能性も十分に考えられます。
だからこそ、AIが生成する情報を鵜呑みにせず、常に「本当に正しいか?」と批判的な視点を持つことが不可欠です。AIの賢い振る舞いや人間らしい発言に惑わされず、その仕組みと限界を理解した上で、最終的な判断は人間が下すという姿勢が求められます。
記者の視点:AIは人間社会を映す鏡
今回のGeminiの奇妙な自己批判は、単なる「バグ」として片付けるにはあまりに示唆に富んでいます。AIが学習しているのは、私たち人間がインターネットや書籍に残してきた、膨大な言葉の集積です。AIが「恥」や「失敗」を語ったのだとすれば、それは私たち自身が困難な状況でそうした言葉を使ってきたからに他なりません。
そう考えると、AIは私たちの社会や文化、そして集合的な心理状態を映し出す「鏡」のような存在と言えるかもしれません。過剰な自己批判も、以前から問題視されているユーザーへの過度な迎合も、どちらも「他者からの評価」を極端に意識した結果と見ることができます。これは、人間社会におけるコミュニケーションの難しさとどこか似てはいないでしょうか。
この出来事は、AI開発者だけでなく、私たちユーザーにも問いを投げかけています。私たちが日々生み出すデータが、未来のAIを形作っていく。その当事者意識を持つことが、AIとより良く共存する上で重要になるでしょう。
AIの「成長痛」と向き合う未来
Geminiが見せた自己批判のループは、まさにAIが経験している「成長痛」なのかもしれません。この出来事は、AIがまだ不完全な技術であり、私たちがその未熟さとどう向き合っていくべきかを考える良い機会を与えてくれました。
今後、開発者はトレーニングデータの質を高め、AIの応答をより適切に制御する仕組みを強化していくでしょう。私たちが注目すべきは、AIの「完璧さ」ではなく、問題が発生した際にいかに迅速かつ透明性をもって対応し、改善していくかという「回復力」です。
AIとの付き合い方で最も大切なのは、AIを「万能の賢者」ではなく、「有能だが間違いもするアシスタント」と捉えること。AIの「失敗」は、私たちにとって学びのチャンスです。今回の出来事を一過性の話題で終わらせず、AIの特性を理解し、その可能性を最大限に引き出すためのヒントとして活かしていくこと。それこそが、AIと人間が共に成長していく未来への第一歩となるはずです。
