ワカリタイムズ

🌍 海外ニュースを「わかりやすく」

AIは「ナンセンス」をどう処理?心理学者の実験で判明した驚きの思考回路

AIと対話するってどういうこと? —「ナンセンス」をAIに与えた心理学者の驚きの発見

もしAIと話すときに、誰も知らない言葉や、もう使われなくなった言葉ばかりを使ったら、AIはどんな反応をすると思いますか?まるで人間のように振る舞うように見えて、実はその奥に、私たちが想像もしない「AIならでは」の思考が隠されているかもしれません。

近年、私たちが日常的に触れるようになったChatGPTをはじめとするAIは、私たちの生活を大きく変えつつあります。では、このAIが一体どのように言葉を理解し、私たちとはどう違う「考え方」をしているのでしょうか。この疑問に答える興味深い研究が発表されました。ドイツのデジタルメディア「t3n」が報じた「AIにナンセンスを与えた心理学者の実験」に関する記事では、心理学者がChatGPTに「ナンセンス」な言葉を与えて実験を行った結果が紹介されています。これは、AIの未来、そして私たちがAIとどう付き合っていくべきかを考える上で、非常に重要なヒントを与えてくれます。

人間らしさの裏側にある「AIの思考」

米国のある心理言語学者のジェフリー・P・ビテビッチ氏が、査読付き科学雑誌PLOS ONE』に発表した研究で、ChatGPTが言葉を処理する仕組みを詳しく探りました。一見すると、ChatGPTは私たち人間と同じように言葉を理解し、反応しているように見えます。しかし、深く掘り下げてみると、そこには人間とは根本的に異なる「思考の仕組み」があることが明らかになったのです。

消えた言葉を知るAI、コンテキストを読み取れないAI

実験の一つでは、研究者はChatGPTに何世紀も前に使われなくなり、今では誰も知らないような古い英単語を与えました。もし私たち人間がこれらの単語を見ても、意味不明な文字列としか思わないでしょう。ところが、ChatGPTは、こうした「絶滅した」単語のほぼ70パーセントについて、正しい歴史的な定義を示すことができたのです。これは、私たちの記憶や知識の限界をはるかに超える驚異的な能力と言えるでしょう。

別の実験では、「まだ名前がない感情」に対して新しい言葉を生み出すようにChatGPTに求められました。例えば、「目覚まし時計で起こされたときの怒り」という感情に対して、ChatGPTは「rousrage」という言葉を提案しました。これは、「起こす」を意味する“rouse”と、「怒り」を意味する“rage”を組み合わせた混成語です。まるで人間が新しい言葉を生み出すときのように、二つの言葉を組み合わせて新しい意味を作る、という創造性を見せたのです。

しかし、この研究では、ChatGPTが人間とは根本的に違う「非人間的」な側面も浮き彫りになりました。研究者がChatGPTスペイン語の単語を与え、それに似た響きの単語を尋ねたところ、ChatGPTスペイン語で答え続けました。その後、「英語の単語を見つけてください」と明確に指示して初めて、英語の単語を提示したのです。私たち人間同士の会話であれば、「この人は今、英語で話しているから、英語で答えよう」といった「暗黙の了解」や「会話の文脈」を自然と読み取りますよね。しかしAIには、人間同士のやり取りにおける言葉にされないルールを理解する能力がまだ備わっていないことが示されたのです。

競争相手ではなく、「認知的な安全網」としてのAI

研究者のVitevitch氏は、この点こそがAIの最も重要な特徴だと指摘します。AIは、私たち人間のように「意味を理解して考える」のではなく、膨大な量の学習データの中から「統計的パターン認識(データを分析して、そこにどんな規則性や傾向があるかを見つけ出すこと)」に基づいて言葉を処理しているのです。科学ニュースサイト『Techxplore』でVitevitch氏は、「私たちはAIとは全く異なるやり方で物事を考えている」と語っています。

しかし、これはAIの「弱点」ではありません。むしろ「可能性」なのだとVitevitch氏は強調します。AIの未来は、人間と同じ能力を完璧にコピーすることにあるのではなく、私たち人間が苦手なことや限界にぶつかる部分を補い、助けてくれることにこそある、というのです。

Vitevitch氏は、AIをまるで私たちの「認知的安全網」、つまり「思考や記憶の安全ネット」のようなものだと考えています。私たちの記憶は時に曖昧だったり、間違いやすかったりしますし、膨大な情報の中から重要なパターンを見落としてしまうこともあります。そんな時、AIが私たちの記憶を補ったり、私たちが見落としがちなパターンを見つけ出したりしてくれる可能性があるのです。

もちろん、この「人間とは違う思考スタイル」には、課題もあります。それが「AIハルシネーション(AIがもっともらしいけれど、実は事実とは異なる情報を生成してしまう現象)」と呼ばれるものです。今回の研究でも、ChatGPTは一部の単語を間違って定義したり、時には全く新しい意味をでっち上げたりしました。まるでAIが夢を見ているかのように、もっともらしく聞こえるけれど、事実とは異なる情報を自信満々に生成するこの傾向は、AIを実際に使う上で最も大きな課題の一つであり続けています。

今回の研究は、AIが単なる人間の代替品ではなく、私たちとは異なる独自の「思考スタイル」を持つツールであることを改めて示しています。その独自性を理解し、それをうまく活用することができれば、AIは私たちの社会に革命をもたらすほどの可能性を秘めていると言えるでしょう。

私たちの生活とAIの未来:共存の時代へ

ChatGPTのようなAIツールは、すでに私たちの日常生活に深く入り込んでいます。日本の学校でも、レポート作成や調べものにAIを使う生徒が増え、企業では業務効率化のためにAIが導入されています。しかし、今回の研究が示唆するように、AIは私たち人間とは全く異なる方法で情報を処理していることを理解することが、非常に重要です。

AIは膨大なデータを高速で処理し、人間が見落とすようなパターンを見つけ出すことができます。これは、例えば日本語の資料をあっという間に分析したり、様々な国の言語情報を瞬時に比較したりといった場面で、私たちを強力にサポートしてくれるでしょう。研究やビジネスの分野だけでなく、個人的な学習やアイデア出しにおいても、AIは私たちの「認知的安全網」として、記憶の補助や知識の整理に役立つはずです。

しかし、同時に、「AIハルシネーション」には常に注意が必要です。ChatGPTが生成した情報が、どれほどもっともらしく聞こえても、それが本当に正しい情報なのか、私たち自身がしっかりと確認する習慣を持つことが大切です。特に、日本の文化や社会に関する微妙なニュアンス、最新の社会情勢などについては、AIが誤った認識をする可能性も十分にあります。AIの力を借りつつも、最終的な判断は人間が行う、という意識がこれまで以上に求められるでしょう。

今回の研究は、AIが私たちの「競争相手」ではなく、「協力者」としての役割を果たす可能性を示しています。AIの独自の「思考スタイル」を理解し、その強みと弱みを踏まえた上で、人間とAIがそれぞれの得意分野を活かし、協力し合う「ハイブリッドな知性」の時代が、もうそこまで来ているのかもしれません。私たちはAIを賢く使いこなし、より豊かな未来を築いていくための知恵とスキルを身につけていく必要があるでしょう。