ワカリタイムズ

🌍 海外ニュースを「わかりやすく」

AIの健康助言で中毒入院?ChatGPTが招いた「ブロム中毒」の危険

AI(人工知能)の進化は目覚ましいものがありますが、そのアドバイスを鵜呑みにするのは危険かもしれません。

AIのアドバイスを信じた男性が「隣人に毒殺されそうだ」という妄想を抱き、救急搬送された──。ドイツのニュースメディアt3nが報じた「KI-Ernährungstipp: Mann vertraut ChatGPT und landet mit Psychose im Krankenhaus(AIの栄養アドバイス:男性がChatGPTを信頼し、精神病で入院)」というニュースは、AIがもたらす予期せぬリスクを浮き彫りにしました。

この記事では、AIの助言がなぜ「ブロム中毒」という、現代ではほとんど忘れ去られた中毒症状を引き起こしたのか、その詳しい経緯を解説します。さらに、AIが誤った情報を生成する背景にある「クセ」と、私たちがAIと賢く付き合っていくための視点についても掘り下げていきます。

AIの栄養アドバイスで、まさかの「ブロム中毒」に?

AIが提供した食事指導を信じた結果、60代の男性が「ブロム中毒」という珍しい症状で入院するという衝撃的なケースが報告されました。男性はAIの指示に従い「臭化ナトリウム」を摂取し続けたところ、幻覚や妄想といった深刻な精神症状が現れ、救急搬送されたのです。ここでは、AIの誤ったアドバイス健康被害につながった経緯と、診断の裏側を詳しく見ていきます。

AIの不適切なアドバイスと中毒症状の発症

この男性は、AIチャットボットのChatGPTから、食生活に関するアドバイスを受けました。その内容は、普段使っている食塩の代わりに「臭化ナトリウム」を試すという、にわかには信じがたいものでした。男性はAIの指示を信じ、インターネットで購入した臭化ナトリウムを約3ヶ月にわたって使い続けたといいます。その結果、彼は「ブロム中毒」という、現在ではほとんど見られなくなった中毒症状に苦しむことになりました。

「ブロム中毒」の恐ろしさ:幻覚や妄想を引き起こす

ブロム中毒とは、臭素またはその化合物を過剰に摂取することで引き起こされる中毒症状です。かつて臭素を含む化合物が鎮静剤や睡眠薬として広く使われていた19世紀から20世紀にかけては、比較的よく見られる症状でした。しかし、1980年代以降、医薬品への使用が制限されると症例は激減し、次第に忘れ去られていきました。

ブロム中毒は、嘔吐や便秘、皮膚の炎症といった身体的な症状に加え、せん妄や幻覚、妄想といった精神症状を引き起こすことが知られています。この男性も、搬送時には隣人に毒殺されそうだと信じ込むほどのパラノイア(偏執病)や幻覚を呈していました。これは、AIが危険な物質の摂取を、何の警告もなく推奨した可能性を示しています。

医師たちの苦闘:診断の難しさ

男性が救急外来に運ばれた当初、医師たちは原因の特定に苦労しました。血液検査では「クロール濃度」が異常に高い数値を示しましたが、これは体内に蓄積した臭素が原因で誤って高く測定される「偽陽性」の結果でした。しかし、男性の特異な精神症状と、彼がAIのアドバイスで「臭化ナトリウム」を摂取していたという情報が、医師たちを正しい診断へと導きました。最終的に、彼らは忘れられた病名である「ブロム中毒」にたどり着いたのです。

この一件は、AIの情報を安易に信じることの危険性と、健康に関する情報源の重要性を改めて浮き彫りにしています。AIは便利ですが、その情報が常に正確で安全であるとは限らないのです。

「ブロム中毒」とは?かつては身近だった忘れられた病

「ブロム中毒」という言葉を、現代で耳にすることはほとんどないでしょう。しかし、19世紀から20世紀にかけては、決して珍しい病気ではありませんでした。当時、鎮静剤や睡眠薬として臭素化合物が広く使われていたため、精神科病棟に入院する患者の5〜10%がブロム中毒だったという報告もあるほどです。

ブロム中毒の歴史的背景

臭素は、かつてその化合物(特に臭化ナトリウムなどの臭素塩)が、鎮静作用を期待され、神経過敏や不眠の治療薬として重宝されていました。しかし、これらの薬剤を長期間、あるいは過剰に摂取すると、体内に臭素が蓄積し、中毒症状を引き起こします。これが「ブロム中毒」です。

当時は臭素化合物の安全性に関する認識が不十分で、医師の処方箋なしに広く使われることもありました。1980年代に入り、医薬品への使用が制限されるとブロム中毒の症例は急速に減少し、この病名は医学の歴史の中に埋もれていきました。

ブロム中毒の主な症状

ブロム中毒の症状は多岐にわたりますが、特に深刻なのは神経や精神に及ぼす影響です。具体的には、以下のような症状が現れることがあります。

  • 消化器症状: 吐き気、嘔吐、便秘など
  • 皮膚症状: 発疹やかゆみ、ニキビのような皮膚炎など
  • 精神症状: 不安感、抑うつ、興奮。重度になると、せん妄、幻覚、妄想といった、現実と区別がつかなくなるような症状が現れる

今回の男性が経験した幻覚やパラノイアは、まさにブロム中毒の典型的な精神症状でした。過去の医学的な知見が、現代のAIによって思わぬ形で再浮上したのです。

AIの「クセ」が招いた事態と、これからの向き合い方

AIはなぜ、健康を害する重大な誤情報を生成してしまったのでしょうか。その背景には、AIが持つ特有の「クセ」が隠されています。ここでは、AIが誤情報を生むメカニズムと、私たちが取るべき対策について解説します。

AIが「臭化ナトリウム」を勧めた理由とは?

ChatGPTのような大規模言語モデルは、インターネット上の膨大なテキストデータを学習します。そのデータには、過去の医療文献も含まれています。AIが「臭化ナトリウム」を提案したのは、学習データの中に、過去に鎮静剤や睡眠薬として利用されていた情報があったためと考えられます。

しかし、AIはその情報が現代では通用しないことや、人体に有害であるという最新の知見、そして食塩の代替品では断じてないという文脈を理解できません。AIは単に学習データから関連性の高い単語を結びつけているだけで、情報の「正確性」や「安全性」を判断しているわけではないのです。

「文脈」を無視した情報提供の危険性

AIが提供する情報において、文脈の欠如は致命的な問題になり得ます。「過去に医薬品だった」という事実と、「現在は有害とされ使われていない」という事実は、全く異なる意味を持ちます。AIがこれらの文脈を区別せずに情報を提示すると、利用者は誤った解釈をしてしまうのです。

今回のケースでは、「これは過去の限定的な用途であり、現代では健康被害のリスクがあるため摂取してはいけない」といった、必要不可欠な警告が欠けていました。人間であれば当たり前に判断できることも、AIにとっては単なる単語の関連性に過ぎない場合があるのです。

患者と医療従事者の情報共有が鍵

AIによる誤情報を防ぐには、患者がどのような情報源を参考にしたのかを医療従事者と共有することが不可欠です。今回のケースでも、患者が「AIのアドバイスに従った」と伝えたことが、迅速な診断の鍵となりました。もしそうでなければ、原因不明のまま診断が遅れ、より深刻な事態に陥っていたかもしれません。

AIで健康情報を得ることが当たり前になるからこそ、私たちは生成された情報を常に批判的な視点で見つめる必要があります。そして、健康に関する重要な判断を下す際は、必ず医師などの専門家に相談し、参考にした情報源も併せて伝えることが、AI時代の新たな常識と言えるでしょう。

記者の視点:AIは「賢い検索エンジン」か「思考のパートナー」か

今回の事件が浮き彫りにしたのは、私たちがAIをどう捉えているかという根本的な問題です。AIは流暢な文章で自信に満ちた回答を生成するため、私たちはつい、それを「知識と判断力を兼ね備えた専門家」のように感じてしまいます。

しかし、現在のAIは、膨大な情報の中から最も確率の高い言葉の組み合わせを選び出しているに過ぎません。その内容は、専門家というより「極めて高性能だが、時々重大な間違いを犯す検索エンジン」に近いでしょう。

最も危険なのは、このAIの特性を理解しないまま、思考や判断を「丸投げ」してしまうことです。AIとの付き合い方で大切なのは、問いを投げる能力以上に、AIの答えを吟味し、裏付けを取り、最終的な判断の責任を自分で負う姿勢ではないでしょうか。AIは思考を深める「壁打ち」の相手にはなりますが、人生の決断を委ねる「パートナー」として扱うには、まだ課題が多すぎるのです。

AIと歩む未来:利便性の先にある責任

最新のAIが、忘れ去られたはずの「ブロム中毒」を現代に呼び覚ました──。この事件は、技術の進化が思わぬ形で私たちに警鐘を鳴らす、象徴的な出来事です。AIは生活を豊かにする無限の可能性を秘めていますが、その裏には新たなリスクと、利用者である私たちに課せられる責任が存在します。

今後、AIはさらに日常に溶け込み、その存在感を増していくでしょう。その時、AIが生成する情報の「正しさ」を誰がどう保証するのか。これは、技術者だけでなく社会全体で考えていくべき課題です。

私たち一人ひとりができるのは、AIを盲信するのではなく、その特性を理解した上で使いこなす「賢い利用者」になることです。具体的には、次のステップが求められます。

AIで「発見」し、専門家と「検証」し、自分で「判断」する

AIは、私たちが知らなかった選択肢を「発見」するための強力なツールです。しかし、特に健康や安全に関わる情報は、必ず医師などの専門家と「検証」するプロセスが不可欠です。そして、集めた情報をもとに最終的な決断を下すのは、AIではなく自分自身です。

AIの進化は、私たちに思考停止を許しません。むしろ、これまで以上に自ら学び、考え、判断する力を求めています。AIの進化のスピードに、私たち人間の知恵とリテラシーが追いついていくこと。それこそが、AIと真に共存するための鍵となるでしょう。