ChatGPTのような生成AIを弁護士代わりに法廷で使い、訴訟で勝利を収める人がアメリカで現れ始めています。AIを駆使して立ち退き通知を覆した成功事例がある一方で、AIが生成した「存在しない判例」を引用してしまい、罰金や社会奉仕活動を命じられるケースも後を絶ちません。
誰もが使えるようになったAIは、法律という専門分野でどこまで役立ち、どのようなリスクを伴うのでしょうか。NBCニュースの報道「ChatGPTを弁護士代わりに法廷で使い、勝訴する人々」を基に、AIを使った自己弁護の最前線とその課題を探ります。
AIは「法律アシスタント」になるか?法廷で勝利した人々
弁護士を立てずに自ら裁判に臨む「本人訴訟」において、生成AIの活用が急速に広がっています。専門知識がなくても、AIが法廷での自己弁護を力強くサポートしてくれる可能性があるからです。
立ち退き通知を覆した、AIとの二人三脚
カリフォルニア州ロングビーチに住むある女性は、家賃滞納を理由に立ち退き通知を受け、一度は敗訴しました。しかし、彼女は諦めずに自身の音楽ビジネスで活用していたAIに助けを求めました。
ChatGPTとAI検索エンジンPerplexityを駆使して裁判所に提出する書類を作成し、法的手続きに誤りがないか調査。その使い心地を「まるで神様が答えてくれるようでした」と語っています。彼女はAIのサポートを得て最終的に立ち退き通知を覆し、約55,000ドル(約840万円)の罰金と18,000ドル(約280万円)の未払い家賃を回避しました。さらに、和解交渉によって当初の債務も2,000ドル(約30万円)以上削減することに成功したといいます。彼女は、AIなしでは決して勝てなかったと断言しています。
AIをビジネスから訴訟まで活用
ニューメキシコ州でホームフィットネス事業を営む女性も、AIの早期導入者の一人です。未払い債務に関する訴訟に直面した際、彼女はChatGPTに助言を求め、主張のテンプレート作成や法的な議論の構築でサポートを受けました。
彼女はAIに「ハーバード大学の法学教授になりきって、私の主張を徹底的に批判してほしい」と指示し、自身の論理の弱点をあぶり出す作業を繰り返したといいます。
これらの事例は、AIが専門知識のない人にとって、複雑な法律問題に立ち向かうための「仮想の法律アシスタント」となり得ることを示しています。インターネットさえあれば誰もが利用できる生成AIは、司法へのアクセスをより身近なものに変える可能性を秘めているのです。
AI利用の大きな落とし穴「ハルシネーション」という“嘘”
AIの進化は目覚ましい一方、その情報には注意すべき「落とし穴」があります。特に法廷でAIを利用する際に警戒すべきなのが、「ハルシネーション」と呼ばれる現象です。
これは、AIが事実であるかのように、実際には存在しない情報や誤った情報を生成してしまう現象を指します。AIは膨大なデータから最も確からしい回答を生成しますが、知識の隙間を埋めるために、時に「もっともらしい嘘」を作り出してしまうのです。
専門家によると、2023年以降、アメリカ国内で282件、国外でも130件以上の訴訟におけるAI利用事例が確認されており、その傾向は急速に加速しています。それに伴い、ハルシネーションが法廷で深刻な問題を引き起こすケースも増えています。
- 存在しない判例の引用: エナジードリンク界の大物ジャック・オウォク氏は、AIを利用して作成した訴訟書類で、実在しない判例を11件引用しました。その結果、10時間の社会奉仕活動と、今後の提出書類でAI利用の有無を開示することを命じられました。彼は、AIが生成した情報を鵜呑みにせず、自分で確認することの重要性を痛感したと述べています。
- 弁護士にも高額な罰金: カリフォルニア州の弁護士が、引用した23件の判例のうち21件がChatGPTによるハルシネーションだったとして、10,000ドル(約150万円)の罰金を命じられました。これはAIによる虚偽引用に対する罰金としては史上最高額とされています。
- AIの「嘘」に翻弄された当事者: 別の訴訟当事者は、AIが提示した存在しない判例を引用して裁判官から注意を受けました。彼は「AIのせいで、私が裁判官を欺こうとしたかのように思われた」と語ります。幸い、裁判所は彼の謝罪を受け入れ、最終的に制裁を科すことはありませんでした。
- 訴訟の権利が制限される危険性: 登録看護師のマシュー・ガーセス氏は、AIを駆使して28件もの連邦民事訴訟を管理していましたが、第5巡回区控訴裁判所から「軽薄、反復的、または濫用的」な申し立てを繰り返しているとして複数回の警告を受けました。さらに、別の裁判官からは「濫訴的訴訟当事者」に認定することが勧告され、将来的に新たな訴訟を起こす権利が厳しく制限される可能性に直面しています。
専門家は、AIハルシネーションを「架空の判例」「既存判例からの虚偽引用」「事実関係の誤解釈」の3タイプに分類しています。厳密さが求められる法廷でAIの情報を利用するには、訴訟の遅延や罰金、そして当事者の信用失墜につながる大きなリスクが伴うのです。
法曹界に広がるAI活用と、私たちが備えるべきこと
AIの活用は、一般の訴訟当事者だけでなく、法律の専門家である弁護士の間でも進んでいます。
ロサンゼルスでは、非営利の法律事務所が、本人訴訟の当事者向けにAIを責任を持って活用するためのクラスを開設しました。このクラスでは、AIの出力の事実確認方法などが教えられ、受講者の中には実際にAIを活用して勝訴した人もいます。
ある弁護士は、AIを「次なるフロンティア」と捉え、事務所で積極的に活用しています。AIは単に情報を集めるだけでなく、新たなアイデアを生むためのブレインストーミングの出発点にもなるそうです。ただし、顧客の個人情報や機密情報は決して入力せず、AIが示した引用は必ず自らの目で一つ一つ確認することを徹底しています。
専門家は「AIは弁護士の訴訟準備をより迅速かつ質の高いものにします。今後、AIを使わないことは時代に乗り遅れることを意味するでしょう」と指摘します。インターネット検索が法律書を過去のものにしたように、AIが法曹界のあり方を根底から変えるかもしれません。
日本でも、法律相談や契約書作成支援など、身近なサービスにAIが導入され始めています。弁護士や法律関係者はもちろん、私たち自身もAIの可能性とリスクを正しく理解し、賢く付き合っていくことが求められます。
AIとの共存に求められる「リテラシー」
AIは、これまで専門家へのアクセスが難しかった人々にとって、司法への扉を開く大きな希望となる可能性を秘めています。今後、法曹界ではAI活用が標準となり、弁護士の役割も、より創造的な戦略立案や倫理的判断へとシフトしていくでしょう。
しかし、この強力なツールを使いこなすには、AIが生成した情報を鵜呑みにしない冷静な視点が不可欠です。成功と失敗を分けるのは、AIを万能の解決策と見るか、あくまで「優秀だが完璧ではないアシスタント」と捉えるかの違いにあります。
AIの回答は「出発点」であり、最終的な判断と責任は人間が負う。この原則を忘れずに「AIリテラシー」を身につけることこそが、テクノロジーの恩恵を最大限に享受し、AIと共存する未来への第一歩となるのです。
