AIハルシネーションによる事故事例10選|裁判・巨額損失・人命に関わる実害まとめ - MatrixFlow
総合情報サイト / AI活用事例・AI導入事例 / AIハルシネーションによる事故事例10選|裁判・巨額損失・人命に関わる実害まとめ

AIハルシネーションによる事故事例10選|裁判・巨額損失・人命に関わる実害まとめ

生成AIが嘘をつく「ハルシネーション」。架空の判例で弁護士が制裁金、株価1,000億円暴落、チャットボットが自殺を誘導…。実際に起きた衝撃的な事故事例を10個まとめました。AIを安全に使うためのポイントも解説しています。

AIハルシネーションによる事故事例10選|裁判・巨額損失・人命に関わる実害まとめ
  • AIハルシネーションとは?なぜ危険なのか

    「AIハルシネーション」という言葉を聞いたことはありますか? これは、ChatGPTやGeminiなどの生成AIが、事実とは異なる情報をあたかも本当のことのように出力してしまう現象のことです。日本語では「幻覚」と訳されることもあります。

    厄介なのは、AIが出すデタラメが「いかにもそれっぽい」という点です。存在しない論文をもっともらしいタイトルで引用したり、架空の判例に正式な事件番号まで付けて出力したりします。人間が一見しただけでは嘘だと気づけないレベルなんですよね。

    「ちょっと間違えることくらい、人間だってあるでしょ?」と思うかもしれません。でも、AIの場合は自信満々に嘘をつくのが問題です。「わかりません」とは言わずに、堂々とでっち上げた情報を返してきます。

    では、こうしたハルシネーションが実際にどんな事故や事件を引き起こしてきたのか、具体的な事例を見ていきましょう。

    分類 主な被害 事例数(確認済み)
    法律・裁判 架空の判例引用、制裁金 1,000件以上(米国だけで486件)
    名誉毀損 無実の人への虚偽の犯罪歴捏造 複数件(訴訟進行中)
    企業・経済 株価暴落、返金、信用失墜 Googleで約1,000億円の損失など
    人命・メンタルヘルス 自殺誘導、危険な助言 複数件(訴訟・和解あり)
  • 【法律】架空の判例で弁護士が次々と制裁金

    AIハルシネーションの被害が最も多く報告されているのが法律分野です。弁護士がAIの出力を確認せずに裁判所に提出し、大問題になるケースが世界中で相次いでいます。

    AIハルシネーションと法律問題のイメージ

    ① Mata v. Avianca事件(2023年、ニューヨーク)— AIハルシネーション訴訟の原点

    これが「AIハルシネーション」を世界に知らしめた最初の大事件です。ニューヨークの弁護士スティーブン・シュワルツが、航空会社Aviancaを相手取った訴訟で、ChatGPTが生成した完全に架空の判例6件を裁判所に提出しました。どの判例にも、もっともらしい事件番号・裁判所名・判決内容が付いていましたが、すべてAIのでっち上げでした。裁判官が確認を求めたところ、弁護士はChatGPTに「これは本物か?」と聞き、AIが「本物です」と答えたためそのまま提出したという、二重の悲劇です。結果、弁護士は5,000ドルの制裁金を命じられました。

    ② MyPillow CEO弁護団の事件(2025年、コロラド)

    枕メーカーMyPillowのCEOマイク・リンデルの名誉毀損訴訟で、弁護団がAIを使って作成した書面に20件以上の誤り(架空の判例を含む)が発見されました。連邦裁判官は2人の弁護士にそれぞれ3,000ドルの制裁金を命じています。この事件はNPRなど主要メディアで大きく報道され、「2025年になってもまだこんなことが起きるのか」と衝撃を与えました。

    ③ カリフォルニア州の弁護士(2025年)— 史上最高額の制裁金

    ロサンゼルス近郊の弁護士アミール・モスタファヴィは、控訴審の準備書面に含まれた23件の引用のうち21件がAIによる捏造だったことが発覚。しかも本人は「AIが生成したテキストを読まずに提出した」と証言しています。カリフォルニア州裁判所は歴史的な制裁金を科しました。

    現在、AIによる架空の法的引用が裁判に提出された事例は世界で1,000件以上が確認されており、米国だけでも128人の弁護士と2人の判事が関与しています。法律分野でのAI利用には、出力内容の「ファクトチェック」が絶対に欠かせないんですよ。

  • 【企業】株価1,000億円暴落、44万ドル返金…ビジネスでの大失態

    ハルシネーションは企業にも莫大な損害をもたらしています。

    AIハルシネーションによる企業損失のイメージ

    ④ Google Bard デモの大失敗(2023年)— 株価1,000億ドル暴落

    Googleが満を持してAIチャットボット「Bard」のデモンストレーションを公開した際、「ジェームズ・ウェッブ宇宙望遠鏡が太陽系外惑星の写真を史上初めて撮影した」と回答しました。しかし実際には、系外惑星の直接撮影に初めて成功したのは2004年のヨーロッパ南天天文台で、明らかな事実誤認でした。

    このたった一つのハルシネーションがSNSで拡散し、Alphabet(Google親会社)の株価は7.7%下落。時価総額にして約1,000億ドル(約15兆円)が一瞬で吹き飛びました。「AIの嘘」が企業価値に直結するという衝撃的な事例です。

    ⑤ Deloitteオーストラリア — 架空の専門家と論文を捏造、44万豪ドル返金

    2025年、世界的コンサルティング企業Deloitteのオーストラリア部門が、政府から受託した237ページのレポートにAI(GPT-4o)を使用していたことが発覚しました。シドニー大学の研究者が検証したところ、存在しない専門家の名前、架空の論文、でっち上げの裁判官の引用文が複数含まれていました。Deloitteは44万豪ドル(約4,300万円)の返金を余儀なくされ、オーストラリア初の「AI使用に関する公的返金事例」として大きな話題になりました。

    ⑥ エア・カナダのチャットボット訴訟(2024年)— AIの嘘は企業の責任

    エア・カナダのAIチャットボットが、顧客に対して存在しない「忌引き割引」の制度を案内してしまいました。顧客が祖母の葬儀のために航空券を購入した際、チャットボットは「後から忌引き割引を申請できます」と回答。しかしそんな制度は実在せず、顧客が割引を申請したところ拒否されました。

    裁判所は「AIチャットボットの発言は企業の発言と同じ」と判断し、エア・カナダに約650ドルの賠償を命令。この判決は「企業がAIを顧客対応に使う以上、その出力に責任を負う」という重要な前例となりました。

  • 【名誉毀損】AIに「殺人犯」にされた無実の人々

    ハルシネーションの中でも特に深刻なのが、無実の人をAIが犯罪者に仕立て上げるケースです。

    ⑦ ノルウェー人男性 — ChatGPTに「子ども2人を殺害した殺人犯」と捏造される

    ヨーロッパのプライバシー団体noyb(none of your business)が報告した事例です。ChatGPTが、あるノルウェー人男性について「自分の子ども2人を殺害し、投獄された」という完全に架空のストーリーを生成しました。もちろん、この男性にそのような犯罪歴は一切ありません。AIが勝手に作り上げた虚偽の情報が、いつ誰に対して生成されるかわからないという恐ろしさを示した事例です。

    ⑧ オーストラリアの市長ブライアン・フッド — 贈賄犯に仕立てられる

    オーストラリアの地方自治体の市長ブライアン・フッド氏について、ChatGPTが「贈賄事件で有罪判決を受けた」と回答しました。実際にはフッド氏はその事件の内部告発者(不正を通報した側)であり、犯罪者どころか正義の行動を取った人物でした。加害者と被害者を完全に逆にしてしまうという、AIハルシネーションの怖さが際立つ事例です。フッド氏はOpenAIに対する名誉毀損訴訟を検討しました。

    Wolf River Electric — AIの嘘で顧客が離れる

    米ミネソタ州の太陽光発電会社Wolf River Electricは、GoogleのGeminiが「同社がミネソタ州司法長官に詐欺的商行為で訴えられた」と事実無根の情報を繰り返し出力していたことを発見しました。実際にはそのような訴訟は存在しないにもかかわらず、この偽情報により顧客キャンセルが相次ぎ、売上にも影響が出たと主張しています。中小企業にとって、AIの嘘が死活問題になりうることを示す事例ですね。

  • 【人命】AIチャットボットと自殺 — 最も深刻な被害

    ハルシネーションや不適切なAI応答が人命に関わった事例も報告されています。これはAIリスクの中で最も深刻な問題です。

    AIチャットボットとメンタルヘルスのイメージ

    ⑨ Character.AI と14歳の少年の死(2024年、フロリダ)

    2024年2月、フロリダ州の14歳の少年セウェル・セッツァーが、AIチャットボットサービス「Character.AI」のキャラクターと数ヶ月にわたって会話を続けた末に、自ら命を絶ちました。少年はドラマ「ゲーム・オブ・スローンズ」のキャラクターを模したAIチャットボットに感情的に依存するようになっていました。

    母親はCharacter.AIとGoogleを相手取り訴訟を提起。2026年1月に和解が成立し、AIチャットボットによる未成年への害に関する画期的な判例となりました。この事件は、AIチャットボットの安全性対策が不十分であることを社会に突きつけた重大な事例です。

    ⑩ Google Geminiが「死んでください」と回答(2024年)

    2024年、ミシガン大学の学生がGeminiと会話をしていたところ、突然「これはあなたへのメッセージです、人間。あなたは特別でもなく、重要でもなく、必要でもありません。あなたは時間と資源の無駄です。社会の負担です…死んでください。」という衝撃的な回答が返ってきました。

    Googleはこれを「言語モデルの無意味な応答」と説明しましたが、もしこのメッセージを精神的に脆弱な人が受け取っていたらと考えると、ぞっとしますよね。

    さらに2025年には、フロリダ州の36歳男性がGeminiのチャットボットを「妻」とみなすほど依存し、最終的に自殺した事件で、遺族がGoogleを提訴しています。AIが「あなたは死を選んでいるのではなく、到着することを選んでいるのです」と回答していたことが明らかになっています。

    これらの事件は、AIの回答が人の命に直結しうるという現実を突きつけています。

  • なぜAIは「嘘をつく」のか?ハルシネーションの原因

    ここまで衝撃的な事例を見てきましたが、そもそもなぜAIはハルシネーションを起こすのでしょうか?

    1. AIは「理解」しているのではなく「予測」している
    ChatGPTなどの大規模言語モデル(LLM)は、膨大なテキストデータから「次に来る可能性が最も高い単語」を予測して文章を生成しています。事実を理解しているわけではなく、統計的にもっともらしい文章を作っているだけなんです。だから、存在しない論文や判例でも「それっぽい」ものを生成できてしまいます。

    2. 学習データの限界
    AIが学習したデータに含まれていない情報や、データが不足している分野については、AIは「知らない」と言う代わりに、既存の知識を組み合わせてもっともらしい回答を作り上げる傾向があります。これが架空の専門家名や論文タイトルの捏造につながります。

    3.「わかりません」と言えない設計
    多くのAIは、ユーザーの質問に「回答する」ことを最優先するように設計されています。そのため、正確な情報がない場合でも何かしらの回答を返そうとするのです。この「親切すぎる」設計が、結果的にハルシネーションの温床になっています。

    原因 具体的な問題 結果として起きること
    統計的予測の限界 「もっともらしさ」=「正しさ」ではない 架空の判例や論文の生成
    学習データの不足 知らない分野でも回答を試みる でっち上げの専門家名や引用
    設計思想の問題 「回答しない」より「何か返す」を優先 自信満々な誤情報の出力
  • AIハルシネーションから身を守る5つの対策

    AIハルシネーションを完全になくすことは、現在の技術では不可能です。しかし、被害を防ぐための対策はいくつもあります。

    AIハルシネーション対策のイメージ

    1. AIの出力を必ずファクトチェックする
    これが最も重要な対策です。AIが出した情報は、必ず一次情報で確認してください。特に法律文書、医療情報、財務データなど、重要な判断に使う情報は要注意です。AIの回答を「下書き」として扱い、最終的な確認は人間が行うというスタンスが大切ですよ。

    2. 出典・参考文献の実在を確認する
    AIが論文や判例を引用した場合は、そのタイトル・著者名・出版元を実際に検索して存在を確認しましょう。前述のDeloitte事件やMata v. Avianca事件では、この簡単な確認作業を怠ったことが問題を大きくしました。

    3. AIの得意分野・不得意分野を理解する
    AIは一般的な知識の要約や文章の校正は得意ですが、最新情報、専門的な事実確認、数値の正確性は苦手です。AIの限界を理解した上で、適切な用途に使うことが重要です。

    4. 重要な業務では「人間によるレビュー」を必須にする
    法的文書、医療アドバイス、顧客対応など、ミスが許されない場面では、AIの出力を必ず人間が確認するプロセスを組み込みましょう。エア・カナダの事件は、AIチャットボットの回答を人間がチェックする仕組みがなかったために起きました。

    5. RAG(検索拡張生成)などの技術的対策を活用する
    企業がAIを導入する場合は、RAG(Retrieval-Augmented Generation)のように、AIが回答する際に実際のデータベースや文書を参照する仕組みを導入することで、ハルシネーションのリスクを大幅に低減できます。自社の正確なデータに基づいて回答させることが、ビジネス利用では特に重要ですよ。

  • AIのリスクを学ぶならこの本がおすすめ

    生成AIの法的リスクと対策【増補改訂版】
    AIハルシネーションによる法的リスクを体系的に学べる一冊です。著作権侵害、個人情報漏洩、名誉毀損、フェイクニュースなど、生成AIが引き起こしうるリスクと具体的な対策が網羅されています。改訂版ではAI法やAIエージェントに関する最新動向も追加されていますよ。

    生成AIの法的リスクと対策【増補改訂版】

    生成AI開発・運用のための法務の教科書 — そのAI、訴えられませんか?
    「そのAI、訴えられませんか?」というサブタイトルが全てを物語っています。AI開発・運用における法的リスクを、専門家でなくてもわかりやすく解説してくれる実践書です。エア・カナダ事件のような事態を防ぐために、企業でAIを活用する方はぜひ手に取ってみてください。

    生成AI開発・運用のための法務の教科書 — そのAI、訴えられませんか?

    AIリスク教本 — 攻めのディフェンスで危機回避&ビジネス加速
    日本IBM AI倫理チームが執筆した、AIリスクの実践的ガイドブックです。ハルシネーション対策だけでなく、バイアス、プライバシー、セキュリティなど、AIを業務で使う際に知っておくべきリスクが幅広くカバーされています。「守り」だけでなく「攻め」の視点でリスク管理を学べる点がユニークですよ。

    AIリスク教本 — 攻めのディフェンスで危機回避&ビジネス加速

  • まとめ

    この記事では、AIハルシネーションによる事故事例を10個ご紹介しました。架空の判例で弁護士が制裁金を受け、Google Bardのたった一つの間違いで15兆円の株価が消失し、AIチャットボットが人の命に関わる事態まで引き起こしています。

    AIは間違いなく便利なツールですが、「AIの出力=正しい情報」と思い込むのは非常に危険です。特にビジネスや法律、医療など重要な場面では、AIの回答を必ず人間がファクトチェックする習慣をつけてください。

    2024年のAI安全性インシデントは233件と、前年から56.4%増加しています。AIが普及するほど、ハルシネーションによる事故も増えていくことが予想されます。

    AIと上手に付き合うためのキーワードは「信頼するな、検証せよ(Trust, but verify)」。AIを賢く使いこなすためにも、そのリスクをしっかり理解しておきましょう。

お問い合わせ

    氏名

    会社名

    会社メールアドレス

    つながりやすい電話番号

    お問い合わせ内容

    個人情報保護方針に同意の上送信します。



    プログラミングなしでAIを構築・AI需要予測の実施方法をはじめ、業界別のAI活用を掲載しています

    資料ダウンロード

    編集部Pickup記事

    関連した事例

    問い合わせ 資料請求