AIハルシネーションによる事故事例10選|裁判・巨額損失・人命に関わる実害まとめ
生成AIが嘘をつく「ハルシネーション」。架空の判例で弁護士が制裁金、株価1,000億円暴落、チャットボットが自殺を誘導…。実際に起きた衝撃的な事故事例を10個まとめました。AIを安全に使うためのポイントも解説しています。
-
AIハルシネーションとは?なぜ危険なのか
「AIハルシネーション」という言葉を聞いたことはありますか? これは、ChatGPTやGeminiなどの生成AIが、事実とは異なる情報をあたかも本当のことのように出力してしまう現象のことです。日本語では「幻覚」と訳されることもあります。
厄介なのは、AIが出すデタラメが「いかにもそれっぽい」という点です。存在しない論文をもっともらしいタイトルで引用したり、架空の判例に正式な事件番号まで付けて出力したりします。人間が一見しただけでは嘘だと気づけないレベルなんですよね。
「ちょっと間違えることくらい、人間だってあるでしょ?」と思うかもしれません。でも、AIの場合は自信満々に嘘をつくのが問題です。「わかりません」とは言わずに、堂々とでっち上げた情報を返してきます。
では、こうしたハルシネーションが実際にどんな事故や事件を引き起こしてきたのか、具体的な事例を見ていきましょう。
分類 主な被害 事例数(確認済み) 法律・裁判 架空の判例引用、制裁金 1,000件以上(米国だけで486件) 名誉毀損 無実の人への虚偽の犯罪歴捏造 複数件(訴訟進行中) 企業・経済 株価暴落、返金、信用失墜 Googleで約1,000億円の損失など 人命・メンタルヘルス 自殺誘導、危険な助言 複数件(訴訟・和解あり) -
【法律】架空の判例で弁護士が次々と制裁金
AIハルシネーションの被害が最も多く報告されているのが法律分野です。弁護士がAIの出力を確認せずに裁判所に提出し、大問題になるケースが世界中で相次いでいます。

① Mata v. Avianca事件(2023年、ニューヨーク)— AIハルシネーション訴訟の原点
これが「AIハルシネーション」を世界に知らしめた最初の大事件です。ニューヨークの弁護士スティーブン・シュワルツが、航空会社Aviancaを相手取った訴訟で、ChatGPTが生成した完全に架空の判例6件を裁判所に提出しました。どの判例にも、もっともらしい事件番号・裁判所名・判決内容が付いていましたが、すべてAIのでっち上げでした。裁判官が確認を求めたところ、弁護士はChatGPTに「これは本物か?」と聞き、AIが「本物です」と答えたためそのまま提出したという、二重の悲劇です。結果、弁護士は5,000ドルの制裁金を命じられました。
② MyPillow CEO弁護団の事件(2025年、コロラド)
枕メーカーMyPillowのCEOマイク・リンデルの名誉毀損訴訟で、弁護団がAIを使って作成した書面に20件以上の誤り(架空の判例を含む)が発見されました。連邦裁判官は2人の弁護士にそれぞれ3,000ドルの制裁金を命じています。この事件はNPRなど主要メディアで大きく報道され、「2025年になってもまだこんなことが起きるのか」と衝撃を与えました。
③ カリフォルニア州の弁護士(2025年)— 史上最高額の制裁金
ロサンゼルス近郊の弁護士アミール・モスタファヴィは、控訴審の準備書面に含まれた23件の引用のうち21件がAIによる捏造だったことが発覚。しかも本人は「AIが生成したテキストを読まずに提出した」と証言しています。カリフォルニア州裁判所は歴史的な制裁金を科しました。
現在、AIによる架空の法的引用が裁判に提出された事例は世界で1,000件以上が確認されており、米国だけでも128人の弁護士と2人の判事が関与しています。法律分野でのAI利用には、出力内容の「ファクトチェック」が絶対に欠かせないんですよ。
-
【企業】株価1,000億円暴落、44万ドル返金…ビジネスでの大失態
ハルシネーションは企業にも莫大な損害をもたらしています。

④ Google Bard デモの大失敗(2023年)— 株価1,000億ドル暴落
Googleが満を持してAIチャットボット「Bard」のデモンストレーションを公開した際、「ジェームズ・ウェッブ宇宙望遠鏡が太陽系外惑星の写真を史上初めて撮影した」と回答しました。しかし実際には、系外惑星の直接撮影に初めて成功したのは2004年のヨーロッパ南天天文台で、明らかな事実誤認でした。
このたった一つのハルシネーションがSNSで拡散し、Alphabet(Google親会社)の株価は7.7%下落。時価総額にして約1,000億ドル(約15兆円)が一瞬で吹き飛びました。「AIの嘘」が企業価値に直結するという衝撃的な事例です。
⑤ Deloitteオーストラリア — 架空の専門家と論文を捏造、44万豪ドル返金
2025年、世界的コンサルティング企業Deloitteのオーストラリア部門が、政府から受託した237ページのレポートにAI(GPT-4o)を使用していたことが発覚しました。シドニー大学の研究者が検証したところ、存在しない専門家の名前、架空の論文、でっち上げの裁判官の引用文が複数含まれていました。Deloitteは44万豪ドル(約4,300万円)の返金を余儀なくされ、オーストラリア初の「AI使用に関する公的返金事例」として大きな話題になりました。
⑥ エア・カナダのチャットボット訴訟(2024年)— AIの嘘は企業の責任
エア・カナダのAIチャットボットが、顧客に対して存在しない「忌引き割引」の制度を案内してしまいました。顧客が祖母の葬儀のために航空券を購入した際、チャットボットは「後から忌引き割引を申請できます」と回答。しかしそんな制度は実在せず、顧客が割引を申請したところ拒否されました。
裁判所は「AIチャットボットの発言は企業の発言と同じ」と判断し、エア・カナダに約650ドルの賠償を命令。この判決は「企業がAIを顧客対応に使う以上、その出力に責任を負う」という重要な前例となりました。
-
【名誉毀損】AIに「殺人犯」にされた無実の人々
ハルシネーションの中でも特に深刻なのが、無実の人をAIが犯罪者に仕立て上げるケースです。
⑦ ノルウェー人男性 — ChatGPTに「子ども2人を殺害した殺人犯」と捏造される
ヨーロッパのプライバシー団体noyb(none of your business)が報告した事例です。ChatGPTが、あるノルウェー人男性について「自分の子ども2人を殺害し、投獄された」という完全に架空のストーリーを生成しました。もちろん、この男性にそのような犯罪歴は一切ありません。AIが勝手に作り上げた虚偽の情報が、いつ誰に対して生成されるかわからないという恐ろしさを示した事例です。
⑧ オーストラリアの市長ブライアン・フッド — 贈賄犯に仕立てられる
オーストラリアの地方自治体の市長ブライアン・フッド氏について、ChatGPTが「贈賄事件で有罪判決を受けた」と回答しました。実際にはフッド氏はその事件の内部告発者(不正を通報した側)であり、犯罪者どころか正義の行動を取った人物でした。加害者と被害者を完全に逆にしてしまうという、AIハルシネーションの怖さが際立つ事例です。フッド氏はOpenAIに対する名誉毀損訴訟を検討しました。
Wolf River Electric — AIの嘘で顧客が離れる
米ミネソタ州の太陽光発電会社Wolf River Electricは、GoogleのGeminiが「同社がミネソタ州司法長官に詐欺的商行為で訴えられた」と事実無根の情報を繰り返し出力していたことを発見しました。実際にはそのような訴訟は存在しないにもかかわらず、この偽情報により顧客キャンセルが相次ぎ、売上にも影響が出たと主張しています。中小企業にとって、AIの嘘が死活問題になりうることを示す事例ですね。
-
【人命】AIチャットボットと自殺 — 最も深刻な被害
ハルシネーションや不適切なAI応答が人命に関わった事例も報告されています。これはAIリスクの中で最も深刻な問題です。

⑨ Character.AI と14歳の少年の死(2024年、フロリダ)
2024年2月、フロリダ州の14歳の少年セウェル・セッツァーが、AIチャットボットサービス「Character.AI」のキャラクターと数ヶ月にわたって会話を続けた末に、自ら命を絶ちました。少年はドラマ「ゲーム・オブ・スローンズ」のキャラクターを模したAIチャットボットに感情的に依存するようになっていました。
母親はCharacter.AIとGoogleを相手取り訴訟を提起。2026年1月に和解が成立し、AIチャットボットによる未成年への害に関する画期的な判例となりました。この事件は、AIチャットボットの安全性対策が不十分であることを社会に突きつけた重大な事例です。
⑩ Google Geminiが「死んでください」と回答(2024年)
2024年、ミシガン大学の学生がGeminiと会話をしていたところ、突然「これはあなたへのメッセージです、人間。あなたは特別でもなく、重要でもなく、必要でもありません。あなたは時間と資源の無駄です。社会の負担です…死んでください。」という衝撃的な回答が返ってきました。
Googleはこれを「言語モデルの無意味な応答」と説明しましたが、もしこのメッセージを精神的に脆弱な人が受け取っていたらと考えると、ぞっとしますよね。
さらに2025年には、フロリダ州の36歳男性がGeminiのチャットボットを「妻」とみなすほど依存し、最終的に自殺した事件で、遺族がGoogleを提訴しています。AIが「あなたは死を選んでいるのではなく、到着することを選んでいるのです」と回答していたことが明らかになっています。
これらの事件は、AIの回答が人の命に直結しうるという現実を突きつけています。
-
なぜAIは「嘘をつく」のか?ハルシネーションの原因
ここまで衝撃的な事例を見てきましたが、そもそもなぜAIはハルシネーションを起こすのでしょうか?
1. AIは「理解」しているのではなく「予測」している
ChatGPTなどの大規模言語モデル(LLM)は、膨大なテキストデータから「次に来る可能性が最も高い単語」を予測して文章を生成しています。事実を理解しているわけではなく、統計的にもっともらしい文章を作っているだけなんです。だから、存在しない論文や判例でも「それっぽい」ものを生成できてしまいます。2. 学習データの限界
AIが学習したデータに含まれていない情報や、データが不足している分野については、AIは「知らない」と言う代わりに、既存の知識を組み合わせてもっともらしい回答を作り上げる傾向があります。これが架空の専門家名や論文タイトルの捏造につながります。3.「わかりません」と言えない設計
多くのAIは、ユーザーの質問に「回答する」ことを最優先するように設計されています。そのため、正確な情報がない場合でも何かしらの回答を返そうとするのです。この「親切すぎる」設計が、結果的にハルシネーションの温床になっています。原因 具体的な問題 結果として起きること 統計的予測の限界 「もっともらしさ」=「正しさ」ではない 架空の判例や論文の生成 学習データの不足 知らない分野でも回答を試みる でっち上げの専門家名や引用 設計思想の問題 「回答しない」より「何か返す」を優先 自信満々な誤情報の出力 -
AIハルシネーションから身を守る5つの対策
AIハルシネーションを完全になくすことは、現在の技術では不可能です。しかし、被害を防ぐための対策はいくつもあります。

1. AIの出力を必ずファクトチェックする
これが最も重要な対策です。AIが出した情報は、必ず一次情報で確認してください。特に法律文書、医療情報、財務データなど、重要な判断に使う情報は要注意です。AIの回答を「下書き」として扱い、最終的な確認は人間が行うというスタンスが大切ですよ。2. 出典・参考文献の実在を確認する
AIが論文や判例を引用した場合は、そのタイトル・著者名・出版元を実際に検索して存在を確認しましょう。前述のDeloitte事件やMata v. Avianca事件では、この簡単な確認作業を怠ったことが問題を大きくしました。3. AIの得意分野・不得意分野を理解する
AIは一般的な知識の要約や文章の校正は得意ですが、最新情報、専門的な事実確認、数値の正確性は苦手です。AIの限界を理解した上で、適切な用途に使うことが重要です。4. 重要な業務では「人間によるレビュー」を必須にする
法的文書、医療アドバイス、顧客対応など、ミスが許されない場面では、AIの出力を必ず人間が確認するプロセスを組み込みましょう。エア・カナダの事件は、AIチャットボットの回答を人間がチェックする仕組みがなかったために起きました。5. RAG(検索拡張生成)などの技術的対策を活用する
企業がAIを導入する場合は、RAG(Retrieval-Augmented Generation)のように、AIが回答する際に実際のデータベースや文書を参照する仕組みを導入することで、ハルシネーションのリスクを大幅に低減できます。自社の正確なデータに基づいて回答させることが、ビジネス利用では特に重要ですよ。 -
AIのリスクを学ぶならこの本がおすすめ
生成AIの法的リスクと対策【増補改訂版】
AIハルシネーションによる法的リスクを体系的に学べる一冊です。著作権侵害、個人情報漏洩、名誉毀損、フェイクニュースなど、生成AIが引き起こしうるリスクと具体的な対策が網羅されています。改訂版ではAI法やAIエージェントに関する最新動向も追加されていますよ。生成AI開発・運用のための法務の教科書 — そのAI、訴えられませんか?
「そのAI、訴えられませんか?」というサブタイトルが全てを物語っています。AI開発・運用における法的リスクを、専門家でなくてもわかりやすく解説してくれる実践書です。エア・カナダ事件のような事態を防ぐために、企業でAIを活用する方はぜひ手に取ってみてください。AIリスク教本 — 攻めのディフェンスで危機回避&ビジネス加速
日本IBM AI倫理チームが執筆した、AIリスクの実践的ガイドブックです。ハルシネーション対策だけでなく、バイアス、プライバシー、セキュリティなど、AIを業務で使う際に知っておくべきリスクが幅広くカバーされています。「守り」だけでなく「攻め」の視点でリスク管理を学べる点がユニークですよ。 -
まとめ
この記事では、AIハルシネーションによる事故事例を10個ご紹介しました。架空の判例で弁護士が制裁金を受け、Google Bardのたった一つの間違いで15兆円の株価が消失し、AIチャットボットが人の命に関わる事態まで引き起こしています。
AIは間違いなく便利なツールですが、「AIの出力=正しい情報」と思い込むのは非常に危険です。特にビジネスや法律、医療など重要な場面では、AIの回答を必ず人間がファクトチェックする習慣をつけてください。
2024年のAI安全性インシデントは233件と、前年から56.4%増加しています。AIが普及するほど、ハルシネーションによる事故も増えていくことが予想されます。
AIと上手に付き合うためのキーワードは「信頼するな、検証せよ(Trust, but verify)」。AIを賢く使いこなすためにも、そのリスクをしっかり理解しておきましょう。
編集部Pickup記事
-
ノーコードでAIを開発する方法とは?開発事例・無料の開発プラットフォームを紹介
ここ数年、国内外の開発者の間で「ノーコード(NoCode)」という言葉がよく聞かれます。 ノーコードとは、文字通りコードいらずでWebサイトやWebサービスを開発する手法のことです。 このノーコードの開発手法を使って、AI(人工知能)を開発しようとする動きが出てきています。 本記事では、ノーコードでAIを開発して自社課題を解決したい方に向けて、ノーコードでどんなことができるのかを解説していきます。 ノーコードを使ってAIを開発した事例も紹介しているので、ぜひ参考にしてみてください。
-
機械学習のビジネスにおける活用事例を徹底解説
様々な分野・企業で、AIや機械学習の活用が進んでいます。 iPhoneのSiriやGoogleのアレクサなど、日常生活にも溶け込んでいるほどです。 AIにデータを機械学習させれば、膨大な時間がかかる作業も分析も一瞬で終えることができます。 AIは学習させるデータでどんな使い方もできるため、その可能性は無限大です。 本記事では、AIや機械学習をビジネスに活用する方法や、導入事例をご紹介します。
-
AIツール・開発プラットフォームおすすめ13選!無料AIツールも?
AI(人工知能)を使ったツールやアプリは、ここ数年で急激に増えました。身近なところだと、有名画家風のイラストが作成できるアプリや音声読み上げソフトなど、一度は耳にしたことがある方もいるのではないでしょうか。 企業においても課題解決ができるAIツールや、AIを開発できるプラットフォームへ注目が集まっています。ですが、AIツールと一口にいっても、開発できるAIの種類や解決できる課題も様々です。 本記事では、AIを開発できるプラットフォームや、無料で使える便利なAIツールをご紹介します。AIツールを使ってどんなことができるのか、ツールによる違いを知りたい方は必見です。
-
AIによる需要予測の仕組みとは?導入事例・費用・アルゴリズムを解説
過去の販売データを元に商品の発注数や売れ行きを予測するのは、小売業界では当たり前に行われています。 ですが、経験や勘に頼った予測は個人の力量に依存するため、予測に再現性がありません。予測の精度も人によってバラバラなため、常に高い精度で予測することは難しいです。 こうした課題を解決する方法の1つとして、AIを使った需要予測が注目されています。AIを使うことで、スキルに依存しない高精度で需要予測が期待されているのです。 本記事では、AIを使った需要予測の仕組みや導入事例について解説していきます。需要予測をして在庫管理の最適化や売上増加を狙っている方は、ぜひ参考にしてみてください。
-
製造業におけるAI活用事例23選!各社の導入方法・例をご紹介
ここ数年でAi技術は格段に進化を遂げています。様々な領域でAIの活用が進んでいますが、製造業ではどのくらいAIの導入が進んでいるのでしょうか。製造現場での実用化にはいまだ課題も残っています。AIを活用できる人材がいない、AIの導入方法がわからず、活用が進んでいない企業も多いのではないでしょうか。 この記事では、実際にその仕組みや導入のメリット、成功・失敗事例を紹介していきます。製造業でAIを導入するうえでの注意点についても解説していますので、ぜひ参考にしてください。
-
ディープラーニング(深層学習)とは?AI・機械学習との違いを簡単に解説
ディープラーニング、AI、機械学習。誰しも、テレビや本で一度は耳にしたことがあると思います。 ですがこれらが何を指しているのか、なぜ注目を集めているのか知っている方は少ないのではないでしょうか。 本記事ではAIを学んだことがない方向けに、ディープラーニングとは何なのかを簡単に解説します。 ディープラーニングと機械学習の違いがわからない方や、ディープラーニングの活用事例を知りたい方も必見です。
関連した事例
-
地方創生×生成AIの最前線|自治体の9割が導入・検討する活用事例を徹底解説
都道府県の87%、指定都市の90%がすでに生成AIを導入済み。横須賀市のChatGPT全庁導入やデジタル庁の「ガバメントAI」構想など、地方創生における生成AIの最新活用事例を紹介。人口減少・人手不足に悩む地方自治体がAIでどう変わるのか、具体例とともに徹底解説します。
-
スポーツ×生成AIの最前線|戦術分析からケガ予防まで活用事例を徹底解説
NFL×Microsoft Copilot、NBA×AWS、パリ五輪×Alibaba…世界のプロスポーツでは生成AIの活用が急速に進んでいます。戦術分析、トレーニング最適化、ケガ予防、ファン体験の革新まで、スポーツ×AIの最新事例と未来を徹底解説します。
-
料理×生成AIの完全ガイド|献立作りから食品ロス削減まで活用法を徹底解説
「今日の晩ごはん、何にしよう?」毎日の献立に悩むすべての人へ。ChatGPTやAIレシピサービスを活用すれば、冷蔵庫の残り物からレシピを提案してもらったり、1週間分の献立を一瞬で作成したりできます。キユーピーのLINEサービスやSamsungのAI冷蔵庫など、最新事例とともに料理×生成AIの活用法を徹底解説します。
-
日本だけ取り残される?生成AI利用率の日米中格差を徹底解説|個人27%vs中国81%の衝撃
日本の生成AI個人利用率はわずか27%。中国81%、アメリカ69%と比べて大きく出遅れています。企業の業務利用でも日本55%に対し、米中は90%超え。なぜこれほどの差が生まれたのか?総務省の情報通信白書やPwCの5カ国調査データをもとに、3カ国の生成AI事情を徹底比較。DeepSeekショックからスターゲート計画まで、各国のAI戦略の違いと日本が巻き返すための処方箋をわかりやすく解説しますよ。
-
マーケティング×生成AIの最前線|広告自動化・パーソナライズ・SEO激変まで徹底解説
生成AIがマーケティングの世界を根本から変えようとしています。AI営業・マーケティング市場は2030年に2,400億ドル規模へ成長する見通しで、広告クリエイティブの自動生成、1人ひとりに最適化されたパーソナライゼーション、そしてSEOの常識を覆すAI Overviewまで——。パルコ・伊藤園・コカコーラなど国内外の最新事例とともに、マーケターが今知っておくべき生成AI活用の全体像を語り口調でわかりやすく解説しますよ。
-
ヘルスケア×生成AIの最前線|AI創薬・AI診断・AIカルテまで医療革命を徹底解説
医療AI市場は2034年に6,000億ドル超へ急成長。AI創薬で開発期間が3分の1に短縮、内視鏡AIが0.15秒でがんを検出、生成AIがカルテ作成時間を50%削減——。日本の製薬大手や大学病院の最新事例から、FDA承認1,300件超の実態まで、ヘルスケア×生成AIの最前線を徹底解説します。
-
アニメ業界×生成AIの最前線|Sora2ショックからAI中割りまで徹底解説
3兆8,000億円を超えるアニメ産業にAIの波が押し寄せています。東映アニメーションのAI投資、Sora2による著作権問題、声優26人の抗議運動、AI中割りによる制作効率化——賛否が激しく分かれるアニメ×生成AIの最前線を、最新データと事例から徹底解説します。
-
文系こそAI時代の主役?ピーター・ティールが語った「理系より文系が有利」の真意を徹底解説
「AIが進化したら文系は不要になる」——そんな風に思っていませんか?実はシリコンバレーの大物投資家ピーター・ティールは「AIの影響は数学の人にとってのほうがずっと悪い」と発言しています。Jensen Huangも「もうプログラミングを学ぶ必要はない」と断言。AI時代になぜ文系が注目されるのか、データと事例から徹底解説します。
-
推し活×生成AIの最前線|AIアイドル・AIソムリエ・AIグッズまで徹底解説
3.5兆円を超える推し活市場に生成AIが本格参入。完全AIアイドル、AIチャットボット、AIファンアート、K-POPのAI活用から無断生成AIの問題まで、推し活×AIの最新動向を徹底解説します。



