ハルシネーションとは?AIが嘘をつく原因と対策をわかりやすく解説

AI・テクノロジー

「ChatGPTが存在しない論文を自信満々に引用した」「AIが事実と全く異なることを断言した」——これがハルシネーション(AI幻覚)です。AIを仕事で使うなら絶対に知っておくべき現象で、適切な対策を取ることで大幅にリスクを減らせます。

ハルシネーションとは?

ハルシネーション(Hallucination・幻覚)とは、AIが事実と異なる情報を、自信満々に・もっともらしく生成してしまう現象です。医学用語の「幻覚」から名前が来ており、AIが「存在しないものを見ている」状態を表します。

単純な「間違い」と違うのは、AIが非常に自信を持って誤情報を提示するという点です。「わかりません」と言ってくれれば対処できますが、ハルシネーションは「正しそうな嘘」として提示されるため、気づきにくく危険です。特に専門知識がない分野での確認が難しいことが問題です。

ハルシネーションの具体例

事例① 存在しない論文の引用
「この分野の最新研究を教えて」と聞くと、実在しない著者名・雑誌名・年号を組み合わせた存在しない論文を引用する。タイトル・著者・DOIまで完璧に作り上げてしまう。米国の弁護士がChatGPTが引用した判例が存在しないまま裁判に提出した事件が有名。
事例② 歴史・事実の誤り
「○○氏は△△で有名だ」と述べるが、実際は全く別のことで有名だったり、そもそも存在しない人物だったりする。特に著名度が低い人物・企業・地域の情報は誤りが多い。
事例③ コードのバグ
AIが生成したコードが実行するとエラーになる。存在しないAPIメソッドや関数を使ったり、ライブラリの仕様変更に対応していないコードを自信満々に提示することがある。
事例④ 最新情報の虚偽
学習データの締め切り後の出来事を、さも知っているかのように述べる。現在の株価・最新のニュース・最近の法改正などを古い情報や作り話で答える。

なぜハルシネーションが起きるのか

LLMは「次の単語を確率的に予測する」モデルです。意味を「理解」しているのではなく、学習データのパターンから「もっともらしい続き」を生成します。このため、正確な情報がない場合でも、それらしい情報を生成してしまいます。特に「珍しい質問・専門的な質問・最近の情報」に関してはパターンが少なく、ハルシネーションが起きやすくなります。

ハルシネーションを防ぐ5つの対策

対策① RAGを使う
信頼できる情報源をベクトルDBに格納し、AIに参照させる。「根拠のあるデータに基づいた回答のみ」をするよう制約できる。ハルシネーション防止の最も効果的な手法。
対策② 情報源を要求する
「出典を教えて」「参考にしたURLを教えて」と聞く。情報源を要求されると、AIは根拠のある情報だけを提示しやすくなる。ただしURLも作られることがあるので要注意。
対策③ 「わからない場合は正直に言って」と指示する
システムプロンプトに「確信が持てない情報については『わかりません』と答えてください」と明示する。これだけでハルシネーションを大幅に減らせる。
対策④ Webサーチ機能を使う
Perplexity AI・ChatGPT with Search・Claude with Web Searchなど、リアルタイムでWebを検索しながら回答するAIを使う。最新情報・事実確認が必要な場面で有効。
対策⑤ 重要な情報は必ず自分で確認する
医療・法律・投資などの重要な決定にAIの回答だけを根拠にしない。AIを参考程度に使い、最終確認は信頼できる情報源や専門家に行う。

ハルシネーションが起きやすいトピック

トピックリスクレベル注意点
最新ニュース・時事非常に高い学習データの締め切り後の情報は作られることが多い
学術論文・引用非常に高い存在しない論文を完璧な形式で生成することがある
法律・規制高い改正された法律や地域固有の規制が誤りやすい
医療情報高い薬の副作用・用量・相互作用は必ず専門家に確認
歴史的事実中程度マイナーな人物・出来事は誤りが多い
プログラミング中程度古いバージョンのAPIや存在しないメソッドを使うことがある
一般常識・有名事実低い広く知られた事実は比較的正確だが過信禁物

よくある質問

ハルシネーションはなくなる?

完全になくすことは難しいと言われています。LLMが「次の単語を予測する」という根本的な仕組みを使っている限り、ある程度のハルシネーションは不可避です。ただしRLHF(人間のフィードバックによる強化学習)・RAGの活用・モデルの大型化などにより、年々ハルシネーションの頻度は減っています。現在のClaude・GPT-4oは以前のモデルと比べてかなり改善されています。

どのAIがハルシネーションが少ない?

2024年の評価では、Claude 3.5 SonnetとGPT-4oが比較的ハルシネーションが少ないとされています。Anthropicが「Constitutional AI」でAIの誠実さを高める訓練をしているClaudeは、「わかりません」と答える頻度が比較的高い傾向があります。ただしタスクの種類によって得手不得手があり、1つのモデルが常にベストではありません。

ハルシネーション対策に有効なPerplexity AIの活用

「Perplexity AI」はWebをリアルタイムで検索しながら回答するAIサービスで、ハルシネーションの防止に非常に有効です。通常のChatGPTと違い、すべての回答に情報源(URL)が明示されるため、事実確認が容易です。無料版でも十分使えます。「最新の情報を知りたい」「引用が必要な調査」「ニュース・時事問題」についての質問はPerplexityの方が適している場合が多いです。ChatGPTはクリエイティブな作業・文章生成、Perplexityは事実調査・最新情報収集と使い分けるのが賢明です。

Chain of Thought(CoT)でハルシネーションを減らす

「ステップバイステップで考えてください」というプロンプトを追加するだけで、ハルシネーションが減る場合があります。これを「Chain of Thought(思考の連鎖)」と呼びます。AIが結論を急がず中間的な思考過程を展開することで、論理的な誤りを自己修正するチャンスが生まれます。o1・o3(OpenAI)・Claude 3.7 Sonnet(思考モード)などは推論プロセスを内部で展開する「拡張思考(Extended Thinking)」機能を持ち、特に数学・論理問題でのハルシネーションを大幅に削減しています。

ハルシネーションを検知するツール

AIの回答が正しいかを自動で検証するツールも登場しています。「Guardrails AI」はAIの出力をリアルタイムで検証し、事実確認・形式チェック・有害コンテンツ検知などを行うライブラリです。「RAGAS」はRAGシステムの回答が実際に提供したドキュメントに基づいているかを自動評価するフレームワークです。企業でAIを本番導入する場合は、このような「AIの品質保証」ツールと組み合わせることが重要になっています。

まとめ

ハルシネーションはAIの根本的な課題であり、完全には防げません。しかしRAGの活用・情報源の要求・Webサーチ機能の活用・重要事項の自己確認という対策を組み合わせることで、実用上のリスクを大幅に減らせます。「AIは間違えることがある」という前提を持ちながら賢く活用することが、AI時代のリテラシーです。

AI記事の一覧を見る
ChatGPT・生成AI・RAG・LangChainなどAIの基礎を体系的に学ぼう
AI記事一覧を見る

コメント