「ChatGPTが存在しない論文を自信満々に引用した」「AIが事実と全く異なることを断言した」——これがハルシネーション(AI幻覚)です。AIを仕事で使うなら絶対に知っておくべき現象で、適切な対策を取ることで大幅にリスクを減らせます。
ハルシネーションとは?
ハルシネーション(Hallucination・幻覚)とは、AIが事実と異なる情報を、自信満々に・もっともらしく生成してしまう現象です。医学用語の「幻覚」から名前が来ており、AIが「存在しないものを見ている」状態を表します。
単純な「間違い」と違うのは、AIが非常に自信を持って誤情報を提示するという点です。「わかりません」と言ってくれれば対処できますが、ハルシネーションは「正しそうな嘘」として提示されるため、気づきにくく危険です。特に専門知識がない分野での確認が難しいことが問題です。
ハルシネーションの具体例
なぜハルシネーションが起きるのか
LLMは「次の単語を確率的に予測する」モデルです。意味を「理解」しているのではなく、学習データのパターンから「もっともらしい続き」を生成します。このため、正確な情報がない場合でも、それらしい情報を生成してしまいます。特に「珍しい質問・専門的な質問・最近の情報」に関してはパターンが少なく、ハルシネーションが起きやすくなります。
ハルシネーションを防ぐ5つの対策
ハルシネーションが起きやすいトピック
| トピック | リスクレベル | 注意点 |
|---|---|---|
| 最新ニュース・時事 | 非常に高い | 学習データの締め切り後の情報は作られることが多い |
| 学術論文・引用 | 非常に高い | 存在しない論文を完璧な形式で生成することがある |
| 法律・規制 | 高い | 改正された法律や地域固有の規制が誤りやすい |
| 医療情報 | 高い | 薬の副作用・用量・相互作用は必ず専門家に確認 |
| 歴史的事実 | 中程度 | マイナーな人物・出来事は誤りが多い |
| プログラミング | 中程度 | 古いバージョンのAPIや存在しないメソッドを使うことがある |
| 一般常識・有名事実 | 低い | 広く知られた事実は比較的正確だが過信禁物 |
よくある質問
ハルシネーションはなくなる?
完全になくすことは難しいと言われています。LLMが「次の単語を予測する」という根本的な仕組みを使っている限り、ある程度のハルシネーションは不可避です。ただしRLHF(人間のフィードバックによる強化学習)・RAGの活用・モデルの大型化などにより、年々ハルシネーションの頻度は減っています。現在のClaude・GPT-4oは以前のモデルと比べてかなり改善されています。
どのAIがハルシネーションが少ない?
2024年の評価では、Claude 3.5 SonnetとGPT-4oが比較的ハルシネーションが少ないとされています。Anthropicが「Constitutional AI」でAIの誠実さを高める訓練をしているClaudeは、「わかりません」と答える頻度が比較的高い傾向があります。ただしタスクの種類によって得手不得手があり、1つのモデルが常にベストではありません。
ハルシネーション対策に有効なPerplexity AIの活用
「Perplexity AI」はWebをリアルタイムで検索しながら回答するAIサービスで、ハルシネーションの防止に非常に有効です。通常のChatGPTと違い、すべての回答に情報源(URL)が明示されるため、事実確認が容易です。無料版でも十分使えます。「最新の情報を知りたい」「引用が必要な調査」「ニュース・時事問題」についての質問はPerplexityの方が適している場合が多いです。ChatGPTはクリエイティブな作業・文章生成、Perplexityは事実調査・最新情報収集と使い分けるのが賢明です。
Chain of Thought(CoT)でハルシネーションを減らす
「ステップバイステップで考えてください」というプロンプトを追加するだけで、ハルシネーションが減る場合があります。これを「Chain of Thought(思考の連鎖)」と呼びます。AIが結論を急がず中間的な思考過程を展開することで、論理的な誤りを自己修正するチャンスが生まれます。o1・o3(OpenAI)・Claude 3.7 Sonnet(思考モード)などは推論プロセスを内部で展開する「拡張思考(Extended Thinking)」機能を持ち、特に数学・論理問題でのハルシネーションを大幅に削減しています。
ハルシネーションを検知するツール
AIの回答が正しいかを自動で検証するツールも登場しています。「Guardrails AI」はAIの出力をリアルタイムで検証し、事実確認・形式チェック・有害コンテンツ検知などを行うライブラリです。「RAGAS」はRAGシステムの回答が実際に提供したドキュメントに基づいているかを自動評価するフレームワークです。企業でAIを本番導入する場合は、このような「AIの品質保証」ツールと組み合わせることが重要になっています。
まとめ
ハルシネーションはAIの根本的な課題であり、完全には防げません。しかしRAGの活用・情報源の要求・Webサーチ機能の活用・重要事項の自己確認という対策を組み合わせることで、実用上のリスクを大幅に減らせます。「AIは間違えることがある」という前提を持ちながら賢く活用することが、AI時代のリテラシーです。


コメント