AIにおけるハルシネーションとは?ChatGPTの事例やニュースを解説

AIのハルシネーションとは

ハルシネーションとは、人工知能(AI)が事実に基づかない情報を生成する現象のことです。まるでAIが幻覚(=ハルシネーション)を見ているかのように、もっともらしい嘘(事実とは異なる内容)を出力するため、このように呼ばれています。OpenAIのChatGPTやGoogle Bardのような会話型AIサービスでは、ユーザーの質問に対してAIが回答しますが、どのようなデータに基づき回答されたのかが分からない場合、それが真実なのか嘘なのか、ユーザーが判断することは困難です。

ハルシネーションの語源

ハルシネーションという言葉は、元々「幻覚」を意味する英語のhallucinationから来ています。この英語の単語は、ラテン語のhallucinariという動詞に由来し、これは「夢を見る」「惑わされる」という意味があります。人間が幻覚を見るときには、現実とは異なるものを見たり聞いたり感じたりすることがありますが、AIがハルシネーションを起こすときには、現実とは異なるものを生成したり出力したりすることがあります。

AIのハルシネーションの原因と対策

AIにおけるハルシネーションの原因としては、主に学習データの問題やAIモデルのアーキテクチャや学習プロセスの問題が挙げられます。これらの問題によって、AIは学習したデータからは正当化できないはずの回答を堂々とする現象が起こります。この現象は、特に生成AIと呼ばれる、画像やテキストなどを生成するタイプのAIに多く見られます。

AIにおけるハルシネーションの対策としては、以下のようなものが考えられます。

  • 学習データの質の向上:学習用のデータから真実ではない情報や、偏りがある情報を極力除去することで、ハルシネーションの発生を抑制することが期待されます。ただし、大量のデータに対してその質を上げることは非常に労力がかかることであり、完璧な対策を取ることはとても困難であると言えます。
  • 出力結果にフィルターをかける:出力された情報に対して、誤った情報や偏見を含む情報を出力しないように制限をかけることです。ただし、何が誤った情報で、何が偏見なのかを厳密に判断することは難しく、こちらも完璧を期すことは難しいと言えます。
  • 人間からのフィードバックをもとに強化学習を行う手法(RLHF:Reinforcement Learning from Human Feedback):人間がAIの出力に対して正しいかどうかの評価を与えることで、AIがそのフィードバックを学習し、ハルシネーションを減らすことを目指す手法です。OpenAIのInstructGPTでは、この手法を取り入れることで、同社の大規模言語モデルGPT-3と比較して、ハルシネーションの発生を抑制することに成功しました。この手法は、ChatGPTのベースとなる大規模言語モデルGPT-3.5やGPT-4でも取り入れられています。

このカテゴリーは、AIのハルシネーションに関するニュースや取り組みを紹介します。

スポンサーリンク
ハルシネーション

AI誤情報検知機能で信頼性向上への一歩

株式会社miiboが開発したAI分析機能により、生成AIの誤情報問題に対処し、AI技術の信頼性と実用性を向上させます。
ハルシネーション

AIハルシネーションによる偽の法的ケースとカナダの法律界への影響

カナダで発生したAIによる偽の法的ケースの事例と、それが法律界に与える影響について詳しく解説します。
フェイクニュース

AIによる偽ニュース:サウスジャージー警察が警告

AIによる偽ニュースの生成と拡散は、社会に深刻な影響を及ぼす可能性があります。AI偽ニュースの現実、影響、対策について解説します。
調査

AIによる選挙誤情報拡散の懸念:アメリカ人の52%が警戒

YouGovの調査によると、アメリカ人の52%がAIがニュースで選挙誤情報を生み出す可能性が高いと考えています。
ハルシネーション

生成AIの進化:RAGとファインチューニングの重要性

生成AIの現状と課題、RAGとファインチューニングの基本概念、実装方法、ユースケース、およびこれらの技術がAIの未来にもたらす展望を解説します。
ハルシネーション

生成AIのハルシネーション問題と「RAG」技術の解決策

生成AIが直面するハルシネーション問題と、それを解決するための「RAG」技術についての解説。
フェイクニュース

インド政府、AIによるディープフェイクとフェイクニュースに対処

インドの国務大臣がAIの進展とそれに伴うディープフェイクやフェイクニュースの問題について語り、インド政府の対応策を強調します。
ハルシネーション

Microsoft AIチャットボットの選挙関連ハルシネーション問題

MicrosoftのAIチャットボットが選挙関連の質問に対して誤情報を提供するハルシネーション問題について解説します。
AI

生成AIによるフェイク画像・動画の問題とメディアの対応

生成AIによるフェイク画像・動画の問題とメディアの対応 生成AIの悪用とメディアのトラブル NHK文研の記事では、生成AIによる精巧な画像や映像の悪用が、メディアにおける偽情報のトラブルを引き起こしている現状を報告しています。特に、日本テレ...
AI

マイケル・コーエンの弁護士、AIによる架空判例の引用疑惑

マイケル・コーエンの弁護士、AIによる架空判例の引用疑惑 AIの使用と法的誤謬 ドナルド・トランプ元大統領の元弁護士であるマイケル・コーエンの弁護士、デイビッド・M・シュワルツ氏が、法的文書において存在しない裁判例を引用した疑いが持たれてい...
スポンサーリンク