AIのハルシネーションとは
ハルシネーションとは、人工知能(AI)が事実に基づかない情報を生成する現象のことです。まるでAIが幻覚(=ハルシネーション)を見ているかのように、もっともらしい嘘(事実とは異なる内容)を出力するため、このように呼ばれています。OpenAIのChatGPTやGoogle Bardのような会話型AIサービスでは、ユーザーの質問に対してAIが回答しますが、どのようなデータに基づき回答されたのかが分からない場合、それが真実なのか嘘なのか、ユーザーが判断することは困難です。
ハルシネーションの語源
ハルシネーションという言葉は、元々「幻覚」を意味する英語のhallucinationから来ています。この英語の単語は、ラテン語のhallucinariという動詞に由来し、これは「夢を見る」「惑わされる」という意味があります。人間が幻覚を見るときには、現実とは異なるものを見たり聞いたり感じたりすることがありますが、AIがハルシネーションを起こすときには、現実とは異なるものを生成したり出力したりすることがあります。
AIのハルシネーションの原因と対策
AIにおけるハルシネーションの原因としては、主に学習データの問題やAIモデルのアーキテクチャや学習プロセスの問題が挙げられます。これらの問題によって、AIは学習したデータからは正当化できないはずの回答を堂々とする現象が起こります。この現象は、特に生成AIと呼ばれる、画像やテキストなどを生成するタイプのAIに多く見られます。
AIにおけるハルシネーションの対策としては、以下のようなものが考えられます。
- 学習データの質の向上:学習用のデータから真実ではない情報や、偏りがある情報を極力除去することで、ハルシネーションの発生を抑制することが期待されます。ただし、大量のデータに対してその質を上げることは非常に労力がかかることであり、完璧な対策を取ることはとても困難であると言えます。
- 出力結果にフィルターをかける:出力された情報に対して、誤った情報や偏見を含む情報を出力しないように制限をかけることです。ただし、何が誤った情報で、何が偏見なのかを厳密に判断することは難しく、こちらも完璧を期すことは難しいと言えます。
- 人間からのフィードバックをもとに強化学習を行う手法(RLHF:Reinforcement Learning from Human Feedback):人間がAIの出力に対して正しいかどうかの評価を与えることで、AIがそのフィードバックを学習し、ハルシネーションを減らすことを目指す手法です。OpenAIのInstructGPTでは、この手法を取り入れることで、同社の大規模言語モデルGPT-3と比較して、ハルシネーションの発生を抑制することに成功しました。この手法は、ChatGPTのベースとなる大規模言語モデルGPT-3.5やGPT-4でも取り入れられています。
このカテゴリーは、AIのハルシネーションに関するニュースや取り組みを紹介します。