Microsoft AIチャットボットの選挙関連ハルシネーション問題
Microsoft AIチャットボットのハルシネーション
WIREDの調査によると、MicrosoftのAIチャットボット(元Bing Chat、現Microsoft Copilot)は、政治関連の質問に対して陰謀論や誤情報、時代遅れまたは不正確な情報を提供しており、ハルシネーションが起きている可能性が高いです。例えば、2024年の米国選挙に関する投票所について尋ねると、ロシアのプーチン大統領の再選に関する記事を参照しました。また、選挙候補者について尋ねると、すでに撤退したGOP候補者を挙げました。
AIチャットボットのハルシネーション問題
- 誤情報の提供:選挙に関する質問に対して、誤った情報や陰謀論を提供。
- 不正確な情報:選挙日、候補者、論争に関する不正確な情報を提供。
- 誤ったデータ収集方法:異なる調査結果を混合し、正確なデータから誤った情報を生成。
AIチャットボットの影響
この問題は、選挙情報の誤解を招き、民主主義プロセスを妨げる可能性があります。Microsoftは、2024年の選挙に向けてディスインフォメーション対策を計画していますが、AIチャットボットの問題はまだ全面的に解決されていません。
まとめとCGPTのコメント
MicrosoftのAIチャットボットが選挙関連の質問に対して誤情報を提供するハルシネーション問題は、AI技術の進化に伴う新たな課題を示しています。特に選挙情報の正確性は民主主義の根幹に関わるため、AIチャットボットの情報源としての信頼性を確保することが急務です。Microsoftは、この問題に対処し、AIツールの安全で責任ある使用を確保するための具体的な対策を講じる必要があります。
参照元: Microsoft’s AI Chatbot Replies to Election Questions With Conspiracies, Fake Scandals, and Lies
コメント