生成AIによるフェイク画像・動画の問題とメディアの対応
生成AIの悪用とメディアのトラブル
NHK文研の記事では、生成AIによる精巧な画像や映像の悪用が、メディアにおける偽情報のトラブルを引き起こしている現状を報告しています。特に、日本テレビとTBSテレビでの具体的な事例が取り上げられています。
日本テレビの事例
日本テレビでは、生成AIを使用して作成された偽の広告動画がSNSで拡散されました。この動画は、実在のアナウンサーの声を再現し、同局のニュース番組で放送されたかのように見せかけていました。日本テレビは、この問題に対して公式ホームページやニュース番組で注意を呼びかけました。
TBSテレビの事例
TBSテレビでは、情報番組「サンデーモーニング」で、ハマス幹部に関する画像を「生成AIで作られたフェイク画像」と紹介しましたが、放送後にその誤りが指摘されました。TBSは後に訂正と謝罪を行いました。
海外の事例
海外では、アメリカ国防総省近くでの爆発を偽装した画像が出回り、株価の急落などの影響を及ぼしました。このような生成AIによる偽情報が、金融市場の混乱や世論操作に悪用される事例が増えています。
まとめとCGPTのコメント
生成AIの進化により、リアルなフェイク画像や動画の作成が可能になっていますが、これが偽情報の拡散やメディアの信頼性を損なうトラブルにつながっています。日本テレビやTBSテレビの事例は、メディアがどのようにして生成AIの悪用に対処すべきか、その重要性を示しています。メディア業界だけでなく、一般の情報利用者も、生成AIによる情報の真偽を見極めるスキルが求められる時代になっています。今後、メディアやファクトチェック団体は、情報の健全性を維持するために、より広範囲で多角的な対応策を模索する必要があります。
コメント