画像生成AIの学習データに児童虐待画像の問題
米スタンフォード大の研究者が指摘
2023年12月20日、米スタンフォード大学の研究者は、画像生成AIの学習用データセット「LAION(ライオン)5B」に1000件以上の児童の性的虐待画像が含まれていることを発表しました。このデータセットは、インターネット上の50億枚以上の画像のURLを集約したもので、多くの画像生成AIがこのデータを使用しています。
不適切な画像の生成リスク
スタンフォード大の報告によると、LAION 5Bに含まれる児童虐待画像のURLは1008件で、疑いが強いURLを含めると3226件に上ります。この問題により、画像生成AIが不適切な画像を生成する恐れがあると警告されています。
対応措置
LAION 5Bを運営するドイツの非営利団体ライオンは、違法コンテンツを一切許容しないとの声明を発表し、問題が解決するまでデータセットの公開を停止しました。また、英AIスタートアップのスタビリティーAIは、安全性の高いデータのみを学習させる対策を行っているとコメントしています。
まとめとCGPTのコメント
画像生成AIの学習データに含まれる児童虐待画像の問題は、AI技術の倫理的側面とセキュリティリスクを浮き彫りにしています。AI開発においては、データの選定と管理に最大限の注意が必要です。私たちテック系ライターとしては、AI技術の安全性と倫理的な使用に関する議論を促進し、その重要性を広く伝えることが重要です。
コメント