ユニセフ、AI生成による子どもへの性的虐待問題を告発
2026年2月4日、ニューヨーク発。ユニセフ(国連児童基金)は、人工知能(AI)を使って生成された性的画像の流通が急増していることについて深刻な懸念を表明しました。特に、子どもの画像が加工され性的表現に改変されるケースが目立っています。このような問題は「ディープフェイク」として知られる技術により引き起こされ、AIツールを使った「ヌーディフィケーション」などの手法で、虚偽のヌード画像が作成されています。
深刻な現状
ユニセフは、AI技術が子どもたちに与える影響が深刻化していると警告しています。国際NGOのECPATやインターポールと共同で行った調査によると、過去1年間に120万人以上の子どもが、自身の画像が性的に露骨なディープフェイクに加工されたと報告しています。これは、18歳未満の人口に換算すると、25人に1人に相当し、一般的なクラスで1人の子どもが被害を受けている状況を示しています。
子どもたち自身もこのリスクを認識し始めており、調査対象国では約3人に2人が「AIによって偽の性的画像や動画が作られるのではないか」と不安を抱いています。
社会的課題
AIツールによって生成された子どもの性的画像は、明確に子どもの性的虐待コンテンツ(CSAM)に該当します。ディープフェイクによる虐待は、単なる偽造ではなく、実際に被害を受けている子どもたちの存在を浮き彫りにしています。この問題は、もし身元が特定できない被害者であっても、社会が子どもの性的搾取を許容することに繋がりかねません。
ユニセフは、安全性を考慮したAIの設計を提唱し、AI開発者には強固なガードレールの導入を求めています。しかし、現実には十分な安全策が講じられていない状況が見受けられます。特に、生成AIツールがソーシャルメディアに組み込まれた際には、フェイク画像の拡散が急速に進むリスクが高まります。
行動を求めるユニセフ
ユニセフは、各国政府に対して以下の緊急の措置を講じるよう訴えています。
- - 子どもの性的虐待コンテンツの定義をAI生成コンテンツを含むよう拡大し、それを作成、入手、所持、流通させることを犯罪とする。
また、AI開発者には安全設計の確保と、デジタル関連企業には流通防止策の強化を求めています。
緊急性を訴える
ディープフェイクによる子どもへの虐待が現実に起きている今、迅速な対策が求められています。法律が追いつくのを待つことはできません。子どもたちの権利と安全は、我々大人の責任でもあります。ユニセフの呼びかけに耳を傾け、一緒にこの問題に立ち向かう必要があります。各国政府や企業の協力により、未来の世代を守るための第一歩を踏み出すことができるのです。