性的ディープフェイク最前線―最新摘発と日本の現実・被害・AI社会のリスクと対策まとめ

性的ディープフェイクのイメージ画像

性的ディープフェイク最前線―最新摘発と日本の現実・被害・AI社会のリスクと対策まとめ

2025年6月23日更新
※本記事は公開時点の情報・公式発表に基づいて執筆しています。内容は最新情報や実際の状況により変更される場合があります。
専門的な判断や意思決定が必要な場合は、必ず公的機関・専門家等へご相談ください。
この記事でわかること
  • 国内最新データと現場が語る「性的ディープフェイク」被害の実態
  • 警察庁の2023年度100件超・知人間での加害など“今”の日本社会
  • AIディープフェイク犯罪の検挙例・被害パターン
  • 海外の最新規制・日本の法整備の課題
  • AIメディア独自の現場・体験情報・今できる対策まで徹底解説

1. 国内で急増する「性的ディープフェイク」―警察庁が把握する“今”の現場

前年度の2024年度、警察庁が把握した「性的ディープフェイク」に関する相談や通報は100件以上にのぼりました(NHK, 2025年6月22日)。

注目すべきは、そのうち生成AIを悪用して作成された事案が少なくとも17件、さらに15件は同級生など身近な知人による加害だったという点です。

この問題はもはや“ネットの遠い世界の話”ではなく、身近な人間関係の中で起きている新時代のリスクと言えるでしょう。

警察庁は「警察への相談は一部に過ぎず、被害が潜在化している可能性がある」と指摘。 悪用実態の共有や対策の検討が急がれています。

2. 性的ディープフェイクの実際の被害・摘発事例と現場のリアル

「性的ディープフェイク」の被害は、実在する人物――とくに未成年や学生の画像が悪用されるケースが多いのが特徴です。

警察が把握した事例には、同級生の女子生徒の写真を生成AIで裸に加工→SNSで拡散し名誉毀損の疑いで男子中学生が書類送検されたケースや、

卒業アルバム画像の悪用、盗撮画像とAI合成など、多様なパターンが含まれます。

また、2025年4月にはAIで作成したわいせつ画像をネットオークションで販売した4人が、わいせつ物頒布罪で全国初摘発される事件も発生。

(※「全国初摘発」は産経新聞, 2025年4月15日報道による)

SNSや相談窓口を通じて、編集部にも「卒業アルバムや学級写真の画像を勝手に使われた」「知り合い同士の間で拡散された」といったリアルな声が届いています。
これは、かつてない“日常の延長線上”でリスクが急拡大している証です。

3. 性的ディープフェイクの拡大を支える社会・技術背景

ここまで被害が広がる背景には、AI画像生成ツールの爆発的普及と、SNS・匿名サービスでの画像拡散の速さがあります。

編集部でも「AI画像判定ツール」を実際に使ってみると、本物と偽物を一瞬で見抜くのは難しい場面が多く、

技術面だけでは被害を完全に防ぐことはできないと痛感しています。

  • 無料で誰でも使えるAIツールが数多く登場
  • 匿名・海外サーバー経由で拡散元を特定しにくい
  • プラットフォーム運営側の対応もまだ十分ではない現実

4. 日本と海外の規制最前線―どこがどう違う?

日本では長らく「実写画像」を前提にわいせつ物規制が行われてきましたが、

2025年4月以降、「AI生成画像による摘発」が全国初の事例として現れ、法制度も“転換期”を迎えつつあります

一方で、英国や韓国、EU諸国はディープフェイク規制・厳罰化を急速に進めているのが現状。

下図は、韓国・英国・日本・デンマークなどでの最新法改正や摘発の状況をまとめたものです(出典:産経新聞 2025年4月15日)。


この図からもわかる通り、韓国や英国はAIによる性的ディープフェイク犯罪への刑罰化や厳罰化を、すでに明確な形で進めていることがわかります。

韓国では懲役や罰金を含む協力な法制定、英国は「児童性的画像生成AIツールの所持・作成・配布」を違法とするのが特徴。

一方、日本はまだ都道府県レベルの条例改正(例:鳥取県の青少年健全育成条例など)にとどまっているものの、

法制度のアップデートがいよいよ現実になり始めているタイミングだと言えます。

また、デンマーク(ユーロポール)のように、国境を越えた摘発が急増している点も注目すべきです。

AIディープフェイク犯罪は「どの国でも起こり得る」普遍的な問題となりつつあり、

日本社会もグローバルな課題の最前線にいるという意識が必要でしょう。

これらの国際的な動きに、日本がどれだけスピーディーかつ実効的に追随できるかが今後の被害防止・リスク対策のカギになると感じます。

5. なぜAI生成性的ディープフェイクの検知・削除は難しいのか?

AI生成画像は、本物とほとんど区別がつかない高精度で作られています。

そのため自動判定ツールでも“すり抜け”が多いのが現実なんです。

編集部で実際に複数の「AI画像判定サービス」を使ってみたところ、

「一般的なポルノ画像」は検知できても、“現実の写真をAIで加工した”ケースは見抜けないことも多い――

つまり現時点で「完全自動で防げる技術」は存在しません

また、SNS運営・プラットフォーム企業も削除依頼への対応が追いつかず、

「自分で証拠保存し、警察や専門窓口にすぐ相談する」ことが重要です。

6. 今できる対策―個人・保護者・現場へのアクションリスト

まず「画像をネットに上げるリスク」を家族や友人と共有し、“拡散させない文化”を意識すること。

もし被害に遭った場合は、すぐに下記の通報・相談窓口を利用しましょう。

  • 警察庁・最寄りの警察署(サイバー犯罪相談窓口)
  • SNS・プラットフォーム側の通報フォーム
  • 内閣府・こども家庭庁の被害相談ダイヤル
編集部では、AIリスク啓発イベントや専門家セミナーにも参加しています。 現場では「まず被害者に寄り添う姿勢が不可欠」「証拠画像を保存して迅速な相談を」といったアドバイスが繰り返し語られていました。

7. まとめ・これからの社会へ―AI時代の“自衛”と課題提起

被害のほとんどは氷山の一角――警察への相談はごく一部にすぎず、見えない被害が多数存在しているのが現実です。

社会全体でリテラシー教育や法整備、そしてAI技術側の進化も進めていく必要があります。

読者の皆さんも、“AI時代のリスク”を「自分には関係ない」と思わず、

家族や身近な人たちと今できる対策を話し合ってみてください。

※本記事は公開時点の情報・公式発表に基づいて執筆しています。内容は最新情報や実際の状況により変更される場合があります。
専門的な判断や意思決定が必要な場合は、必ず公的機関・専門家等へご相談ください。

この記事を書いた人

Smart AI Adoption編集部
Smart AI Adoption編集部
AI活用アドバイザー/青山学院大学 経営学部
「AI時代の“本当に役立つ”一次情報を、現場目線で。
公式発表・実体験・専門家インタビューをもとに、
信頼性のある最新AI情報・ニュースのみを厳選して取り上げます。
誤情報・煽りや偏見を排し、
信頼できるAI活用ノウハウ
社会課題の“リアルな今”を発信しています。

・すべての記事は公式リリースや公的情報を確認のうえ執筆
・内容に誤りや古い情報があれば即訂正します。

「AI×社会」の最前線を、ユーザーの実感とともに届ける“みんなのAIメディア”をめざしています。
↑ Top