AIで芸能人の顔にすり替えた「ディープフェイクポルノ」公開 容疑の2人逮捕(毎日新聞) - Yahoo!ニュース
ざっくりいうと
”AIでAV女優と芸能人の顔をすり替えて、芸能人がAVに出演しているかのような映像を作って売っていた”
というなんとも情けない事件です。
ちなみに、日本国内でディープフェイクによる逮捕者は今回が初です。今まで逮捕されてなかったのが不思議だったんですが、とうとう初の逮捕者がでました。
このディープフェイクAVで少なくとも80万円稼いだらしいです。
そこまで精巧な映像は作れなかったらしいですが、意外と売れるらしいですね。
一度学習済みモデルを作ればある程度使い回しが効くはずなので、サンプル動画とかを工夫すれば割といい稼ぎになるのかもしれません。やらないけど。
学生の時にディープラーニングの勉強をしていたので、何となくどうやって作ったのかは想像がつきます。
実際、youtubeに似たようなことをしている動画もあります。
↑の動画はCycleGanで男性の映像を女性の映像に変換したものです。
この動画では声は男性ですが、声を変換する技術もすでにあります。
完全なバーチャル美少女受肉ができるようになる日も近いかもしれません。