ディープフェイクを使った動画作成で
初めて逮捕者が出たと言うニュースがあったので
ディープフェイクについてです。
解説動画はこちら
改めてディープフェイクが何かについて
語っていきたいと思います。
ディープフェイクとは?
現状の定義では
AI技術の一種であるディープラーニングと
フェイクを組み合わせた造語で
ディープラーニングを使って
真実ではないコンテンツを
制作する行為を指すようです。
単に本当かどうか見分けがつかないほど
精巧に加工されたコンテンツを作る
という意味で使われることが
多くなっているようです。
どう言う事が出来てしまうか?
次のような事が挙げられます。
・アダルトコンテンツの捏造
・スキャンダルの捏造(犯罪行為等)
・政治的な偽情報(嘘の政策、嘘の発言)
昔はやったアイコラの動画版を作ったり
犯罪行為をでっち上げる
言っていない発言をしたと嘘のニュースを
流して世論を操作するなど
嘘を世の中にばらまく事が出来てしまいます。
大きな被害を受けるのは著名人、政治家
と言うことになりますね。
どう言う手法があるか?
3段階ほどあると見ています。
1.顔のパーツを入れ替える(眉目鼻口)
これは比較的簡単な方法で
静止画のパーツを切り出して
他の画像にはっ付けているだけです。
当サイトでやっている奴は
ほとんどこれです。

目だけ変える、鼻と口だけ変える
のようなことも出来ます。
しかし、この場合、輪郭やほっぺたあたりは
変えていないので
元の画像の人と上に載せる画像の人が
ある程度似通っていないと
違和感が大きくなります。
ですので、あくまでも人と人を合体的な
合成になります。
2.顔を全て入れ替える
本人や他人の顔を丸ごと別の顔に入れ替える方法です。
この場合は顔の輪郭や髪型など
全て本人であるので違和感が少なくなります。
これにより、言ってもいない事を言わせたり
逆の意味の発言をさせたりと言う事が出来てしまいます。

参考:
ザッカーバーグのFake動画
現在の映画は元の動画をブルーバックで
撮影しておいて、CGで合成していますね。
それの簡易版だと思っていただけると
良いかなと思います。
3.全てCG
現在のフェイク動画は元の動画の
一部分だけを挿げ替えると言う物です。
今後は存在しない人物を1から作ったり
場所や事象もCGで全て再現できてしまうでしょう。
そうなるとフェイクかどうか
見分けはつかなくなっていきます。
どういう技術を用いているか?
よく使われている技術は
次のような物です。
1.顔認識技術(opencv)
人間の顔がどこにあるのかを判別する
2.ディープラーニング(pytorch)
挙動による変化を学習させる(顔の向き、表情)
参考リンク:
First Order Motion Model for Image Animation
自分がやっているのは1のopencvを用いた
静止画のすげ替えです。
動画になってくると、もっと複雑な計算をしないと
非常に違和感の大きな動画になってしまいます。
そこで出てきたのがディープラーニングです。
顔の向きや表情などによる、微細な変化を学習し
動画に反映させる事で、違和感を小さくする事が出来ます。
個人でやる場合、学習にコストが掛かりますので
暇人でない限りはあまり長い時間の
動画は作れないでしょう。
法律に引っかかるか?
元の動画素材が自分で作成したものでないものを
使用している場合は著作権違反になるでしょう。
著名人の名誉を既存するようなコンテンツを
作成した場合は名誉毀損に該当するでしょう。
今回逮捕されたケースでは
元々の動画素材が他人が作成した物であるので
そこで著作権違反として上げる事が出来ます。
その上で個人の名誉を傷つけるような
内容であれば、名誉毀損の部分も
出てくると思われます。
なので、動画素材を自分で撮影し
有名人に似ている程度なら
ギリセーフの可能性はありますね。
どこまでが白でどこからが黒なのか
当方はグレーゾーンで
動画を作っています。
対策方法は?
Facebookなどは対策ツールを提供しています。
すげ替えた場合、顔色の濃淡などが
人間では分からないレベルで違っている部分があり
そこで見分けているようです。
しかしフェイク動画を作る側は
その対策ツールに引っかからない手法を
新たに開発するので、対策ツールとの
いたちごっこが続いている状況です。
完全CGの時代が来たら
ツールでの判別は不可能になる事でしょう。
考えられる手としてはブロックチェーンなどで
動画がどこで作成されたのかを
保証する仕組みを作っておくしかないだろうと
見ています。
何に使える、良い事ある?
現状では有効に活用できるシーンは
少ないですねーーー。
例えば芸能人の不祥事で撮影済みのドラマを
取り直しせずに代役に変更するとか
アクションシーンの顔を本人に直すとか
現行のCG制作と似たような事でしか
活用方法は無さそうですね。
まとめ
昔はCG制作会社くらいにしか
こう言うコンテンツを制作できませんでしたが
今は個人でも簡単な動画なら加工できてしまう
ツール類も出てきてしまっています。
ディープフェイクで芸能人の動画を
勝手に作ると捕まります。
真似はしないでください。
対策ツールで見破れる物も有るが
現状はいたちごっこの最中です。
今後は動画を誰が撮ったか
フェイク動画ではない事を
保証する仕組み作りが
今後の社会課題になると思います。
本日は以上です。
それでは。
初めて逮捕者が出たと言うニュースがあったので
ディープフェイクについてです。
解説動画はこちら
改めてディープフェイクが何かについて
語っていきたいと思います。
ディープフェイクとは?
現状の定義では
AI技術の一種であるディープラーニングと
フェイクを組み合わせた造語で
ディープラーニングを使って
真実ではないコンテンツを
制作する行為を指すようです。
単に本当かどうか見分けがつかないほど
精巧に加工されたコンテンツを作る
という意味で使われることが
多くなっているようです。
どう言う事が出来てしまうか?
次のような事が挙げられます。
・アダルトコンテンツの捏造
・スキャンダルの捏造(犯罪行為等)
・政治的な偽情報(嘘の政策、嘘の発言)
昔はやったアイコラの動画版を作ったり
犯罪行為をでっち上げる
言っていない発言をしたと嘘のニュースを
流して世論を操作するなど
嘘を世の中にばらまく事が出来てしまいます。
大きな被害を受けるのは著名人、政治家
と言うことになりますね。
どう言う手法があるか?
3段階ほどあると見ています。
1.顔のパーツを入れ替える(眉目鼻口)
これは比較的簡単な方法で
静止画のパーツを切り出して
他の画像にはっ付けているだけです。
当サイトでやっている奴は
ほとんどこれです。

目だけ変える、鼻と口だけ変える
のようなことも出来ます。
しかし、この場合、輪郭やほっぺたあたりは
変えていないので
元の画像の人と上に載せる画像の人が
ある程度似通っていないと
違和感が大きくなります。
ですので、あくまでも人と人を合体的な
合成になります。
2.顔を全て入れ替える
本人や他人の顔を丸ごと別の顔に入れ替える方法です。
この場合は顔の輪郭や髪型など
全て本人であるので違和感が少なくなります。
これにより、言ってもいない事を言わせたり
逆の意味の発言をさせたりと言う事が出来てしまいます。

参考:
ザッカーバーグのFake動画
現在の映画は元の動画をブルーバックで
撮影しておいて、CGで合成していますね。
それの簡易版だと思っていただけると
良いかなと思います。
3.全てCG
現在のフェイク動画は元の動画の
一部分だけを挿げ替えると言う物です。
今後は存在しない人物を1から作ったり
場所や事象もCGで全て再現できてしまうでしょう。
そうなるとフェイクかどうか
見分けはつかなくなっていきます。
どういう技術を用いているか?
よく使われている技術は
次のような物です。
1.顔認識技術(opencv)
人間の顔がどこにあるのかを判別する
2.ディープラーニング(pytorch)
挙動による変化を学習させる(顔の向き、表情)
参考リンク:
First Order Motion Model for Image Animation
自分がやっているのは1のopencvを用いた
静止画のすげ替えです。
動画になってくると、もっと複雑な計算をしないと
非常に違和感の大きな動画になってしまいます。
そこで出てきたのがディープラーニングです。
顔の向きや表情などによる、微細な変化を学習し
動画に反映させる事で、違和感を小さくする事が出来ます。
個人でやる場合、学習にコストが掛かりますので
暇人でない限りはあまり長い時間の
動画は作れないでしょう。
法律に引っかかるか?
元の動画素材が自分で作成したものでないものを
使用している場合は著作権違反になるでしょう。
著名人の名誉を既存するようなコンテンツを
作成した場合は名誉毀損に該当するでしょう。
今回逮捕されたケースでは
元々の動画素材が他人が作成した物であるので
そこで著作権違反として上げる事が出来ます。
その上で個人の名誉を傷つけるような
内容であれば、名誉毀損の部分も
出てくると思われます。
なので、動画素材を自分で撮影し
有名人に似ている程度なら
ギリセーフの可能性はありますね。
どこまでが白でどこからが黒なのか
当方はグレーゾーンで
動画を作っています。
対策方法は?
Facebookなどは対策ツールを提供しています。
すげ替えた場合、顔色の濃淡などが
人間では分からないレベルで違っている部分があり
そこで見分けているようです。
しかしフェイク動画を作る側は
その対策ツールに引っかからない手法を
新たに開発するので、対策ツールとの
いたちごっこが続いている状況です。
完全CGの時代が来たら
ツールでの判別は不可能になる事でしょう。
考えられる手としてはブロックチェーンなどで
動画がどこで作成されたのかを
保証する仕組みを作っておくしかないだろうと
見ています。
何に使える、良い事ある?
現状では有効に活用できるシーンは
少ないですねーーー。
例えば芸能人の不祥事で撮影済みのドラマを
取り直しせずに代役に変更するとか
アクションシーンの顔を本人に直すとか
現行のCG制作と似たような事でしか
活用方法は無さそうですね。
まとめ
昔はCG制作会社くらいにしか
こう言うコンテンツを制作できませんでしたが
今は個人でも簡単な動画なら加工できてしまう
ツール類も出てきてしまっています。
ディープフェイクで芸能人の動画を
勝手に作ると捕まります。
真似はしないでください。
対策ツールで見破れる物も有るが
現状はいたちごっこの最中です。
今後は動画を誰が撮ったか
フェイク動画ではない事を
保証する仕組み作りが
今後の社会課題になると思います。
本日は以上です。
それでは。

コメントする