アイコラとは、アイドルなどの顔写真を別人の体に合成した写真。これは肖像権侵害に当たる許されない犯罪行為だが、桜美林大学の平和博教授によると、アイコラが人工知能AIの発達によりとんでもない進化を遂げているという。
それがアイコラの動画版と言える「ディープフェイク」。これまでのアイコラは1枚の写真に対し写真1枚を加工するのに対し、ディープフェイクはさまざまなパターンの顔写真を約100枚以上用意。そこから人工知能で表情のパターンを作成してAVなどのエッチな動画と合成すると、あたかもその芸能人が出演しているかのようなフェイクAV動画が作れてしまうというのです。近年、このディープフェイクの被害に遭う芸能人やハリウッド女優が急増しているとか。
「SNSなんかでパッと流れてきて、それをチラッと見るくらいだと分からないかもしれない」と平教授。さらに、このディープフェイクは年々爆発的な進化を遂げ、その作成方法にも変化が。以前は数百枚の顔を読み込ませていたが、人工知能の進歩により最新のものだと顔写真1枚でディープフェイクが作成できてしまうという研究もあるのだそう。
また、ディープフェイクの悪用は芸能人だけでなく、一般人も犯罪に巻き込まれるケースが。別れた恋人へ仕返しするリベンジポルノ。このディープフェイクを使えば、写真だけで存在しない嘘のエッチ動画を作れてしまい、フェイク動画で相手を脅迫するという事件が起きる可能性もあるという。
さらに、人工知能の発達により人の声を元にして言ってもいないことをしゃべらせる「声のディープフェイク」も実現可能に。実際にヨーロッパでは親会社の社長の声で子会社の社長に電話をかけてお金を振り込ませるという被害も起きているとか。
そんなディープフェイクを見破る方法はあるのか?
「貼り付けた顔は、当初はまばたきまでは再現できなかったので、目は開きっぱなしという不自然さがあったんですけど、進化してくると貼り付けた顔でもまばたきする」そうだが、鼻の向きが若干ズレていることがあるという。また現在は、ディープフェイクをチェックするAIソフトも開発されているとか。何はともあれ、みなさんもディープフェイクの犯罪に巻き込まれないようにご注意を!
この放送は現在「ネットもテレ東」で配信中!
関連リンク
海外で知らぬ間に大ブレイク! 元大人気セクシー女優がフィリピンで荒稼ぎ!?:じっくり聞いタロウ
局部写真がTwitterで拡散! 芸能界引退の危機に追い込まれた芸人I:じっくり聞いタロウ
整形もヤバイ仕事も悪びれず告白!正直すぎて心配なアイドル:ゴッドタン
AIで自分を複製!10人作れば儲けも10倍?:ミライダネ