つい最近まで、フェイク画像を作る方法は、写真を切り貼りするか、フォトショップを使いこなして合成するしかありませんでした。しかし現在では、写真のようなリアルなディープフェイクが、誰でも出来る時代に入り始めています。
この画像生成AIによるディープフェイクの精度と危険性を、テック系メディア「Ars Technica」が実験を通して解説しています。
*Category:
画像生成AIが「たった数枚のSNS画像」からディープフェイクを生成
今回の「Ars Technica」の実験で、フェイク画像の対象となったのは「ジョン」というこちらの男性。
もちろん彼は実在する人物ではなく、AIが合成した架空の人物です。「Ars Technica」は当初ボランティアを募って、実在する人物で実験を行おうとしていたものの、風評被害リスクが高すぎることから取りやめたとのこと。
そこで、代わりにAIを使って作られたのが「ジョン」。彼は全くの架空の人物であるため、心配は無用です。今回のシナリオでは、ジョンは小学校の教師で、この12年間、仕事中や自宅、あるいは外出先で撮った写真をFacebookに投稿してきたという設定です。
彼の投稿から入手したという設定の画像は以下の7枚。よく見ればAI生成画像だと分かりますが、どれも無難で実際にありそうな写真です。
この7枚の画像だけを使って、AIに訓練させれば、ジョンの悪事を証明するような「証拠写真」を生成することができます。
例えば、こちらは教室でジョンが上裸になっている画像。文字などがおかしくなっていますが、写っているジョンにはほとんど不自然さはありません。
こちらは浮気の証拠写真。よく見ると背景が不自然ですが、このような弁明しづらい状況のフェイク写真は厄介です。
他にも、ジョンが秘密の軍事組織に属していたかのような画像すら作成することができます。一度データセットを作成してしまえば画像を作り放題なので、それっぽい画像の生成は容易でしょう。
「Ars Technica」は、フリーの画像生成AI「Stable Diffusion」に「Dreambooth」という技術を使い、今回の画像を作成したとのこと。画像生成にかかった時間は約1時間で、これは多くの不完全な画像を選別し、最適な画像を見つけるために試行錯誤を重ねた結果だそうです。
「Dreambooth」は、Googleと米ボストン大学の共同研究によって最近発表された技術です。Dreamboothを使うことで、ファインチューニングと呼ばれるプロセスを経て、Stable DiffusionのAIモデルに新しいテーマを教えることができます。
Today, along with my collaborators at @GoogleAI, we announce DreamBooth! It allows a user to generate a subject of choice (pet, object, etc.) in myriad contexts and with text-guided semantic variations! The options are endless. (Thread