OpenAIがDALL-E 3で生成した画像にCoalition for Content Provenance and Authenticity(C2PA)という電子透かしを埋め込むとの事なのですが、それが基本になるとOpenAIが提供するContent Credentials Verifyというサイトで、今後はAIで生成した画像がAIで作ったものであると簡単に判定出来てしまうとの事です。
では実際に、本当に判定が出来るのかどうかを試してみます。
試す画像はCopilotを使って生成された画像。
ペットボトルと入力して生成してもらいました。
生成された画像を判定サイトにポイ
!?Σ( ̄□ ̄;)
あれ?見抜けなかったようですね。
これじゃあ駄目じゃん!?
という事で今度は人間キャラでも生成してもらってやってみます。
メガネをかけてひげを生やしたおじさんというワードで作ってもらった画像をポイしてみます。
ポイ
良かった!
しっかりAIが生成した事を見抜いてくれました!
ではこの画像にある事をして・・・同じくAI判定サイトにポイしてみます。
ポイ
はい!AI生成だと判定出来ませんでした!!(≧∇≦)
こんな事で凄そうな技術のC2PAというのを回避出来ちゃうのだから、まだまだC2PAって凄いものじゃないんだな~・・・って思えてきます。
ではそのC2PAという電子透かしをどうやって回避したかを記述します。
というかC2PAって生成された画像のデータの中に一定の文字を入れてるんでしょうね?
だからその画像データをバイナリで開いて弄るか、ある方法を使ってしまえば簡単にC2PAを騙せてしまうという事です。
その方法とは・・・
そう!誰でも気づいてしまうと思うのですが、電子透かしというものがもし画像の中に薄っすらと似たような色で描かれるものだったら回避は難しくなってしまうのですが、プログラムデータの中に記述されただけのものだったらスクリーンショットをしてしまえば関係ありません。
この事については昔X(旧Twitter)でその手が好きな人と議論してたのですが、その人いわくそういうのは回避するのが難しいという結論。
確かに生成された画像の色に近い色で薄っすらと文字が描かれてたら気づかないだろうなーとは思うのですが、絵に何か加工すれば回避出来ちゃうんじゃなかろうか?と思ってました。
まあそういうやりとりがあったので、試しにスクリーンショットやってみたらどうなるんだろう?とやってみたところ、あっさり回避出来てしまいました(^^;
しかしそういう技術を作ってる人達がこんな単純な方法で回避出来ちゃうのを今後も続けていくのだろうか?
さすがに試作段階でスクショで回避出来ちゃうよ!って気づきそうですけどね。
きっと今後は画像に薄っすらと見えないくらいの文字とか、1ドットの点を使った加工とかをやっていくのでしょう(^^;