Gスカの3D素材やPCゲーブログ

ゆっくりキャラボイス設定記事、怖い話動画数800以上!とか、マイクラネタ(MOD、役立ち情報、データ解析)や、動画に使える自作MMD素材の配布とか記事にしてます。

画像がAI生成か見抜くC2PAを【凄く簡単に】回避する方法を発見!

OpenAIがDALL-E 3で生成した画像にCoalition for Content Provenance and Authenticity(C2PA)という電子透かしを埋め込むとの事なのですが、それが基本になるとOpenAIが提供するContent Credentials Verifyというサイトで、今後はAIで生成した画像がAIで作ったものであると簡単に判定出来てしまうとの事です。

 

では実際に、本当に判定が出来るのかどうかを試してみます。

試す画像はCopilotを使って生成された画像。

 

ペットボトルと入力して生成してもらいました。

生成された画像を判定サイトにポイ

 

 

!?Σ( ̄□ ̄;)

あれ?見抜けなかったようですね。

これじゃあ駄目じゃん!?

という事で今度は人間キャラでも生成してもらってやってみます。

 

メガネをかけてひげを生やしたおじさんというワードで作ってもらった画像をポイしてみます。

 

ポイ

 

良かった!

しっかりAIが生成した事を見抜いてくれました!

 

ではこの画像にある事をして・・・同じくAI判定サイトにポイしてみます。

 

ポイ

 

はい!AI生成だと判定出来ませんでした!!(≧∇≦)

 

こんな事で凄そうな技術のC2PAというのを回避出来ちゃうのだから、まだまだC2PAって凄いものじゃないんだな~・・・って思えてきます。

ではそのC2PAという電子透かしをどうやって回避したかを記述します。

というかC2PAって生成された画像のデータの中に一定の文字を入れてるんでしょうね?

だからその画像データをバイナリで開いて弄るか、ある方法を使ってしまえば簡単にC2PAを騙せてしまうという事です。

 

その方法とは・・・

 

 

 

 

スクリーンショット!!

 

そう!誰でも気づいてしまうと思うのですが、電子透かしというものがもし画像の中に薄っすらと似たような色で描かれるものだったら回避は難しくなってしまうのですが、プログラムデータの中に記述されただけのものだったらスクリーンショットをしてしまえば関係ありません。

この事については昔X(旧Twitter)でその手が好きな人と議論してたのですが、その人いわくそういうのは回避するのが難しいという結論。

確かに生成された画像の色に近い色で薄っすらと文字が描かれてたら気づかないだろうなーとは思うのですが、絵に何か加工すれば回避出来ちゃうんじゃなかろうか?と思ってました。

まあそういうやりとりがあったので、試しにスクリーンショットやってみたらどうなるんだろう?とやってみたところ、あっさり回避出来てしまいました(^^;

 

しかしそういう技術を作ってる人達がこんな単純な方法で回避出来ちゃうのを今後も続けていくのだろうか?

さすがに試作段階でスクショで回避出来ちゃうよ!って気づきそうですけどね。

 

きっと今後は画像に薄っすらと見えないくらいの文字とか、1ドットの点を使った加工とかをやっていくのでしょう(^^;