はじめに
本記事は非常に重要なものである。 絶対に最後まで読んでほしい。
画像生成AI Stable Diffusion の威力
Stable Diffusion (以下 SD) は現在急激に成長している生成 AI であり、 その勢いは止まることを知らない。 あまりに成長が早いため、日本では法整備がかなり遅れているのが現状なほどである。 例えば、著作権侵害や名誉毀損、イラストレータのやる気を削いだり児ポ like な画像を作成できたり、問題は山積みである。
↓関連記事
ut-bioinformatic.hatenablog.jp
ここではより一層具体的な次元で、この脅威を伝えたい。それが本記事の目的。
いとも簡単に学習できてしまう現実
その 画像投稿、危ない!
実在する人物に告示する AI アートを作成したいとする。 その際に SD では Lora という学習スキームが用いられるのであるが、Lora に必要な画像は、10 枚 ~ 20 枚で十分なのである。(100 枚ほどあればさらに強烈だが。)
ここで考えて欲しいのが、Instagram や LINE、twitter などにアップロードされている諸々の写真の合計である。これが 10 枚を超えていないだろうか。
超えている方は要注意である。それらをクローリング(スクショして保存とか)され、Lora の学習に使われ(著作権侵害かも)、そうしてできたモデルで 職場閲覧注意 (NSFW) な画像が生成され(名誉毀損)、それが自らの与り知れぬ場所でアップロードされているかもしれないのである。 要は、超悪質なアイコラ等が無限に生成される可能性があるということである。
また、ここでいう画像というのは、「イラスト」に限らず、自分の顔や体を含む全ての画像のことである。
実際にやってみた。
あまりに恐ろしいので、画像を載せることはできないが、
- Lora の学習:
- 協力の同意を得た友人から、自撮り画像を 10 枚ほどもらった。
- kohya-LoRA-dreambooth を Colab で動かし、Lora を作成した。
- 20 分で終わった。
- 画像の生成
- 作成した Lora を用いて数枚、画像を生成した。Local の Automatic1111 を使った。
- 10 分も経たずに、非常に酷似した画像が複数出力された。 *友人もびっくり仰天の様子であった。(彼は SD について詳しくは知らなかった。)
なんとまあ恐ろしいことに、酷似している画像を作成するのに 60 min もかからないのである。 つまり、
- 10 枚ほどの画像。画質は結構荒くて良い
- Automatic1111 を動かせる環境:freely available
- Lora を学習できる環境:freely available
- 60 min ほどの時間
これらがあれば、フェイク画像が作れてしまうのである。恐ろしすぎる。
厄介な学習器
さらに厄介なことに、SD は 10 枚くらいの元データがあれば類似性がそこそこ高い画像を一定の確率で出力してくれる。 この過程で出力された、特に類似している画像をさらに学習材料として Lora に繰り返し学習させることができる。こういったことを繰り返すと元は 10 枚以下の学習データしか使っていなかった Lora が、100 枚レベルでの写真を学習済みの Lora に化け、 より高精度な NSFW 画像が生成される可能性がある。
恐ろしい政治利用
一般市民の SNS ですら危ないのだから、政治家や芸能人を含む著名人がが非常に簡単に fake 画像を作られてしまうのは自明である。実際に civitai では 広瀬すずやエヴァンゲリヲンの Lora が作られている(今存在するかどうかわからないが)。
もちろん、fake 画像を利用して、情報リテラシーの低い国民を対象に、政治的な洗脳が行われるかもしれない。恐ろしいプロパガンダである。
どう生きれば良いのか
我々は、個人情報をより一層注意して扱わねばならない。 また、それと同時にネットに存在する情報を鵜呑みにするようでは本当に危ない。誰でも 1 h で高精度なフェイク画像が作れる時代である。もはや信頼できるものは無くなるのではないか。99.9% の情報が偽物となる時代がきてしまうのではないか。そうするとインターネットの利用価値や信頼性が極度に低下し、逆に対面でのコミュニケーションこそが重視され、かえって pre-internet な時代に戻ってしまうのだろうか。
いずれにせよ、
- 個人情報の扱いにより一層注意する
- 情報を鵜呑みにしない
といった心がけが重要である。
とはいっても、自分に似た AI 画像が生成されない保証はどこにもない。誰かに盗撮されたり、こっそりクローリングされたりし、Lora が作られているかもしれない。 そういう場合はどうしようもない。 しかし、
- ネットにアップロードされているのを目撃した場合、名誉毀損で訴えることができるので、直ちに動くこと
- 友人や知人の画像等が出回っている場合はすぐに知らせてやること
こういった心がけをすることで、裁判の事例等が増えれば、法改正は加速し、 法律によって住みやすい環境ができるかもしれない(難しいが)。
最後に
とにかく恐怖を感じた。 今、こういった技術は AI イラストレータが中心となって利用している。 しかし、DIffusionBee をはじめとした多くの No coding アプリケーションが開発途中であることは自明であり、そういったアプリが世に出回った時、問題は深刻化するであろう。フェイク画像の作成が民主化し、インターネットはフェイクで溢れるであろう。さらに興味深いことに、裁判で利用される証拠となる写真は、フェイク画像であるかもしれないと疑わねばならない。フェイク画像を利用した裁判等が起こらないことを心の底から祈るのみである。本当に恐ろしすぎる。アリバイもクソも無くなる。
関連記事
ut-bioinformatic.hatenablog.jp
ut-bioinformatic.hatenablog.jp
ut-bioinformatic.hatenablog.jp