サンデーモーニング、魔女狩り失敗

 2023/11/5、TBSの左翼系報道番組サンデーモーニングが、2014年から存在するハマス関連の画像を「生成AIによるディープフェイク」と堂々と断言し、生成AI叩きに利用して炎上。11/8に正式に謝罪。

 

 今や反AI主義者のメイン活動になった魔女狩りだが、テレビ局が実行するのは初。

岸田首相、淫夢ネタを喋らされる

 2023/11/04、KusoKids(TwitterID: coldcase666)が、岸田首相に淫夢ネタのテンプレ(変態糞土方 8月16日(水)07時14分22秒)を喋らせるネタ動画をTwitterにアップロード。

 

 生成AIを使ったとは思われるものの、音声はぎこちなく、映像も口しか動かず、喋っている内容も淫夢ネタなのでメチャクチャで、一目でコラージュと分かるクオリティだったが、ニュースの体に仕立てるために日テレNEWS24のロゴやアセットを使用していた事から日本テレビが激怒。全国レベルのニュースとなり、反AI主義者は「生成AIのリスクが顕在化した」としてにわかに活気づいた。

 

 文化庁が何度も説明している通り、その動画に違法性があるかどうかは、製作が人力かAIかではなく、単純に最終生成物の内容がアウトかセーフかで判断される。「この最終生成物を公開した奴に責任を取らせる」で終わる話。

アメリカの無断学習訴訟、棄却

米画家ら、画像生成AI「Stable Diffusion」と「Midjourney」を提訴 - PC Watch

 2023/10/30、2023/1/13より続いていた、アーティストら(Sarah Ander­sen, Kelly McK­er­nan, Karla Ortiz)によるStability AI, DeviantArt, Midjourneyの3社に対する集団訴訟が、正式に棄却。

 2023年7月の段階で棄却されるだろうと言われていたが、本当に棄却された。

 要点は以下の2つ。

 

具体的な被害を示せないと話が始まらない

 「自分のどの絵のどこが誰に侵害されたか具体的に指摘できないが、無断学習された以上自分は絶対に何か被害を受けているはず」というフワフワした主張では無理。とにかく「実際に類似した最終生成物」を持ってこない事には話が始まらない。

 「無断学習という概念は存在しない」「学習は常に合法」「最終生成物が類似しているかどうかで責任を負う」とした2023年6月の文化庁見解が追認された形。

 逆に言うとLoRA等が作られるようなレベルの著名な作家なら裁判で戦えるという事でもある。

 

「画像生成AIの学習データは元画像を超圧縮したもの」「画像生成AIはコラージュツール」という反AI業界における有名なデマの否定

 

 歴史と伝統ある非常に有名なデマだが、本件の原告ら3人も同じ主張をしており、裁判所によって否定された。

 

https://www.hollywoodreporter.com/business/business-news/artists-copyright-infringement-case-ai-art-generators-1235632929/

245ページの大作「画家とAI」突然の公開

画像

 2023/10/23、マンガ家の樺ユキ(かんばゆき)氏が、画像生成AIをテーマとした245ページのマンガ「画家とAI」をTwitterで無料公開。個人が思いつきでやった事ではなく、その後の流れを見ると非常に計画的なもの。

 

 魔女狩りとリンチで時間を無駄にしている間に、このような作品が完成してしまう。必ずしも完璧な作品とは言えないが、こうして完成した作品に対して、捨て垢の反AI主義者が口先だけで対抗する事は難しい。

 

 マンガを用いたプロパガンダは反AI主義者の方が得意としていた印象だが、このテーマで245ページも描けた反AI主義者はもちろん存在しない。ここに来て「イラストレータは画像生成AIを全否定しているが、マンガ家は必ずしもそうではない」という現実が重要性を帯びてきたかもしれない。

 

https://twitter.com/muukasa/status/1716108312281002167

nizima魔女狩り事件

 2023/10/19、Live2Dモデラの「冬乃グミ」氏が、Live2D社が運営するデータ取引サービス「nizima」において、投稿したデータに生成AI使用の疑いをかけられ、「レイヤーデータを出せ」「タイムラプスデータを出せ」といったベタな反AI的やり取りを経て、最終的に「手描きである事を証明できない」としてリジェクト。

 nizimaは(例によって曖昧な線引きながら)2022/11/18の時点で「生成AIの使用禁止」を謳っている。

 

 あらいずみるい事件以降、反AI主義者が魔女狩りに走る事自体は珍しくなくなったが、より公平性が重視される法人が公式に堂々と魔女狩りを行うのはおそらく初の事例。

 

 冬乃グミ氏は立場的には反AI寄りで、生成AIを細かくコントロールするスキルもないとみられるが、2022/8頃にMidjourneyでポン出しした画像を数枚アップロードした事があり、おそらくそれを理由に他の作家より厳しいチェックを受けたとみられている。

 本件は結局のところレイヤーデータもタイムラプスデータも出せなかった事が決定打になったようなので、今後「生成AIを使っていない事に特別な価値を見出そうとする」タイプのサービスを使用する場合、サービス本体が魔女狩りを仕掛けてくる可能性に備え、それらのデータを準備しておく事が必要だと考えられる。

 

-

 

中城 哲也(Live2D CEO): https://twitter.com/nakajoo/status/1715309292281352562

冬乃グミ: https://twitter.com/Fuunooo/status/1714934111318745458

 

AI潤羽るしあ事件

 2023/10/14、イラストレータの「やすゆき」氏が、かつてデザインを担当したVTuber「潤羽るしあ」のLoRA制作者の1人「AI潤羽るしあ(AI_Rushia)」をTwitter上で罪人として晒し上げ、約41.1万人のフォロワーを用いて攻撃を実行。僅か数時間でAI_Rushiaがアカウントを消去し、やすゆき氏側が「勝利」した。

 

 典型的な要素がまとまっているので記録する。

 

「無断学習」について

 

 ChatGPTや翻訳AIなど他のGen-AIを見ても分かる通り、機械学習は無断が原則かつ無断でも合法であり、著作権法にはそもそも「無断学習」という概念自体が存在しない(2023/6文化庁見解)。

 

 文化庁は繰り返し「学習と生成を分けて考えて欲しい」と言っているが、無視されている。今回も学習段階では被害が生じておらず、類似物が生成されて初めて被害らしいものが生じているが、イラストレータはあくまでも「無断学習が問題」と主張している。

 

「被害」について

 

 「やすゆき」氏は著名なイラストレータであり、画風LoRAも作成されているので、少なくともエア被害者ではない。

 

 しかし「広告に使用された」という大きな加害行為があったビビッドアーミー事件とは異なり、このLoRAによって生成された類似イラストが、いつどのように使われ、それによってどのような被害を受けたかは判然としない。体調不良アピールは情状にはなるかもしれないが、著作権法とは直接関係がない。

 

自身の権利を拡大するタイプのガイドラインについて

 典型的な二次創作ガイドラインは「元々違法な行為について、条件を満たせば権利を縮小して黙認する」というものだが、このイラストレータが作成した生成AIに関するガイドラインは「元々合法な行為について、自身の権利を勝手に拡大して制限や罰を追加したもの」になっている。

 

権利の所在について

 

 潤羽るしあの権利を所有しているのは「カバー株式会社」である。その依頼でイラストを描いたに過ぎないイラストレータがカバー株式会社の意思決定を経ずに独自に晒し上げを行っている事については疑問が残る。

Adobe、Microsoft、Googleいずれも訴訟が起きたら責任を負うと発表

Google版 Copilot「Duet AI for Google Workspace」を検証してみた – CloudNative Inc.  BLOGs 

 2023/10/13、Googleが、「GoogleのGen-AIで生成したデータについて、第三者から著作権訴訟を起こされた場合、Googleが責任を負う」と発表。

 既に同様の発表をしているAdobeMicrosoftと並び、下記のようないわゆるBig Techにおいては、学習および生成レベルの議論は終結しており、さらに「生成後の法的リスクまで負う」というのが基本の形となりつつある。

 

Adobe(Firefly, Photoshop, Illustrator, etc)

Microsoft(DALL-E, Copilot, Bing)

Google(Duet AI, Imagen, SGE)

 

 ただし、保護されるのはEnterpriseクラスの契約をしている太い客だけで、無料で使っている個人は保護されない。

 

https://www.reuters.com/technology/google-defend-generative-ai-users-copyright-claims-2023-10-12/