プリキュア事件

 2024/3/15、プリキュア20周年記念アイテムの1つとして製作された「ふたりはプリキュア Max Heart」のグッズのイラストが、「細部が設定と合ってない」「見た感じがAI生成っぽい」という理由で魔女狩りのターゲットにされ、AI使用罪で焼かれる。

 

 規模を問わなければ、反AIによる難癖・言いがかり・魔女狩り・私刑はほとんど日常と言っていいレベルで発生しているが、ターゲットが大きい冤罪事例としては2023/8/13のあらいずみるい事件以来。

 

 その後3/22になって公式がAI使用を完全否定。つまり今回も冤罪だった。魔女狩りに参加した反AIは、今回も反省する事も謝罪もする事なく、「疑って何が悪いのか」「紛らわしい事をするな」「吊るすからイラストレータの名前を公開しろ」「全部AIが悪い」と、加害者であるにも関わらず被害者のポジションを取りながら逃走した。

 

 なお、しばしば登場する「AIか否かを明記すれば問題なかった」説は、2024/3/9に「AI使用を明記した朗読劇」が反AIの脅迫を受けて中止になっているので、ただの嘘である。

 

 事実関係を箇条書きにすると下記のようになる。

 ① このイラストが手描きでもAI生成でも、反AI主義者はただの第三者で、被害者ではない。

 ② このイラストが手描きでもAI生成でも、 プリキュアの画像をAIで生成する事は合法。

 ③ 権利者以外がグッズを作って売ったら手描きであっても違法。

 ④ プリキュアの正式な権利を持つ東映は、AIで画像を作るのもグッズを作って売るのも合法。

 

 反AI構成員の大部分はそもそもGen-AIから被害を受けるような域に達していないエア被害者であるが、特に本件においては、グッズを作った東映自身がプリキュアの正式な権利者であるため、より「無関係な第三者が被害者気取りで勝手に騒いだ」という状態に近くなっている。

 

▼ 反AIによって「添削」された画像

 

https://twitter.com/precure_15th/status/1771008903062671690

EU AI Act、正式に可決

 2024/3/13、2023/12/8に既に大筋合意していたEU AI actが正式に可決。

 

 これが何なのか、という話は約4ヶ月前に結論が出ている。EU AI actは「エア被害者を保護するために無断学習を規制する」ためのものではない。「米国製の強力なAIだけを規制して足を引っ張りつつ、EU圏内のAIを無規制で開発させて米国に追い付く」ためのものである。

 

 規制は、ChatGPTに代表される強力な米国製AIだけが引っかかり、EU圏内の弱小AIは引っかからないよう巧妙に条件設定してある。そうして時間稼ぎを行い、その間EUのAIをこれまで通り無規制で開発させ、EUのAIもこの規制に引っかかるようなレベルまで成長したら、規制内容を変更して再び引っかからないように仕立て上げる。そういう計画である。

 

 反AI主義者は現時点でLLMや機械翻訳を平然と使用しており、反AIとは言うものの本当に反対しているのは画像生成だけというダブルスタンダード状態だが、その観点で言うと、オープンソースかつ個人使用が大半の画像生成AIはEU AI actの規制要件から外れるため、この法案成立による反AI的な成果はほとんどないとみられる。

 

https://www.soumu.go.jp/main_content/000826707.pdf

https://wintermutex.hatenablog.com/entry/2023/12/11/192603

AI朗読劇事件

 2024/3/9、Lol社が、2024/3/13~20の日程で開催予定だった「~AI朗読劇~ AIラブコメ」の開催中止を発表。このイベントは「シナリオがAI生成である」という事が一つの売りとなっており、少し前から反AIの攻撃目標になっていた。

 

 中止の理由は、もちろん「無断学習データでコンテンツを作ってしまい申し訳ありませんでした」等ではない。「関係者の皆様、出演者の皆様、事務所の皆様に多大なるご迷惑がかかる危険があると判断した」となっている。つまり「このまま開催すると反AIテロリストによって危害を加えられる関係者が出る可能性を否定できないから中止」という事である。

 

 本イベントは最初からAI使用を明示していたので、結果的に、反AI業界でしばしば登場する「AIタグを付ければ良かったのに」説が嘘だという事が証明されてしまった。明示しようがしまいが反AIは群がってくるし、ターゲットを潰すまで攻撃を止める事もない。

 

https://www.lol-w.com/ai-rodoku-lovecome/

文化庁パブコメ、まとまる

 2024/02/29、文化庁が、1/23から2/12にかけて募集していた、「AIと著作権に関する考え方について」のパブリックコメントの結果を公表。

 

 結論から言うと、反AI的な成果はなかった。

 

 繰り返しになるが、約9ヶ月前にあたる2023/6の文化庁見解の時点で、

 

 ① 無断学習は合法、というより学習は原則的に無断であり、そもそも法的には「無断学習」という概念自体が存在しない

 ② 生成・公開した作品が他者の著作権を侵害していた場合、現行法で裁く

 

 という結論が既に出ており、今回も全ての話がその枠内に収まっている。集中学習を受けるレベルの著名なイラストレータならともかく、大多数のエア被害者はそもそも被害者ですらない。

 

 このパブリックコメントは、同じ話を繰り返すばかりで、新しい話題が何もなくなってしまった反AI業界において、一つの大きなイベントとして捉えられていた。

 

https://www.bunka.go.jp/seisaku/bunkashingikai/chosakuken/hoseido/r05_07/

DLsite、AI容認に方針変更

 2024/2/15、2023/5/11から約9ヶ月に渡って生成AIが関与した作品を一律取り扱い禁止としていたDLsiteが、作品の取り扱いを再開。

 

 2023年5月は、DLsiteだけでなく、skeb、 pixiv FANBOX、Fantia、Cienなど主要なマネタイズ系サイトが相次いでAI関連作品を締め出し、反AIビジネスに舵を切った月であるが、そのグループからまずDLsiteが離脱する事になった。

 

https://info.eisys.co.jp/dlsite/4628201220b668fe

Nightshade、公開される

 2024/1/19、昨年3月にGlazeをリリースした「シカゴの研究チーム」が、第2の機械学習阻害ツールとなるNightshadeを公開。

 

 基本的な構造はGlazeと同じく、「Stable Diffusionそのものを内蔵(=Nightshade自体が無断学習によって作られている)」「それを使って元絵にゴミデータを合成」「ゴミデータは人間にとっても汚いノイズとして視認されるが、機械学習にとってはもっと邪魔」というもの。

 

 単に壊れたデータを学習させようとしていたGlazeとは異なり、Nightshadeは「描かれているものを別のオブジェクトに誤認させる」、例えば「犬が描かれた絵をAIにだけ猫だと誤認させる」ような画期的な攻撃効果があるとされていた。しかし、リリース後の検証では、BLIPやTaggerに類するツールは正常に動作しており、アナウンスされていたオブジェクト誤認効果は確認されていない。間違ったタグが付与されたゴミデータを学習すると学習モデルがゴミに近づくのは事実だが、それは今までもずっとそうであり、Nightshadeの新機能というわけではない。

 

 前段のGlazeからして、登場から10ヶ月以上経っているにも関わらず、本当に学習阻害効果があるのか未だに分からず、ただ「効果はあるはず」という一種の信仰だけが残っている。現状ではNightshadeも同様の扱いである。

 

 「シカゴの研究チーム」は、GlazeやNightshadeをサーバサイドで処理する事を想定しており、そのために有料サービスを立ち上げる方針であるらしい。

反AI主義者が流した代表的なデマ 20240113

「生成AIは無断学習で作られたデータを使っているので存在自体が違法である」

 

 著作権法第30条の4の規定により、学習は無断が原則かつ無断でも合法なので、法的にはそもそも「無断学習」という概念自体が存在しない。そのようにして作られた学習データが「違法な存在」という事もない。

 画像生成AIに対して凄まじい攻撃性を見せる反AIが、同じ構造の機械翻訳を平然と使っている事からもそれが分かる。

 もちろん「違法な存在になって欲しいと思っている人」はいる。

 

「画像生成AIの学習データは収集した画像を圧縮したものであり、Promptに応じてそれらを復元・合成する一種の検索エンジンである」

 

 そのような稚拙な設計では生成AIを完成させる事ができないので、今の形になったのである。

 

「無断学習が合法なのは法整備が追いついていないだけで、今後違法になる」

 

 現実は逆で、「各陣営が自分にとって都合のいい法解釈を乱立させて開発者が足を引っ張られる事が目に見えていたため、先手を打って2019年に30条の4を作り、機械学習を合法化しておいた」のである。

 これは、インターネット黎明期に、レコード会社や出版社の顔色を伺って規制だらけにした結果、国内で配信サービスが全く育たず、AppleGoogleに国単位で敗北したという過去の反省を踏まえている。

 もちろん「法整備が追いついていない事にしたい」と思っている人はいる。

 

「AIで生成した画像には著作権がないので転載・二次利用し放題」

 

 2023/6/19に文化庁が「創作意図と創作的寄与があればAI生成物にも著作権は認められる」と公式に発表し、この主張を否定している。

 デマの発生源は、2023/3/17にアメリカ合衆国著作権局が出した見解で、これはその後裁判沙汰になり、8/18に判決が出ている。この見解をもって「AI生成物には著作権がない」と主張するには以下の5つの問題がある。

 

 ①米国著作権局が独自に出した見解であり、米国内でもその判断が妥当かどうか(裁判していないので)不明。もちろん米国以外には全く関係がない。

 ②日本においては、著作権は作品を作った瞬間に自動的に発生するが、米国においては、著作権は作品を著作権局に登録した際に始めて発生する。そのため米国では、ある作品に著作権を与えるかどうかを、一行政機関が独断で決められる。制度に根本的な違いがある。

 ③Stephen ThalerのCreativity Machine裁判は、一般的にイメージされるような「生成AIを制御した人間が作品を登録しようとして拒否された」という事例ではなく、「生成AIというシステムそのものを著作権者として登録しようとして拒否された」という特殊な事例である。

 ④出力後の人的修正が一切無い、いわゆる「ポン出し」の話をしている。現実にはポン出しのデータがそのまま作品として公開される事はまず考えられない。

 ⑤ControlNetすら存在しない時代に発生した事件であり、技術的にあまりにも古い。

 

「AIはAIが生成したデータを再学習すると段々壊れていく」

 

 映画のシナリオとしてはよくありそうな話ではある。

 デマの発生源は、2023/6/12頃に掲載された「AIは誤ったデータを再学習する事で誤りが強化されていく」という記事。どちらかというと画像生成AIではなくLLMの話であり、そもそも原文からして「AIはAIが生成したデータを再学習すると壊れる」とは言っていない。「ゴミデータを学習すると学習モデル全体の質が下がっていく」と言っているだけである。それは当たり前の事で、改めて言及するような事でもない。

 これは「全員がデマを信じるとそのコミュニティではそれが事実になる」というデマのメカニズムに似ている。ゴミデータを学習して壊れるのはAIだけではない。人間も壊れる。

 

https://venturebeat.com/ai/the-ai-feedback-loop-researchers-warn-of-model-collapse-as-ai-trains-on-ai-generated-content/