発表から数ヵ月経ち、アーティストが自分の作品を学習しようとする AI モデルに「毒」を盛ることができる新しいフリーソフトウェア・ツール「Nightshade」がついに利用可能になった。
シカゴ大学 教授 Ben Zhao 氏率いる「Glaze Project」のコンピュータ科学者たちによって開発されたこのツールは、基本的に AI で AI に対抗することで機能する。このツールは、人気のあるオープンソースの機械学習フレームワーク PyTorch を利用して、指定された画像に何が写っているかを識別し、画像をピクセルレベルで微妙に変更するタグを適用する。
今日がその日です。Nightshade v1.0の準備が整いました。パフォーマンス・チューニングも終わり、UIの修正も終わりました。
Nightshade v1.0は nightshare.cs.uchicago.edu からダウンロードできます。
What-is ページと、Nightshade の動かし方についてのユーザーズガイドをお読みください。Glaze より少し複雑です。
Today is the day. Nightshade v1.0 is ready. Performance tuning is done, UI fixes are done.
You can download Nightshade v1.0 fromhttps://t.co/knwLJSRrRh
Please read the what-is page and also the User's Guide on how to run Nightshade. It is a bit more involved than Glaze
— Glaze at UChicago (@TheGlazeProject) January 19, 2024
ほぼ1年前、チームは Glaze という別のプログラムを発表した。Glaze は、ユーザの要求に応じてデジタルアート作品を変更し、AI の学習アルゴリズムを混乱させ、画像が実際とは異なるスタイル(実際とは異なる色や筆のストロークなど)であると思わせるように設計されている。
しかし、シカゴのチームが Glaze を防御ツールとして設計したのに対し、Nightshade は「攻撃ツール」として設計されている。
Nightshade で加工された、あるいは「シェーディング」された多くの画像で学習することになった AI モデルは、たとえ Nightshade でシェーディングされていない画像であっても、そのモデルのすべてのユーザに対して、オブジェクトを誤って分類してしまう可能性が高い。
「例えば、人間の目には、緑の草原にいる牛の陰影のついた画像がほとんど変化なく見えるかもしれないが、AI モデルには、草原に大きな革の財布が転がっているように見えるかもしれない」と研究チームはさらに説明する。
そのため、財布に見えるように陰影をつけた牛の画像で学習させた AI モデルは、ユーザが牛の画像を作るように要求しても、牛の代わりに財布を生成し始める。
必要条件と Nightshade の仕組み
Nightshade を使用するには、Apple のチップを内蔵した Mac(M1、M2、M3)、あるいは Windows 10または11を搭載した PC が必要だ。両 OS 用のツールはこちらからダウンロードできる。Windows 用は PC の GPU で実行するにはサポート対象ハードウェアのリストにある Nvidia が必要だ。
一部のユーザからは、このツールの圧倒的な需要に起因する長いダウンロード時間が報告されており、場合によっては8時間にも及ぶこともある(2つのバージョンのサイズは、Mac 用が255MB、PC 用が2.6GB である)。
また、ユーザは Glaze/Nightshade チームのエンドユーザ使用許諾契約書(EULA)に同意しなければならない。EULA には、このツールを自分の管理下にあるマシンで使用し、基礎となるソースコードを変更しないこと、ソフトウェアを複製、コピー、配布、再販、その他いかなる商業目的にも使用しないことが規定されている。
Nightshade v1.0は、「画像を “毒 “サンプルに変換し、同意なしにその画像でトレーニングする[AI]モデルは、予想される規範から逸脱した予測不可能な行動を学習するようになる。例えば、宇宙空間を飛ぶ牛の画像を要求するプロンプトは、代わりに宇宙空間に浮かぶハンドバッグの画像を得るかもしれない」と、開発チームが web サイトに投稿したブログ記事には書かれている。
つまり、Nightshade v 1.0を使って画像を「シェーディング」すると、画像はオープンソースの AI ライブラリによって新しいバージョンに変換される。
さらに、このツールは、ユーザや閲覧者が画像に加える典型的な変換や変更のほとんどに耐性がある。チームはこう説明する。
切り抜き、再サンプル、圧縮、ピクセルの平滑化、ノイズの追加が可能です。スクリーンショットを撮ることもできるし、モニターに表示された画像の写真を撮ることもできます。繰り返しになりますが、これは透かしや隠しメッセージ(ステガノグラフィ)ではないからであり、もろくもありません。
拍手と非難
一部のアーティストが Nightshade v1.0のダウンロードを急ぎ、すでに活用している。その中には、AI アートおよびビデオジェネレーター企業である Midjourney、DeviantArt、Runway、Stability AI に対する現在進行中の著作権侵害集団訴訟の元主席アーティスト原告の一人である Kelly McKernan(ケリー・マッカーナン)氏もいる。一方、一部の web ユーザは、AI モデルや企業に対するサイバー攻撃に等しいと指摘し、Nightshade v1.0に苦言を呈している。(VentureBeat は、Midjourney や他の AI 画像ジェネレーターを使って記事のヘッダーアートワークを作成している)。
Artifact が@TheGlazeProject によって Glazed と Nightshaded されたことを共有できることにひどく興奮しています。これは、生成 AI が人間のクリエイターの本物の声を共食いしてしまうことを描いた作品です。この画像がトレーニング用にスクラップされると… pic.twitter.com/0VNFIyabc2
– Kelly McKernan (@Kelly_McKernan) 2024年1月14日
https://twitter.com/Kelly_McKernan/status/1746577016407622064
あはははは、この反応は正気じゃない。
彼の目には「違法」と映るからだ。
彼はそれを、自分の PC がハッキングされることに例えた。
嬉しい pic.twitter.com/BhMP73BkUb
– Jade (@jadel4w) 2024年1月19日
Ahahah the cope is insane.
Dude is legit arguing against glazing your images because it’s ‘illegal’ in his eyes.
He compared it to having his PC hacked because it ‘disrupts his operation’I am delighted pic.twitter.com/BhMP73BkUb
— Jade Law (@jadel4w) January 19, 2024
Glaze/Nightshade チームは、破壊的な目的を求めていることを否定し、次のように書いている。
Nightshade の目的は、モデルを壊すことではなく、非ライセンスデータでトレーニングするコストを増加させ、クリエイターから画像をライセンスすることが現実的な選択肢になるようにすることです。
言い換えれば、AI モデルの開発者が、アーティストにお金を払って、彼らのデータで学習しなければならないようにしようとしているのだ。
データスクレイピングをめぐる目まぐるしい戦いの最新戦線
なぜこのようなことになったのか? それは、web 全体からデータをスクレイピングすることである。その中には、アーティストが投稿したオリジナルのアート作品をスクレイピングすることも含まれており、彼らはこの行為について事前に明示的な知識も決定権も持っていない。
VentureBeat が報じているように、データスクレイピングは、「ボット」と呼ばれる単純なプログラムにインターネットを探索させ、公開されている web サイトからデータをコピーし、スクレイピングを行う個人や団体に役立つ他の形式に変換させることを含む。
これはインターネット上では一般的な手法で、ジェネレーティブ AI が登場する以前から頻繁に使用されており、Google や Bing が web サイトをクロールして検索結果にインデックスするのとほぼ同じ手法だ。
しかし、彼らの作品が、彼らの作品と競合したり、彼らの作品に取って代わる可能性のある商業的な AI モデルを学習させるために、彼らの明示的な許可なく使用されることに反対するアーティスト、作家、クリエイターたちから、新たな監視の目を向けられている。
AI モデルメーカーは、このような行為は創作物を訓練するために必要であるだけでなく、「フェアユース(公正使用)」、すなわち、以前の作品が新たな目的のために変形され使用される場合には、新たな作品に使用することができるとするアメリカの法理に照らして合法であると擁護している。
OpenAI のような AI 企業は、AI トレーニングのためにスクレイピングされるのを避けるために、反対者が web サイトに追加できる「オプトアウト」コードを導入しているが、Glaze/Nightshade チームはこう指摘する。
オプトアウトリストは過去にモデルトレーナーによって無視されてきました。また、オプトアウトリストやスクレイピング禁止指示に違反した者は、高い信頼性をもって特定することはできません。
Nightshade は、「この力の非対称性に対処する」ためのツールとして考案され、設計された。
チームはさらに最終的な目標をこう説明する。
責任を持って使用することで、Nightshade は、著作権、オプトアウトリスト、do-not-scrape/robots.txt ディレクティブを無視する模範トレーナーを抑止するのに役立ちます。モデルトレーナーの親切心に頼るのではなく、無許可でスクレイピングされ、トレーニングされたデータ1つ1つに少額の追加料金を課します。
基本的には、広範なデータスクレイピングを AI モデルメーカーにとってより高価なものにし、それを行うことを考え直させ、それによって、より実行可能な代替案として人間のアーティストとのライセンス契約を追求することを検討させる。
もちろん、Nightshade は時間の流れを逆行させることはできない。ツールによってシェーディングされる前にスクレイピングされたアートワークは、依然として AI モデルのトレーニングに使用されており、今それをシェーディングすると、今後のモデルの有効性に影響を与える可能性がある。
また、技術的なレベルでは、誰かが Nightshade を使って AI が生成したアートワークや自分が作成したものではないアートワークに陰影をつけることを止めることはできない。
【via VentureBeat】 @VentureBeat
Members
BRIDGEの会員制度「Members」に登録いただくと無料で会員限定の記事が毎月10本までお読みいただけます。また、有料の「Members Plus」の方は記事が全て読めるほか、BRIDGE HOT 100などのコンテンツや会員限定のオンラインイベントにご参加いただけます。無料で登録する