ケンブリッジ大学の博士課程学生ハンナ・フォルスター氏らの国際研究チームが、アーティストの画像をAI学習から保護するGlazeやNightshadeなどの技術を無効化する手法「LightShed」を開発した。
この研究はダルムシュタット工科大学とテキサス大学サンアントニオ校との共同で実施され、2025年8月にシアトルで開催される第34回USENIX Security Symposiumで発表される予定である。
LightShedは3段階のプロセスで動作し、まず保護された画像を識別し、次に公開されている毒化された画像例を使用して摂動の特性を学習し、最後に毒化を除去して元の画像を復元する。
実験評価では、NightshadeとGlazeで保護された画像に対してTPR 99.98%、TNR 100%の検出性能を達成し、埋め込まれた保護を効果的に除去することに成功した。
研究チームは既存の保護技術の不十分さを実証し、改善を促すことを目的としており、AI企業による防御回避を容易にすることを意図していないと説明している。
From: Tech to protect images against AI scrapers can be beaten, researchers show
【編集部解説】
この研究が示すのは、AI時代における著作権保護の根本的な課題です。GlazeやNightshadeといった保護技術は、画像に人間の目には見えない微細な「摂動」を加えることで、AIモデルの学習を妨害する仕組みでした。しかし、LightShedの登場により、これらの防御メカニズムが思っていたほど堅牢ではないことが明らかになりました。
研究チームが強調しているのは、LightShedは攻撃ツールではなく「警鐘を鳴らす」ための研究だという点です。実際、ケンブリッジ大学のハンナ・フォルスター氏は「既存の保護スキームの弱点を浮き彫りにする啓発活動」と位置づけています。これは、現在の保護技術が一時的な解決策に過ぎず、より強固な防御システムの開発が急務であることを示唆しています。
技術的な観点から見ると、LightShedの動作原理は比較的シンプルです。まず保護された画像を識別し、次に公開されている毒化された画像例を使用して摂動の特性を学習し、最後に毒化を除去して元の画像を復元します。この3段階のプロセスにより、NightshadeとGlazeで保護された画像に対してTPR 99.98%、TNR 100%という高い検出性能を達成しています。
この技術が与える影響は多方面にわたります。アーティストにとっては、現在利用可能な保護手段の限界が露呈したことで、新たな不安材料となるでしょう。実際、GlazeとNightshadeは合計で約900万回ダウンロードされており、多くのアーティストが頼りにしている保護ツールです。一方で、AI企業にとっては学習データの確保がより容易になる可能性があります。
興味深いのは、Nightshadeが2024年1月にリリースされて以降、PixArt sigma、Stable Diffusion 3、Midjourney v6.1、Fluxなど多数のAI画像生成モデルが登場していることです。これらのモデルがNightshadeの影響を受けていないという事実は、既存の保護技術の実効性に疑問を投げかけています。
ポジティブな側面として、この研究は保護技術の改良を促進する触媒となり得ます。ダルムシュタット工科大学のアーマド・レザ・サデギ教授は「防御メカニズムを共同で発展させる機会」と述べており、研究コミュニティと芸術コミュニティの協力による、より堅牢な保護ツールの開発が期待されます。
潜在的なリスクとしては、この技術が悪意のある第三者によって悪用される可能性が挙げられます。現在の法的枠組みでは、AI学習における著作権の扱いが曖昧な状況が続いており、技術的な保護手段の脆弱性が露呈することで、アーティストの権利保護がさらに困難になる恐れがあります。
規制への影響も無視できません。BBCがPerplexityを無断使用で訴訟し、英国政府が著作権素材の無許可AI学習を許可する提案に対してポール・マッカートニーやエルトン・ジョンが「犯罪的」と批判するなど、法的な議論が活発化しています。技術的保護手段の限界が明らかになったことで、法的な保護枠組みの整備がより急務となる可能性があります。
長期的な視点では、この研究はAIと人間の創造性をめぐる軍拡競争の一環と捉えることができます。保護技術とそれを回避する技術のイタチごっこが続く中で、最終的には技術的解決策だけでなく、法的・倫理的な枠組みの整備が不可欠となるでしょう。
innovaTopiaが注目すべきは、この研究が示す「Tech for Human Evolution」の両面性です。技術の進歩が人間の創造性を脅かす一方で、同じ技術が新たな保護手段の開発を促進する可能性も秘めています。今後の展開において、技術と人間性のバランスをいかに保つかが重要な課題となりそうです。
【用語解説】
敵対的摂動(Adversarial Perturbations)
画像に人間の目には見えない微細な変更を加えることで、AIモデルの判断を意図的に誤らせる技術。データポイズニングの一種である。
データポイズニング(Data Poisoning)
機械学習モデルの学習データに意図的に悪意のあるデータを混入させ、モデルの性能を低下させたり誤作動を引き起こす攻撃手法。
フィンガープリント(Fingerprint)
デジタル画像に埋め込まれた特徴的なパターンや識別子。LightShedはこれを利用して保護された画像を識別する。
責任ある開示プロトコル(Responsible Disclosure Protocol)
セキュリティ研究において、発見した脆弱性を悪用されないよう適切な手順で公開する倫理的なガイドライン。
スタイル模倣攻撃(Style Mimicry Attack)
AIモデルが特定のアーティストの作風を学習し、その作風を模倣した作品を生成する攻撃手法。
TPR(True Positive Rate)
機械学習における評価指標の一つで、実際に陽性のサンプルを正しく陽性と判定した割合。真陽性率とも呼ばれる。
TNR(True Negative Rate)
機械学習における評価指標の一つで、実際に陰性のサンプルを正しく陰性と判定した割合。真陰性率とも呼ばれる。
【参考リンク】
Glaze – Protecting Artists from Generative AI(外部)
シカゴ大学開発のアーティスト保護ツール。AIスタイル模倣防止ソフトウェア
Nightshade – Protecting Copyright(外部)
AI学習データ毒化による攻撃的防御手法を提供する画像保護ツール
USENIX Security Symposium 2025(外部)
コンピューターセキュリティ分野の権威ある国際会議。LightShed研究発表予定
University of Cambridge – Computer Science(外部)
主著者ハンナ・フォルスター氏所属のケンブリッジ大学コンピューター科学技術学部
【参考記事】
This tool strips away anti-AI protections from digital art(外部)
MIT Technology Reviewによる詳細な報道。LightShedの学習プロセスと、アーティスト保護技術の限界について技術的な観点から解説している。
Researchers show AI art protection tools still leave creators at risk(外部)
テキサス大学サンアントニオ校による公式発表。LightShedの99.98%の検出精度など具体的な実験データと研究者のコメントを詳細に報告している。
Glaze and NightShade can’t stop AI from scraping your art(外部)
CyberNewsによる包括的な報道。LightShedの3段階プロセスと、現在進行中の著作権訴訟の状況について詳しく解説している。
【編集部後記】
今回のLightShedの登場は、私たちクリエイターとAIの関係について改めて考える機会を与えてくれました。約900万回ダウンロードされたGlazeやNightshadeが破られる可能性があることに不安を感じる一方で、この研究が次世代の保護技術開発を促進するきっかけになるかもしれません。
みなさんは、創作活動とAI技術の共存について、どのような未来を描いていますか?また、技術的な保護手段と法的な枠組み、どちらがより重要だと思われますか?ぜひSNSで、あなたの考えを聞かせてください。