如何保护您的图像免受 AI 侵害

如何保护您的图像免受 AI 侵害

虽然用 AI 生成器模仿梵高或弗里达卡罗等已逝艺术家的作品很有趣,但对在世艺术家来说却并非如此。 允许几乎任何人以“艺术家的风格”创作图像可能会导致他们的市场充斥着仿冒品; 增加对真实性的混淆和潜在的收入损失。

作为回应,人们正在寻找一种方法来保护他们的图像免受 AI 艺术生成器的影响。 答案可能并不完美或万无一失,但有一些方法可以保护您的图像不被 AI 艺术生成器使用。

人工智能生成器如何获取您的图像

AI 艺术生成器经过一段时间的“训练”,学习如何在收到文本提示时生成图像。 作为学习过程的一部分,它需要研究数以亿计的图像-文本对,以最终生成真实世界物体、颜色和场景以及艺术技巧和风格的准确图像。

碰巧的是,人工智能模型必须从人类的创造力中学习。 例如,Midjourney 和 Stability Diffusion 是两个在开源 LAION-5B 数据集上训练的 AI 艺术生成器,其中包含来自互联网的数十亿张图像。

使用网络爬虫“抓取”网站数据,这些数据集创建图像 URL 列表及其标题,类似于一个巨大的 Excel 电子表格。 如果你在网上发布了你的艺术作品,那么它可能会出现在图像数据集中,因此被用来训练 AI,无论你是否同意。

1. 选择退出 AI 训练数据集

Spawning 是一群艺术家,他们的热门网站 Have I Been Trained? 可用于查看您的图像是否在 LAION-5B 数据集中。 他们自己决定,后来添加了选择退出数据集的功能。 根据一项协议,Spawning 会将用户选择退出列表传递给 LAION,LAION 表示将尊重请求并从其收藏中删除这些图像。

Spawning 的选择退出工具仍然需要一些开发,因为在撰写本文时,您无法一次添加多个图像。 也没有与任何其他可能用于训练 AI 模型的数据集签订退出协议。

由于许多 AI 公司不披露有关其 AI 模型构建方式的更详细信息,因此有时并不清楚他们使用的是什么数据集。 DALL-E 是一种流行的 AI 艺术生成器,它不共享此信息。

DeviantArt 上 noai 标志偏好的屏幕截图

或者,如果您使用 DeviantArt 分享您的作品,您的图像现在默认受到保护,不会被用于 AI 训练数据集。 它的工作原理是用“noai”标记你的图像,这意味着如果发现人工智能模型使用你的图像进行训练,它将违反 DeviantArt 的服务条款。

当然,这些选择退出措施不是强制执行的,因此如果第三方愿意,他们可以忽略它们。 虽然这不是最有效的解决方案,但它正在引领更多规则和法规保护艺术家作品的道路。

在理想的世界中,人们可以选择加入,而不是必须选择退出。 我们希望在未来看到这种情况发生。 有关如何从数据集中删除图像的更多详细信息,请参阅我们关于如何从 AI 训练中选择退出图像的指南。

从互联网上抓取图像的做法是否合法已引起法院的注意。 而帮助艺人为自己出示证据,就是他们拥有的图片版权。

艺术家 Sarah Andersen 使用 Have I Beeen Trained 网站的结果

2023 年初,知名漫画家莎拉·安徒生 (Sarah Andersen) 是一群艺术家的一员,他们对人工智能公司 Stability AI 和 Midjourney 以及艺术分享网站 DeviantArt 提起诉讼,要求其抓取作品未经同意擅自使用他们的艺术作品——包括无数其他艺术家的艺术作品。

另一个例子是股票图片网站 Getty Images,它对 Stability AI 提起诉讼,指控其未经许可抓取其图像。 它发现其版权图像被使用的方式是当 AI 生成的图像开始显示带有 Getty Images 水印时——这是一个非常明显的赠品。

虽然合法性将在适当的时候确定,但正如我们提到的案例所示,版权是为数不多的可以用来为艺术家作品争取权利的东西之一。 它可能不是最新的人工智能技术,但它可以加强你的防御能力。

无论如何,这是一种非常值得学习的做法,因此无论是否涉及 AI,您都可以保护您的工作不被盗用。 按照我们关于如何为您的照片版权的指南,深入了解它是如何工作的。

3. 使用 Robots.txt 阻止网站爬虫

图像数据集只能索引大量图像,因为它们使用了一种叫做网络爬虫的东西。 顾名思义,他们在网站上爬行以搜索特定信息。

一些爬虫很有用,可以帮助 Google 等搜索引擎找到最相关的信息并将其编入索引,以显示在其搜索结果页面上。 其他用于抓取网站图像以包含在 AI 训练数据集中。

显示计算机代码的笔记本电脑的照片

这就是 Robots.txt 的用武之地。Robots.txt 是一个文本文件,可以放在网站的后端代码中,告诉网络爬虫他们可以扫描什么,不能扫描什么。 您可以使用它来阻止爬虫查看某些页面或文件,如果您不希望 AI 使用您的图像,这将很有帮助。

如果您想了解更多信息,请阅读我们关于什么是网络爬虫及其工作原理的指南。 对于那些拥有网站的人,请让您的网络开发人员在您的网站代码中嵌入 Robots.txt,以防止您的图像被 AI 训练数据集废弃。

未来会发生什么

与 AI 模型竞争令人沮丧,但更多解决方案正在开发中。

一方面,法院诉讼程序正在确定什么是合法的以及版权如何与 AI 图像生成一起使用。 这些公开辩论的结果将制定 AI 公司必须遵守的法律标准,并可能会制定相应的法规。

另一方面,开发人员正在思考如何使用新技术解决问题。 在一项很有前途的研究中,研究表明,您可以通过将图像渲染为 AI 训练数据集“无法学习”来使用 AI 来对抗自己。

正如墨尔本大学的 Sarah Monazam Erfani 博士所解释的那样:“我们设计了一种基于机器学习的技术,该技术可以识别和更改图像中足够多的像素来混淆 AI 并将其变成‘无法学习’的图像。这种变化非常明显小且人眼难以察觉,但它会在图像中引入足够的“噪声”,使其无法用于训练人工智能。”

如果您是受 AI 图像生成器影响的人,那么值得让人们听到您的声音,以便这些公司被迫改变他们的做法。 正是因为 DeviantArt 社区的强烈反馈,才创建了一个新的选择退出偏好,因此请务必向艺术共享平台和 AI 公司提供反馈。

保护您的图像免受 AI 侵害

您可以通过选择退出 AI 训练数据集、对您的图片进行版权保护以及使用 Robots.txt 标准来保护您的图像免受 AI 艺术生成器的影响。 虽然它不能保证您的图像远离 AI 系统,但在开发出更多解决方案之前,使用所有这三种方法将为您提供最佳防御。

新工具正在开发中,包括在不知不觉中调整图像的方法,使 AI 无法从中学习,从而使其无法用于训练 AI 艺术生成器。 与此同时,不要放弃。 仍然有一些方法可以保护您的图像免受 AI 艺术生成器的影响。

推荐:智能通知Smart Notification Wordpress 


发表评论