麻省理工推出 PhotoGuard 技术,可保护图像免受恶意 AI 编辑

  • A+
所属分类:创投

chatGPT账号

撰文:Andrew Tarantola

来源:Engadget

麻省理工推出 PhotoGuard 技术,可保护图像免受恶意 AI 编辑

图片来源:由无界 AI工具生成

Dall-E 和 Stable Diffusion 只是开始。随着人工智能生成系统的普及,以及各公司努力将自己的产品与竞争对手的产品区分开来,互联网上的聊天机器人正在获得编辑和创建图片的能力,Shutterstock 和 Adobe 等公司就是其中的佼佼者。但是,这些新的 AI 功能也带来了我们熟悉的问题,比如未经授权篡改或直接盗用现有的在线作品和图片。水印技术可以帮助减少后者问题,而麻省理工学院 CSAIL 开发的新型“PhotoGuard”技术则可以帮助我们防止前者的出现。

据悉,PhotoGuard 的工作原理是改变图像中的部分像素,从而破坏 AI 理解图像内容的能力。研究团队所说的这些“扰动”,人眼是看不见的,但机器很容易读懂。引入这些伪影的“编码”攻击方法针对的是算法模型对目标图像的潜在表示 -- 描述图像中每个像素的位置和颜色的复杂数学 -- 从根本上阻止了人工智能理解它正在看什么。(注:伪影 (Artifacts) 是指原本被扫描物体并不存在而在图像上却出现的各种形态的影像。

麻省理工推出 PhotoGuard 技术,可保护图像免受恶意 AI 编辑

此外,更先进、计算量更大的“扩散”攻击方法会将图像伪装成人工智能眼中的另一幅图像。它将定义一个目标图像,并优化其图像中的扰动,使其与目标图像相似。人工智能试图对这些“免疫”图像进行的任何编辑都会应用到伪造的“目标”图像上,从而生成看起来不真实的图像。

“编码器攻击会让模型认为(要编辑的)输入图像是其他图像(如灰度图像),”麻省理工学院博士生、论文第一作者 Hadi Salman 告诉 Engadget。“而扩散攻击则迫使扩散模型对一些目标图像(也可以是一些灰色或随机图像)进行编辑。”这种技术并非万无一失,恶意行为者可能会通过添加数字噪音、裁剪或翻转图片等方式,对受保护的图像进行逆向工程。

“涉及模型开发人员、社交媒体平台和政策制定者的协作方法可以有效防御未经授权的图像操纵。解决这一紧迫问题在今天至关重要。”Salman 在一份新闻稿中表示。“虽然我很高兴能够为这一解决方案做出贡献,但要使这一保护措施切实可行,还有很多工作要做。开发这些模型的公司需要投入资金,针对这些 AI 工具可能带来的威胁进行强大的免疫工程设计。”

免责声明

免责声明:

本文不代表知点网立场,且不构成投资建议,请谨慎对待。用户由此造成的损失由用户自行承担,与知点网没有任何关系;

知点网不对网站所发布内容的准确性,真实性等任何方面做任何形式的承诺和保障;

网站内所有涉及到的区块链(衍生)项目,知点网对项目的真实性,准确性等任何方面均不做任何形式的承诺和保障;

网站内所有涉及到的区块链(衍生)项目,知点网不对其构成任何投资建议,用户由此造成的损失由用户自行承担,与知点网没有任何关系;

知点区块链研究院声明:知点区块链研究院内容由知点网发布,部分来源于互联网和行业分析师投稿收录,内容为知点区块链研究院加盟专职分析师独立观点,不代表知点网立场。

  • 我的微信
  • 这是我的微信扫一扫
  • weinxin
  • 我的电报
  • 这是我的电报扫一扫
  • weinxin
chatGPT账号
知点

发表评论

您必须登录才能发表评论!