Clearview公司已经为美国执法机构提供了一个面部识别工具,利用这个工具训练了公共网络上数百万张私人照片,这似乎只是一个开始。任何拥有基本编码技能的人都可以开发面部识别软件,这意味着从性骚扰、种族歧视、政治压迫和宗教迫害等多个角度来看,这项技术比以往任何时候都更有可能被滥用。

许多人工智能研究人员正在推动并开发让AI无法从个人数据中学习的方法。本周,最新的两项报告将在人工智能会议ICLR上发表。

芝加哥大学的艾米丽·温格说“我不喜欢人们从我这拿走不属于他们的东西,我想很多人也有类似的想法。” 去年夏天,温格和她的同事们开发出了最早的防AI工具。

数据中毒并不是件新鲜事。通过删除公司的数据,或者用伪示例污染数据集,从而使得公司更难训练出精确的机器学习模型。但这些努力通常需要采取集体行动,有数百万或成千上万的人参与,才能产生影响。温格新技术的独到之处在于:可以通过一张人脸照片便能达到目的。

澳大利亚迪肯大学的丹尼尔·马说,“这项技术可以利用单个人的照片作为密钥来锁定数据,在人工智能时代,它是保护人们数字权利的新一线防御工具。”

隐匿于视野中

包括Fawke在内,目前大多数工具都采用了同样的基本方法:对图像进行微小的改动,这些改动很难被人眼识别,但却能骗过人工智能,使得人工智能错误地识别出照片中的具体信息。这种技术非常接近于对抗性攻击,输入数据的微小变动会迫使深度学习模型犯大错。

给Fawkes输入一组自拍照,它就会给图像添加像素级的扰动,从而阻止最先进的面部识别系统识别照片中是谁。与先前的方法不同,它没有对图像做明显的改动。

温格和她的同事们在一些广泛使用的商业面部识别系统上测试了这一工具,包括亚马逊的AWS识别系统、微软的Azure和中国Megvii技术公司开发的Face++系统。在一个包含50张图像的数据集的小实验中,Fawkes对所有图像都100%有效,经过调整的人图像训练的模型无法在新图像中识别这些人的图像。篡改后的训练图像阻止了这些工具准确表达出人的表情。

Fawkes项目网站上已经有了近50万次的下载量。其中的一个用户还搭建了一个在线版本,使人们更容易使用(尽管温格不会对第三方使用代码做出保证,并警告说:“您并不知道处理数据时发生了什么。”)。目前还没有手机应用程序,但也无法阻止有人制作一个手机应用程序,温格说。

dawei

【声明】:九江站长网内容转载自互联网,其相关言论仅代表作者个人观点绝非权威,不代表本站立场。如您发现内容存在版权问题,请提交相关链接至邮箱:bqsm@foxmail.com,我们将及时予以处理。