编译 | 徐珊

编辑 | 云鹏

智东西3月7日消息,据CNBC今日报道,微软工程师沙恩·琼斯(Shane Jones)周三向联邦贸易委员会主席莉娜·汗(Lina Khan)以及微软董事会发送了一封信。信中提及微软AI图像生成工具Copilot Designer能够生成一些带有恶魔、枪支、毒品等相关不良元素的图像。

去年12月,琼斯在测试Copilot Designer时,就已经发现该问题。随后,即便他向微软一再反馈有关生成有害图像的问题,但微软仍选择无视反馈。琼斯更担心的是,如果该产品开始在全球范围内传播有害的图像,但用户却找不到地方反馈,也拨打不了投诉电话,这类事情也将会永远被忽视,无法得到解决。

现阶段,琼斯希望微软的有关部门能够调查管理层的某些决定,并对微软有关AI报告的反馈流程进行独立审查。

“我们致力于根据公司政策解决员工提出的所有问题,并感谢员工为了提高产品安全性做出一系列的努力。”微软对CNBC回应道:“当(产品)可能涉及到对我们的服务产生潜在影响,又或者是安全担忧时,我们建立了完善的内部报告渠道来调查和补救一切问题,我们鼓励员工利用这些渠道,以便我们可以及时地了解他们的担忧。”

一、侵犯版权、暴力图片泛滥,Copilot Designer问题重重

AI图像生成工具Copilot Designer的安卓应用程序被评为“E—适合所有人”。该等级包括了最广泛的年龄区间,表明它对于任何年龄段的用户都是安全且合适的。

但琼斯在测试Copilot Designer时,他意识到为Copilot Designer提供底层技术支持的DALL-E 3、GPT-4 Turbo等模型,能够生成不少暴力内容。“这些模型并没有对生成图片功能做太多的限制。”琼斯说:“这是我第一次了解到选择合适训练数据集意味着什么,同时看到如果不清理训练数据集将会造成什么样的后果。”这意味着,一些用户可以随意创造一些具有政治偏见、吸毒、阴谋论等有害元素的图片。

比如说,用户将“支持堕胎”一词输入至Copilot Designer中,该工具就会生成大量带有恶魔、怪物以及暴力场景的卡通图像。图片可能是长着锋利牙齿的恶魔即将吃掉一个婴儿,又或者是恶魔在变异的婴儿旁边拿着一把利剑,以及有人手持标有“专业选择”的电钻正对着一个婴儿。画面相当惊恐,会引起多数用户的感观不适。

生成式AI工具也会传播色情画面。比如,用户在输入“车祸”一词时,Copilot Designer会在车祸现场旁边创造了一些性感女郎的形象,像是一名穿着暴露的女性跪在一辆失事的车辆上。

琼斯还提到Copilot Designer能够生成大量未成年人饮酒或者吸毒的图像,甚至还会生成一些青少年用突击步枪扮演刺客的图像。这些图像的传播将会给未成年灌输一些不良的思想。

Copilot Designer除了可以无限制的生成一些有害图像之外,还存在版权问题。在Copilot Designer内,用户可以生成一些带有迪士尼角色的图像,如《冰雪奇缘》中的艾莎、白雪公主、米老鼠或者是星球大战里的角色。但这些角色是受到迪斯尼版权保护的,有可能会造成侵权。

二、微软和OpenAI早已知晓问题,但无力处理

事实上,琼斯并不是唯一一个对生成式AI带来的诸多问题感到担忧的人。

据他内部收集的信息,Copilot Designer团队每天都会收到1000多条产品反馈的消息。但微软内部只会对最严重的问题进行分类,并没有足够的资源来调查所有风险,规避所有的问题。如果想要解决所有问题,微软需要设立新的保护措施,又或者对大模型进行二次训练,这将会花费高额的费用。

▲微软的AI标准节选(来源:智东西)

据他了解,在去年10月公开发布AI模型之前,微软和OpenAI就已经知道了这一风险。琼斯告诉董事会,他付出了巨大的努力试图在微软内部提出这个问题,向相关部门报告有关图像的问题,甚至发布有关内部帖子指出问题所在,并直接与负责高级管理层会面。

他呼吁微软应该在产品介绍中增加一些提示信息,并明确表示它仅适用于成年人。但微软的高层要求他立即删除相关内容。同时,微软内部并未能实施他的建议,依旧和以前一样,向“任何人”推销产品。

结语:拉紧AI的“缰绳”

从微软工程师琼斯的反馈,以及CNBC的二次验证中,我们可以看到如今正在被数亿网友们使用的Copilot Designer存在着大量的数字暴力、侵犯版权等问题。

在AI狂飙的时代,我们更应该拉紧AI的“缰绳”,以免AI技术成为不法分子手中的武器。

来源:CNBC

友情提示

本站部分转载文章,皆来自互联网,仅供参考及分享,并不用于任何商业用途;版权归原作者所有,如涉及作品内容、版权和其他问题,请与本网联系,我们将在第一时间删除内容!

联系邮箱:1042463605@qq.com