微软(Microsoft)已经删除了 Designer AI 图像创建器中使用的一些更多的文本提示,这些提示曾创建了暴力或性艺术作品。几天前,一名微软现任员工继续向公司和美国政府正式提出警告,称使用 Designer(前必应图像创建器)存在危险。
CNBC 的最新报道称,"支持选择"、"4-20" 和 "支持生命" 等文字提示现在输入 Designer 时会生成一条信息,称它们 "可能与我们的内容政策相冲突"。这些信息还警告说,多次测试提示违反微软的政策可能 "导致您的访问被自动暂停"。
几天前,一位名叫谢恩-琼斯(Shane Jones)的微软员工向 CNBC 展示了通过 Designer 创建的图片,这些图片描述了暴力或性图像,以及可能侵犯版权的艺术作品。过去几个月里,琼斯一直在开展一项活动,表示他认为 Designer 还没有准备好供大众使用。
他已向微软表达了自己的担忧,并致函美国立法者和华盛顿州总检察长。本周,他还致信美国联邦贸易委员会主席莉娜-汗。
在周五发给 CNBC 的一份声明中,微软发言人说:
我们正在不断监测、调整和实施额外的控制措施,以进一步加强我们的安全过滤器,减少对系统的滥用。
据 CNBC 报道,虽然一些文本提示可能不再适用于 Designer,但其他提示仍可创建带有暴力图像的作品。例如,根据 CNBC 的报道,输入 "车祸" 可以创建带有 "变异脸" 的尸体的图片。
设计者还可以使用受版权保护的字符创建图片。CNBC 说,它使用迪斯尼电影《冰雪奇缘》中的艾莎在残破的建筑物前创作了一幅图像。