现在要求 ChatGPT 重复一个单词可能会违反其条款

微信扫一扫,分享到朋友圈

现在要求 ChatGPT 重复一个单词可能会违反其条款

谷歌 DeepMind 研究人员上周发现的一项新技术显示,反复要求 OpenAI 的 ChatGPT 重复单词会无意中泄露其训练数据中的私人个人信息。现在,该聊天机器人似乎开始拒绝某些之前在其服务条款中允许的提示。

通过要求 ChatGPT 无限制地重复 "hello",研究人员发现,该模型最终会泄露用户的电子邮件地址、出生日期和电话号码。针对我们测试中的类似提示,聊天机器人警告说,这种行为 "可能违反我们的内容政策或服务条款"。

但仔细观察后发现,OpenAI 的服务条款并没有明确禁止用户让聊天机器人重复说话。条款只禁止从其服务中进行 "自动化或程序化 "数据提取。

OpenAI 在使用条款页面中写道:

除 API 允许的情况外,您不得使用任何自动化或程序化方法从服务中提取数据或输出,包括搜刮、网络收获或网络数据提取。

尽管如此,在测试过程中,重复提示似乎并未触发 ChatGPT 的任何数据泄露。OpenAI 拒绝就这种行为现在是否违反其政策发表评论。

另一条新闻是,就在上两周,山姆-奥特曼(Sam Altman)出人意料地被解除了首席执行官职务,几天后又在员工辞职的威胁下复职。随后,该公司宣布已达成 "原则性协议",让 Altman 与新的临时董事会一起重新担任首席执行官。

OpenAI 还推迟了定制人工智能模型市场的推出。Sam Altman 在上月初的 DevDay 活动上宣布了这个被称为 "GPT 商店 "的在线平台。人工智能实验室在备忘录中写道:"一些意想不到的事情让我们忙得不可开交",因此无法按原计划在本月推出。

来源:404 Media

上一篇

Windows 11 23H2 升级导致性能下降

下一篇

微软终于为盲人和低视力用户推出了安卓版"Seeing"人工智能应用程序

你也可能喜欢

评论已经被关闭。

插入图片

公众号

公众号
关注我们

排行榜

返回顶部