微软正在开发一种新工具,用于阻止和改写无根据的信息,以便人工智能做出更好的反应

微信扫一扫,分享到朋友圈

微软正在开发一种新工具,用于阻止和改写无根据的信息,以便人工智能做出更好的反应

当微软于 2023 年 2 月首次向公众推出 Copilot(当时名为必应聊天工具)时,当时的媒体报道了很多关于生成式人工智能聊天机器人的奇怪回答和回复,以及事实错误的报道。

这些回答很快就被贴上了 "幻觉" 的标签。在聊天机器人推出几天后,微软决定对每次会话和每天的聊天回合数设置一些硬性限制,以便开发人员可以尝试减少人们收到的错误和奇怪回复的数量。

微软正在开发一种新工具,用于阻止和改写无根据的信息,以便人工智能做出更好的反应插图

虽然微软最终取消了大部分聊天回合限制,但 Copilot 的幻觉仍然会出现。在本周微软 Source 博客的一篇新文章中,该公司详细介绍了生成式人工智能是如何出现这类错误的,以及他们是如何努力减少这些事件的。

微软表示,人工智能的答案通常会产生幻觉,因为它们来自所谓的 "非基础" 内容。这意味着人工智能模型出于某种原因,改变或增加了已输入其模型的数据。虽然这对于设计更具创造性的答案(比如让 Copilot 或 ChatGPT l 这样的聊天机器人写一个故事)来说是件好事,但企业需要人工智能模型使用有根有据的数据,这样才能得到问题的正确答案。

微软表示,它一直在开发帮助人工智能模型坚持使用基础数据的工具。它表示:

公司的工程师花了几个月的时间,通过检索增强生成技术将Copilot的模型与必应搜索数据结合起来。必应的答案、索引和排名数据可以帮助 Copilot 提供更准确、更相关的回复,同时还可以帮助用户查询和验证信息。

微软表示,对于外部客户,他们可以访问 Azure OpenAI 服务,并使用一项名为 "On Your Data" 的功能,该功能允许企业和组织通过其人工智能应用程序访问内部数据。客户还可以使用另一种实时工具来检测聊天机器人的回复是否接地气。

该公司表示,它正在开发另一种方法来减少人工智能的幻觉:

微软还在开发一种新的缓解功能,用于实时阻止和纠正未接地的情况。当检测到接地错误时,该功能将根据数据自动重写信息。

至于这项新的缓解功能何时推出,目前还没有消息。

上一篇

Nvidia Broadcast Hotfix v1.4.0.38 下载:支持 Windows 11 24H2

下一篇

三星 Galaxy Watch Ultra 短暂现身官方网站

你也可能喜欢

评论已经被关闭。

插入图片

排行榜

返回顶部