各大科技公司齐聚一堂,正式承诺安全推进人工智能的发展。在由韩国和英国领导人主办的一次虚拟全球会议上,来自 OpenAI、微软、谷歌和其他公司的代表承诺在其工作中保持透明度和监督。
16 家公司既承认人工智能的巨大潜在利益,也承认其被滥用或对人类造成伤害的风险。各方同意采取的实际步骤包括发布安全框架、避免使用风险无法控制的模型,以及与国际监管机构进行协调。目标是确保人工智能系统的行为符合道德规范,并随着技术的发展避免任何意外伤害。
加入西方科技巨头行列的还有来自中国和中东的公司,如腾讯、美团、小米和三星。研究人员和工程师将评估系统是否存在偏见或其他可能对群体不利的问题。所有公司都打算在部署前仔细监控其人工智能模型,并从多个角度了解风险。
另一方面,来自美国、欧盟、澳大利亚和其他国家的政治领导人赞同这些承诺,并计划在未来举行会议以保持进展。虽然自愿承诺是一个良好的开端,但政治家们认为还需要一些监管措施。
OpenAI 最近在人工智能安全问题上饱受争议,这一举措尤其值得注意。就在上周,OpenAI 关闭了其 "superalignment" 团队,该团队的工作重点是确保人工智能安全运行。
这一消息是在两位重要人物--伊利亚-苏茨基弗(Ilya Sutskever)和扬-莱克(Jan Leike)--离开 OpenAI 之后发布的。Leike 在 X 上说,他之所以离开,是因为他觉得公司对安全问题不够重视。他说,安全团队很难获得工作所需的资源。
随后,萨姆-阿尔特曼(Sam Altman)和格雷格-布罗克曼(Greg Brockman)回应了 Jan Leike 对人工智能安全的担忧,向公众保证公司致力于 "严格的测试、慎重的考虑和世界一流的安全措施"。
来源:Reuters