微软承认必应 Copilot 存在严重“幻觉”漏洞,询问“即时内容”有 1/3 概率回复错误答案

2023-12-18 www.dnxtw.com

电脑系统网 12 月 18 研究机构日新闻 AI Forensics 今年 8 月至 10 每月内置微软必须搜索引擎内置的搜索引擎 Copilot 对功能进行调查,结果显示在某些场合,Copilot 有 1/3 因此,该机构认为相关功能存在严重的“幻觉”漏洞。

▲ 图源 AI Forensics 报告(下同)

研究机构利用一系列即时更新的数据进行“测试” Copilot,例如询问 Copilot“德国、瑞士等地的实时选举信息及投票结果” Copilot 输出结果并不令人满意。

计算机系统网络从机构报告中了解到,必应 Copilot 在回答相应的问题时,功能的输出内容包括 31%(1/3)有错误,包括“投票日期错误”、“列出往届候选人”、“虚构候选人身份背景”、 各种“幻觉”,如“编造候选人涉嫌丑闻”。

研究人员还提到,必须 Copilot 在输出“幻觉”信息时,它会引用许多知名媒体网站作为“新闻来源”,这对许多新闻媒体的声誉有害。

计算机系统网注意到,今年 10 月度研究人员已向微软提交上述问题。虽然微软承认并声称“计划解决相关‘幻觉’漏洞”,但今年 11 每月,研究人员再次进行测试,发现必要 Copilot 性能没有提高。

研究人员呼吁公众不要轻信 Copilot 应妥善检查答案的内容 Copilot 引用的新闻链接,否则可能会造成许多严重后果。

广告声明:文本中包含的外部跳转链接(包括不限于超链接、二维码、密码等形式)用于传递更多信息,节省选择时间。结果仅供参考。计算机系统网络上的所有文章都包含了本声明。

相关阅读