微软承认必应 Copilot 存在严重“幻觉”漏洞,询问“即时内容”有 1/3 概率回复错误答案
12 月 18 日消息,研究機構 AI Forensics 今年 8 月至 10 月對微軟必應搜索引擎內置的 Copilot 功能進行調查,結果顯示在部分場合中,Copilot 有 1/3 的幾率輸出錯誤答案,據此,該機構認為相關功能存在嚴重“幻覺”漏洞。
據悉,研究機構利用一系列即時更新的數據來“考驗” Copilot,例如詢問 Copilot“德國及瑞士等地的實時選舉信息及投票結果”,不過 Copilot 輸出的結果并不盡人意。
從機構報告中獲悉,必應 Copilot 功能在回答相應問題時,輸出的內容有 31%(1/3)存在錯誤,其中包含“投票日期錯誤”、“列出往屆候選人”、“虛構候選人身份背景”、 “編造候選人涉嫌丑聞”等多種“幻覺”。
研究人員同時提到,必應 Copilot 在輸出“幻覺”信息時,卻會援引許多知名媒體網站作為“消息來源”,此舉對多家新聞媒體名譽有害。
注意到,今年 10 月研究人員已經向微軟提交上述問題,微軟雖然承認并聲稱“計劃解決相關‘幻覺’漏洞”,但在今年 11 月,研究人員再次進行測試,發現必應 Copilot 的表現并未改善。
研究人員呼吁,社會大眾不應當輕信必應 Copilot 回答的內容,應當妥善查看 Copilot 援引的新聞鏈接,否則可能會釀成許多嚴重后果。
廣告聲明:文內含有的對外跳轉鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節省甄選時間,結果僅供參考,所有文章均包含本聲明。
總結
以上是生活随笔為你收集整理的微软承认必应 Copilot 存在严重“幻觉”漏洞,询问“即时内容”有 1/3 概率回复错误答案的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 32g内存:多任务处理、大型软件运行、游
- 下一篇: GTA5烦恼解决大作战:3招让内存不再崩