微软 Copilot Studio AI 工具被曝安全漏洞,会泄露敏感云数据
生活随笔
收集整理的這篇文章主要介紹了
微软 Copilot Studio AI 工具被曝安全漏洞,会泄露敏感云数据
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
8 月 22 日消息,科技媒體 darkreading 昨日(8 月 21 日)發布博文,報道微軟 Copilot Studio 存在服務器端請求偽造(SSRF)安全漏洞,會泄露敏感云數據。
微軟 Copilot Studio 簡介
附上微軟官方介紹如下:
Copilot Studio 是一個端到端對話式 AI 平臺,支持你使用自然語言或圖形界面創建和自定義助手。
用戶使用 Copilot Studio,可以輕松設計、測試和發布滿足內部或外部場景的需求。
漏洞
研究人員利用微軟 Copilot Studio 工具中的一個漏洞,能夠發出外部 HTTP 請求,從而訪問云環境中有關內部服務的敏感信息,并潛在影響多個租戶。
Tenable 的研究人員在聊天機器人創建工具中發現了服務器端請求偽造(SSRF)漏洞,他們利用該漏洞訪問了微軟的內部基礎架構,包括實例元數據服務(IMDS)和內部 Cosmos DB 實例。
該漏洞被微軟追蹤為 CVE-2024-38206,根據與該漏洞相關的安全公告,經過驗證的攻擊者可以繞過 Microsoft Copilot Studio 中的 SSRF 保護,通過網絡泄漏基于云的敏感信息。
廣告聲明:文內含有的對外跳轉鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節省甄選時間,結果僅供參考,所有文章均包含本聲明。
總結
以上是生活随笔為你收集整理的微软 Copilot Studio AI 工具被曝安全漏洞,会泄露敏感云数据的全部內容,希望文章能夠幫你解決所遇到的問題。