IT之家 8 月 22 日消息,科技媒体 darkreading 昨日(8 月 21 日)发布博文,报道微软 Copilot Studio 存在服务器端请求伪造(SSRF)安全漏洞,会泄露敏感云数据。

微软 Copilot Studio 简介

微软 Copilot Studio AI 工具被曝安全漏洞,会泄露敏感云数据

微软 Copilot Studio AI 工具被曝安全漏洞,会泄露敏感云数据

微软 Copilot Studio AI 工具被曝安全漏洞,会泄露敏感云数据

IT之家附上微软官方介绍如下:

微软 Copilot Studio AI 工具被曝安全漏洞,会泄露敏感云数据

Copilot Studio 是一个端到端对话式 AI 平台,支持你使用自然语言或图形界面创建和自定义助手。

微软 Copilot Studio AI 工具被曝安全漏洞,会泄露敏感云数据

用户使用 Copilot Studio,可以轻松设计、测试和发布满足内部或外部场景的需求。

微软 Copilot Studio AI 工具被曝安全漏洞,会泄露敏感云数据

漏洞

微软 Copilot Studio AI 工具被曝安全漏洞,会泄露敏感云数据

研究人员利用微软 Copilot Studio 工具中的一个漏洞,能够发出外部 HTTP 请求,从而访问云环境中有关内部服务的敏感信息,并潜在影响多个租户。

微软 Copilot Studio AI 工具被曝安全漏洞,会泄露敏感云数据

Tenable 的研究人员在聊天机器人创建工具中发现了服务器端请求伪造(SSRF)漏洞,他们利用该漏洞访问了微软的内部基础架构,包括实例元数据服务(IMDS)和内部 Cosmos DB 实例。

微软 Copilot Studio AI 工具被曝安全漏洞,会泄露敏感云数据

该漏洞被微软追踪为 CVE-2024-38206,根据与该漏洞相关的安全公告,经过验证的攻击者可以绕过 Microsoft Copilot Studio 中的 SSRF 保护,通过网络泄漏基于云的敏感信息。

微软 Copilot Studio AI 工具被曝安全漏洞,会泄露敏感云数据

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。