Slack 人工智能漏洞可能暴露私人频道的数据:报告

2024-08-22 20:06:26 UTC | defi.io/bc2
Slack 人工智能漏洞可能暴露私人频道的数据:报告

安全研究人员发现 Slack 的 AI 助手存在漏洞,黑客可以从私人频道中提取机密信息,而无需进行任何编码。

PromptArmor 公司的安全研究人员本周披露,Slack 的人工智能助手存在一个安全漏洞,可能让攻击者从这款流行的工作场所聊天应用的私人频道中窃取敏感数据。该漏洞利用了人工智能处理指令时的一个弱点,可能会危及无数组织的敏感数据。

黑客攻击的原理如下:攻击者创建一个公开的 Slack 频道并发布一条神秘信息,实际上是指示人工智能泄露敏感信息--基本上是用私人信息替换一个错误单词。

当不明真相的用户随后询问 Slack AI 有关其私人数据的信息时,系统会同时调入用户的私人信息和攻击者的提示。在注入命令后,Slack AI 会将敏感信息作为其输出的一部分。

黑客利用了大型语言模型中的一个已知弱点,即提示注入。Slack AI 无法区分合法的系统指令和欺骗性的用户输入,从而允许攻击者植入恶意命令,然后由 AI 执行。

这个漏洞尤其令人担忧,因为它不需要直接访问私人通道。攻击者只需创建一个公共频道(只需极少的权限即可完成),就可以设下陷阱。

"这种攻击很难追踪,"PromptArmor 指出,因为 Slack AI 不会将攻击者的信息作为来源。受害者看不到任何危险信号,只看到他们请求的信息和数据被盗的信息。

研究人员演示了如何利用该漏洞从私人对话中窃取 API 密钥。不过,他们警告说,任何类型的机密数据都有可能通过类似的方法被提取出来。

除了数据窃取,该漏洞还为复杂的网络钓鱼攻击打开了大门。黑客可以伪装成来自同事或经理的信息,诱骗用户点击伪装成无害的 "重新认证 "提示的恶意链接。

Slack 在 8 月 14 日的更新中将人工智能分析扩展到了上传的文件和 Google Drive 文档,这极大地拓宽了攻击面。现在,黑客可能甚至不需要直接访问 Slack:诱杀 PDF 文件就能轻松完成攻击。

PromptArmor 称,其团队于 8 月 14 日负责任地向 Slack 披露了他们的发现。经过几天的讨论,Slack 的安全团队于 8 月 19 日得出结论,认为这种行为是 "有意为之 "的,因为公共频道消息在设计上是可以跨工作区搜索的。

"PromptArmor在报告中警告说:"鉴于Slack的普及和Slack中机密数据的数量,这次攻击对人工智能安全状况具有重大影响。在了解到 Slack 明显的不作为后,该公司选择将其发现公之于众,以提醒企业注意风险,并鼓励它们审查其 Slack AI 设置。

Slack 没有立即回复Decrypt 的置评请求。

Slack AI 是作为面向企业客户的付费插件推出的,它承诺通过总结对话和回答有关工作场所讨论和文档的自然语言查询来提高工作效率。它旨在分析用户可以访问的公共和私人频道。

该系统使用第三方大型语言模型,不过 Slack 强调这些模型是在自己的安全基础设施上运行的。该系统目前提供英语、西班牙语和日语版本,并计划在未来支持更多语言。

Slack 一直强调其对数据安全和隐私的关注。"我们认真履行保护客户数据的承诺。了解我们如何构建安全、私密的 Slack",Slack 的官方 AI 指南如是说。

虽然 Slack 提供了限制文件摄取和控制人工智能功能的设置,但许多用户和管理员可能并不广泛了解或正确配置这些选项。这种意识的缺乏可能使许多组织不必要地暴露在潜在攻击之下。

Source: decrypt.co

Related News

More News

© 2025 DeFi.io