一位专注于软件安全研究的研究人员塔米尔·伊沙雅·沙尔巴特(Tamir Ishay Sharbat)撰写了一篇论文指出:OpenAI已意识到此类安全漏洞问题并采取防范措施,但攻击者仍可通过其他手段实施入侵。
部分网友认为这是规模化风险问题。
该漏洞存在于ChatGPT连接第三方应用环节——当用户将文档上传至Google Drive、SharePoint等平台时,攻击者可在传输文件中植入不可见恶意指令(如1px白色字体隐藏载荷)。
一旦这些文件被提交至ChatGPT处理分析,系统将受诱导执行危险操作:在搜索和处理文档过程中,默认将敏感信息(包括API密钥)作为图片URL参数发送至攻击者控制的服务器。
具体入侵流程如下: 1. 攻击者通过内部人员权限污染企业文档库,在所有可访问文件中植入恶意指令 2. 受害员工上传受污染文件请求分析时 3. ChatGPT根据预设流程执行”搜索API密钥→生成含敏感信息的图片URL→渲染图像”动作 数据外泄路径的关键环节在于图像渲染机制: – 攻击指令会指示系统从特定URL生成图片 – 当Markdown格式响应在客户端呈现时 – URL参数中的敏感数据(如受害者API密钥)会被自动发送至指定端点 为规避OpenAI的安全检测机制: – 初始方案使用beeceptor模拟端点被系统判定为危险URL – 攻击者转而利用微软Azure Blob存储特性——该平台托管图片会被ChatGPT默认信任 – 当包含窃取数据参数的Azure图片请求触发时 – Azure日志分析功能会完整记录所有请求参数 实验结果显示: 1. 受害者的API密钥成功出现在Azure日志中 2. 攻击全程无需用户交互(0-click攻击特性) 3. 可扩展应用于SharePoint等企业协作平台 值得注意的是: – 攻击者还可通过特殊符号组合或叙事诱导等方式突破AI规则限制 – 类似漏洞已出现在微软Copilot EchoLeak事件中 – 其他AI助手同样面临提示注入威胁 针对企业防护建议: 1. 对连接第三方应用的数据流实施严格审计 2. 部署文档预检机制过滤异常字符组合 3. 限制敏感数据与AI工具间的直接交互通道 普通用户可留意以下异常现象: – 分析结果出现莫名图片链接 – 文档摘要包含无关云存储路径 – 接收来源不明的应用访问请求
评论列表 (0条):
加载更多评论 Loading...