安大互联
财经热点 > 财经资讯 > 微软Copilot 被曝数据泄露 AI助手会成为未来的-特洛伊木马-吗? - AI数据合规
【Copilot】微软Copilot 被曝数据泄露 AI助手会成为未来的-特洛伊木马-吗? - AI数据合规
浏览次数:【205】  发布日期:2024-8-14 16:02:27    文章分类:财经资讯   
专题:Copilot】 【特洛伊木马
 

K图 MSFT_0

  不久前,微软系统内置的Copilot 被曝存在数据泄露。Black Hat 2024 大会的一名科研人员揭露了一项惊人发现,微软的 AI 助手 Copilot 存在多个安全漏洞,攻击者可以利用这些漏洞窃取敏感数据,甚至变身成为强大的垂钓攻击工具。

  Copilot是微软推出的AI助手,也搭载着微软开启AI PC革命的雄心。身为一个助手,Copilot可以为顶级领导到 IT 专业人员再到一线员工,提供可简化任务、自动化工作流程并增强协作,更大释放员工生产力和创造力,被视为可以推翻打工方式。

  高强度用户交互、访问大量公司数据,这些植入AI助手DNA的特色,也埋下了安全隐患。这不是微软Copilot 第壹次卷入数据泄露的漩涡,也不会是最后一次。

  AI助手作为最值得注意的商业应用方向,业内认为将重塑未来生活与工作模式。然而 ,微软Copilot事件再度敲响警钟,随着AI逐渐嵌入到每个人日常, 数据安全 保证能到位么?

  微软Copilot的隐私疑问声浪不断

  根据Black Hat 2024 公布的情景,微软Copilot不安全的默认值、过度宽松的插件和自作多情的设计思维,使得数据泄露“不仅可能,而且很可能”。

  安全公司Zenity的联合开创人兼CTO Michael Bargury称,“人们构建的大多数 Copilot Studio 机器人 都是危险的,而且它们在互联网上很轻易被发现。这就是即将发生的数据泄露。”

  Bargury利用自己建立的工具CopilotHunter扫描可公开访问的 copilot,并使用模糊测试和AI 滥用它们,从而提取敏感的企业数据。研究结果表明,针对数千个可访问的 人工智能 助手,可以揭示出恶意行为者可以利用的敏感数据和公司凭据。

  另外,科研人员通过演示展示了攻击者如何通过这些漏洞实施攻击,无需获取企业账户即可诱骗Copilot更改银行转账人信息,甚至无需获取目标员工打开邮件即可实施攻击,这一切都得益于Copilot的积极配合。

  其实,这其实其实不是微软 Copilot 第壹次受到疑问,今年6月初就有 网络安全 专家表示,Copilot+中名为“回顾”(Recall)功能的日志系统只是一个 SQLite 数据库,黑客可以远程访问这些信息。

   网络安全 专家凯文·博蒙特 (Kevin Beaumont) 还在社交平台上指出,回顾功能会每隔几秒钟自动截取屏幕内容,然后利用运行在用户设备上的 Azure 人工智能 进行光学字符识别 (OCR),并将识别出的文本内容写入用户文件夹中的 SQLite 数据库。该数据库文件是以纯文本形式记录用户在电脑上查看过的一切内容。

  这种全面的监控和记录能力,引发了人们对隐私保护的担忧。

  尽管微软首席研究科学家海梅·蒂文(Jaime Teevan)在斯坦福大学 AI 研究所的演讲中解释称,“回顾”功能收集的所有数据都存储在用户本地的电脑上,其实其实不会将数据存储到云中。

  但这其实其实不能完全消除隐私泄露的危险,任何能够访问用户电脑的人,甭管是物理访问还是远程登录,都有可能通过“回顾”功能获取到敏感信息。并且“回顾”功能其实其实不会对敏感内容进行模糊处理或审核,这更加增加了数据泄露的危险。

  今年3月29日,美国国会众议院出于安全考量,禁止其职员在工作设备上使用微软的 Copilot 生成式 人工智能 辅助工具。

  根据众议院首席行政官Catherine Szpindor在发送给国会办公室的一份指南中表示,“ 网络安全 办公室认为微软Copilot应用程序构成了风险,因为它有可能将众议院的敏感数据,泄露到未经众议院批准的云服务中。”

  AI助手功能与风险的内在悖论

  微软Copilot的种种安全问题其实其实不是是一家公司孤例,是萦绕在AI 助手应用上方的幽灵。

  AI 助手旨在通过访问大量数据来提供决策支持和自动化服务。从建立到使用的整个流程都充溢着 数据安全 风险。

  以Copilot 为例,要建立自己的 Copilot,用户务必选择一个“知识”来源来训练 AI 模型。可以选择各种来源作为 AI 的练习集,例如公共网站、上传文件、使用 SharePoint、OneDrive 或云数据库 Dataverse。

  然而上传的文件可能包含隐藏的元数据,敏感或隔离的数据可能会被上传。Copilot共享将打破隔离,使共同所有者能够下载文件,并造成多种泄漏情况。

  数安信CTO崔维友指出,Copilot主要存在两方面问题:首先,训练的数据难免会包含私有化信息;其次,AI很难真正理解问话者的实际意图。他举例称,黑客会做一个“交叉盘问”AI工具,去“审问”Copilot,从而攻破防线,获取信息。

  各种安全漏洞的出现主要是因为 人工智能 代理技术被赋予了数据访问权限,Black Hat大会中提到,当AI只要被赋予数据访问权限,这些数据就会成为攻击的目标。

  可是 人工智能 代理技术本身就是通过访问大量数据来完成辅助功能,其实现途径与风险入口成了一种内在悖论。这是 人工智能 代理技术发展不可避免的固有安全风险。

  Bargury还强调:“这里存在一个根本问题。当给AI提供数据访问权限时,这些数据就成了提示注入的攻击面。某种水平上而言,如果一个 机器人 有用,那么它就是脆弱的;如果它不脆弱,它就没有用。”

  另外,公有云的交互也加剧了风险。使用微软的内容管理工具 SharePoint 或存储空间 OneDrive 作为输入可能会出现问题,因为它可能会造成敏感数据过度共享。尽管数据存储在公司的云环境中,但用户授权 Copilot 访问所提供链接下的所有子页面。

  数据的持续泄露不仅影响了用户和企业的隐私安全,其破坏成本也再创新高。

  根据IBM发布的2024年《数据泄露成本站告》中显示,全球数据泄露事件的平均成本在今年达到488万美元,与上一年相比,数据泄露造成的成本增加了10%。

  IBM安全战略和产品设计副总裁凯文·斯卡皮内茨(Kevin Skapinetz)说:随着生成式AI迅速渗透到企业中,扩大了攻击面,这些(安全)费用很快将变得不可持续,强逼企业重新评估安全措施和响应策略。

  斯卡皮内茨还发出了警告,“企业陷入了一个持续的泄露、遏制和后果响应的循环中。这个循环现在通常包含投资加强安全防御和将泄露费用转嫁给消费者——使安全成为新的商业成本。”

  数据泄露的确是继续发展 人工智能 代理(AI agent)技术需要面对的棘手问题,针对AI技术发展造成的安全风险,中国工程院院士、清华大学智能产业研究院院长张亚勤则建议,从事前沿大模型的企业或机构,要把10-30%的投资投到相关研究或产品的开发。

手机扫码浏览该文章
 ● 相关资讯推荐
 ● 相关资讯专题
  • 网络建设业务咨询

   TEl:13626712526