安大互联
财经热点 > 财经资讯 > 填补空白!大语言模型和生成式AI应用安全测试国际标准发布
【人工智能】填补空白!大语言模型和生成式AI应用安全测试国际标准发布
浏览次数:【31】  发布日期:2024-4-17 15:34:06    文章分类:财经资讯   
专题:人工智能
 

  4月15日-19日,第27届联合国科技大会在瑞士日内瓦召开,世界数字技术院(WDTA)在会上发布了一系列突破性成果,包含《生成式 人工智能 应用安全测试标准》和《大语言模型安全测试方法》两项国际标准。这两项国际标准是由OpenAI、蚂蚁集团、 科大讯飞 、谷歌、微软、英伟达、百度、腾讯等数十家单位的多名专家学者共同编制而成,这是国际组织第壹次就大模型安全领域发布国际标准,代表全球 人工智能 安全评估和测试进入新的基准。

  与会的WDTA 人工智能 安全可信负责任工作组组长黄连金表示,随着 人工智能 (AI)系统尤其是大语言模型成为社会各方面不可或缺的一部分,以一个全面的标准来处理它们的安全挑战变得非常重要。此次发布的标准汇集了全球AI安全领域的专家智慧,填补了大语言模型和生成式AI应用方面安全测试领域的空白,为业界提供了统一的测试框架和明确的测试方法,有助于提高AI系统安全性,增进AI技术负责任发展,增强公众信任。

  世界数字技术院(WDTA)是在日内瓦注册的国际非政府组织,遵从联合国指导框架,致力于在全球范围内推进数字技术,增进国际合作。AI STR(安全、可信、负责任)计划是WDTA的核心倡议,旨在确保 人工智能 全面的安全性、可信性和责任性。

  近年来,世界各国都在加强对于大模型安全的研究和管控。我国先后发布了《全球 人工智能 治理倡议》《生成式 人工智能 服务管理暂行办法》《生成式 人工智能 服务安全基本要求》等,旨在增进生成式 人工智能 安全可信发展,推进全球 人工智能 治理领域合作共识。

  此次发布的两项国际标准是大模型及生成式AI应用方面的安全测试标准。其中,《生成式 人工智能 应用安全测试标准》为测试和验证生成式AI应用的安全性提供了一个框架,尤其是那些使用大语言模型(LLM)构建的应用程序。它定义了 人工智能 应用程序架构每一层的测试和验证范围,包含基础模型选择、嵌入和矢量数据库、RAG(检索增强生成)、AI应用运行时安全等,确保AI应用各个方面都经过严格的安全性和合规性评估,保障其在整个生命周期内免受要挟和漏洞侵害。

  《大语言模型安全测试方法》则为大模型本身的安全性评估提供了一套全面、严谨且实操性强的结构性方案。它提出了大语言模型的安全风险分类、攻击的分类分级方法和测试方法,并率先给出了四种不同攻击强度的攻击手法分类标准,提供了严格的评估指标和测试程序等,可解决大语言模型固有的复杂性,全面测试其抵御敌对攻击的能力,使开发人员和组织能够识别和缓解潜在漏洞,并最终提高使用大语言模型构建的 人工智能 全面的安全性和可靠性。

  作为标准参与单位代表,蚂蚁集团机器智能部总经理、蚂蚁安全实验室首席科学家王维强表示,生成式AI将释放巨大的生产力,但也要对它造成的新风险高度警惕。大型科技公司应在增进生成式AI安全和负责任的发展中施展关键作用,使用其资源、专业知识和影响力推动最佳实践,构建一个优先考虑安全、隐私和道德考量的生态系统。例如,通过制定行业标准与指南,为开发和部署生成式AI全面的开发者和机构提供清晰指导;投入研发并开放保障生成式AI安全的工具,形成产业共治。

手机扫码浏览该文章
 ● 相关资讯推荐
 ● 相关资讯专题
  • 网络建设业务咨询

   TEl:13626712526