首页   >  关于我们   >  新闻中心   >  CSA大中华区牵头 | 生成式AI应用安全、大模型安全标准发布
返回
CSA大中华区牵头 | 生成式AI应用安全、大模型安全标准发布
  • 2024.04.19
  • 4988


 

4月16日联合国日内瓦总部万国宫,世界数字技术院(WDTA)云安全联盟大中华区(CSA GCR)联合主办第27届联合国科技大会AI边会上,世界数字技术院(WDTA)发布了两项具有重要意义的国际标准:“生成式人工智能应用安全测试标准”和“大语言模型安全测试方法”。这是国际组织首次在生成式AI应用安全、大模型安全领域发布国际标准,为业界提供了统一的测试框架,标准的发布将对人工智能领域产生深远影响,推动人工智能技术的安全、可靠发展。


 

这两大标准由云安全联盟大中华区研究院副院长黄连金带领的专家团队编制而成,他们来自CSA大中华区、OpenAI、蚂蚁集团、谷歌、微软、亚马逊、英伟达、OPPO、科大讯飞、百度、腾讯、加州大学伯克利分校、芝加哥大学、香港科技大学等数十家单位,体现了业界的广泛协作与集体智慧。



 

云安全联盟大中华区主席、世界数字技术院执行理事长李雨航院士发布时介绍,“生成式人工智能应用安全测试标准”为测试和验证生成式AI应用的安全性提供了一个框架,特别是那些使用大语言模型构建的应用程序。它定义了人工智能应用程序架构每一层的测试和验证范围,确保AI应用各个方面都经过严格的安全性和合规性评估。

 

他表示,“大语言模型安全测试方法”为大模型本身的安全性评估提供了一套全面、严谨且实操性强的结构性方案。它提出了大语言模型的安全风险分类、攻击的分类分级方法以及测试方法,并率先给出了四种不同攻击强度的攻击手法分类标准,提供了严格的评估指标和测试程序等,使开发人员和组织能够识别和缓解潜在漏洞,并最终提高使用大语言模型构建的人工智能系统的安全性和可靠性。

 

  

 

随着新的生成式AI技术以及建立在生成式AI模型之上的AI应用架构的发展,这些AI标准也将不断演进。CSA大中华区积极响应这一趋势,致力于推动AI安全的研究与发展,以确保AI系统的安全性和可靠性。

 

2023年9月在“外滩大会”上,CSA大中华区成立AI安全工作组,由中国电信和蚂蚁集团担任联席组长,与电子科技大学、华为等首批成员共同推进研究,共同制定了清晰的研究框架。

 

10月,WDTA委托CSA起草的《全球人工智能治理宣言》发布,呼吁建立全球治理框架。

 

12月,CSA联合OpenAI、亚马逊、谷歌、微软和Anthropic合作发起AI安全倡议,致力于制定和公开共享可靠的AI安全和安全指南。

 

截止2024年4月,CSA大中华区发布了《ChatGPT的安全影响》、《AI安全白皮书 》、《AI Safety与AI Security:探索共同点和差异》等研究成果。

 

  

 

CSA大中华区正在开展AI安全产业图谱项目,即将发出AI安全产业图谱调研问卷,有意向参选单位可联系CSA大中华区秘书处叶女士 19925407556。
 

本网站使用Cookies以使您获得最佳的体验。为了继续浏览本网站,您需同意我们对Cookies的使用。想要了解更多有关于Cookies的信息,或不希望当您使用网站时出现cookies,请阅读我们的Cookies声明隐私声明
全 部 接 受
拒 绝