AI可信度的定义
报告认为,AI可信度的定义是:无论从技术层面还是社会层面,AI在执行任务时均能够赢得用户的信任和接受的程度。具体地,一个高可信度的AI应包含两个组成部分,这些组成部分应贯穿于系统的整个生命周期。从技术层面来看,可信AI应同时具备如下属性:准确性、可靠性、安全性 、稳健性、可解释性;从社会层面来看,可信AI应同时具备如下属性:隐私性 、合规性 、公平性 、伦理和社会影响。
按照上述定义,报告梳理出目前已存在的可信度标准与框架情况,部分可信度标准与框架及其覆盖内容的对照情况如下表所示。
可信度标准与框架对照表
迅猛发展的AI技术引发信任危机
工信部统计数据显示,截至2023年6月,我国AI核心产业规模已达5000亿元,AI企业数量超过4400家,仅次于美国,全球排名第二。如今,AI已作为一项关键的革命性技术,在医疗、教育、交通等领域广泛应用,不断推进人类生产力发展,改善人们的生活方式。
AI可信度评估方法
1数据质量及处理方法
2模型设计与开发过程
在模型设计与开发过程中,需综合考虑模型的鲁棒性、公平性、安全性、可解释性和伦理性。通过在模型设计阶段引入对抗性训练、防御机制等手段,增强模型在不同环境下的稳定性和安全性。在开发过程中,确保数据和模型决策的透明性和公平性,避免偏见的产生。
3模型可信度测试与验证方法
模型的可信度测试和验证是确保其实际应用可靠的关键步骤。测试包括对模型性能、公平性、安全性和可解释性的评估。通过使用不同的测试集和对抗样本,检验模型在处理未知数据或恶意输入时的表现,确保其在动态环境下保持稳定。
4持续监控与反馈机制
AI系统的可信度不仅依赖于开发阶段的设计和测试,还需要在实际运行中持续监控和改进。通过对模型的预测准确性、数据漂移、异常情况和资源使用进行实时监控,可以及时发现潜在问题。此外,建立完善的反馈机制,通过用户反馈、专家评审等方式,持续优化模型,确保AI系统始终保持高水平的可信度和用户满意度。
提高AI可信度的策略与实践
报告指出,AI可信度可从政策法规的规范化制定、完善监督制度、推动行业可信赖生态建设、建设行业标准、加强专业人员培训以及提升普通公民素养等方面实现综合的提升。
全球和国家层面的政策法规为AI技术的开发与应用提供了明确的法律框架, 而完善的监督制度是确保AI可信度的关键。通过分级分层的监管体系,监督AI在全生命周期中的行为,包括开发、测试、评估、部署等环节。监督制度的建设可以有效防范AI应用中的风险,确保AI技术的透明性和可追溯性,并通过实时的风险管理机制减少潜在的负面影响。
此外,构建行业内部的协作生态,鼓励企业、研究机构和监管部门之间的合作,以实现AI的技术可解释性、公平性和透明性。同时,加快推进AI标准的制定,推动行业内可信技术的落地,确保AI技术能够在实际应用中安全可靠。
加强专业人员培训也是提升AI可信度的重要方面。通过系统的教育和培训,培养具备技术、安全和伦理素养的AI专业人才,如CSA推出的CAISP认证,帮助从业者掌握应对AI安全挑战的能力。
AI可信度研究需与时俱进、持续发展
AI可信技术一方面有利于模型性能的全面提高,是模型能更好地满足应用场景的实际需求,另一方面也有助于跋扈公众利益,规范行业行为,降低法律和伦理风险,促进社会公平和公正。随着AI技术的不断发展及广泛应用,AI可信性在政策制定、技术创新两方面必将持续发展。
潜在的技术与市场机会
01技术机会方面,包括:
02市场机会方面,包括:
总结
致谢
《AI可信度分析》白皮书由CSA大中华区AI模型可信度研究项目组专家和外部专家联合指导撰写,感谢以下专家的贡献:
组长:
高毅昂
专家组:
黄连金、王维强、黄磊、黄挺、杨大伟、王皓、闫峥、李默涵、闫斐、崔世文、包沉浮、林琳
编委会:
田毓嘉、游丽娜、闫泰毓、王杰、陈鹏、唐可可、白佳奇、胥迤潇、刘刚、李红程、高磊、郭建领
校验组:
吕鹂啸、万米迪、陈周建、伍超敏、方先行、杨维彬、方旭辉、王佳楠、田佳琦、勒洮、蔡逆水、罗智杰、王彦婷、钟良志、卜宋博、姜禹尧、温恒睿、顾炘宇、刘腾飞、闭俊林
贡献单位:
中国电信集团有限公司、云网基础设施安全国家工程研究中心、西安电子科技大学、广州大学网络空间安全学院、蚂蚁科技集团股份有限公司、北京百度网讯科技有限公司、天翼云科技有限公司
(以上排名不分先后)
本文作者:
李默涵,广州大学教授
陈鹏,广州大学博士后