2025.09.17
随着人工智能(AI)技术的快速发展及其应用场景的扩展,AI系统在带来创新机遇的同时也引入了新型网络安全风险。尽管AI系统本质上是软件,但其安全挑战与传统软件存在显著差异,且与底层IT基础设施的安全紧密关联。为应对这些风险,美国国家标准与技术研究院(NIST)基于《SP 800-53安全控制框架》,提出开发面向AI系统的安全控制覆盖层(Control Overlays for Securing AI Systems, COSAIS)​,旨在为不同AI应用场景提供可落地的安全实施指南。
查看详细
2025.08.27
人工智能控制矩阵(AICM)是首个适用于云基人工智能系统的厂商中立框架,为组织安全、负责任地开发、实施和运营人工智能技术提供关键支撑。 该框架由行业专家研发,以云安全联盟(CSA)的云控制矩阵(CCM)为基础,融入最新人工智能安全最佳实践,确保在云环境中适配AI技术的独特需求。 AICM涵盖18个安全领域,包含243项控制目标,全面覆盖AI系统全生命周期的安全要点。同时,它实现了与主流标准的映射,包括ISO 42001、ISO 27001、NIST AI RMF 1.0以及BSI AIC4等,助力组织在遵循行业规范的同时,构建适配自身需求的AI安全体系,推动AI技术在安全合规的前提下高效落地。
查看详细
2025.06.06
《Agentic AI 红队测试指南》旨在应对智能体AI(Agentic AI)在安全性方面日益增长的挑战。智能体AI具备自主规划、推理、行动和学习能力,其高度自治性带来了全新的攻击面和风险模式,传统安全测试方法已难以覆盖。该指南由全球AI安全专家黄连金教授牵头编写,汇聚超过50位领域专家智慧,系统梳理了12类核心威胁,并提供可操作的红队测试框架与实践方法,帮助开发者和安全人员发现、评估并缓解智能体AI系统中的潜在风险,推动AI系统在复杂环境下的安全部署。
查看详细
2025.05.13
人工智能(AI)技术,特别是大语言模型(LLM)和由LLM驱动的AI智能体(AI Agent)的出现,引发了进攻性安全(Offensive Security)领域深刻变革,包括漏洞评估、渗透测试和红队演练。这一转变将AI从一个狭窄的应用场景重新定义为一种多功能且强大的通用技术。本文探讨了基于LLM的AI变革潜力,通过研究其与进攻性安全的集成,以解决当前挑战,并展示了AI在五个安全阶段——侦察、扫描、漏洞分析、利用以及报告中的能力。
查看详细
2025.05.07
本白皮书综合了专家推荐的治理、风险和合规(GRC)的最佳实践、文化方面以及影子 AI 预防措施,通过这六个关键领域的建议来指导企业负责任且安全的 A开发与部署。
查看详细
2025.04.24
本报告概述了将 LLM作为更广泛系统组件集成的系统设计模式和最佳实践,涵盖了通过提供额外的上下文或让模型进行推理并与其他组件和外部服务交互的高级模式。每个设计模式包括建议、注意事项和常见误区。这些要素有助于系统架构师在设计决策时做出权衡。
查看详细
首页< 上一页123下一页 >末页
本网站使用Cookies以使您获得最佳的体验。为了继续浏览本网站,您需同意我们对Cookies的使用。想要了解更多有关于Cookies的信息,或不希望当您使用网站时出现cookies,请阅读我们的Cookies声明隐私声明
全 部 接 受
拒 绝