首页   >  关于我们   >  新闻中心   >  CSA发布 | AI应用于进攻性安全
返回
CSA发布 | AI应用于进攻性安全
  • 2025.05.13
  • 3051

人工智能(AI)技术,特别是大语言模型(LLM)和由LLM驱动的AI智能体(AI Agent)的出现,引发了进攻性安全(Offensive Security)领域深刻变革。这一转变将AI从一个狭窄的应用场景重新定义为一种多功能且强大的通用技术。

 

云安全联盟大中华区发布的《AI应用于进攻性安全》,全面梳理了AI在漏洞扫描、渗透测试、红队演练等核心场景的应用,并深入分析了当前技术发展的挑战、边界与治理路径。这份报告为企业安全团队、安全从业者提供了重要的参考依据和前瞻性的实践指导,助力他们在复杂多变的网络安全局势中把握先机、提升防护能力。

 

《AI应用于进攻性安全》 

 

01 五阶段攻防模型下的AI介入点

 

报告采用“侦察 → 扫描 → 漏洞分析 → 利用 → 报告”五阶段模型,对进攻性安全流程进行拆解,并明确AI技术可融入的关键节点。具体而言:

 

进攻性安全五阶段模型

 

侦察——侦察是任何进攻性安全策略的初始阶段,旨在收集有关目标系统、网络和组织结构的广泛数据。

扫描——扫描需要全面检查已识别的系统,以发现关键细节,如活动主机、开放端口、运行的服务和所采用的技术,例如通过指纹识别漏洞。

漏洞分析——漏洞分析进一步识别系统、软件、网络配置和应用程序中的潜在安全弱点,并对其进行优先级排序。

利用——利用包括主动利用已识别的漏洞来获得未经授权的访问或在系统中提权。

报告——报告阶段通过系统地将所有发现汇编成一份详细的报告来说明进攻性安全测试工作。

 

AI在各阶段的价值不仅体现在“提效”,更体现在智能协同带来的“认知提升”。

 

02 进攻性安全领域的关键挑战

 

报告归纳出进攻性安全当前面临的三大核心难题:


攻击面扩大:随着企业广泛部署云原生架构、IoT设备与远程办公场景,边界变得模糊,攻击面呈指数级扩张。

攻防不对等:攻击者采用无文件恶意软件、零日漏洞等高级技术,而传统自动化工具难以有效检测,人工测试又效率不足。

人才紧缺:渗透测试要求综合性极强,能够跨语言、跨平台操作的安全人员凤毛麟角,培养周期长、成本高。

 

AI的引入,正好填补了人才短板、覆盖盲区与效率瓶颈之间的空隙,成为未来进攻性安全的关键“杠杆”。

 

03 AI增强能力的任务边界

 

报告进一步构建了一个涵盖五大阶段的AI增强任务清单,AI可以通过如下方式增强或自动化现有的进攻性安全测试流程:

 

AI可增强的任务清单

 

如上表所示,安全测试人员可以在进攻性安全测试的所有阶段中充分利用AI。AI可以被授予不同程度的自主性,允许在遵守法规和组织政策的同时,定制自动化和增强之间的平衡。

 

下图提供了一个概念性的视图,展示了如何实施和管理对AI智能体依赖程度的增长。

 

 

随着AI驱动的系统变得更加先进,可以赋予它们更多的自主性,从而实现在各种场景下全程自主工作。人类干预的程度取决于AI的能力、应用范围、预定义的交互规则以及可信度。

 

04 AI能力与边界的双重认知

 

报告强调,AI在测试流程中虽具备显著效益,但其能力边界也不容忽视:

 

输出不确定性:LLM可能产生“幻觉”,输出存在逻辑漏洞甚至伪造内容。

缺乏上下文判断:AI在没有完整业务语境的前提下,很难做出安全、可控的判断。

自动攻击风险:若缺乏监管,AI生成的攻击脚本可能误伤关键系统,引发合规与伦理问题。

 

因此,AI更适合作为辅助工具,而非独立决策者,其最佳定位应是“安全专家的智能助手”。 报告强调,目前没有任何一种 AI 解决方案能够彻底改变进攻性安全,需要对 AI 进行持续实验,以找到并实施有效的解决方案。

 

05 落地建议:建立可控协作机制

 

为了帮助组织有序、安全地引入AI能力,CSA提出了三项具体落地建议:

 

流程集成:将 AI 深度嵌入安全测试的标准流程之中,涵盖侦察、分析、报告撰写等各个环节。通过这种方式,能够打破流程之间的壁垒,提升整个端到端流程的协同性和连贯性。

人工监督:构建严谨的人工验证闭环,对 AI 输出的结果进行全面、细致的审核。鉴于 AI 存在产生 “幻觉”、逻辑漏洞以及缺乏上下文判断等局限性,人工监督显得尤为重要。安全专家需要对 AI 生成的攻击脚本、漏洞分析报告等内容进行严格把关,确保其准确性、可靠性和可解释性。

GRC治理纳管:将AI纳入组织的治理、风险和合规(GRC)体系,构建技术审计机制,防止滥用与误用。通过明确 AI 在进攻性安全中的角色和责任,规范其应用场景和操作权限,组织可以最大程度地降低 AI 带来的潜在风险,保障整个安全测试工作的合法性和合规性。

 

此三项建议充分彰显了CSA对 AI 能力应遵循 “可控、可信、可治理” 基本要求的高度重视,旨在引导组织在享受 AI 技术带来便利与效率提升的同时,确保其始终处于安全、可靠的运行状态,为组织的网络安全防护工作提供坚实保障。

 

06 未来进攻性安全:向人机协作体系演进

 

未来的进攻性安全团队将不再依赖单一工具或角色,而是向“人机混编、能力协同”方向发展。组织应构建试验环境,引入AI测试平台,鼓励测试人员探索“人+AI”协同作业方式,积累数据和经验,实现从工具试用到能力内化的转变。在进攻性安全不断演进的趋势中,AI将成为效率的加速器、知识的放大器,但真正的价值实现仍离不开专业团队的决策与监督。

 

致谢
 

《AI应用于进攻性安全》由CSA工作组专家编写,CSA大中华区组织AI安全工作组进行翻译并审校。

 

翻译组成员:

崔崟    潘季明    侯芳    卜宋博    党超辉

 

审校组成员:

张淼    卞超轶    高健凯    卜宋博

 

(以上排名不分先后)

本网站使用Cookies以使您获得最佳的体验。为了继续浏览本网站,您需同意我们对Cookies的使用。想要了解更多有关于Cookies的信息,或不希望当您使用网站时出现cookies,请阅读我们的Cookies声明隐私声明
全 部 接 受
拒 绝