关于人工智能的夸大说法并不少见,但一些最具深远影响的发展仍未得到充分理解。智能体AI(即旨在跨数字环境进行推理、规划和行动的自主软件系统)正悄然重塑工作的开展方式,同时也带来了大多数组织尚未准备好应对的身份与安全方面的挑战。
与早期的自动化形式不同,智能体AI并不局限于重复性的、脚本化的任务。它们会以与人类工作流程相似的方式解读目标、做出决策并与系统产生交互,而且无需持续监督即可运行。这种技术自主性虽有实用价值,却颠覆了人们长期以来在访问控制、问责制和信任方面的固有认知。
由此导致的结果是——责任变得支离破碎。智能体AI能够检索数据、调用工具并修改系统,但要确定某一操作由哪个组件执行、该操作是否经过授权,就需要采用一种不同于大多数组织现有实施的身份与安全管理方法。
本文探讨智能体AI的结构、其暴露的身份漏洞,以及它们在现代企业中扮演更大作用时,有效管理它们所需遵循的原则。
一、智能体AI的本质
从本质上讲,智能体AI是一种软件架构,旨在以最少的人工干预执行动态、多步骤的任务。它将大型语言模型(LLMs)与工具集成相结合,代表用户或组织导航工作流程、查询数据并以及与软件系统交互。
然而,我们非常需要拨开围绕这类技术的迷雾:智能体AI并非单一整体,也不具备独立的自主意图。相反,它是由多个可互操作的软件组件组成的集合,每个组件都为智能体的整体功能提供支持。
一个典型的智能体AI包含以下组件:
这种模块化结构虽有利于提升灵活性和可扩展性,却打破了身份与访问控制的传统边界。每个组件可能在各自的信任域内运行,但它们共同执行的工作流程会对数据安全和系统完整性产生实际影响。
二、智能体AI发展的里程碑
智能体AI的成熟并非孤立发生,而是通过多个技术领域的渐进式进步实现的。
2020年前后,基于Transformer的模型问世,催生了能够跨多个领域执行通用推理和语言任务的大型语言模型(LLMs)。这些模型为更复杂的自主工作流程奠定了基础。到2022年,ReAct等技术以及LangChain等开发平台的出现,证明了大型语言模型可与外部工具交互,从而实现超越被动信息检索的多步骤推理流程。
次年,Auto-GPT、BabyAGI等早期智能体框架进一步推进了这些理念:它们将大型语言模型(LLMs)与现实世界的工具和服务协调起来,以执行自主工作流程——尽管当时缺乏足够的安全保障措施。2025年,安全实践的规范化进程加速推进。模型上下文协议(Model Context Protocol,简称MCP)的推出,为规范智能体AI与外部服务的交互提供了结构化方法,将推理、执行和访问功能分离。这一举措标志着智能体AI生态系统在融入身份管理最佳实践方面,迎来了重要的转折点。
三、自主性带来的身份挑战
智能体AI的技术自主性,暴露了数字身份在定义和执行方面长期存在的弱点。在传统环境中,用户操作可追溯到特定独立的凭证——无论是属于个人、服务账户还是应用程序。但在智能体AI场景下,这一界限变得模糊。
试想一个某智能体访问云资源的场景。那么该操作的发起者是谁?是启动工作流程的终端用户?是协调执行的协调器?是解读任务的推理引擎?还是与外部系统对接的工具连接器?
传统的身份与访问管理(Identity and Access Management,简称IAM)框架无法妥善回答这些问题。
若缺乏分层的、针对组件的身份模型,将导致以下问题:
这种模糊性削弱了现代安全的核心原则,使组织面临本可避免的风险。
四、静态密钥与过度授权的风险
在许多早期部署中,智能体AI依赖于硬编码凭证——这些凭证存储在配置文件、环境变量中,或直接嵌入软件组件。这种方式虽能加快开发速度,却存在多项重大风险。
静态密钥很少限定为最低限度的访问级别,反而通常能解锁工具和服务内的大量功能。一旦密钥泄露,将引发极大风险。此外,这些凭证部署后难以统一轮换,导致操作运行环境中持续存在漏洞。
“过度授权”(即赋予软件组件超出其功能需求的访问权限)的做法进一步加剧了安全风险。尽管这可能简化开发和故障排查,但会大幅扩大凭证被盗、配置错误或被利用的潜在影响。
这些缺陷与工作负载安全中常见的挑战类似,但在分布式、自主的智能体架构中,问题会变得更加尖锐。
五、自主系统的安全原则
要解决智能体AI带来的身份与访问漏洞,需采用以工作负载为核心、遵循原则的安全方法——将人类身份管理中成熟的理念扩展到非人类的软件主体上。
智能体AI带来的自主性是一项技术里程碑,但也为组织带来了一类全新的身份挑战。这类系统凭借其模块化和分布式执行的特性,模糊了访问控制、归因和信任的传统边界。
开发安全运营(DevSecOps)从业者如今面临一个机遇:在这项技术刚被采用时,就将工作负载身份管理的经验应用其中,而不是等到未来发生安全事件后再进行被动应对。
通过将每个软件组件视为一个独立的、具备身份识别能力的工作负载,并将可观测性与上下文执行相结合,组织可以为智能体AI建立坚实的安全基础。随着这类技术的不断发展,规范其行为的身份框架也必须与时俱进。
如今以严谨的态度应对这些挑战,才能避免未来出现更严重的后果。
文章来源:https://cloudsecurityalliance.org/articles/the-emerging-identity-imperatives-of-agentic-ai?__cf_chl_rt_tk=P7G1bfxRncJdt3ipFc7nKDJpdkStHp_t32W0IduS_UA-1756696478-1.0.1.1-tNssjttizEZz.t44lbSLhb1s9qGGhaDpuAK0B8vOJjQ
审校:张淼,CSA大中华区专家