随着生成式人工智能 (GenAI) 变得越来越普遍,云环境中的身份和访问管理 (IAM) 出现了新的挑战。在这篇文章中,我们将探讨 IAM 和GenAI的交叉点、 IAM 如何在云中启用和保护 GenAI 部署,以及 Deepfakes 等 GenAI 功能如何产生新的 IAM 问题。通过研究这个交叉空间,我们将了解 IAM 和 GenAI 如何相互影响,并了解在云中组合这些技术时出现的安全考虑的新因素。随着 IAM 和 GenAI 的采用加速,深入研究它们之间的相互作用并规划它们对云平台的共同影响非常重要。
IAM 对 GenAI 和 GenAI 基础设施的影响
身份和访问管理 (IAM) 在塑造生成式人工智能 (GenAI) 及其相关基础设施的安全格局方面发挥着不可或缺的作用,特别是在云环境中。这一重要性源于与 GenAI 模型相关的独特复杂性和敏感性,该模型通常需要大量数据和计算能力。IAM对GenAI及其基础设施的影响可以分为几个关键领域:数据安全、模型安全和基础设施安全,每个领域都满足不同类型的用户和访问需求。
数据安全
GenAI 模型本质上需要大量数据,通常需要访问大型且多样化的数据集进行训练。这些数据集的敏感性可能有所不同,但通常包含机密或专有信息,特别是对于企业环境中使用的模型而言。IAM 在确保只有授权人员(例如数据科学家和选定的开发人员)拥有对这些数据集的必要访问权限方面发挥着关键作用。它提供了第一层防御,保护输入 GenAI 模型的源数据。IAM 策略可以强制执行数据加密和安全数据传输协议,进一步增强数据安全性。
模型安全
一旦经过训练,GenAI 模型本身就成为有价值的知识产权,未经授权访问这些模型可能会导致重大损失。IAM 控制谁可以访问、部署和修改这些经过训练的模型。例如,机器学习工程师可能有权调整模型的参数,但可能无权将模型部署到生产环境中。相反,DevOps 工程师可能拥有部署权限,但没有修改模型本身的能力。IAM 确保这些角色得到明确定义和执行,从而最大限度地降低未经授权或无意的模型更改的风险。
基础设施安全
GenAI 模型,尤其是那些相当复杂的模型,需要高性能的计算资源来进行训练和推理。这些资源通常在云中配置,并且可以包括 GPU 或 TPU 集群。未经授权访问该计算基础设施不仅会导致财务损失,还会带来重大的安全风险。IAM 控制谁可以在这些 GPU 上启动新实例、分配资源或启动成本高昂的训练运行。当组织内的多个部门共享基于云的计算环境时,IAM 的这一方面尤其重要。通过细粒度的访问控制,IAM 确保资源得到高效、安全的使用。
用户角色及其影响
IAM 在保护 GenAI 及其基础设施方面的有效性也与与系统交互的个人的不同角色密切相关:
● 数据科学家:通常需要广泛访问数据,但不一定需要访问部署环境。
● 机器学习工程师:需要允许他们训练、验证和可能部署模型的权限,但没有对所有资源的完全管理访问权限。
● DevOps 工程师:需要访问部署管道和监控工具,但不需要访问用于训练模型的原始数据。
● 网络安全团队:需要广泛的监控功能来监督数据、模型和基础设施的安全性,而无需直接与数据或模型交互。
● 业务分析师和决策者:可能需要对模型输出和数据分析进行只读访问,但不需要模型参数或训练数据。
● 合规和治理官员:出于审计和监管目的需要访问日志、历史数据和合规报告,但不需要访问模型或数据的操作方面。
需要精心制定 IAM 策略来满足这些不同的角色,确保每个角色拥有有效执行任务所需的最低访问权限,而不会影响安全性。从这个意义上说,IAM 不仅保护 GenAI 模型及其相关基础设施,而且还充当使多个利益相关者能够安全、高效地协作开发和部署 GenAI 解决方案的推动者。
GenAI 如何影响云中的 IAM
将 GenAI 功能集成到 IAM 中可以帮助解决新出现的威胁和安全漏洞。通过分析用户行为模式并添加异常检测,GenAI 有潜力显着增强多因素身份验证、访问控制策略以及对深度伪造等新欺骗技术的响应。正如我们将探索的那样,通过生成式人工智能增强 IAM 可以增加重要的新层面的活力、复杂性和上下文感知——随着威胁的不断发展,加强身份和访问治理。
身份验证和多重身份验证 (MFA)
传统的 MFA 方法依赖静态规则和预定义条件来触发额外的身份验证步骤。相比之下,GenAI 增强的 MFA 系统可以动态分析实时用户行为,以做出更多上下文感知决策。
在这种情况下使用 GenAI 不仅仅是增加更多的身份验证障碍。它使 MFA 流程更加动态并根据个人用户行为进行定制,从而使未经授权的用户更难以获得访问权限,即使他们拥有一些所需的身份验证因素。它将 MFA 系统从基于规则转变为基于行为,增加了恶意行为者难以驾驭的复杂性。
Deepfakes(深度伪造):新的威胁载体
传统的 IAM 系统通常无法识别或对抗深度伪造。这些系统旨在根据预定义的指标来验证身份,并且无法识别区分深度伪造内容和真实内容的细微异常。鉴于对基于云的系统的依赖日益增加,IAM 安全架构中的这一差距尤其令人担忧,这些系统经常成为复杂网络攻击的目标,包括涉及深度伪造的攻击。
为了应对这一新兴威胁,IAM 系统本身可能需要整合经过训练的 GenAI 功能来检测深度伪造品。正如 GenAI 算法可以被训练来创建深度伪造品一样,它们也可以被训练来识别它们。这些算法将分析音频、视频或文本的细节,以确定其是否与真实内容的已知特征相符。例如,经过训练来检测 Deepfake 视频的 GenAI 模型可能会分析面部表情、眼球运动和其他难以在 Deepfake 中令人信服地复制的微妙生理信号。
这种打击深度伪造的方法可以集成到多层身份验证过程中,在检测到异常情况时添加额外的验证步骤。例如,如果面部识别系统标记出潜在的深度伪造使用,它就可以在允许访问之前触发辅助身份验证方法,例如发送到受信任设备的一次性密码(OTP)。
基于属性的细粒度访问控制
GenAI 在 IAM 中最有趣的应用之一是自动策略生成,特别是基于属性的访问控制 (ABAC)。GenAI 可以分析典型的访问模式、角色和属性,以生成细粒度的 IAM 策略。
AWS IAM 策略示例
该策略可以由 GenAI 模型自动生成,以允许财务部门的用户访问特定的 AWS S3 存储桶。
未来:治理和人类监督
人类监督是 GenAI 模型做出的自动化 IAM 决策的重要平衡因素。虽然这些模型可以分析大量数据并做出实时决策,但它们缺乏人类专家对背景和道德考虑的细致入微的理解。例如,虽然 GenAI 模型可以有效地检测和标记访问日志中的异常行为,但它可能无法理解此类异常的更广泛影响或符合组织道德标准的适当行动方案。
定义 IAM 中 GenAI 使用的治理模型必须以完善的安全原则为基础,例如零信任架构。零信任原则规定,信任必须不断赢得和验证,而不是假设。这不仅适用于人类用户,也适用于与 IAM 系统的各个元素交互的 GenAI 模型。例如,GenAI 模型做出的授予或限制访问的决策必须根据预定义的安全策略和实时上下文信息不断进行验证。
此外,强大的合规和审计机制必须支撑任何治理模型。这些机制的设计应为 GenAI 模型做出的决策和人类操作员采取的管理行动提供透明度。应维护详细的日志,并定期进行审核,以确保系统遵守内部政策和外部监管要求。这还提供了必要的文档来验证系统的行为,这对于问责制和完善系统未来的行为至关重要。
结论
IAM 和生成式人工智能在云中的交叉是一个充满可能性和挑战的新兴领域。从影响 GenAI 模型的训练和部署方式,到通过自动策略生成和增强的安全措施彻底改变 IAM 格局,这种融合正在塑造云安全的未来。然而,当我们集成这些强大的技术时,我们还必须对深度伪造等新出现的威胁保持警惕,并考虑不同用户类型在这个生态系统中的微妙角色。
随着我们不断前进,这种集成有望在未来实现强大的安全机制和突破性的人工智能功能相辅相成,为所有人提供更安全、更高效的云环境。
本文作者:Ken Huang(黄连金),CSA大中华区研究院副院长