AI 黑进斯坦福网络 16 小时:它已经开始胜过人类黑客了
如果让 AI 自己去“黑”一所大学的网络,它能做到什么程度? 在一项最新研究中,一个 AI 智能体连续运行 16 小时,成功挖出了斯坦福大学计算机科学网络中的多个安全漏洞,表现甚至超过了大多数职业渗透测试人员。 更关键的是: 它的成本,只是人类专家的一小部分。
12-19
2025
可信数据空间给加密产业带来的机遇
可信数据空间不仅仅是一项技术,更是一种数据流通的新范式。它对加密产业的影响将是深远而多层次的,既有巨大的推动和融合,也会带来新的挑战和演变。
12-12
2025
AI 为何不会取代人类:人工监督在 AI 驱动工作流中的关键作用
通过澄清 AI 取代岗位的误解,并强调人工介入与监督在 AI 驱动工作流中的关键作用,我们可以将讨论从恐惧转向更具建设性的人机协作愿景。
12-10
2025
CSA Cloud Threat Modeling v2.0 (2025) 深度分析与解读
本次发布的《Cloud Threat Modeling v2.0》(下简称v2.0)是对2021年1.0版本的重大迭代。随着云原生技术的普及和人工智能(AI)的爆发式增长,传统的静态威胁建模已难以适应当前的动态环境。v2.0揭示了威胁建模从传统的评估建模方法向云原生及AI融合环境的范式转移。核心在于认识到AI不仅仅是辅助工具,更是新的攻击面。随着云基础设施的动态变化,旧有的静态评估已无法应对如Shadow AI、模型窃取等新兴威胁。v2.0明确了在设计阶段即纳入AI风险(如提示注入、数据投毒)的必要性,这是构建现代云安全纵深防御体系的基石。v2.0版本不仅延续了云安全的核心原则,更关键的是将AI系统引入的独特威胁(如数据投毒、提示注入、模型窃取等)纳入了核心考量。
11-26
2025
不止于密码:卢浮宫失窃案带来的网络安全教训
窃贼从全世界最受欢迎的博物馆盗走法国王室珠宝震惊世人。这起事件揭示的问题远不止随意的口令设置这么简单。卢浮宫窃案为网络安全界“贡献”了重要且颇具启示性的教训。
11-21
2025
首页< 上一页1234567...136下一页 >末页
本网站使用Cookies以使您获得最佳的体验。为了继续浏览本网站,您需同意我们对Cookies的使用。想要了解更多有关于Cookies的信息,或不希望当您使用网站时出现cookies,请阅读我们的Cookies声明隐私声明
全 部 接 受
拒 绝