← 返回首页
谷歌安全智能体上线,红队视角拆招|云安全|开源模型|数据源|智能体_手机网易网 网易 网易号 0

谷歌安全智能体上线,红队视角拆招

码上闲叙
码上闲叙
2026-04-30 00:32 ·北京
0

谷歌在Cloud NEXT '26发布了Agentic Defense——一个把威胁情报、安全运营、云安全整合进AI智能体的自治系统。官方演示很流畅:智能体自动狩猎威胁、编写检测规则、修复漏洞。但一位红队成员看完公告后,第一反应是"怎么攻破它"。

先承认:速度确实解决了真问题

打开网易新闻 查看精彩图片

这套系统拿出的数字不算虚:

• 分类调查智能体处理过500万条告警,把30分钟的分析压缩到60秒

• 安全运营中心智能体将威胁缓解时间缩短90%以上

• 暗网情报引擎号称以98%准确率分析数百万日活事件

2%的漏报率在百万级事件面前绝对数量不小。但速度提升是实打实的——蓝队向来输在速度上。攻击者现在22秒就能完成权限移交,堆分析师解决不了这个问题。

不过"更难攻击"不等于"无法攻击"。没有系统能做到后者。

红队视角:我会从哪里下手

作者没写具体攻击代码,但列出了三个思考方向。这些不是漏洞披露,是设计层面的压力测试点。

第一,智能体本身的可操纵性。Threat Hunting Agent(威胁狩猎智能体)依赖告警信号做决策。如果攻击者能制造足够的噪音——伪造低置信度但高频的指标——是否能让智能体"脱敏"?就像人对频繁误报的告警会麻木一样,智能体的阈值调参是否会被训练数据中的噪声带偏?

第二,修复智能体的输入污染。Auto-remediation(自动修复)听起来美好,但它的输入来自哪里?如果攻击者能污染上游数据源——比如伪造一份漏洞扫描报告,让智能体相信某个生产环境配置存在"严重漏洞"需要紧急回滚——自治性就变成了放大器。一次错误的修复操作,在凌晨3点自动执行,影响范围可能远超人工误操作。

第三,权限边界模糊。智能体被设计成"做很多事"的账户,但它的权限粒度如何?谁能影响它看到什么、执行什么?如果智能体的身份凭证被窃取,或者它的决策逻辑被间接操控,攻击者获得的不是一个普通用户权限,而是一个有生产环境写权限的自动化账户。

防御方真正该做的三件事

作者不是来唱衰的。他的核心观点是:最好的蓝队想知道攻击者会怎么来——在真的来人之前。

上线前红队测试智能体本身。专门测试Threat Hunting Agent会不会被告警疲劳调低敏感度。测试修复智能体收到被操纵输入时的行为。自己找缺口,比别人找好。

高影响操作保留人工确认。低危发现自动修复?可以。涉及生产环境IAM(身份与访问管理)、网络配置、代码库的批量自动修复?先加一道人工确认。直到你对系统的判断能力有真实信心,不是演示信心。

把安全智能体当特权用户管理。审计它们的操作。监控它们的访问。追问:谁能影响它们看到什么、执行什么。

核心判断

Agentic Defense(智能体防御)方向是对的。威胁环境已经机器速度化,防御端必须跟上——这没有争议。

但每项新能力都是新攻击面。让AI智能体凌晨3点自动修复漏洞的自治性,如果被误导,也能执行没人意图过的变更。

做得好的团队不是最信任平台的那些。是最先狠狠质疑它的那些。

红队思维就这样,供应商演示结束也不会自动关闭。

特别声明:本文为网易自媒体平台“网易号”作者上传并发布,仅代表该作者观点。网易仅提供信息发布平台。
打开网易新闻体验更佳

热搜

热门跟贴

相关推荐

回到顶部 回到首页