OpenClaw重大升级遇挫,激进重构致用户全线报错,开发者回应:为了抵御频繁的网络攻击,限流规则设置得过于严格,后续会调整限流策略

3月24日消息,开源AI智能体OpenClaw在一场史上最大版本的更新后,因激进、无兼容层的破坏性重构,导致大量用户反馈插件瘫痪、功能失效,成为OpenClaw诞生以来最严重的一次升级事故。

查看

软件只剩两条路,多数人选了死的那条

a16z 合伙人 David George 上周写了一篇短文,标题很直白:软件只剩两条路(There are only two paths left for software)。

查看

AI安全创业,为什么大家都盯上了NHI?

最近一两年,AI 安全赛道里有一个词越来越频繁地出现:NonHuman Identity,简称 NHI。

查看

模型不是关键,Harness 才是

同一个模型,换一套运行环境,编程基准的成功率就从 42% 跳到了 78%。

查看

AI 智能体安全治理核心:四层意图对齐,十项落地指南,终结 "听话却越界" 的失控风险

近日,微软安全团队发布重磅研究报告,直指当前企业 AI 智能体应用的核心痛点:AI 可能完全听从用户指令,却违背开发者设计初衷、突破组织合规要求,最终引发安全事故。报告提出的 "用户 开发者 角色 组织" 四层意图对齐框架,为企业解决 ……

查看

深度长文:什么是大语言模型的能力边界?在语言的尽头,重新发现人类的未来(二)

智能是一种可被实现、复制与迁移的“结构”

查看

谷歌DeepMind最新研究:分布式多智能体安全治理框架

本文对谷歌DeepMind团队于2025年12月发表的开创性论文《Distributional AGI Safety》(分布式AGI安全性)进行解读。不同于传统AI安全研究聚焦于单一、巨型通用人工智能(Monolithic AGI)的对……

查看