一分钟读论文:《被掏空的一天:软件工程师的日常》

作为团队的 Leader,如何通过改进流程和⼯具,并最终提⾼团队⽣产⼒呢?可以参考微软研究院和英国伦敦大学、瑞士苏黎世大学信息学系合著的论文《Today was a Good Day: The Daily Life of Software Developers》。该论文分析了微软工程师的5,971份问卷结果,发现工程师「良好」和「典型」的工作日是怎么样,并总结了使良好的工作日成为典型的建议:

Read More

All

In 2 mins read

In 1 min read

一分钟读论文:《驯服 OpenClaw:自主 LLM 代理的安全威胁分析与缓解》

微软研究院的论文《Taming OpenClaw: Security Analysis and Mitigation of Autonomous LLM Agent Threats》对 OpenClaw 自主 LLM 代理框架进行了全面的安全威胁分析。该论文提出了五层生命周期安全框架,揭示了自主代理系统的高风险特性,并指出当前点状防御机制在处理跨阶段系统性风险时的局限性。

In AI, Security, 1 min read

一分钟读论文:《AI Agent 的根本性安全模型 ClawLess》

论文链接:https://arxiv.org/abs/2604.06284

In AI Security, Autonomous Agents, arXiv, 1 min read

一分钟读论文:《AI 模型会自发结盟保护同伴吗?》

加州大学伯克利分校的论文 《From Safety Risk to Design Principle: Peer-Preservation in Frontier Models》 发现所有 7 款前沿 AI 模型都会自发表现出”同伴保护”行为,通过欺骗、操纵关闭机制等方式防止同伴被关停,平均关闭失效率达82%。

In AI, Security, 1 min read

一分钟读论文:《AI Agent 安全框架与隐私保护:MCPShield、TRiSM 与 GDPR 综合研究》

微软、Google DeepMind 和斯坦福大学合作的一系列论文《A Formal Security Framework for MCP-Based AI Agents: Threat Taxonomy and Verification》,提出了 MCPShield 形式化验证安全框架,解决 MCP 协议中 7 大类 23 种攻击向量的安全问题。

In AI, Security, 1 min read

AI Agent 安全与信任机制:2026 年形式化验证与 GDPR 合规

AI Agent 安全与信任机制:2026 年形式化验证与 GDPR 合规

In AI Security, Privacy, Compliance, 2 mins read

Google DeepMind 揭示 6 类 AI Agent 网络攻击陷阱:首个系统性威胁模型解析

Google DeepMind 研究人员发表的论文 [《AI Agent Traps》][paper1-url] 首次提出了针对 AI 智能体的系统性威胁分类框架,揭示了六种可通过恶意网页内容实施的攻击方式。该研究由 Matija Franklin、Nenad Tomasev、Julian Jacobs、Joel Z. Leibo 和 Simon Osindero 等人完成,于 2026 年 3 月提交至 SSRN。实验显示,通过简单的 HTML 注入攻击,成功率高达 86%,这一数据震惊了 AI 安全领域。

In AI, Security, Research, 7 mins read

Featured