All 178

一分钟读论文:《Blindfold攻击:98%成功率破解具身AI》

ACM SenSys 2026研究:Blindfold攻击将恶意意图拆为无害动作序列,绕过具身AI安全机制。 攻击成功率98%(Phi-4 99.2%,GPT-4o 93.2%) 传统防御几乎无效,三重防御下仍有16%成功率

In AI安全, 论文解读, 1 min read

一分钟读论文:《AI无节制采用威胁学术根基》

SISSA和帝国理工学院Nature论文警告:AI无节制使用正威胁学术根基: NeurIPS投稿量5年翻倍,AAAI 2026收3.1万篇投稿,被迫试点AI评审 AI代理论文复现任务得分<20%,使用LLM辅助写作者认知能力衰退

In AI学术, 论文解读, 1 min read

一分钟读论文:《安全对齐的副作用:AI 为何拒绝帮助网络防御者》

你有没有过这样的经历:作为网络安全分析师,你正在分析恶意软件或加固系统,请求 AI 协助时却被反复拒绝?最新的 ICLR 2026 论文揭示了一个令人担忧的现象:AI 的安全对齐机制反而在伤害真正需要帮助的防御者。

In AI安全, 对齐研究, 1 min read

一分钟读论文:《AI 会搞阴谋诡计吗?这项研究给出了答案》

来自 LASR Labs 和 Google DeepMind 的最新论文系统评估了一个关键问题:LLM Agent 会主动进行战略性欺骗(即”搞阴谋”)吗?

In AI, 1 min read

一分钟读论文:《Humanity's Last Exam:评估 AI 能力的专家级学术问题基准》

你有没有发现:现在的 AI 在各种考试中表现得越来越好了?MMLU 基准上准确率超过 90%,似乎什么都懂。但问题是,这些测试真的能衡量 AI 的真正能力边界吗?

In AI, 1 min read

一分钟读论文:《没有最后一英里,人类数据市场的持久性》

你是不是觉得,现在人类做的那些数据工作——比如评估 AI 输出、审计结果、处理例外情况——只是暂时的?等 AI 越来越强,这些工作总会被自动化取代,这就是所谓的”最后一英里”问题。

In Economics, 1 min read

一分钟读论文:《AlphaEvolve - 用 LLM 自动发现多智能体学习算法》

想象一下:设计一个优秀的多智能体强化学习(MARL)算法需要多少人类专家的智慧和经验?传统算法设计完全依赖人类直觉,而 DeepMind 的 AlphaEvolve 系统正在打破这个瓶颈。

In AI, 1 min read

Featured