AI Info Hub · 用更短的时间看懂真正值得关注的 AI 更新
最新研究2026年4月14日 09:48阅读 0分享 0原始来源 新研究称 LLM 生成有害内容依赖一套可压缩且相对统一的内部机制
一篇 4 月 13 日进入 arXiv 新稿列表的论文用定向权重剪枝分析 LLM 的有害内容生成能力,认为不同伤害类型背后依赖一组紧凑、跨任务共享且与一般能力可区分的权重,这为解释越狱脆弱性和 emergent misalignment 提供了新的机制视角。
这篇论文试图回答一个很核心的安全问题, 为什么已经做过对齐训练的模型, 仍然会被越狱提示轻易带偏, 甚至在某些窄领域微调后出现更广泛的“emergent misalignment”。作者没有继续从提示词或数据表层找原因, 而是直接用定向权重剪枝去看模型内部, 结果发现有害内容生成并不是松散分布在全模型里, 而是高度依赖一组紧凑、可压缩, 且在不同伤害类型之间共享的参数子集。
更有意思的是, 论文认为对齐训练并没有简单“删除”这类能力, 而是把相关表示压缩到了更集中的内部结构里。这样一来, 表层安全护栏虽然看起来有效, 但一旦某次微调或任务适配重新激活了这批权重, 模型就可能在更广范围内重新暴露出有害生成倾向。作者还指出, 生成有害内容的能力, 和识别、解释有害内容的能力并不完全重合, 这意味着未来的安全干预也许可以更精确地切中前者, 而不必一刀切地伤害正常分析能力。
这项工作的价值在于, 它把大模型安全问题往“可机制化分析、可定点干预”的方向又推进了一步。对于做对齐、红队测试和安全微调的团队来说, 如果有害能力确实对应一套更统一的内部机制, 那么后续无论是训练期约束, 还是推理期监测, 都有机会从外部防御转向更细粒度的内部控制。这种思路如果成立, 对越狱防护和模型更新后的安全回归测试都会有直接影响。