Posted in Web [读论文] RoBERTa: 健壮优化的 BERT 预训练方法 – 知乎 December 7, 2025 论文题目:RoBERTa: A Robustly Optimized BERT Pretraining Approach 作者单位: 华盛顿大学 保罗·艾伦计算机科学与 工程学院,FaceBook AI 这篇文章是 BERT 系列模型和 XLNet 模型的又一次交锋,是 FaceBook 与 Google 的交锋,从学术上实质是自回归语言建模预处理和 自编码 预处理两种思路的交锋。文章读来,似乎有点 … https://www.zhihu.com/column/p/86652534