Contextual Word Representations: A Contextual Introduction

作者: Noah A. Smith 年份: 2019 会议: arXiv 分类: 网络架构

论文笔记:Contextual-Word-Representations

一句话总结

  • 一篇面向广泛读者的综述/教程,系统介绍了从静态词向量到上下文词表示的演进,以及这一转变对 NLP 领域的深远影响。

核心贡献

  • 从静态到动态:清晰梳理词表示从 one-hot → 分布式词向量(Word2Vec/GloVe)→ 上下文词表示(ELMo/BERT)的三阶段演进
  • 上下文表示的核心思想:同一个词在不同上下文中应有不同的向量表示(如 bank 在”河岸”和”银行”语境中),这与人类语言理解的直觉一致
  • 迁移学习范式:解释了大规模无监督预训练 + 任务特定微调如何成为 NLP 的主流范式,大幅降低了对标注数据的需求
  • 历史视角:将当前进展置于 NLP 和机器学习的历史脉络中,帮助读者理解技术发展的内在逻辑

相关概念

  • 词向量
  • 上下文词向量
  • ELMo
  • BERT
  • 迁移学习
  • 预训练语言模型