如何使用预训练模型
发表于
本文字数: 1.8k 阅读时长 ≈ 2 分钟
本文字数: 1.8k 阅读时长 ≈ 2 分钟
如何更好的微调预训练语言模性
发表于
本文字数: 46 阅读时长 ≈ 1 分钟
本文字数: 46 阅读时长 ≈ 1 分钟
如何更好的与训练一个BERT
发表于
本文字数: 684 阅读时长 ≈ 1 分钟
本文字数: 684 阅读时长 ≈ 1 分钟
预训练语言模性-BERT系列
发表于
本文字数: 11k 阅读时长 ≈ 10 分钟
本文字数: 11k 阅读时长 ≈ 10 分钟
- BERT [1]
- RoBERTa
- 4. T5 [4]
- Questions
- Reference
预训练语言模性-ERNIE系列
发表于
本文字数: 4.7k 阅读时长 ≈ 4 分钟
本文字数: 4.7k 阅读时长 ≈ 4 分钟
预训练语言模性-GPT系列
发表于
本文字数: 2.5k 阅读时长 ≈ 2 分钟
本文字数: 2.5k 阅读时长 ≈ 2 分钟
预训练语言模性-XLNet系列
发表于
本文字数: 1.8k 阅读时长 ≈ 2 分钟
本文字数: 1.8k 阅读时长 ≈ 2 分钟
预训练语言模性-可解释性
发表于
本文字数: 3.7k 阅读时长 ≈ 3 分钟
本文字数: 3.7k 阅读时长 ≈ 3 分钟
- BERT 可解释性
- 分析可解释性的一些常见方法
- What does BERT Learn from Multiple-Choice Reading Comprehension Datasets[1]
- What does BERT learn about the structure of language[2]
- Open Sesame: Getting Inside BERT’s Linguistic Knowledge
- BERT vs ELMO vs Flair [9]
- BERT vs ELMO vs GPT-2
- BERT Attention 学到了什么
- A Primer in BERTology: What we know about how BERT works
- Reference
预训练语言模性-多任务学习
发表于
本文字数: 269 阅读时长 ≈ 1 分钟
本文字数: 269 阅读时长 ≈ 1 分钟