诸神缄默不语-个人CSDN博文目录
本文主要以模型被提出的时间为顺序,系统性介绍各种预训练模型的理论(尤其是相比之前工作的创新点)、调用方法和表现效果。
最近更新时间:2023.5.10
最早更新时间:2023.5.10
- Bert
- Roberta
- XLNet
- Longformer
序列长度必须是512的整数倍
- 中文版:ValkyriaLenneth/Longformer_ZH
tokenizer必须要用BertTokenizer
- UniLM
【论文解读】UniLM:一种既能阅读又能自动生成的预训练模型 - SciBert
- RPT
- NEZHA
- ERNIE-百度
- ERNIE-清华
- DistilledBert
- Bart
- CPT
- Pegasus
- GPT-2
- GPT-3
- GPT-3.5
- ChatGPT
- InstructGPT
- CodeX
- ChatGPT技术解析系列之:赋予GPT写代码能力的Codex - 知乎
- pass@k
- 文心一言
- Bard
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)