张奇等:2023大规模语言模型 从理论到实践(预览版)
VIP专免
2024-03-05
999+
15.01MB
297 页
海报
侵权投诉
NoSuchBucket
NoSuchBucket
NoSuchBucket
摘要:
展开>>
收起<<
大规模语言模型从理论到实践张奇桂韬郑锐⻩萱菁著预览版2023年9月10日·前言2018年Google的研究团队开创性地提出了预训练语言模型BERT[1],该模型在诸多自然语言处理任务中展现了卓越的性能。这激发了大量以预训练语言模型为基础的自然语言处理研究,也引领了自然语言处理领域的预训练范式的兴起。然而,尽管这一变革影响深远,但它并没有改变每个模型只能解决特定问题的基本模式。2020年,OpenAI发布了GPT-3模型,其在文本生成任务上的能力令人印象深刻,并在许多少标注(Few-shot)的自然语言处理任务上取得了优秀的成绩。但是,其性能并未超越专门针对单一任务训练的有监督模型。之后,研究者...
声明:报告堂所有资料均为用户上传分享,仅供参考学习使用,版权归原作者所有。若侵犯到您的权益,请告知我们处理!任何个人或组织,在未征得本平台同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。