AI 技术书籍大规模语言模型
大规模语言模型:从理论到实践
本书将介绍大语言模型的基础理论包括语言模型、分布式模型训练以及强化学习,并以 Deepspeed-Chat 框架为例介绍实现大语言模型和类ChatGPT系统的实践。
- 作者-张奇复旦大学,计算机科学技术学院,教授
- 作者-桂韬复旦大学,计算语言学研究院,青年副研究员
- 作者-郑锐复旦大学,计算机科学技术学院,博士研究生
- 作者-黄萱菁复旦大学,计算机科学技术学院,教授
- 出版社无
- 发行日期2023-09-10
- 标签大规模语言模型Deep Learning Natural language Processing Neural Networks NLP
- 系列LLM
内容目录
大语言模型(Large Language Models,LLM)是一种由包含数百亿以上权重的深度神经网络构建的语言模型,使用自监督学习方法通过大量无标记文本进行训练。自2018年以来,包含Google、OpenAI、Meta、百度、华为等公司和研究机构都纷纷发布了包括BERT, GPT等在内多种模型,并在几乎所有自然语言处理任务中都表现出色。2021年开始大模型呈现爆发式的增长,特别是2022年11月ChatGPT发布后,更是引起了全世界的广泛关注。用户可以使用自然语言与系统交互,从而实现包括问答、分类、摘要、翻译、聊天等从理解到生成的各种任务。大型语言模型展现出了强大的对世界知识掌握和对语言的理解。本书将介绍大语言模型的基础理论包括语言模型、分布式模型训练以及强化学习,并以 Deepspeed-Chat 框架为例介绍实现大语言模型和类ChatGPT系统的实践。
赞赏微信赞赏支付宝赞赏
相关图书
没有相关内容!
暂无评论...