更新时间:2025-06-06 15:42:51
封面
版权信息
版权声明
O'Reilly Media Inc.介绍
对本书的赞誉
对本书中文版的赞誉
译者序
中文版序
前言
第一部分 理解语言模型
第1章 大语言模型简介
1.1 什么是语言人工智能
1.2 语言人工智能的近期发展史
1.3 “LLM”定义的演变
1.4 LLM的训练范式
1.5 LLM的应用
1.6 开发和使用负责任的LLM
1.7 有限的资源就够了
1.8 与LLM交互
1.9 生成你的第一段文本
1.10 小结
第2章 词元和嵌入
2.1 LLM的分词
2.2 词元嵌入
2.3 文本嵌入(用于句子和整篇文档)
2.4 LLM之外的词嵌入
2.5 推荐系统中的嵌入
2.6 小结
第3章 LLM的内部机制
3.1 Transformer模型概述
3.2 Transformer架构的最新改进
3.3 小结
第二部分 使用预训练语言模型
第4章 文本分类
4.1 电影评论的情感分析
4.2 使用表示模型进行文本分类
4.3 模型选择
4.4 使用特定任务模型
4.5 利用嵌入向量的分类任务
4.6 使用生成模型进行文本分类
4.7 小结
第5章 文本聚类和主题建模
5.1 ArXiv文章:计算与语言
5.2 文本聚类的通用流程
5.3 从文本聚类到主题建模
5.4 小结
第6章 提示工程
6.1 使用文本生成模型
6.2 提示工程简介
6.3 高级提示工程
6.4 使用生成模型进行推理
6.5 输出验证
6.6 小结
第7章 高级文本生成技术与工具
7.1 模型输入/输出:基于LangChain加载量化模型
7.2 链:扩展LLM的能力
7.3 记忆:构建LLM的对话回溯能力
7.4 智能体:构建LLM系统
7.5 小结
第8章 语义搜索与RAG
8.1 语义搜索与RAG技术全景
8.2 语言模型驱动的语义搜索实践
8.3 RAG
8.4 小结
第9章 多模态LLM
9.1 视觉Transformer
9.2 多模态嵌入模型
9.3 让文本生成模型具备多模态能力
9.4 小结
第三部分 训练和微调语言模型
第10章 构建文本嵌入模型
10.1 嵌入模型
10.2 什么是对比学习
10.3 SBERT
10.4 构建嵌入模型
10.5 微调嵌入模型
10.6 无监督学习
10.7 小结
第11章 为分类任务微调表示模型
11.1 监督分类
11.2 少样本分类
11.3 基于掩码语言建模的继续预训练
11.4 命名实体识别
11.5 小结
第12章 微调生成模型
12.1 LLM训练三步走:预训练、监督微调和偏好调优
12.2 监督微调
12.3 使用 QLoRA 进行指令微调
12.4 评估生成模型
12.5 偏好调优、对齐
12.6 使用奖励模型实现偏好评估自动化
12.7 使用DPO进行偏好调优
12.8 小结
附录 图解DeepSeek-R1
A.1 回顾:大模型的训练原理
A.2 DeepSeek-R1训练方案
后记
作者简介
封面简介
链接资源