网站首页  软件下载  游戏下载  翻译软件  电子书下载  电影下载  电视剧下载  教程攻略

请输入您要查询的图书:

 

书名 大语言模型(原理与工程实践)/通用智能与大模型丛书
分类 计算机-操作系统
作者
出版社 电子工业出版社
下载
简介
内容推荐
本书用10章对大语言模型进行全面且深入的介绍。首先对大语言模型的基本概念进行介绍。其次,从大语言模型的基础技术、预训练数据构建、预训练技术等方面展开讨论,帮助读者深入了解大语言模型的构建和训练过程。然后,详细介绍有监督微调和强化对齐等技术,以及如何评估大语言模型的性能。此外,介绍提示工程和工程实践等方面的内容,帮助读者了解大语言模型的应用和实际操作过程。最后,介绍如何从零开始微调大语言模型,辅以代码示例,帮助读者更好地应用这些技术。
通过阅读本书,读者可以获得全面且深入的大语言模型的知识框架。无论您是研究人员、工程师,还是产品经理,都能从中获得有价值的知识。
作者简介
杨青,度小满金融技术委员会执行主席、数据智能应用部总经理,硕士毕业于清华大学计算机系,曾就职于百度、阿里巴巴,从事自然语言处理、搜索、推荐、大数据架构等相关方向的研发工作。
2018年年初加入度小满金融,组建数据智能部,从0到1构建度小满金融的智能引擎核心算法,深耕计算机视觉、自然语言处理、图模型、机器学习、因果推断等技术领域,多篇文章被EMNLP、ACL、CIKM等国际会议收录,“智能化征信解读中台”工程荣获吴文俊人工智能科技进步奖。相关技术广泛应用于度小满营销、经营、风控、反欺诈全流程业务场景,为上千万客户提供稳定、安全的金融服务。
目录
1 解锁大语言模型
1.1 什么是大语言模型
1.2 语言模型的发展
1.3 GPT系列模型的发展
1.4 大语言模型的关键技术
1.5 大语言模型的涌现能力
1.6 大语言模型的推理能力
1.7 大语言模型的缩放定律
参考文献
2 大语言模型基础技术
2.1 语言表示介绍
2.1.1 词表示技术
2.1.2 分词技术
2.2 经典结构Transformer
2.2.1 输入模块
2.2.2 多头自注意力模块
2.2.3 残差连接与层归一化
2.2.4 前馈神经网络
2.2.5 解码器
2.3 预训练语言模型
2.3.1 Decoder的代表:GPT系列
2.3.2 Encoder的代表:BERT
2.4 初探大语言模型
2.4.1 InstructGPT
2.4.2 LLaMA系列
参考文献
3 预训练数据构建
3.1 数据的常见类别及其来源
3.1.1 网页数据
3.1.2 书籍数据
3.1.3 百科数据
3.1.4 代码数据
3.1.5 其他数据
3.2 数据的预处理方式
3.2.1 正文提取
3.2.2 质量过滤
3.2.3 文档去重
3.2.4 数据集净化
3.3 常用数据集的完整构建方式
3.3.1 C4
3.3.2 MassiveText
3.3.3 RefinedWeb
3.3.4 ROOTS
3.4 难点和挑战
3.4.1 数据收集的局限性
3.4.2 数据质量评估的挑战
3.4.3 自动生成数据的风险
参考文献
4 大语言模型预训练
4.1 大语言模型为什么这么强
4.2 大语言模型的核心模块
4.2.1 核心架构
4.2.2 组成模块选型
4.3 大语言模型怎么训练
4.3.1 训练目标
4.3.2 数据配比
4.4 预训练还有什么没有解决
参考文献
5 挖掘大语言模型潜能:有监督微调
5.1 揭开有监督微调的面纱
5.1.1 什么是有监督微调
5.1.2 有监督微调的作用与意义
5.1.3 有监督微调的应用场景
5.2 有监督微调数据的构建
5.2.1 有监督微调数据的格式
5.2.2 有监督微调数据的自动化构建
5.2.3 有监督微调数据的选择
5.3 大语言模型的微调方法
5.3.1 全参数微调
5.3.2 适配器微调
5.3.3 前缀微调
5.3.4 提示微调
5.3.5 低秩适配
5.4 大语言模型的微调和推理策略
5.4.1 混合微调策略
5.4.2 基于上下文学习的推理策略
5.4.3 基于思维链的推理策略
5.5 大语言模型微调的挑战和探索
5.5.1 大语言模型微调的幻觉问题
5.5.2 大语言模型微调面临的挑战
5.5.3 大语言模型微调的探索与展望
参考文献
6 大语言模型强化对齐
6.1 强化学习基础
6.1.1 强化学习的基本概念
6.1.2 强化学习中的随机性
6.1.3 强化学习的目标
6.1.4 Q函数与V函数
6.2 DQN方法
6.2.1 DQN的结构
6.2.2 DQN训练:基本思想
6.2.3 DQN训练:目标网络
6.2.4 DQN训练:探索策略
6.2.5 DQN训练:经验回放
6.2.6 DQN训练:完整算法
6.2.7 DQN决策
6.3 策略梯度方法
6.3.1 策略网络的结构
6.3.2 策略网络训练:策略梯度
6.3.3 策略网络训练:优势函数
6.3.4 PPO算法
6.4 揭秘大语言模型中的强化建模
6.4.1 Token-level强化建模
6.4.2 Sentence-level强化建模
6.5 奖励模型
6.5.1 奖励模型的结构
6.5.2 奖励模型的训练
6.5.3 奖励模型损失函数分析
6.6 RLHF
6.6.1 即时奖励
6.6.2 RLHF算法
6.7 RLHF实战框架
6.8 RLHF的难点和问题
6.8.1 数据瓶颈
6.8.2 硬件瓶颈
6.8.3 方法瓶颈
参考文献
7 大语言模型的评测
7.1 基座语言模型的评测
7.1.1 主要的评测维度和基准概述
7.1.2 具体案例:LLaMA 2选取的评测基准
7.2 大语言模型的对话能力评测
7.2.1 评测任务
7.2.2 评测集的构建标准
7.2.3 评测方式
7.3 大语言模型的安全性评测
7.3.1 评测任务
7.3.2 评测方式和标准
7.4 行业大语言模型的评测:以金融行业大语言模型为例
7.4.1 金融行业大语言模型的自动化评测集
7.4.2 金融行业大语言模型的人工评测集
7.5 整体能力的评测
7.6 主流评测数据集及基准
参考文献
8 大语言模型的应用
8.1 大语言模型为什么需要提示工程
8.1.1 人类和大语言模型进行复杂决策的对比
8.1.2 提示工程的作用
8.2 什么是提示词
8.2.1 提示词的基础要素
8.2.2 提示词设计的通用原则
8.3 推理引导
8.3.1 零样本提示
8.3.2 少样本提示
8.3.3 思维链提示
8.3.4 自我一致性提示
8.3.5 思维树提示
8.4 动态交互
8.4.1 检索增强生成技术
8.4.2 推理和行动协同技术
8.5 案例分析
8.5.1 案例介绍
8.5.2 工具设计
8.5.3
随便看

 

霍普软件下载网电子书栏目提供海量电子书在线免费阅读及下载。

 

Copyright © 2002-2024 101bt.net All Rights Reserved
更新时间:2025/2/23 0:33:49