温馨提醒
如果文章内容或图片资源失效,请留言反馈,我们会及时处理,谢谢
本文最后更新于2024年5月26日,已超过 180天没有更新
从核心原理、技术+ PEFT微调大模型+ LangChain构建知识库问答,你也能打造属于自己的大模型ChatGPT。
适合人群
想训练和搭建自己的大模型服务的学员
想从0掌握ChatGPT背后核心技术的学员
技术储备
Linux、Python、数学基础
人工智能基础
章节目录:
第1章 课程介绍
5 节|62分钟
收起
视频:
1-1 【导航】课程导学&让你快速了解课程
试看
18:25
视频:
1-2 【内容安排】课程安排和学习建议
试看
09:13
视频:
1-3 【行业发展】ChatGPT对行业、社会有什么影响,我们要如何应对
试看
21:22
视频:
1-4 【发展史】ChatGPT的简要历史
09:53
视频:
1-5 【学习须知】本课程为什么使用gpt2而不是gpt3
03:03
第2章 训练模型与开发平台环境
5 节|30分钟
收起
视频:
2-1 【认知】为什么要引入paddle?平时使用torch,学习paddle貌似没用怎么办?
04:06
视频:
2-2 【框架】paddle和torch与tensorflow对比
07:14
视频:
2-3 【NLP工具和预训练模型】paddleNLP和huggingface
03:23
视频:
2-4 【平台】介绍aistudio
07:53
视频:
2-5 【工具】介绍基于gpt4的IDE cursor
06:51
第3章 chatGPT初始技术词向量原理剖析与实战
12 节|176分钟
收起
视频:
3-1 【认知】词向量,词向量与gpt的关系
05:22
视频:
3-2 【语言模型】语言模型和评估指标PPL
13:28
视频:
3-3 【词向量模型】word2vec-cbow和skipgram
08:15
视频:
3-4 【softmax加速】是softmax 树型优化
14:46
视频:
3-5 【softmax加速】softmax负采样优化
13:49
视频:
3-6 【数据准备与预处理】word2vec实战(1)
24:53
视频:
3-7 【数据准备与预处理】word2vec实战(2)
18:49
视频:
3-8 【模型训练】word2vec实战-模型开发和训练(1)
15:17
视频:
3-9 【模型训练】word2vec实战-模型开发和训练(2)
14:33
视频:
3-10 【激活函数】常见七种激活函数对比
15:29
视频:
3-11 【预训练语言模型】RNN-LSTM-ELMO
25:49
视频:
3-12 本章梳理小结
05:06
第4章 chatGPT基石模型——基于Transformer架构的语言模型
11 节|117分钟
收起
视频:
4-1 本章介绍
01:32
视频:
4-2 seq2seq结构和注意力
15:23
视频:
4-3 seq2seq-attention的一个案例
07:37
视频:
4-4 transformer的multi-head attention 多头注意力机制
23:07
视频:
4-5 transformer的残差链接-解决梯度消失问题
07:43
视频:
4-6 transformer的layernorm-归一化提升训练稳定性
07:21
视频:
4-7 transformer的decoder 解码器
09:11
视频:
4-8 sparse-transformer 稀疏模型
08:31
视频:
4-9 transformer-xl 解决长序列的问题(1)
14:34
视频:
4-10 transformer-xl解决长序列的问题(2)
16:10
视频:
4-11 本章梳理总结
04:52
第5章 基于Transformer另一分支Bert系列分析与实战
16 节|211分钟
收起
视频:
5-1 本章介绍
01:14
视频:
5-2 metric-评估指标(BLUE-rouge-L-METOER-NIST)
22:49
视频:
5-3 常见 subword 算法(BPE-wordpiece)
07:00
视频:
5-4 常见的NLP任务
06:38
视频:
5-5 bert 预训练模型
25:29
视频:
5-6 bert情感分析实战----paddle(1)
17:22
视频:
5-7 bert情感分析实战----paddle(2)
18:48
视频:
5-8 evaluate和predict方法----paddle
10:49
视频:
5-9 bert(transformer encoder)主要源码分析----paddle(1)
14:12
视频:
5-10 bert(transformer encoder)主要源码分析----paddle(2)
12:31
视频:
5-11 bert(transformer encoder)的完整源码cache部分分析----paddle
15:21
视频:
5-12 Ernie文心一言基础模型(1)
14:35
视频:
5-13 Ernie文心一言基础模型(2)
06:27
视频:
5-14 plato百度对话模型(1)
14:56
视频:
5-15 plato 百度对话模型(2)
14:13
视频:
5-16 本章总结
07:51
第6章 chatGPT的核心技术——强化学习
18 节|275分钟
收起
视频:
6-1 RL是什么&为什么要学习RL
14:11
视频:
6-2 强化学习章介绍
02:53
视频:
6-3 RL基础概念
07:06
视频:
6-4 RL马尔可夫过程
17:39
视频:
6-5 RL三种方法(1)
16:40
视频:
6-6 RL三种方法(2)
06:07
视频:
6-7 DQN和DQN的2种改进算法(1)
13:46
视频:
6-8 DQN和DQN的2种改进算法(2)
16:21
视频:
6-9 actor-critic(1)
24:54
视频:
6-10 actor-critic(2)
08:14
视频:
6-11 TRPO+PPO(1)
23:23
视频:
6-12 TRPO+PPO(2)
18:28
视频:
6-13 DQN代码实践--torch-1
20:28
视频:
6-14 DQN代码实践--torch-2
19:05
视频:
6-15 DoubleDQN+DuelingDQ代码--torch
11:49
视频:
6-16 REINFORCE代码--torch
20:18
视频:
6-17 PPO代码实践--torch
23:03
视频:
6-18 强化学习-本章总结
10:24
第7章 chatGPT技术演变——从GPT 1 开始的大模型发展与演化
11 节|159分钟
收起
视频:
7-1 GPT1 模型
14:46
视频:
7-2 GPT2 模型
14:00
视频:
7-3 GPT3 模型-1
15:55
视频:
7-4 GPT3 模型-2
12:06
视频:
7-5 gpt-codex 基于GPT技术开发的模型
12:58
视频:
7-6 alphaCode基于GPT技术开发的模型-1
16:13
视频:
7-7 alphaCode基于GPT技术开发的模型-2
09:57
视频:
7-8 instruct-gpt 基于GPT技术开发的模型-1
13:44
视频:
7-9 instruct-gpt 基于GPT技术开发的模型-2
16:43
视频:
7-10 Antropic LLM大型语言模型
24:41
视频:
7-11 GPT-本章总结
07:21
第8章 RLHF训练类ChatGPT模型代码实战
19 节|311分钟
收起
视频:
8-1 chatGPT训练实战
08:52
视频:
8-2 SFT有监督的训练-数据处理
22:06
视频:
8-3 SFT有监督训练-trainer
18:19
视频:
8-4 SFT有监督训练-train
22:08
视频:
8-5 RM训练-model+dataset(1)
16:33
视频:
8-6 RM训练-model+dataset(2)
14:51
视频:
8-7 RM训练-trainer
13:48
视频:
8-8 RM训练-train-rm
11:43
视频:
8-9 RLHF强化学习人类反馈的训练-dataset
07:50
视频:
8-10 RLHF强化学习人类反馈的训练-model-base
12:17
视频:
8-11 RLHF强化学习人类反馈的训练-model-opt
08:11
视频:
8-12 RLHF强化学习人类反馈的训练-generation(1)
16:53
视频:
8-13 RLHF强化学习人类反馈的训练-generation(2)
16:22
视频:
8-14 RLHF强化学习人类反馈的训练-exp_maker(1)
15:14
视频:
8-15 RLHF强化学习人类反馈的训练-exp_maker(2)
17:18
视频:
8-16 RLHF强化学习人类反馈的训练-buffer-utils
28:18
视频:
8-17 RLHF强化学习人类反馈的训练-buffer-loss
18:08
视频:
8-18 RLHF强化学习人类反馈的训练-trainer
22:03
视频:
8-19 RLHF强化学习人类反馈的训练-main
19:30
第9章 低成本微调大模型方法PEFT(LoRA等) — 训练 "ChatGLM2" 项目
16 节|240分钟
收起
视频:
9-1 参数高效微调方法 peft-bitfit
23:14
视频:
9-2 参数高效微调方法 prefix-t
11:55
视频:
9-3 参数高效微调方法 prompt-t
10:09
视频:
9-4 参数高效微调方法 p-tuning
10:38
视频:
9-5 参数高效微调方法 p-tuningv2
09:36
视频:
9-6 参数高效微调方法 lora
05:13
视频:
9-7 高效调参方案实现 prompt_tuning-1
18:25
视频:
9-8 高效调参方案实现 prompt_tuning-2
10:12
视频:
9-9 高效调参方案实现 p-tuning
13:41
视频:
9-10 高效调参方案实现 prefix-tuning
19:42
视频:
9-11 高效调参方案实现 lora-01
17:51
视频:
9-12 高效调参方案实现 lora-02
17:40
视频:
9-13 高效调参方案实现 lora-03
11:00
视频:
9-14 AdaLora微调ChatGLM2 实战 -1
21:21
视频:
9-15 AdaLora微调ChatGLM2 实战 -2
23:55
视频:
9-16 PEFT-本章总结
15:05
第10章 langchain+训练大模型ChatGLM2 构建“知识库问答”
5 节|75分钟
收起
视频:
10-1 基于langchain的应用
12:43
视频:
10-2 langchain初探与实战
25:31
视频:
10-3 langchain实现 mini-QA
14:59
视频:
10-4 工业场景知识库LLM助手的设计
13:11
视频:
10-5 langchain和知识增强LLM总结
08:30
第11章 课程总结
2 节|33分钟
收起
视频:
11-1 课程总结(1)
17:48
视频:
11-2 课程总结(2)
15:01
本课程已完结
评论0+