微调

学习目标

学习完本部分,使学习者能够:

  • 准备整理微调数据集;
  • 使用工具对开源llm进行 微调

学习活动

实践

补充资料

  • 视频:Andrej Karpathy在微软Build大会上解析ChatGPT演讲

  • 视频:从零开始训练一个大语言模型30分钟讲座 by Shaw Talebi

  • 视频:2024大语言模型构建小指南 by Thomas Wolf

    • 视频时长:1小时20分
    • 视频内容简介:
      • 00:00:00 介绍 00:00:59 大语言模型的工作流程
      • 第一部分:训练:数据 00:01:17 数据准备 - 介绍和近期数据准备的良好资源 00:05:28 网络规模的预训练语料库 - 目标和挑战 00:11:29 网络规模数据源 - 关注近期数据集 00:18:01 语言和质量过滤 00:24:34 数据去重深入探讨 00:27:40 训练前的数据最终准备 00:31:31 如何大规模评估数据质量 00:36:29 datatrove和lighteval库
      • 第二部分:训练:建模 00:38:18 大语言模型训练的建模技术介绍 00:39:09 模型过大时:并行处理 00:40:00 数据并行 00:41:18 张量并行 00:44:38 管道并行 00:47:00 序列并行和4D并行的参考资料 00:47:52 同步:GPU-CPU和GPU-GPU的挑战 00:52:14 Flash Attentionv1和v2 00:56:23 稳定训练配方 00:59:12 新架构:专家混合(MoE) 01:03:13 新架构:Mamba 01:04:49 nanotron库
      • 第三部分:微调:强化学习人类反馈(RLHF)和对齐 01:06:15 2024年的RLHF 01:08:23 PPO、DPO和REINFORCE
      • 第四部分:快速推理技术 01:11:23 量化、猜测解码和编译:概述和资源
  • notebook:在单个 GPU 上针对自定义代码微调代码 LLM

Back to top