本站资源全部免费,回复即可查看下载地址!
您需要 登录 才可以下载或查看,没有帐号?立即注册
x
描述:本课程旨在帮助企业从零开始训练私有化大模型,满足定制化AI助手需求。课程从ChatGPT背后的技术原理入手,深入讲解词向量、Transformer架构、Bert系列模型及强化学习等核心技术,逐步剖析GPT系列模型的演变过程。通过RLHF训练和PEFT微调技术(如LoRA),学员将掌握低成本微调大模型的实战方法。课程涵盖大模型训练的核心流程与实战技巧,助力企业快速构建符合业务需求的AI解决方案,抢占市场先机。
课程目录:第1章 课程介绍 第2章 训练模型与开发平台环境 第3章 chatGPT初始技术词向量原理剖析与实战 第4章 chatGPT基石模型——基于Transformer架构的语言模型 第5章 基于Transformer另一分支Bert系列分析与实战 第6章 chatGPT的核心技术——强化学习 第7章 chatGPT技术演变——从GPT 1 开始的大模型发展与演化 第8章 RLHF训练类ChatGPT模型代码实战 第9章 低成本微调大模型方法PEFT(LoRA等) — 训练 “ChatGLM2” 项目 第10章 langchain+训练大模型ChatGLM2 构建“知识库问答” 第11章 课程总结
现在只有8章,供大家参考学习
|