lizuo2020 发表于 3 天前

AI大模型微调训练营第5期(极客)

目录
├──第1章
|   ├──课件
|   |   └──1-AI大模型四阶技术总览.pdf20.74M
|   ├──1. 章节介绍.mp48.12M
|   ├──2. AI技术浪潮:弱人工智能、机器学习、深度学习、大语言模型.mp464.39M
|   ├──3. AI应用浪潮:高校共识、硅谷创新、中美博弈.mp497.22M
|   ├──4. 把握浪潮:AI 大模型助力超级个体和小团队.mp418.61M
|   ├──5. AI大模型四阶技术总览:提示工程(Prompt Engineering).mp462.00M
|   ├──6. AI大模型四阶技术总览:AI智能体(Agents).mp451.25M
|   ├──7. AI大模型四阶技术总览:大模型微调(Fine-tuning).mp442.70M
|   └──8. AI大模型四阶技术总览:预训练技术(Pre-training).mp420.99M
├──第2章
|   ├──课件
|   |   ├──2-大语言模型技术发展与演进.pdf17.79M
|   |   ├──代码链接地址.txt0.06kb
|   |   └──论文.zip9.97M
|   ├──1. 章节介绍.mp442.57M
|   ├──2. 统计语言模型_ev.mp451.22M
|   ├──3. 神经网络语言模型_ev.mp476.36M
|   ├──4. 大语言模型:注意力机制_ev.mp448.94M
|   ├──5. 大语言模型:Transformer网络架构_ev.mp462.30M
|   ├──6. 大语言模型:GPT-1与BERT_ev.mp453.04M
|   └──7. 大语言模型:暴力美学GPT系列模型_ev.mp444.63M
├──第3章
|   ├──课件
|   |   └──5-大模型开发工具库 HF Transformers.pdf4.44M
|   ├──1. 章节介绍_ev.mp42.60M
|   ├──2. Hugging Face Transformers快速入门_ev.mp429.88M
|   ├──3. Transformers核心功能模块_ev.mp446.69M
|   ├──4. 大模型开发环境搭建_ev.mp435.10M
|   ├──5. 实战Hugging Face Transformers工具库_ev.mp4212.20M
|   └──6.作业.txt0.27kb
├──第4章
|   ├──课件
|   |   └──4-实战Transformers模型训练.pdf5.15M
|   ├──1. 章节介绍.mp45.33M
|   ├──2. 数据集处理库Hugging Face Datasets.mp448.95M
|   ├──3. Transformers模型训练入门_ev.mp421.39M
|   ├──4. 实战训练BERT模型:文本分类任务_ev.mp4141.30M
|   ├──5. 实战训练BERT模型:QA任务_ev.mp4305.46M
|   └──6.作业.txt0.38kb
├──第5章
|   ├──课件
|   |   ├──5-大模型高效微调技术揭秘(上).pdf9.80M
|   |   ├──Fine-tuning论文.zip16.51M
|   |   └──Instruction-Tuning论文.zip1.24M
|   ├──1. 章节介绍_ev.mp46.96M
|   ├──2. Before PEFT:Hard PromptFull Fine-tune_ev.mp452.24M
|   ├──3. PEFT主流技术分类介绍.mp423.01M
|   ├──4. PEFT - Adapter技术.mp458.03M
|   ├──5. PEFT - Soft Prompt 技术(Task-specific Tuning).mp495.85M
|   └──6. PEFT - Soft Prompt 技术(Prompt Encoder).mp476.37M
├──第6章
|   ├──课件
|   |   └──6-大模型高效微调技术揭秘(下).pdf7.56M
|   ├──1. 章节介绍_ev.mp43.70M
|   ├──2. LoRA低秩适配微调技术_ev.mp458.18M
|   ├──3. AdaLoRA自适应权重矩阵微调技术_ev.mp458.02M
|   ├──4. QLoRA量化低秩适配微调技术_ev.mp446.46M
|   ├──5. UniPELT:大模型PEFT统一框架_ev.mp420.07M
|   └──6. (IA)3:极简主义增量训练方法_ev.mp430.41M
├──第7章
|   ├──课件【找it资源dbbp.net】【微 信648765304】
|   |   └──7-大模型高效微调工具HF PEFT 入门与实战.pdf4.91M
|   ├──1. 章节介绍.mp43.28M
|   ├──2. Hugging Face PEFT 快速入门.mp457.99M
|   ├──3. OpenAI Whisper 模型介绍.mp431.24M
|   ├──4. 实战 LoRA 微调 Whisper-Large-v2 中文语音识别_ev.mp4233.79M
|   └──5.作业.txt0.54kb
├──第8章
|   ├──课件
|   |   ├──8-大模型量化技术入门与实战.pdf6.14M
|   |   └──Quantization论文.zip5.56M
|   ├──1. 章节介绍_ev.mp42.65M
|   ├──2. 模型显存占用与量化技术简介_ev.mp434.87M
|   ├──3. GPTQ:专为 GPT 设计的模型量化算法_ev.mp474.97M
|   ├──4. AWQ:激活感知权重量化算法_ev.mp452.91M
|   ├──5. BitsAndBytes(BnB) :模型量化软件包_ev.mp415.89M
|   ├──6. 实战 Facebook OPT 模型量化_ev.mp480.76M
|   └──7.作业.txt0.46kb
├──第9章
|   ├──课件
|   |   ├──9-GLM 大模型家族与ChatGLM3-6B微调入门.pdf15.35M
|   |   └──GLM论文.zip43.84M
|   ├──1. 章节介绍_ev.mp44.62M
|   ├──2. 基座模型 GLM-130B_ev.mp493.10M
|   ├──3. 扩展模型:联网检索、多模态、代码生成_ev.mp444.82M
|   ├──4. 对话模型 ChatGLM 系列_ev.mp411.17M
|   ├──5. ChatGLM3-6B 微调入门_ev.mp420.55M
|   ├──6. 实战 QLoRA 微调 ChatGLM3-6B_ev.mp489.00M
|   └──7.作业.txt0.17kb
├──第10章
|   ├──课件
|   |   └──10-实战私有数据微调ChatGLM3.pdf10.19M
|   ├──1. 章节介绍.mp49.12M
|   ├──2. 使用 ChatGPT 自动设计生成训练数据的 Prompt_ev.mp460.56M
|   ├──3. 合成数据: LangChain + GPT-3.5 Turbo_ev.mp412.55M
|   ├──4. 数据增强:提升训练数据多样性_ev.mp415.12M
|   ├──5. 提示工程:保持批量生成数据稳定性_ev.mp444.16M
|   ├──6. 实战私有数据微调 ChatGLM3_ev.mp4103.76M
|   └──7.作业.txt0.18kb
├──第11章
|   ├──课件
|   |   ├──11-ChatGPT大模型训练技术RLHF.pdf6.88M
|   |   └──RLHF论文.zip6.05M
|   ├──1. 章节介绍_ev.mp413.04M
|   ├──2. ChatGPT 大模型训练核心技术_ev.mp493.58M
|   ├──3. 基于人类反馈的强化学习(RLHF)技术详解_ev.mp491.42M
|   └──4. 基于 AI 反馈的强化学习(RLAIF)技术_ev.mp418.94M
├──第12章
|   ├──课件
|   |   ├──12-混合专家模型(MoEs)技术揭秘.pdf5.12M
|   |   └──MoEs论文.zip7.67M
|   ├──1. 章节介绍.mp46.87M
|   ├──2. MoEs 技术发展简史.mp4107.47M
|   ├──3. MoEs 与大模型结合后的技术发展_ev.mp498.33M
|   └──4. MoEs 实例研究:Mixtral-8x7B_ev.mp425.83M
├──第13章
|   ├──课件
|   |   ├──13-Meta AI 大模型 LLaMA.pdf8.83M
|   |   └──LLaMA论文.zip15.27M
|   ├──1. 章节介绍.mp45.96M
|   ├──2. LLaMA 1 大模型技术解读.mp4112.52M
|   ├──3. LLaMA 1 衍生模型大家族.mp490.62M
|   ├──4. LLaMA 2 大模型技术解读.mp428.90M
|   └──5. 申请和获取 LLaMA 2 模型预训练权重_ev.mp412.85M
├──第14章
|   ├──课件
|   |   └──14-实战LLaMA2-7B指令微调.pdf3.60M
|   ├──1. 章节介绍_ev.mp411.37M
|   ├──2. 大模型训练技术总结_ev.mp4128.12M
|   ├──3. LLaMA2-7B 指令微调上手实战_ev.mp485.79M
|   └──4. 再谈中文指令微调方法_ev.mp419.51M
├──第15章
|   ├──课件
|   |   └──15-大模型分布式训练框架Microsoft DeepSpeed.pdf8.05M
|   ├──1. 章节介绍_ev.mp45.16M
|   ├──10. 实战 DeepSpeed ZeRO-2 和 ZeRO-3 单机单卡训练_ev.mp445.27M
|   ├──11. DeepSpeed 创新模块 Inference CompressionScience_ev.mp48.39M
|   ├──2. 预训练模型显存计算方法_ev.mp450.41M
|   ├──3. Zero Redundancy OptimizerZeRO技术详解_ev.mp468.20M
|   ├──4. Microsoft DeepSpeed 框架和核心技术_ev.mp464.34M
|   ├──5. 分布式模型训练并行化技术对比_ev.mp417.33M
|   ├──6. DeepSpeed 与 Transformers 集成训练大模型_ev.mp49.65M
|   ├──7. DeepSpeed 框架编译与安装_ev.mp456.60M
|   ├──8. DeepSpeed ZeRO 配置详解_ev.mp452.70M
|   └──9. 使用 DeepSpeed 单机多卡、分布式训练_ev.mp48.90M
├──第16章
|   ├──课件
|   |   └──16-国产化实战:基于华为 Ascend 910 微调 ChatGLM-6B.pdf8.74M
|   ├──1. 章节介绍_ev.mp45.94M
|   ├──2. 蓝色星球的算力霸主:NVIDIA_ev.mp4138.08M
|   ├──3. 厚积薄发的江湖大佬:Google_ev.mp419.65M
|   ├──4. 努力追赶的国产新秀:华为_ev.mp417.55M
|   ├──5. 华为昇腾全栈 AI 软硬件平台介绍_ev.mp421.77M
|   └──6. 实战:华为 Ascend 910B 微调 ChatGLM 6B 模型_ev.mp457.30M
├──第17章
|   ├──1. GLM 大模型家族介绍_ev.mp460.72M
|   ├──1.GLM大模型家族介绍.pdf7.37M
|   ├──2. GLM 模型部署微调实践.mp498.95M
|   ├──2.GLM模型部署实践.pdf2.73M
|   ├──3. CogVLM模型部署实践.mp463.41M
|   ├──3.CogVLM模型部署实践.pdf2.87M
|   ├──4. 选学 智谱第四代 API 介绍.mp47.89M
|   ├──4.选学 GLM4 GLM4V API 调用实践.pdf1.77M
|   ├──5. 选学 API 基础教学和实战-问题解决方案.txt0.43kb
|   ├──5. 选学 API 基础教学和实战_ev.mp442.60M
|   └──6. 使用 GLM-4 API 构建模型和应用_ev.mp466.99M

链接:https://pan.quark.cn/s/c6d098dcee5a

Xieyz 发表于 3 天前

66666666666666

Babbler 发表于 3 天前

啥也不说了,感谢楼主分享哇!

ercao 发表于 3 天前

回的人少,我来小顶一下

小翼不喜欢IT 发表于 3 天前

啥也不说了,感谢楼主分享哇!

sxx111 发表于 3 天前

啥也不说了,感谢楼主分享哇!

Wonka 发表于 3 天前

正需要,支持楼主大人了!

taurusleexia 发表于 3 天前

啥也不说了,感谢楼主分享哇!

sakura_dmz 发表于 3 天前

啥也不说了,感谢楼主分享哇!

mayongz2023 发表于 3 天前

啥也不说了,感谢楼主分享哇!
页: [1] 2 3 4 5 6 7
查看完整版本: AI大模型微调训练营第5期(极客)