课程简介
本课程面向有志于深入研究AI算法的学员,从理论到实践,系统学习大模型底层原理和算法实现。
课程特色
- ✓ 深度学习核心原理
- ✓ Transformer架构详解
- ✓ 预训练技术深入
- ✓ 模型微调实战
- ✓ 模型压缩与优化
课程大纲
- 第一阶段:深度学习基础(约40小时)
神经网络基础 / 反向传播 / 优化算法 / 正则化技术 - 第二阶段:Transformer核心(约45小时)
注意力机制 / 多头注意力 / 位置编码 / 残差连接 - 第三阶段:预训练模型(约55小时)
GPT系列 / BERT系列 / LLM训练 / 评测基准 - 第四阶段:模型微调(约50小时)
全参数微调 / LoRA微调 / QLoRA / 提示调优 - 第五阶段:工程优化(约110小时)
模型量化 / 知识蒸馏 / 分布式训练 / 推理优化
讲师介绍
赵明远 - 资深AI研究员
知名AI Lab研究员,博士学历,发表多篇顶会论文。对大语言模型有深入研究,主导过多个预训练模型的研发工作。