课程大纲

参数高效微调 (PEFT) 介绍

  • 全面微调的动机与限制
  • PEFT 概述:目标与优势
  • 在行业中的应用与使用案例

LoRA (低秩适应)

  • LoRA 的概念与直觉
  • 使用 Hugging Face 和 PyTorch 实现 LoRA
  • 实作:使用 LoRA 微调模型

适配器微调

  • 适配器模组的工作原理
  • 与基于 Transformer 模型的整合
  • 实作:将适配器微调应用于 Transformer 模型

前缀微调

  • 使用软提示进行微调
  • 与 LoRA 和适配器相比的优势与限制
  • 实作:在 LLM 任务上进行前缀微调

评估与比较 PEFT 方法

  • 评估性能与效率的指标
  • 训练速度、记忆体使用与准确性之间的权衡
  • 基准测试实验与结果解释

部署微调模型

  • 保存与载入微调模型
  • 基于 PEFT 模型的部署考量
  • 整合到应用与管道中

最佳实践与扩展

  • 将 PEFT 与量化与蒸馏结合
  • 在低资源与多语言环境中的使用
  • 未来方向与活跃研究领域

总结与下一步

要求

  • 了解机器学习基础知识
  • 具有大型语言模型(LLMs)的相关经验
  • 熟悉Python和PyTorch

目标受众

  • 数据科学家
  • AI工程师
 14 小时

即将举行的公开课程

课程分类