Continual Learning and Model Update Strategies for Fine-Tuned Models 培训
持续学习是一套策略,使机器学习模型能够逐步更新并随著时间适应新数据。
这门由讲师指导的培训(线上或线下)面向高级AI维护工程师和MLOps专业人士,他们希望为已部署且微调的模型实施稳健的持续学习管道和有效的更新策略。
在本培训结束时,参与者将能够:
- 设计并实施已部署模型的持续学习工作流程。
- 通过适当的训练和记忆管理来减轻灾难性遗忘。
- 根据模型漂移或数据变化自动化监控和更新触发机制。
- 将模型更新策略整合到现有的CI/CD和MLOps管道中。
课程形式
- 互动式讲座和讨论。
- 大量练习和实践。
- 在实时实验室环境中进行实际操作。
课程定制选项
- 如需为本课程定制培训,请联系我们进行安排。
课程大纲
持续学习简介
- 持续学习的重要性
- 维护微调模型面临的挑战
- 关键策略与学习类型(线上、增量、迁移)
数据处理与串流管道
- 管理不断变化的数据集
- 使用小批次与串流API进行线上学习
- 随时间变化的数据标签与注解挑战
防止灾难性遗忘
- 弹性权重整合(EWC)
- 重播方法与排练策略
- 正则化与记忆增强网络
模型漂移与监控
- 检测数据与概念漂移
- 模型健康与性能衰减的指标
- 触发自动模型更新
模型更新的自动化
- 自动重新训练与排程策略
- 与CI/CD和MLOps工作流的整合
- 管理更新频率与回滚计划
持续学习框架与工具
- Avalanche、Hugging Face Datasets与TorchReplay概览
- 平台对持续学习的支持(例如MLflow、Kubeflow)
- Scala能力与部署考量
真实世界Use Case与架构
- 基于演化模式的客户行为预测
- 工业机器监控与增量改进
- 变化威胁模型下的诈欺检测系统
总结与下一步
要求
- 了解机器学习工作流程与神经网络架构
- 具备模型微调与部署管道的经验
- 熟悉数据版本控制与模型生命周期管理
目标受众
- AI维护工程师
- MLOps工程师
- 负责模型生命周期连续性的机器学习从业者
需要帮助选择合适的课程吗?
Continual Learning and Model Update Strategies for Fine-Tuned Models 培训 - Enquiry
Continual Learning and Model Update Strategies for Fine-Tuned Models - 问询
问询
即将举行的公开课程
相关课程
Advanced Techniques in Transfer Learning
14 小时这种由讲师指导的 中国 现场培训(在线或现场)面向希望掌握尖端迁移学习技术并将其应用于复杂现实问题的高级机器学习专业人员。
在本次培训结束时,参与者将能够:
- 了解迁移学习中的高级概念和方法。
- 为预先训练的模型实施特定于域的适应技术。
- 应用持续学习来管理不断变化的任务和数据集。
- 掌握多任务微调,以提高跨任务的模型性能。
Deploying Fine-Tuned Models in Production
21 小时这种由讲师指导的 中国 现场现场培训(在线或现场)面向希望可靠、高效地部署微调模型的高级专业人员。
在本次培训结束时,参与者将能够:
- 了解将微调模型部署到生产环境中所面临的挑战。
- 使用 Docker 和 Kubernetes 等工具容器化和部署模型。
- 对已部署的模型实施监控和日志记录。
- 在实际场景中优化模型以实现延迟和可扩充性。
Domain-Specific Fine-Tuning for Finance
21 小时这种由讲师指导的 中国 现场现场培训(在线或现场)面向希望获得为关键财务任务定制 AI 模型的实用技能的中级专业人士。
在本次培训结束时,参与者将能够:
- 了解财务应用程式微调的基础知识。
- 利用预先训练的模型执行财务领域特定的任务。
- 应用欺诈检测、风险评估和财务建议生成技术。
- 确保遵守 GDPR 和 SOX 等财务法规。
- 在金融应用程式中实施数据安全和合乎道德的 AI 实践。
Fine-Tuning Models and Large Language Models (LLMs)
14 小时这种由讲师指导的 中国 现场培训(在线或现场)面向希望为特定任务和数据集自定义预训练模型的中高级专业人员。
在本次培训结束时,参与者将能够:
- 了解微调的原理及其应用。
- 准备数据集以微调预训练模型。
- 为 NLP 任务微调大型语言模型 (LLM)。
- 优化模型性能并解决常见挑战。
Efficient Fine-Tuning with Low-Rank Adaptation (LoRA)
14 小时这种由讲师指导的 中国 现场培训(在线或现场)面向希望在不需要大量计算资源的情况下为大型模型实施微调策略的中级开发人员和 AI 从业者。
在本次培训结束时,参与者将能够:
- 了解低秩适应 (LoRA) 的原理。
- 实施LoRA以高效微调大型模型。
- 针对资源受限的环境优化微调。
- 评估和部署LoRA调优模型以用于实际应用。
Fine-Tuning Multimodal Models
28 小时这种由讲师指导的 中国 现场培训(在线或现场)面向希望掌握创新 AI 解决方案的多模态模型微调的高级专业人员。
在本次培训结束时,参与者将能够:
- 了解 CLIP 和 Flamingo 等多模态模型的架构。
- 有效地准备和预处理多模态数据集。
- 针对特定任务微调多模态模型。
- 针对实际应用程式和性能优化模型。
Fine-Tuning for Natural Language Processing (NLP)
21 小时这种由讲师指导的 中国 现场培训(在线或现场)面向希望通过有效微调预先训练的语言模型来增强其 NLP 专案的中级专业人员。
在本次培训结束时,参与者将能够:
- 了解 NLP 任务微调的基础知识。
- 针对特定的 NLP 应用程式微调预训练模型,例如 GPT、BERT 和 T5。
- 优化超参数以提高模型性能。
- 在实际场景中评估和部署微调的模型。
Fine-Tuning AI for Financial Services: Risk Prediction and Fraud Detection
14 小时This instructor-led, live training in 中国 (online or onsite) is aimed at advanced-level data scientists and AI engineers in the financial sector who wish to fine-tune models for applications such as credit scoring, fraud detection, and risk modeling using domain-specific financial data.
By the end of this training, participants will be able to:
- Fine-tune AI models on financial datasets for improved fraud and risk prediction.
- Apply techniques such as transfer learning, LoRA, and regularization to enhance model efficiency.
- Integrate financial compliance considerations into the AI modeling workflow.
- Deploy fine-tuned models for production use in financial services platforms.
Fine-Tuning AI for Healthcare: Medical Diagnosis and Predictive Analytics
14 小时This instructor-led, live training in 中国 (online or onsite) is aimed at intermediate-level to advanced-level medical AI developers and data scientists who wish to fine-tune models for clinical diagnosis, disease prediction, and patient outcome forecasting using structured and unstructured medical data.
By the end of this training, participants will be able to:
- Fine-tune AI models on healthcare datasets including EMRs, imaging, and time-series data.
- Apply transfer learning, domain adaptation, and model compression in medical contexts.
- Address privacy, bias, and regulatory compliance in model development.
- Deploy and monitor fine-tuned models in real-world healthcare environments.
Fine-Tuning DeepSeek LLM for Custom AI Models
21 小时这项 中国(在线或现场)的教学型现场培训旨在对希望微调DeepSeek LLM 模型以创建针对特定行业、领域或业务需求量身定制的专门 AI 应用程序的高级 AI 研究人员、机器学习工程师和开发人员进行培训。
培训结束时,参与者将能够:
- 了解DeepSeek模型的架构和能力,包括DeepSeek-R1和DeepSeek-V3。
- 准备数据集并对数据进行预处理以进行微调。
- 对特定领域的应用程序进行微调DeepSeek LLM。
- 有效地优化和部署微调的模型。
Fine-Tuning Defense AI for Autonomous Systems and Surveillance
14 小时This instructor-led, live training in 中国 (online or onsite) is aimed at advanced-level defense AI engineers and military technology developers who wish to fine-tune deep learning models for use in autonomous vehicles, drones, and surveillance systems while meeting stringent security and reliability standards.
By the end of this training, participants will be able to:
- Fine-tune computer vision and sensor fusion models for surveillance and targeting tasks.
- Adapt autonomous AI systems to changing environments and mission profiles.
- Implement robust validation and fail-safe mechanisms in model pipelines.
- Ensure alignment with defense-specific compliance, safety, and security standards.
Fine-Tuning Legal AI Models: Contract Review and Legal Research
14 小时This instructor-led, live training in 中国 (online or onsite) is aimed at intermediate-level legal tech engineers and AI developers who wish to fine-tune language models for tasks like contract analysis, clause extraction, and automated legal research in legal service environments.
By the end of this training, participants will be able to:
- Prepare and clean legal documents for fine-tuning NLP models.
- Apply fine-tuning strategies to improve model accuracy on legal tasks.
- Deploy models to assist with contract review, classification, and research.
- Ensure compliance, auditability, and traceability of AI outputs in legal contexts.
Fine-Tuning Large Language Models Using QLoRA
14 小时本课程为讲师指导的中国(线上或线下)培训,适合中高级机器学习工程师、AI开发者和数据科学家,旨在学习如何使用QLoRA高效微调大型模型,以适应特定任务和定制需求。
在培训结束时,学员将能够:
- 理解QLoRA背后的理论以及大型语言模型的量化技术。
- 在特定领域应用中,使用QLoRA微调大型语言模型。
- 利用量化技术,在有限计算资源下优化微调性能。
- 高效部署并评估微调模型在实际应用中的表现。
Fine-Tuning Lightweight Models for Edge AI Deployment
14 小时这项由讲师指导的中国(线上或线下)培训,针对中级嵌入式AI开发人员和边缘计算专家,旨在微调和优化轻量级AI模型,以便在资源受限的设备上部署。
在培训结束时,参与者将能够:
- 选择并调整适合边缘部署的预训练模型。
- 应用量化、剪枝和其他压缩技术,以减少模型大小和延迟。
- 使用迁移学习微调模型,以提高特定任务的性能。
- 在实际的边缘硬件平台上部署优化后的模型。
Fine-Tuning Open-Source LLMs (LLaMA, Mistral, Qwen, etc.)
14 小时这是一个由讲师指导的中国(线上或线下)培训课程,针对中级机器学习从业者和AI开发者,他们希望微调并部署如LLaMA、Mistral和Qwen等开放权重模型,以用于特定的业务或内部应用。
在培训结束时,参与者将能够:
- 理解开源LLM的生态系统及其差异。
- 为LLaMA、Mistral和Qwen等模型准备数据集和微调配置。
- 使用Hugging Face Transformers和PEFT执行微调管道。
- 在安全环境中评估、保存和部署微调后的模型。