课程大纲

AI与ML容器化简介

  • 容器化的核心概念。
  • 容器为何适合ML工作负载。
  • 容器与虚拟机的关键区别。

使用Docker镜像与容器

  • 理解镜像、层和仓库。
  • 管理用于ML实验的容器。
  • 高效使用Docker CLI。

打包ML环境

  • 准备ML代码库以进行容器化。
  • 管理Python环境和依赖项。
  • 集成CUDA和GPU支持。

为机器学习构建Dockerfile

  • 为ML项目构建Dockerfile。
  • 性能与可维护性的最佳实践。
  • 使用多阶段构建。

容器化ML模型与管道

  • 将训练好的模型打包到容器中。
  • 管理数据和存储策略。
  • 部署可复现的端到端工作流程。

运行容器化的ML服务

  • 为模型推理暴露API端点。
  • 使用Docker Compose扩展服务。
  • 监控运行时行为。

安全与合规性考虑

  • 确保容器的安全配置。
  • 管理访问权限和凭据。
  • 处理机密的ML资产。

部署到生产环境

  • 将镜像发布到容器仓库。
  • 在本地或云环境中部署容器。
  • 版本控制与更新生产服务。

总结与后续步骤

要求

  • 了解机器学习工作流程。
  • 具备Python或类似编程语言的经验。
  • 熟悉基本的Linux命令行操作。

目标受众

  • 将模型部署到生产的ML工程师。
  • 管理可复现实验环境的数据科学家。
  • 构建可扩展容器化应用程序的AI开发者。
 14 小时

客户评论 (5)

即将举行的公开课程

课程分类