课程大纲

Ollama简介

  • 什么是Ollama,它是如何工作的?
  • 本地运行AI模型的好处。
  • 支持的LLMs概述(Llama、DeepSeek、Mistral等)。

安装与设置Ollama

  • 系统要求和硬件考虑。
  • 在不同操作系统上安装Ollama。
  • 配置依赖项和环境设置。

本地运行AI模型

  • 在Ollama中下载和加载AI模型。
  • 通过命令行与模型交互。
  • 本地AI任务的基本提示工程。

优化性能与资源使用

  • 管理硬件资源以实现高效的AI执行。
  • 减少延迟并提高模型响应时间。
  • 为不同模型进行性能基准测试。

本地AI部署的应用案例

  • AI驱动的聊天机器人和虚拟助手。
  • 数据处理和自动化任务。
  • 注重隐私的AI应用。

总结与下一步

要求

  • 对AI和机器学习概念有基本了解。
  • 熟悉命令行界面。

受众

  • 希望在无云依赖的情况下运行AI模型的开发者。
  • 对AI隐私和成本效益部署感兴趣的商业专业人士。
  • 探索本地模型部署的AI爱好者。
 7 小时

即将举行的公开课程

课程分类