课程大纲

Explainable AI (XAI) 与模型透明度简介

  • 什么是 Explainable AI?
  • AI 系统中透明度的重要性
  • AI 模型的可解释性与性能

XAI 技术概述

  • 模型无关方法:SHAP、LIME
  • 模型特定的可解释性技术
  • 解释神经网络与深度学习模型

构建透明的 AI 模型

  • 在实践中实现可解释模型
  • 透明模型与黑箱模型的比较
  • 平衡复杂性与可解释性

高级 XAI 工具与库

  • 使用 SHAP 进行模型解释
  • 利用 LIME 进行局部可解释性分析
  • 模型决策与行为的可视化

解决公平性、偏见与伦理 AI

  • 识别与减轻 AI 模型中的偏见
  • AI 中的公平性及其社会影响
  • 确保 AI 部署中的责任与伦理

XAI 的实际应用

  • 医疗、金融与政府领域的案例研究
  • 为合规性解释 AI 模型
  • 通过透明 AI 系统建立信任

Explainable AI 的未来方向

  • XAI 的新兴研究
  • 在大规模系统中扩展 XAI 的挑战
  • 透明 AI 的未来机遇

总结与下一步

要求

  • 具备机器学习和AI模型开发经验
  • 熟悉Python编程

受众

  • 数据科学家
  • 机器学习工程师
  • AI专家
 21 小时

即将举行的公开课程

课程分类