课程大纲

可解释人工智能简介

  • 什么是可解释人工智能(XAI)?
  • AI模型透明度的重要性
  • AI可解释性中的关键挑战

基本的XAI技术

  • 模型无关方法:LIME、SHAP
  • 模型特定的可解释性方法
  • 解释黑箱模型的决策

XAI工具实践

  • 开源XAI库简介
  • 在简单的机器学习模型中实现XAI
  • 可视化解释和模型行为

可解释性中的挑战

  • 准确性与可解释性之间的权衡
  • 当前XAI方法的局限性
  • 处理可解释模型中的偏见和公平性

XAI中的伦理考量

  • 理解AI透明性的伦理影响
  • 在可解释性与模型性能之间取得平衡
  • XAI中的隐私和数据保护问题

XAI的实际应用

  • XAI在医疗、金融和执法领域的应用
  • 可解释性的监管要求
  • 通过透明性建立对AI系统的信任

高级XAI概念

  • 探索反事实解释
  • 解释神经网络和深度学习模型
  • 解释复杂的AI系统

可解释人工智能的未来趋势

  • XAI研究中的新兴技术
  • 未来AI透明性的挑战与机遇
  • XAI对负责任AI开发的影响

总结与下一步

要求

  • 对机器学习概念的基本理解
  • 熟悉Python编程

受众

  • AI初学者
  • 数据科学爱好者
 14 小时

即将举行的公开课程

课程分类