课程大纲

高级可解释人工智能(XAI)技术简介

  • 回顾基本的XAI方法
  • 解释复杂AI模型的挑战
  • XAI研究与开发的趋势

模型无关的可解释性技术

  • SHAP(SHapley Additive exPlanations)
  • LIME(Local Interpretable Model-agnostic Explanations)
  • Anchor解释

模型特定的可解释性技术

  • 分层相关性传播(LRP)
  • DeepLIFT(Deep Learning Important FeaTures)
  • 基于梯度的方法(Grad-CAM、Integrated Gradients)

解释深度学习模型

  • 解释卷积神经网络(CNNs)
  • 解释循环神经网络(RNNs)
  • 分析基于Transformer的模型(BERT、GPT)

处理可解释性挑战

  • 解决黑箱模型的局限性
  • 平衡准确性与可解释性
  • 处理解释中的偏见与公平性问题

XAI在现实世界系统中的应用

  • XAI在医疗、金融和法律系统中的应用
  • AI法规与合规要求
  • 通过XAI建立信任与问责制

可解释人工智能的未来趋势

  • XAI中的新兴技术与工具
  • 下一代可解释性模型
  • AI透明性的机遇与挑战

总结与下一步

要求

  • 扎实理解人工智能和机器学习
  • 具备神经网络和深度学习经验
  • 熟悉基本的XAI技术

受众

  • 经验丰富的人工智能研究人员
  • 机器学习工程师
 21 小时

即将举行的公开课程

课程分类