课程大纲

AI威胁建模简介

  • AI系统的脆弱性来源。
  • AI攻击面与传统系统的对比。
  • 关键攻击向量:数据、模型、输出和接口层。

AI模型的对抗性攻击

  • 理解对抗性样本和扰动技术。
  • 白盒攻击与黑盒攻击。
  • FGSM、PGD和DeepFool方法。
  • 可视化与制作对抗性样本。

模型逆向与隐私泄露

  • 从模型输出推断训练数据。
  • 成员推断攻击。
  • 分类和生成模型中的隐私风险。

数据投毒与后门注入

  • 投毒数据如何影响模型行为。
  • 基于触发的后门和木马攻击。
  • 检测与清理策略。

鲁棒性与防御技术

  • 对抗性训练与数据增强。
  • 梯度掩码与输入预处理。
  • 模型平滑与正则化技术。

隐私保护的AI防御

  • 差分隐私简介。
  • 噪声注入与隐私预算。
  • 联邦学习与安全聚合。

AI安全实践

  • 威胁感知的模型评估与部署。
  • 在实际环境中使用ART(Adversarial Robustness Toolbox)。
  • 行业案例研究:实际漏洞与缓解措施。

总结与下一步

要求

  • 了解机器学习工作流程和模型训练。
  • 具备Python和常见ML框架(如PyTorch或TensorFlow)的经验。
  • 熟悉基本的安全或威胁建模概念将有所帮助。

受众

  • 机器学习工程师。
  • 网络安全分析师。
  • AI研究人员和模型验证团队。
 14 小时

客户评论 (1)

即将举行的公开课程

课程分类