课程大纲

AI威胁建模简介

  • AI系统的脆弱性来源是什么?
  • AI攻击面与传统系统的比较
  • 主要攻击向量:数据层、模型层、输出层和接口层

AI模型的对抗攻击

  • 理解对抗样本和扰动技术
  • 白盒攻击与黑盒攻击
  • FGSM、PGD和DeepFool方法
  • 可视化与制作对抗样本

模型反演与隐私泄露

  • 从模型输出推断训练数据
  • 成员推断攻击
  • 分类模型和生成模型中的隐私风险

数据中毒与后门注入

  • 中毒数据如何影响模型行为
  • 触发式后门与木马攻击
  • 检测与净化策略

鲁棒性与防御技术

  • 对抗训练与数据增强
  • 梯度掩蔽与输入预处理
  • 模型平滑与正则化技术

隐私保护的AI防御

  • 差分隐私简介
  • 噪声注入与隐私预算
  • 联邦学习与安全聚合

AI Security 实践应用

  • 威胁感知的模型评估与部署
  • 在实际应用中使用ART(对抗鲁棒性工具箱)
  • 行业案例研究:真实世界的漏洞与缓解措施

总结与下一步

要求

  • 理解机器学习工作流程和模型训练
  • 熟悉Python及常见ML框架,如PyTorch或TensorFlow
  • 了解基本的安全或威胁建模概念会有所帮助

受众

  • 机器学习工程师
  • 网络安全分析师
  • AI研究人员和模型验证团队
 14 小时

即将举行的公开课程

课程分类