感谢您发送咨询!我们的团队成员将很快与您联系。
感谢您发送预订!我们的团队成员将很快与您联系。
课程大纲
AI威胁建模简介
- AI系统的脆弱性来源。
- AI攻击面与传统系统的对比。
- 关键攻击向量:数据、模型、输出和接口层。
AI模型的对抗性攻击
- 理解对抗性样本和扰动技术。
- 白盒攻击与黑盒攻击。
- FGSM、PGD和DeepFool方法。
- 可视化与制作对抗性样本。
模型逆向与隐私泄露
- 从模型输出推断训练数据。
- 成员推断攻击。
- 分类和生成模型中的隐私风险。
数据投毒与后门注入
- 投毒数据如何影响模型行为。
- 基于触发的后门和木马攻击。
- 检测与清理策略。
鲁棒性与防御技术
- 对抗性训练与数据增强。
- 梯度掩码与输入预处理。
- 模型平滑与正则化技术。
隐私保护的AI防御
- 差分隐私简介。
- 噪声注入与隐私预算。
- 联邦学习与安全聚合。
AI安全实践
- 威胁感知的模型评估与部署。
- 在实际环境中使用ART(Adversarial Robustness Toolbox)。
- 行业案例研究:实际漏洞与缓解措施。
总结与下一步
要求
- 了解机器学习工作流程和模型训练。
- 具备Python和常见ML框架(如PyTorch或TensorFlow)的经验。
- 熟悉基本的安全或威胁建模概念将有所帮助。
受众
- 机器学习工程师。
- 网络安全分析师。
- AI研究人员和模型验证团队。
14 小时
客户评论 (1)
他的专业知识以及他在我们面前展示的方式
Miroslav Nachev - PUBLIC COURSE
课程 - Cybersecurity in AI Systems
机器翻译