课程大纲

AI与安全基础

  • 从安全角度来看,AI系统的独特之处
  • AI生命周期概述:数据、训练、推理和部署
  • AI风险的基本分类:技术、道德、法律和组织

AI特定威胁向量

  • 对抗性示例和模型操纵
  • 模型反转和数据泄漏风险
  • 训练阶段的数据中毒
  • 生成式AI的风险(例如,LLM滥用、提示注入)

安全Risk Management框架

  • NIST AI Risk Management框架(NIST AI RMF)
  • ISO/IEC 42001和其他AI特定标准
  • 将AI风险映射到现有的企业GRC框架

AIGo治理与合规原则

  • AI的问责性和可审计性
  • 透明度、可解释性和公平性作为安全相关属性
  • 偏见、歧视和下游危害

企业准备和AI Security政策

  • 定义AI安全计划中的角色和责任
  • 政策要素:开发、采购、使用和退役
  • 第三方风险和供应商AI工具使用

监管环境与全球趋势

  • 欧盟AI法案和国际监管概述
  • 美国关于安全、可靠和可信AI的行政命令
  • 新兴国家框架和行业特定指南

可选工作坊:风险映射与自我评估

  • 将现实世界的AI用例映射到NIST AI RMF功能
  • 进行基本的AI风险自我评估
  • 识别AI安全准备中的内部差距

总结与下一步

要求

  • 对基本网络安全原则的理解
  • 具备IT治理或风险管理框架的经验
  • 熟悉一般AI概念有帮助,但不是必须的

目标受众

  • IT安全团队
  • 风险管理人员
  • 合规专业人员
 14 小时

即将举行的公开课程

课程分类