课程大纲

AI与安全基础

  • AI系统在安全视角下的独特性。
  • AI生命周期概述:数据、训练、推理和部署。
  • AI风险的基本分类:技术、伦理、法律和组织。

AI特定威胁向量

  • 对抗性示例和模型操纵。
  • 模型反演和数据泄露风险。
  • 训练阶段的数据中毒。
  • 生成式AI的风险(如LLM滥用、提示注入)。

安全风险管理框架

  • NIST AI风险管理框架(NIST AI RMF)。
  • ISO/IEC 42001及其他AI特定标准。
  • 将AI风险映射到现有的企业GRC框架。

AI治理与合规原则

  • AI问责与可审计性。
  • 透明度、可解释性和公平性作为安全相关属性。
  • 偏见、歧视及下游危害。

企业准备与AI安全政策

  • 定义AI安全计划中的角色与职责。
  • 政策要素:开发、采购、使用和退役。
  • 第三方风险与供应商AI工具使用。

监管环境与全球趋势

  • 欧盟AI法案及国际监管概述。
  • 美国关于安全、可靠和可信AI的行政命令。
  • 新兴的国家框架与行业特定指南。

可选工作坊:风险映射与自我评估

  • 将真实世界的AI用例映射到NIST AI RMF功能。
  • 进行基本的AI风险自我评估。
  • 识别内部AI安全准备中的差距。

总结与下一步

要求

  • 对基础网络安全原则的理解。
  • 具备IT治理或风险管理框架的经验。
  • 熟悉一般AI概念者优先,但不强制要求。

受众

  • IT安全团队。
  • 风险管理人员。
  • 合规专业人员。
 14 小时

即将举行的公开课程

课程分类