课程大纲

理解Go政府环境中的AI特定风险

  • AI风险与传统IT和数据风险的区别
  • AI风险的类别:技术、运营、声誉和伦理
  • 政府中的公共问责和风险感知

AI Risk Management框架

  • NIST AI Risk Management框架 (AI RMF)
  • ISO/IEC 42001:2023 — AI Management系统标准
  • 其他特定行业和国际指南(如OECD, UNESCO)

AI系统的安全威胁

  • 对抗性输入、数据中毒和模型反转
  • 敏感训练数据的暴露
  • 供应链和第三方模型风险

Go治理、审计和控制

  • 人机协作和问责机制
  • 可审计的AI:文档、版本控制和可解释性
  • 内部控制、监督角色和合规检查点

风险评估和缓解计划

  • 为AI用例建立风险登记册
  • 与采购、法律和服务设计团队合作
  • 进行部署前和部署后的评估

事件响应和公共部门的韧性

  • 应对AI相关事件和漏洞
  • 与利益相关者和公众沟通
  • 将AI风险实践嵌入网络安全应对手册

总结和下一步

要求

  • 在政府机构中具有IT运营、风险管理、网络安全或合规经验
  • 熟悉组织安全实践和数字服务交付
  • 无需具备AI系统的技术专业知识

受众

  • Go涉及数字服务和系统集成的政府IT团队
  • 公共机构中的网络安全和风险专业人员
  • 公共部门审计、合规和治理人员
 7 小时

即将举行的公开课程

课程分类