课程大纲

理解政府环境中的AI特定风险

  • AI风险与传统IT和数据风险的区别。
  • AI风险的类别:技术、运营、声誉和道德。
  • 政府中的公共问责和风险认知。

AI风险管理框架

  • NIST AI风险管理框架(AI RMF)。
  • ISO/IEC 42001:2023 — AI管理系统标准。
  • 其他行业特定和国际指南(如OECD、UNESCO)。

AI系统的安全威胁

  • 对抗性输入、数据中毒和模型反转。
  • 敏感训练数据的暴露。
  • 供应链和第三方模型风险。

治理、审计和控制

  • 人在回路和问责机制。
  • 可审计的AI:文档、版本控制和可解释性。
  • 内部控制、监督角色和合规检查点。

风险评估和缓解计划

  • 为AI使用案例建立风险登记册。
  • 与采购、法律和服务设计团队合作。
  • 进行部署前和部署后评估。

事件响应和公共部门韧性

  • 应对AI相关事件和泄露。
  • 与利益相关者和公众沟通。
  • 将AI风险实践嵌入网络安全手册。

总结与下一步

要求

  • 在政府机构中具有IT运营、风险管理、网络安全或合规经验。
  • 熟悉组织安全实践和数字服务交付。
  • 无需具备AI系统的技术专业知识。

受众

  • 参与数字服务和系统集成的政府IT团队。
  • 公共机构中的网络安全和风险专业人员。
  • 公共部门的审计、合规和治理人员。
 7 小时

客户评论 (1)

即将举行的公开课程

课程分类