课程大纲

理解欧盟人工智能法案的商业背景

  • 监管目的和范围
  • 领导团队相关的关键义务
  • 组织面临的战略风险和机遇

风险类别与组织责任

  • 被禁止的实践及其对监督的影响
  • 高风险系统及所需的组织控制
  • 有限风险和最低风险系统的要求

治理与责任结构

  • 设计清晰的所有权和责任线
  • 技术与合规团队之间的跨职能协作
  • 人工智能部署的决策框架

政策制定与内部文档

  • 起草内部人工智能治理政策
  • 记录用例、风险和缓解策略
  • 确保可追溯性和审计准备

管理人工智能相关风险

  • 识别、评估和优先处理人工智能风险
  • 操作控制和升级程序
  • 将人工智能风险管理整合到现有流程中

供应商与第三方管理

  • 评估供应商的合规声明
  • 人工智能工具和平台的合同要求
  • 监控组织内部使用的外部系统

道德、社会与组织考量

  • 人类监督责任
  • 与内部和外部利益相关者的透明沟通
  • 将组织价值观与负责任的人工智能实践相结合

准备合规评估

  • 领导团队需要提供的证据
  • 治理和审计流程的报告线
  • 持续改进和长期合规规划

总结与下一步

要求

  • 了解组织治理结构
  • 具备技术项目中的战略决策经验
  • 熟悉风险管理概念

受众

  • 高层领导
  • 部门和项目经理
  • 负责人工智能相关项目的决策者
 7 小时

即将举行的公开课程

课程分类