课程大纲

企业中的AI:战略与法律视角

  • AI在核心业务功能中的应用:机遇与风险。
  • 高管在AI治理中的责任。
  • 高风险AI系统与组织暴露。

AI风险分类与全球监管环境

  • 欧盟AI法案:风险等级、要求与处罚。
  • 美国AI行政命令及新兴联邦/州规则。
  • GDPR、HIPAA及其他框架中的AI相关合规性。
  • ISO/IEC 42001、NIST AI RMF、OECD AI原则概述。

AI系统的安全与监督

  • AI安全态势:威胁、漏洞与防护措施。
  • AI驱动工作流程中的事件响应与泄露通知。
  • 模型输入、决策与输出的审计与可追溯性。

负责任的AI采购与供应商风险

  • 采购AI工具时的尽职调查(包括LLM和API)。
  • 关键合同要素:数据所有权、模型可解释性、SLA。
  • 评估供应商声明:偏见缓解、隐私保证、安全性。

内部治理框架与组织控制

  • 制定跨部门的AI使用政策。
  • 伦理委员会、风险审查委员会与跨职能监督。
  • 培训、文档与合规整合。

用例评估与风险场景

  • 评估高影响用例(如人力资源筛选、金融评分、客服机器人)。
  • AI风险评估的工具与模板。
  • 场景:错位、漂移、幻觉、歧视。

新兴趋势与未来考量

  • 预测监管演变与全球趋同。
  • GenAI特定风险与治理扩展。
  • 企业AI运营的负责任扩展。

总结与下一步

要求

  • 对企业风险、法律或技术框架有一定了解。
  • 具备执行领导、网络安全或合规监督经验。
  • 无需具备AI开发的技术知识。

受众

  • 首席信息安全官(CISO)。
  • 法律顾问与合规官。
  • 首席技术官(CTO)。
 14 小时

客户评论 (1)

即将举行的公开课程

课程分类