课程大纲

机器人安全与可解释性简介

  • 机器人系统中的安全性与透明度概述。
  • 机器人技术与AI的法规与伦理背景。
  • 标准与框架:ISO 26262、ISO 10218和ISO/IEC 42001。

风险与危害分析

  • 识别自主与半自主系统中的危害。
  • 执行故障模式与影响分析(FMEA)。
  • 通过安全设计量化风险与缓解措施。

验证与验证技术

  • 在仿真环境中测试机器人行为。
  • 正式验证与测试用例设计。
  • 数据驱动的验证与监控技术。

安全案例开发

  • 安全案例的结构与内容。
  • 记录合规性与可追溯性。
  • 使用工具进行证据管理与风险论证。

机器人的可解释AI

  • 使决策过程透明化。
  • ML控制系统的可解释性技术。
  • 向用户和监管者解释机器人行为。

伦理与治理考量

  • 机器人技术与自主系统中的伦理原则。
  • AI驱动机器人中的偏见、责任与问责。
  • 在创新与公众信任及监管之间取得平衡。

动手工作坊:构建安全与可解释的机器人场景

  • 在ROS 2或Gazebo中设计小型机器人仿真。
  • 应用验证与验证程序。
  • 开发并展示安全案例摘要。

总结与后续步骤

要求

  • 对机器人系统和控制架构有基本了解。
  • 熟悉Python编程和仿真工具。
  • 具备系统工程或安全流程知识。

受众

  • 从事机器人或自主系统工作的系统工程师。
  • 确保符合功能安全标准的安全官员。
  • 负责机器人集成与部署的技术经理。
 21 小时

客户评论 (1)

即将举行的公开课程

课程分类