返回工具库
第 12 章 · 治理工具

组织 AI 宪章起草卡

写清边界、责任和治理原则

帮助组织在 90 分钟内形成 AI 使用范围、禁止事项、复核边界、责任主体和修订机制。

交付时长
90 分钟
参与人数
6-16 人
在线化状态
可立即在线测评
产出物

组织 AI 宪章 v1、红线清单、责任与复核机制

适用对象
HR 一号位法务/合规OD 负责人管理团队
需求设计手册

已生成 Markdown 手册,路径:

docs/tool-products/ai-charter.md
解决的问题

只要 AI 进入招聘、绩效、薪酬、授信、诊断、风控或客户分层,它就会影响人的机会和尊严。组织不能只靠工具使用规范,需要写清自己的边界、责任和修订机制。

使用边界

适合使用

  • AI 已进入或即将进入高风险组织场景
  • 企业要建立 AI 使用规范
  • 工作坊需要形成治理产出

不适合使用

  • 纯个人效率工具练习
  • 没有任何 AI 使用场景的组织
现场交付流程
1

列场景

列出正在使用或计划使用 AI 的场景,标记是否影响人的机会、收入、健康、尊严或自由。

产出:场景清单
2

画红线

为高风险场景写出禁止事项和必须人工确认的节点。

产出:红线清单
3

定责任

写清 AI 出错、结果争议和申诉时的责任主体与证据保留方式。

产出:责任机制
4

写修订

约定宪章如何复盘、修订、发布和培训。

产出:组织 AI 宪章 v1
解释口径
  • 宪章准备度看五项:使用范围、人工复核、责任主体、数据边界、申诉解释。
  • 缺任一项,高风险场景都不应直接规模化。
主持人提示
  • 先从真实场景写起,不从原则写起。
  • 高风险场景宁可边界保守,也不要责任空白。
常见误区
  • 把宪章写成空泛价值观。
  • 只写禁止事项,不写可用场景和修订机制。
输出模板

组织 AI 宪章 v1

  • 哪些场景可以用?
  • 哪些场景禁止用?
  • 哪些结果必须人工确认?
  • 出错谁负责?
  • 如何修订?
后续开发说明

表单字段

  • useCases
  • riskLevel
  • allowedUses
  • prohibitedUses
  • humanReview
  • accountability
  • dataBoundary
  • appealChannel
  • revisionCycle

报告模块

  • 宪章草案
  • 红线清单
  • 责任机制
  • 修订计划

验收标准

  • 用户能生成一页宪章 v1
  • 高风险场景必须有人工复核和责任主体
  • 报告支持打印和工作坊汇总
后续行动
  • 将宪章 v1 发布给试点团队使用。
  • 每 30-60 天结合真实案例修订一次。
可立即在线测评

已接入当前测评与报告体系,可在个人或工作坊报告中直接使用。

推荐搭配工具