返回工具库
第 12 章 · 治理工具
组织 AI 宪章起草卡
写清边界、责任和治理原则
帮助组织在 90 分钟内形成 AI 使用范围、禁止事项、复核边界、责任主体和修订机制。
交付时长
90 分钟
参与人数
6-16 人
在线化状态
可立即在线测评
产出物
组织 AI 宪章 v1、红线清单、责任与复核机制
适用对象
HR 一号位法务/合规OD 负责人管理团队
需求设计手册
已生成 Markdown 手册,路径:
docs/tool-products/ai-charter.md解决的问题
只要 AI 进入招聘、绩效、薪酬、授信、诊断、风控或客户分层,它就会影响人的机会和尊严。组织不能只靠工具使用规范,需要写清自己的边界、责任和修订机制。
使用边界
适合使用
- AI 已进入或即将进入高风险组织场景
- 企业要建立 AI 使用规范
- 工作坊需要形成治理产出
不适合使用
- 纯个人效率工具练习
- 没有任何 AI 使用场景的组织
现场交付流程
1
列场景
列出正在使用或计划使用 AI 的场景,标记是否影响人的机会、收入、健康、尊严或自由。
产出:场景清单
2
画红线
为高风险场景写出禁止事项和必须人工确认的节点。
产出:红线清单
3
定责任
写清 AI 出错、结果争议和申诉时的责任主体与证据保留方式。
产出:责任机制
4
写修订
约定宪章如何复盘、修订、发布和培训。
产出:组织 AI 宪章 v1
解释口径
- 宪章准备度看五项:使用范围、人工复核、责任主体、数据边界、申诉解释。
- 缺任一项,高风险场景都不应直接规模化。
主持人提示
- 先从真实场景写起,不从原则写起。
- 高风险场景宁可边界保守,也不要责任空白。
常见误区
- 把宪章写成空泛价值观。
- 只写禁止事项,不写可用场景和修订机制。
输出模板
组织 AI 宪章 v1
- 哪些场景可以用?
- 哪些场景禁止用?
- 哪些结果必须人工确认?
- 出错谁负责?
- 如何修订?
后续开发说明
表单字段
- useCases
- riskLevel
- allowedUses
- prohibitedUses
- humanReview
- accountability
- dataBoundary
- appealChannel
- revisionCycle
报告模块
- 宪章草案
- 红线清单
- 责任机制
- 修订计划
验收标准
- 用户能生成一页宪章 v1
- 高风险场景必须有人工复核和责任主体
- 报告支持打印和工作坊汇总
后续行动
- 将宪章 v1 发布给试点团队使用。
- 每 30-60 天结合真实案例修订一次。
可立即在线测评
已接入当前测评与报告体系,可在个人或工作坊报告中直接使用。