观察AI
AI治理框架全球统一标准:联合国通过《人工智能伦理公约》
联合国大会正式通过《人工智能伦理公约》,要求成员国AI系统强制备案、算法透明可审计。
公约通过
第81届联合国大会全体会议正式表决通过《人工智能伦理公约》(AI Ethics Convention),这是全球首个具有约束力的AI治理国际公约,128票赞成、12票反对、25票弃权,获得通过。公约将在获得50个国家批准后正式生效。
公约核心条款:
| 条款 | 主要内容 | 约束力 |
|---|---|---|
| 第5条 | AI系统强制备案制度 | 强制 |
| 第8条 | 算法决策可解释性要求 | 强制 |
| 第12条 | 高风险AI独立审计 | 强制 |
| 第15条 | 跨境AI服务互认机制 | 软约束 |
| 第20条 | AI版权与数据权益 | 强制 |
关键机制
强制备案系统
- 适用范围:成员国境内部署的所有生成式AI、决策类AI系统
- 备案内容:训练数据来源、算法架构、性能评估、安全测试
- 公开程度:基础信息对公众开放,核心技术参数依申请查阅
高风险AI分类
公约建立了四级风险分类体系,将自动驾驶、医疗诊断、司法辅助AI列为"高风险",实施最严格监管。
违规处罚
| 风险等级 | 处罚力度 |
|---|---|
| 高风险AI违规 | 最高年营业额4% |
| 一般AI违规 | 最高年营业额1% |
| 数据违规 | 最高5000万欧元或营业额2% |
各方反应
支持方
- 欧盟:称公约为"历史性突破"
- 中国:表示将积极参与公约实施
- 美国:投反对票,称条款"阻碍创新"
担忧
部分科技企业担忧合规成本过高,全球AI研发重心可能向未批准公约的国家转移。
本文为虚构内容,仅供娱乐。
免责声明
本文为站内演示稿件,与页首提示一致:内容可能为虚构或合成,请勿作为事实或决策依据。转载、引用时请勿当作真实报道。