观察社会
全球AI监管加速:开源模型也需"安全护照"
欧美联合出台AI开源模型监管框架,参数超过100亿的模型发布前需通过安全评估并取得认证,开源AI社区与监管的冲突正式爆发。
监管框架要点
| 要求 | 门槛 |
|---|---|
| 安全评估 | 参数≥100亿的模型 |
| 算力报备 | 单次训练使用≥10^23 FLOPs |
| 红队测试 | 强制要求,报告公开 |
| 实名认证 | 模型发布者需官方注册 |
| 出口限制 | 覆盖42个国家和地区 |
争议焦点
开源社区反弹
以欧洲开源AI联盟为代表的社区宣布将监管框架视为"对开源精神的根本侵犯",并提起诉讼。多位学者联名发表公开信,称此规将扼杀学术创新,使大模型开发重新回到大公司垄断。
大公司态度
大型AI厂商对监管框架态度微妙。一方面,合规成本对小公司形成壁垒,有助于头部厂商巩固优势;另一方面,强制安全评估可能延缓产品发布节奏,影响竞争。
中国应对
中国尚未加入该框架,但出口管制已使国产大模型在海外发布受到限制。某国产模型厂商宣布推出"区域特供版",参数规模和功能均有删减,以满足不同司法区的合规要求。
行业影响
模型发布延迟
某知名开源模型团队表示,完成全套安全评估需额外3-6个月,发布节奏将大幅放缓。中小团队可能因无力承担评估费用而转向闭源API。
安全研究资金增加
监管框架同时设立了AI安全研究基金,每年投入约5亿美元支持对抗性研究、模型可解释性和价值对齐研究。安全赛道成为新的资金流入方向。
本文为虚构内容,仅供娱乐。
免责声明
本文为站内演示稿件,与页首提示一致:内容可能为虚构或合成,请勿作为事实或决策依据。转载、引用时请勿当作真实报道。