国家AI治理试点扩围:高风险流程设复核闸口,生成内容需可追溯标识
联邦层面公布AI治理试点扩围清单,覆盖选举资讯、医疗影像、教育测评与金融风控等四类高风险场景。方案要求在关键节点设置“人类在环”复核闸口,将模型产出的解释性、日志留存与输入来源作为强制项写入合同条款。针对深度伪造,政府提出稳定水印与嵌入式标识双管齐下,使机器与人工均能识别加工痕迹;违规隐匿或移除标识的,将按广告与隐私法并科处罚。
公共部门采购将启用统一评测基线,涵盖偏差、鲁棒与安全红队三大维度;企业可申请“合规沙箱”,在限定人群与流量内验证产品,但需提交风险缓解与退出计划。试点院校与科研机构将共建测试平台,沉淀对抗样本与治理工具包,逐步形成国家级可比性基准,既为创新留出空间,也为社会建立最低信任底线。
通信部长表示,分层分域监管将减少“一刀切”的成本,把监管重点放在影响更大的自动化决策与公共风险上。下一季度将公布透明度报告模板,要求平台与大模型企业披露训练数据治理与投诉处置效率。
【背景与评述】跨部门协调由总理及内阁部牵头。学生需严格遵守学术诚信与引用规范;新移民在开户、求职或租房审核中,如遇算法误拦截,可准备多种身份证明与来源文件,及时走人工复核通道。