国家AI治理试点扩围:高风险应用设“人类在环”,生成内容需可追溯
工业与科学部宣布扩大AI治理试点,金融、医疗、教育与公共服务领域的关键流程须引入“人类在环”复核,模型训练与推理日志要可审计,面向公众的生成内容应具备水印或等效可追溯标识。政府同时发布合规沙箱与算法审计指南,引导中小企业以较低成本完成风险评估,减少“合规即负担”的顾虑。
新框架鼓励高校与企业共建测试库,涵盖偏差检测、隐私保护与安全攻防场景;对跨境数据传输将适用更严格的告知与同意规则。政府强调,监管目标是保障安全与信任,而非限制创新;对满足透明度与安全阈值的产品,审批流程可适度提速,并与产业资金和科研项目打通,支持落地应用。
业内认为,明确的“高风险清单+最低保障线”将降低市场不确定性,推动招聘对口人才。高校预计增设可解释AI、治理与伦理方向的课程与实习,利于学生积累案例经验。顾问机构提醒企业尽早梳理数据来源、第三方模型与供应商责任,以防合规链条出现断点。
新闻来源:www.industry.gov.au
背景与评述
OAIC(澳大利亚信息专员办公室)负责隐私与数据保护;工业与科学部牵头数字与深科产业政策。对留学生与新移民,AI合规岗位增多,重视写作、统计与法务交叉技能;涉及作品集与数据样本的求职材料,要注意授权与匿名化,避免侵权或违反校规。