澳大利亚周二发布了其人工智能战略。令人惊讶的部分?政府正在放弃之前讨论过的针对高风险人工智能使用的更严格规则。
目前澳大利亚没有任何具体的人工智能法律。去年,工党政府表示可能会引入自愿性指导方针,因为人们对隐私问题、安全性和透明度表示担忧。
周二的国家人工智能计划专注于三件事:为先进数据中心获取投资、培养人工智能技能以保护就业,以及在人工智能成为日常生活一部分时保障公众安全。
政府计划使用现有法律来管理人工智能风险,而不是创建新法律。"政府对人工智能的监管方法将继续建立在澳大利亚现有的强健法律和监管框架之上,确保已建立的法律仍然是解决和减轻人工智能相关风险的基础,"该计划指出。
各个政府机构将在各自领域处理人工智能风险
全球监管机构一直在对生成内容的人工智能工具可能造成的错误信息提出警告。微软支持的OpenAI的ChatGPT和谷歌的Gemini正变得广泛使用,这加剧了这些担忧。
上个月,政府宣布将在2026年创建一个人工智能安全研究所。该研究所将帮助监控新出现的风险并应对威胁。
联邦工业部长蒂姆·艾尔斯表示,这一路线图旨在帮助澳大利亚人从新技术中受益。它试图在创新与管理风险之间取得平衡。
"随着技术不断发展,我们将继续完善和加强这一计划,以抓住新机遇并果断行动保障澳大利亚人的安全,"艾尔斯说。
不过,并非所有人都认同政府所倡导的内容。澳大利亚天主教大学副教授纽沙·沙菲亚巴迪表示,更新后的路线图存在关键性缺口。
"该计划在解锁数据和提高生产力方面雄心勃勃,但在问责制、主权、可持续性和民主监督方面留下了关键性缺口,"沙菲亚巴迪说。
她补充道:"如果不解决这些未探索的领域,澳大利亚可能会建立一个高效但不公平或不受信任的人工智能经济。"
如果您正在阅读这篇文章,您已经领先一步。通过我们的通讯保持领先。


