在澳大利亚,政府正着手引入强制性“护栏”措施,以平衡人工智能(AI)技术带来的生产力提升和可能引发的风险,如传播虚假信息。工业和科学部部长艾德·胡锡克(Ed Husic)宣布成立专家小组,探讨限制人工智能使用和研究的选择。
政府正考虑的限制规定包括设立低风险应用程序的自愿安全标准,以及要求人工智能创造的内容加上水印。胡锡克指出,澳大利亚民众希望有更强的管理措施来监管高风险的人工智能应用。澳大利亚政府在对AI的“安全和负责任”使用进行审查后,决定延长回应期。在政府咨询期间,标记的AI风险包括不准确性、偏见和缺乏透明度等问题。
胡锡克表示,他将“立即”开始制定人工智能法规。随着全球范围内对AI技术的监管需求日益增长,澳大利亚的这一举措意在限制人工智能高风险应用的危险,同时促进低风险应用的发展。预计到2030年,人工智能和自动化每年将为澳大利亚经济增加高达6000亿澳元。
尽管政府未具体说明高风险可能包括的内容,胡锡克定义高风险为“影响人们生命安全,或某些人未来工作或法律前景的因素”。去年11月,澳大利亚是27个在英国签署布莱切利宣言的国家之一,该宣言致力于在人工智能测试方面进行全球合作。
此举是世界各国(特别是欧盟、美国、中国和英国等)为迅速制定人工智能法规而采取的行动的一部分。从今年开始,人工智能技术在全球范围内将面临更多的监管考验。澳大利亚的这一决策标志着国际社会对AI技术可能带来的挑战和机遇的日益关注。
在这个关键时刻,专家们对AI技术的未来发展和可能的影响进行了激烈讨论。一方面,AI被视为推动创新和增长的关键因素,另一方面,它也引发了关于隐私、安全和道德的严重担忧。随着AI技术的快速发展,国际社会对制定全面而有效的监管框架的需求越来越迫切。
澳大利亚政府的这一步骤是对这些挑战的回应,并可能为其他国家提供了一个范例,展示如何在促进技术发展和保护公众利益之间找到平衡。澳大利亚政府的目标是通过这些措施,确保AI技术能够以安全和负责任的方式得到利用,同时避免可能的负面后果。