我国需加快巩固高风险AI政策 · 学者:平衡公共安全与创新自由

(新山29日讯)澳洲墨尔本及吉隆坡数据创新与人工智能研究院(IDEA-AI)总执行长兼院长莫哈末沙贝里博士说,我国需加快努力巩固AI的政策框架和监管,尤其是针对高风险科技以保护数码安全,及遏制日益猖獗的滥用行为如深度伪造诈骗。

他指出,该举措至关重要,因为AI技术日益先进,以致能冒充个人的声音和身份来欺骗受害者,从而导致网络诈骗罪案显著增加。

他对马新社说,我国前年通报超过3万5000宗网络诈骗案,损失数额约15亿8000万令吉;至于去年首3个月则录得1万2000宗案件,涉及5亿7370万令吉。

“虽然并非所有案件皆涉及深度伪造,但如今诈骗集团日益广泛使用AI技术冒充一个人的声音或身份,以欺骗受害者。

“事实上,网络安全报告显示,全球在2022年至2023年期间,以深度伪造技术为基础的欺诈增加超过10倍。”

数码部处于制定人工智能治理法案的最后阶段,该法案预料在今年提呈国会,旨在全面应对AI风险,并确保安全且负责任的AI生态系统。

根据去年11月的报道,国家人工智能办公室(NAIO)正在开发AI监管框架,涵盖风险、损害、通报事件和伦理原则,这将成为该法案的基础。

莫哈末沙贝里指出,现有的法律框架,包括1998年通讯及多媒体法令和刑事法典,皆没专门针对AI的条文,而且是在深度伪造技术出现之前制定。

“许多新出现的情况难以明确解读。缺乏专门的AI法案,难以鉴定犯罪者、跨境权限及缺乏证据标准,皆对执法带来重大挑战。”

他也建议采取以风险为基础的监管方式,对高风险AI应用如安全、金融、生物识别和自动决策系统进行严格监管,而对低风险使用则给予创新空间。

“人民需要加强数码素养,AI政策委员会应在资深与年轻成员之间保持平衡,并且需制定AI法案来确立开发者和使用者的责任,从而避免深度伪造等技术滥用。”

另一方面,吉兰丹马来西亚大学人工智能与数据研究院高级讲师兼副研究员诺拉芝雅博士说,AI生成内容和虚假信息广泛传播足以引发恐慌,并挑起种族、宗教或政治的情绪紧张。

她举例,若公众人物、政府机构或金融机构可通过深度伪造技术被冒充,人们对国家机构的信任程度逐渐下降。

“法律可着重于打击诈骗、敲诈勒索和政治操纵等滥用行为,而同时继续鼓励在教育、商业和创新领域使用AI。”

有鉴于此,诺拉芝雅认为,政府需要提供明确且一致的治理框架,以便行业拥有监管确定性、吸引投资及建立信心,有关我国拥有安全且创新友好的环境。

“是否应对高风险AI落实发放许可制度,需要在公共安全与创新自由之间进行平衡考量。从政策角度来看,这项举措有坚实的依据,尤其是遏制严重滥用行为,如高风险诈骗。

 “此举措也与国际法规相符,例如欧盟人工智能法案,它采用以风险为基础的方法,对可能造成危害的AI应用进行监管和限制。”