前瞻性推进法规制度建设 推动人工智能安全发展

20210528期来自:天津日报

蒋冰晶

人工智能应用于人们的生产生活各个方面,让生活变得更美好,也改变社会的发展进程及方式。但同时,人工智能是把“双刃剑”,在快速发展中也存在一些潜在风险——算法歧视、隐私泄露、判断失误等,给个人和社会带来财产损失、精神伤害,甚至破坏社会伦理、法律秩序。推动人工智能技术安全发展是开发人工智能最大价值的前提条件。

第一,更新人工智能安全观念,促进风险治理体系化。随着人工智能产业呈现出爆炸性、指数级的快速增长,智能产品和系统的自主性可能会使安全风险的形态和来源更加多样、不确定,需要改变安全观念,更加积极地促进安全知识世界范围内共享,安全风险识别从经验驱动转为智能驱动,将各类风险来源要素整合在统一的平台,使人工智能发展的风险识别科学化、风险评估精准化、风险管理协同化。

第二,加强综合研判,管控人工智能所依托的“算法”。人工智能的核心是“算法”,但是“算法黑箱”“算法歧视”等不公平现象的极易发生,造成“算法”对普通人剥削和压榨,可以采用公开、解释“算法”等方式,及时有效判断评价人工智能是否可能违反法律、伦理、人类共同体的整体利益。

第三,制定规则标准,监督人工智能技术在重点领域的运用。在涉及人身安全、国家安全等重要领域,制定行业安全标准和技术要求,监督人工智能技术的发展。采用“可追溯”的原则和方法,追溯和锁定安全威胁、秩序破坏、侵犯权益等事件的行为主体、风险源头和致害因素,既避免损害的扩大,也破除人工智能产品索赔的障碍。

第四,加强法治建设,确保人工智能使用安全。防范和化解人工智能安全问题需要多方主体协同参与,秉承“可归责”理念对人工智能产业链中的各类利益相关人的安全义务范围进行界定,理清质量保障、风险提示、漏洞修复、妥善管理、安全注意等义务的承担主体和范围;对无人机使用、自动驾驶、图像识别等典型场景发生的法律冲突,明晰归责原则,使对过错主体进行追责有法可依。

(作者为河北工业大学人文与法律学院副教授)

powered by 闻道