人工智能伦理规则研究
人文学院
Research on ethical rules of artificial intelligence
目前,人工智能已有六十余年的发展,其在各领域都有重要突破。人工智能在越来越多领域和场景下得到应用,一方面带来了效率的提升、成本的降低,另一方面,人工智能系统的自主性使算法决策逐步替代了人类决策,而这种替代有时非但没有解决已有的问题,还让已有的问题更难解决,甚至给社会带来了全新的问题。这些问题不仅引发社会的广泛讨论,更是限制人工智能技术落地的重要因素。面对伦理风险与其潜能一样巨大的人工智能技术,人们急需一个广泛、普遍的伦理探讨,并在这些探讨的基础之上梳理规范,以保证人工智能的良性发展。在我国推动人工智能发展的关键时期,推动对人工智能伦理和社会问题的探讨有极为重要的意义。
欧盟成立工作小组,发布《欧盟机器人民事法律规则》、《关于可信赖人工智能的伦理准则》等多个法规和草案。美国总统于2019年正式启动“美国人工智能计划”。英国议会于2018年发出长达180 页的报告《英国人工智能发展的计划、能力与志向》呼吁英国政府制定国家层面的人工智能准则。IEEE于2016 年启动“关于自主/智能系统伦理的全球倡议”。
2017年我国发布《新一代人工智能发展规划》,提出制定促进人工智能发展的法律法规和伦理规范。2018年1月18日,《人工智能标准化白皮书2018》正式发布。但目前中国还没有成型的人工智能伦理法则。