您好,欢迎浏览攀枝花广电传媒网! 加入收藏 登陆 | 注册
攀枝花广播电视台官方微信
攀枝花手机台下载
AI如果是人,他该是高尚纯粹脱离低级趣味的人
时间:2019-03-11 16:04:03

摘要:高歌猛进的AI在技术上对人有巨大的诱惑,越是这时候,越需要人类有高度的伦理自觉。科学家担心,公司高管们时常关心伦理限制会提高成本并妨碍生产,他们爱油门不爱刹车。——从这个角度看,作为公司高管的李彦宏关于AI伦理的提案尤其可贵,不仅是一种前瞻的伦理思考,更包含着一种克制利润、超越功利的人文关怀。



近来的热点话题基本都被代表委员垄断了,昨天下午,全国政协十三届二次会议第三次全体大会上,政协委员、百度董事长李彦宏委员关于《加快推动人工智能伦理研究》的发言,在AI高歌猛进的当下引起不小讨论。发言的内容源于他今年两会的一项提案——关于加强人工智能伦理研究,打造智能社会发展基石的提案。李彦宏在发言中建议,由政府主管部门牵头,组织跨学科领域的行业专家、人工智能企业代表、行业用户和公众等相关方,开展人工智能伦理的研究和顶层设计,掌握新一轮技术革命的主动权。


看了上面这个发言,我就理解了为什么一个对人工智能很感兴趣理工科朋友,对李彦宏评价很高:以前国人对AI概念很陌生时,他踩油门推动了AI理念的普及;如今AI概念火了,产业蓬勃发展,他倒开始踩刹车、谈AI伦理了,推动用伦理约束AI,这才是对中国AI发展负责任的态度。


我查了一下,好像确实如此,李彦宏近五年的提案都与人工智能相关,2015年提到“中国大脑”、2016年希望“加快制定和完善无人驾驶汽车相关政策法规”、2017年提出“AI寻人天下无拐”……今年提出“开展人工智能伦理的研究和顶层设计”,开始为这个飞速发展的超级能力设定边界。他在大会发言中提出,“历史上,几乎每一次重大技术变革都会对经济社会发展带来新的挑战,人工智能已经引发了社会上的一些担忧:人工智能是否安全可控,人会不会被机器取代,人与机器的责任如何界定,等等。”李彦宏举了隐私和数据可能泄露的问题,如何更好地解决这些伦理问题,需要提早考虑和布局。


这确实是一个重大问题,仿佛是回应李彦宏的担忧,人大发言人张业遂提到:人工智能技术的应用具有不确定性,会给人类社会带来法律关系、道德伦理、社会治理等方面的新挑战,会通过立法加强前瞻性预防和约束引导。


过了AI迷恋期,人们确实应该思考人机伦理问题了。AI伦理听起来好像很高远,其实就在日常生活中,跟每个人相关。尤瓦尔•赫拉利在《人类简史》中提到了一个有意思的实验:在2015年一项研究中,研究人员请参与者假想自动驾驶汽车即将撞到几个路人的情景。大多数参与者都认为,就算可能会牺牲车主,自动驾驶汽车还是应该保全那几个路人的生命。只是,等到再问他们会不会买一部设定为“牺牲车主、顾全整体利益”的车时,大多数人都说“不”。如果涉及自身,他们还是比较喜欢“自私”款。


这个关于自动驾驶汽车的伦理困境表明,伦理上不想清楚,不理清人机关系,AI会对人类社会的法律关系和道德伦理带来很大的挑战。如李彦宏在提案中所言,智能革命正带来人机关系的变化,未来机器不再是单纯的工具,而是有可能帮助甚至部分代替人进行决策。——如何决策?遵循何种伦理?真的事关人命万千啊。中国AI的发展一直在高歌猛进地踩油门,确实需要伦理来踩一下刹车了,这个提案很有前瞻性和社会价值。


最近正好在看科林•艾伦的《道德机器――如何让机器人明辨是非》,讲的就是AI伦理。我以前把这个问题想简单了,觉得人工智能是人造物,一切应该都在人的确定和掌控之下,人有伦理,机器便不会变成如科幻片中的食人野兽。看了书之后,意识到人们把问题想简单了,忽略了“智能”带来的不确定性。艾伦举了一个文化偏见渗透进AI程序的案例,类似某某翻译这样的语言程序,在机器习得越来越像人的语言能力的过程,它们也正在深度地吸取人类语言模式中隐含的种种偏见,比如性别偏见,年龄偏见。AI有一种强化所习得偏见的潜能,而且不像人可以有意识地去抵制偏见。


相比AI其他“明显而即刻的危险”,语言偏见简直是毛毛雨。2007年10月,南非军队使用的一种半自主性机器人加农炮出了故障,杀死了9名士兵,伤了14名。2007年10月,福斯特-米勒公司已经将三个远程遥控装载机关枪的机器人送往伊拉克,这三个机器人应用的是武器观测远程直接作用系统。当年《纽约时报》报道,五角大楼的目标是用自主机器人取代士兵,人再冷血和残忍,毕竟是人,机器人可不是这样。还有,谷歌的研究主任皮特•诺维格写道:现今美国死于医疗事故的人每天有100到200人,而且很多这类医疗事故都与计算机有关,这些错误诸如发错药、算错药物剂量,他说,每隔两到三个月我们死于计算机错误和医疗事故的人数就抵得上一次911。罗纳德•阿金甚至质疑,将机器人当奴隶是事就规避了蓄奴制度本身固有的道德难题。


够了,这些问题已经够让人烧脑和忧心了,没有伦理的AI真如蒙着眼睛在高速上飙车。因此李彦宏提案建议,由政府主管部门牵头,组织跨学科领域的行业专家、人工智能企业代表、行业用户和公众等相关方,开展人工智能伦理的研究和顶层设计,掌握新一轮技术革命的主动权。具体包括:以人为核心,明确人工智能伦理原则,加强相关研究;强化领军企业担当,加快人工智能伦理原则落地;加强国际交流,凝聚全球共识。


事实上,这位来自科技企业的政协委员应该是中国提出AI伦理原则的第一人,去年5月他在贵阳大数据博览会上就提出“AI伦理”四原则:第一,AI 的最高原则是安全可控;第二,AI 的创新愿景是促进人类更加平等地获得技术能力;第三,AI 存在的价值是教人学习,让人成长,而不是取代人、超越人;最后,AI的终极理想是为人类带来更多的自由和可能。


这个原则可以被认为是50多年前科幻大师艾萨克•阿西莫夫“机器人三大定律”的进化版,当年阿西莫夫提出的著名三原则是:机器人不可伤害人;机器人必须遵从人类的指令;机器人必须保护自己的生存,条件是那样做与第一、第二定律没有冲突。AI的发展超越着科幻大师的想象力,在AI渗透进我们生活之前,必须让它明辨是非。AI如果是人,他该是高尚纯粹脱离低级趣味的人。


对于科技创新,有一个词叫“试错”,很多事情都可以试错,但AI不能,因为风险太大了,试错代价承受不起。有些事情,一旦按下按钮,就不可逆了。为什么人们对基因编辑那么排斥,就在于人们还没想清楚伦理问题,缺乏伦理约束,潘多拉盒子打开,后果不堪。很多事情也许都可以走“先染污再治理”“先创新再伦理”之路,但AI发展到如今的进步,有些地方甚至订立了2020年每家每户有一个机器人的目标,不能没有伦理考虑了。包括特斯拉创始人埃隆•马斯克在内的2000多位美国科技圈大佬,联名签署宣言,表示绝不将他们的技能用于开发自主杀人机器。——这样的姿态远远不够,需要如李彦宏所言的系统性地研究人机关系和凝聚全球共识。


MIT的情感计算研究组主任罗莎琳德•皮卡德说:机器越自由,就越需要道德准则。——确实如此,不要觉得倡导伦理是绑上了AI的手脚,伦理也是生产力,让人放心,在伦理上去除那些心理障碍,人们才更能接受它。如果AI带来的是失业,让很多人失去饭碗,让人觉得不友好,人们会接受它吗?高歌猛进的AI在技术上对人有巨大的诱惑,越是这时候,越需要人类有高度的伦理自觉。


科学家担心,公司高管们时常关心伦理限制会提高成本并妨碍生产,他们爱油门不爱刹车。——从这个角度看,作为公司高管的李彦宏关于AI伦理的提案尤其可贵,不仅是一种前瞻的伦理思考,更包含着一种克制利润、超越功利的人文关怀。这种伦理自觉,也是一个领军企业的领军人物应有的担当。


来源:吐槽:曹林的时政观察

发表评论