中文版 |English

设为首页 加入收藏

主页 > 中心动态 >

人工智能需要道德准则

时间:2017-09-20 09:26  来源:科普所   作者: 牟庆璇 编译   点击:
牟庆璇 编译
 
最近,京东宣布拿到了陕西全境无人机空域的书面批文,这意味着无人机送货的时代即将到来。在人工智能时代来临之际,应当审慎省察人工智能的伦理尺度,使人工智能不仅免于扮演人类宰制者乃至文明终结者的魔咒,更能以其超卓而与人性合一的普遍智能推进人的自由与全面发展,共同创建文明有序的和谐社会。

 
                          
 

 
伦理一般是指一系列指导行为的观念,是从概念角度上对道德现象的哲学思考。它不仅包含着对人与人、人与社会和人与自然之间关系处理中的行为规范,而且也深刻地蕴涵着依照一定原则来规范行为的深刻道理。
 
近日,100多名行业精英发表了一份给联合国(United Nations,UN)的公开信,主要内容是关于危险系数极高的人工智能武器,或者说是“机器人杀手”。这些人中包括世界著名企业家伊隆·马斯克(ElonMusk)和几家机器人公司的创始人。从2015年开始,他们就给联合国发送公开信,最初的目的是结束军备竞赛。在此次公开信中称人工智能武器为“继火药和核武器之后的第三次革命”。
 
对人工智能和自主系统的研究,联合国理应有所作为。但从未来发展的角度来讲,实验室应起到主要的作用。在培养人工智能研究人员时,道德观念和程序编码一样重要。
 
人工智能的自主性
 
自主系统在没有人类输入指令的情况下,可以自己做出决定,这大大增加了机器人和类似设备的实用性。例如,交付无人机(Delivery Drone)只需要确定送货地址,就可以自行规划最佳路线,克服在途中遇到的任何障碍,如恶劣天气或一群路过的海鸥等。
        

研究人员已经花费了大量时间和精力研究自主系统,目前亚马逊(Amazon)等公司正致力于开发交付无人机。显然,相同的技术可以很容易地应用到各个行业,而不是仅仅用来运输食品或书籍。
 
无人机越来越小,越来越耐用,成本也越来越低。这意味着生产和部署数以千计的无人机飞行部队是可行的。正是部署自主系统武器的可能性,促成了发给联合国的这封公开信,目的是希望“寻求一种避免人工智能武器所带来的危险的方式”。
 
自主系统需要道德准则
 
且不论自主系统武器的危险性如何,先来谈一谈人工智能研究中的伦理问题。在大多数科学领域中,如果要对世界知识做出突出贡献,研究人员一般需要侧重于某一特定主题。但是他们通常在相对狭窄的领域是专家,对于道德准则或道德推理,却缺少相应的规范。
 
道德准则越来越受到人们的重视。例如,测试中的无人驾驶汽车需要能够对潜在的危险情况做出判断。当一只猫突然穿过马路时,它应该如何反应?是应该不管猫的死活继续前行呢,还是要急转弯以免对猫或者车上的乘客造成伤害?
 
当然,这种情况谁都不希望发生,但是在设计无人驾驶汽车时需要设计一些具体的原则来指导其决策。正如维吉尼亚·迪格纳穆(Virginia Dignum)在墨西哥举行的国际人工智能联合会议(InternationalJoint Conference on Artificial
Intelligence,IJCAI)上发表“自主系统需要责任感”(ResponsibleAutonomy)演讲时所说:“无人驾驶汽车需要道德准则,这件事应当由谁来做呢?”
 
在纳温·孙达尔·戈文达拉朱鲁(Naveen Sundar Govindarajulu)和塞尔默·布林斯约尔德(Selmer Bringsjord)的论文《自主系统的双重效应》( Automating the Doctrine of Double Effect)中也对类似主题进行了探讨。双重效应原则是对特定情况下的自卫权等道德问题的一种推理方式,在13世纪被天主教学者托马斯·阿奎那(Thomas Aquinas)记载并流传至今。

 
   
                                                 
托马斯·阿奎那

 
双重效应的名称来源于处理道德问题过程中会获得好的效果(例如拯救某人的生命)以及不良影响(在过程中伤害他人)。它可以为无人驾驶汽车在道路行进过程中出现的问题提供一种道德准则。
 
对教育的意义
 
伦理问题俨然成为人工智能研究的一个主题,那么当人工智能产品越来越普及时,教育体系也要顺应时代发展做出改变。
 
当今社会最需要的人才是“T型”人才。公司在招聘新员工时,不仅仅是寻找在特定领域有深入研究的人才(T的垂直笔画),还需要具有良好的专业技能和个人素养(T的水平笔画)。总的来讲,“T型”人才能够从多种角度看待问题,并能够有效的适应多元化团队。
 
大多数计算机科学和类似学科的本科课程包括职业道德和实践课程,这些通常侧重于知识产权,版权,专利和隐私问题等。但这些在处理人工智能问题上是远远不够的。在国际人工智能联合会议上,科学家们的讨论重点是关于“现在越来越需要更广泛的道德问题的补充材料”。这些补充材料的主题可以包括确定两个错误行为中影响较小的方法,明确法律概念如过失犯罪,以及技术对社会的历史影响等。
 
最关键的一点是使毕业生从一开始就能够将道德问题和社会观点融入他们的工作。当然,还需要进一步研究确定如何将道德问题纳入教育体制。
 
随着人工智能越来越深入日常生活,研究人员必须明确他们的发明对所处的社会可能带来的影响。伦理问题是科学研究的附加问题,为了科研的顺利展开,为了社会安全和人类利益,伦理问题已经是一个科学工作者必须考虑的问题。
0
热点图片>> more