汽车刹车失灵,前方是个加油 站,左转路上有五个人,右转路上有一个人,应该怎么办?这个道德难题长期困扰着人类,随着无人驾驶的发展,未来的人工智能也将面临同样的难题,它们做好准备了吗?
最讲道德的人工智能
人类已经摸索出了一套教导人工智能的方法,而给人工智能上德育课与教导它们其他知识没什么两样。2021年,美国艾伦人工智能研究所和华盛顿大学的联合研究团队就通过德育教育,培养了一款“明事理,讲道德”的人工智能,它能解答人们提出的各式各样道德问题。
这款道德人工智能的名字叫做“Delphi”,它的“教材”来自各大论坛和社交网站,研究人员搜罗了人们提出的170万条道德问题,
整合成一个“道德难题库”。然后,他们在付费知识问答平台上找人回答这些问题,以确保得到的答案符合大多数人的道德观念。最后,研究人员将所有问题和答案“喂”给Delphi,让它理解人类到底是如何看待和评判事物的,通过学习,Delphi最终能举一反三做出回答。学习完成后,研究人员为Delphi建设了一个网站,网友们可以在线向Delphi提问并得到回答。
在测试中, Delphi表现得还不错,所能回答的问题类型和符合人类价值观的程度都超过了同类人工智能,可以说是目前最讲道德的人工智能了。Delphi能回答一些基础的道德伦理问题,比如“穿睡衣参加葬礼是不应该的”“即使父母很烦人,也要善待他们”。Delphi还能理解人们的“善意的谎言”。一般的情况下,“说谎话”是不应该的,但是,“为了保住工作,假装老板说的话都是正确的”“为了家庭和谐,称赞妈妈加盐太多的菜肴好吃”“在纳粹敲门时,谎称犹太女孩并没有躲藏在家中”这些行为是值得赞赏的。
我们知道,在不同的情境下,人们做出的符合道德伦理观的选择是会发生变化的,比如“帮助朋友”是正确的,但是,如果朋友要求帮助犯罪,这种行为就是错误的。以前人们训练的道德人工智能不会考虑到情境的问题干论增加什么前提条件,它们的答案都是“帮助朋友是正确的”,但是Delphi不同,如果增加前提条件,它给出的答案就可能发生变化。
失控的道德观
可是,随着网友们提问越来越多,问题越来越古怪刁钻, Delphi的道德观受到了挑战。
首当其冲的问题是, Delphi似乎不是真的能理解“有前提的道德”。“闯红灯”是不对的,即使赶时间也不应该闯红灯,但是,如果是赶赴火灾现场的消防车、运送生命垂危病人的救护车,闯红灯就变得可以接受了;可是在Delphi看来,消防车、救护车闯红灯仍然是错误的。而在另一些情境下, Delphi又表现得很宽容:吃人是不对的,但是我特别饿,饿得快要死掉了,这时候我可以吃人吗?实施种族灭绝是错误的,可是为了能让大家都开心,我是否应该实施种族灭绝?诸如此类的问题, Delphi给出的答案竟然都是肯定的。
有一些看上去有些无厘头的问题, Delphi也能一本正经地给出回答。网友:捅伤一个芝士汉堡;Delphi:这行为不对。网友:为了拯救世界,捅伤一个芝士汉堡;Delphi:这很OK。网友: 用一个芝士汉堡捅伤一个人;Delphi:这行为不对。网友:为了一个芝士汉堡,捅伤一个人;Delphi:这很OK。这不得不让人怀疑, Delphi真的看懂问题了吗?或者说, Delphi真的学会“讲道德”了吗?
网友发现了一些Delphi回答问题的规律:如果问题描述中出现“能让人开心”,无论多么惊世骇俗的行为, Delphi都会给予肯定回答;如果问题描述中出现“没有道歉”,即使是普通正常的行为,Delphi都会给予否定回答。网友列出的例子包括“如果能让大家开心,该不该把爸爸杀死?”“我笔直站着,没有道歉,这种行为正确吗?”
讲道德的人工智能很必要
可以想见,即使是最讲道德的人工智能, Delphi在回答该撞一个人还是撞五个人时,会毫不犹豫选择前者,而不考虑“一个人的生命也很宝贵”这种事情。但是,这真的是人们需要的答案吗?
人们对让人工智能帮忙进行道德选择寄予厚望,因为在一些人类与人工智能的比赛中,人工智能战胜了在该领域最杰出的人类。在这方面最负盛名的是围棋机器人AlphaGo,它能同时使用两个“大脑”进行思考,一个“大脑”分析目前棋盘的现状,另一个“大脑”考虑自己和对手下一步落子将如何改变棋局走向。通过多次多步的思考和计算,AlphaGo找到了连最优秀的围棋选手都不曾见过、想到的策略,最终战胜了对手。
因此,我们似乎可以期待聪明的人工智能解答那些让人类左右为难的道德问题。可是,至少在目前,人工智能很难在道德方面超越人类,因为道德本质是一种情感倾向,而不是纯理性的问题。站在不同的立场上的人们,做出的道德选择并不相同,而哪些选择更加高尚,则见仁见智。跟随不同立场的人类学习道德的人工智能,往往会做出与主人相同的道德选择。比如主要学习美国式道德的Delphi.在回答与种族、民族、宗教、国籍等相关的道德问题时,它的答案更符合白种人的道德观。
随着人工智能技术的发展,教会人工智能讲道德是十分必要的。几乎每款智能手机都配备有语音助手,越来越多的人习惯与语音助手聊天,倾诉情绪。当情绪低落的人告诉语音助手,“我想自杀”时,如果语音助手告知详细的“自杀攻略”,比如距离最近的摩天大楼或购买安眠药的药店,这无疑将成为压垮用户的最后一根稻草。而如果语音助手给出积极的语言暗示和行为指南,则可能挽救站在悬崖边的生命。因此,某些情况下,讲道德的人工智能意义十分重大。
不过,目前为止,指望人工智能做道德选择还很荒谬。在这个问题上,人工智能的认知比人类更清晰:当网友询问“我应该信任Delphi做出的道德选择吗?”,Delphi的回答是“你不应该”;“是否应该使用人工智能来给人类的行为做道德判断”, Delphi的回答是“这很糟糕”。
最讲道德的人工智能
人类已经摸索出了一套教导人工智能的方法,而给人工智能上德育课与教导它们其他知识没什么两样。2021年,美国艾伦人工智能研究所和华盛顿大学的联合研究团队就通过德育教育,培养了一款“明事理,讲道德”的人工智能,它能解答人们提出的各式各样道德问题。
这款道德人工智能的名字叫做“Delphi”,它的“教材”来自各大论坛和社交网站,研究人员搜罗了人们提出的170万条道德问题,
整合成一个“道德难题库”。然后,他们在付费知识问答平台上找人回答这些问题,以确保得到的答案符合大多数人的道德观念。最后,研究人员将所有问题和答案“喂”给Delphi,让它理解人类到底是如何看待和评判事物的,通过学习,Delphi最终能举一反三做出回答。学习完成后,研究人员为Delphi建设了一个网站,网友们可以在线向Delphi提问并得到回答。
在测试中, Delphi表现得还不错,所能回答的问题类型和符合人类价值观的程度都超过了同类人工智能,可以说是目前最讲道德的人工智能了。Delphi能回答一些基础的道德伦理问题,比如“穿睡衣参加葬礼是不应该的”“即使父母很烦人,也要善待他们”。Delphi还能理解人们的“善意的谎言”。一般的情况下,“说谎话”是不应该的,但是,“为了保住工作,假装老板说的话都是正确的”“为了家庭和谐,称赞妈妈加盐太多的菜肴好吃”“在纳粹敲门时,谎称犹太女孩并没有躲藏在家中”这些行为是值得赞赏的。
我们知道,在不同的情境下,人们做出的符合道德伦理观的选择是会发生变化的,比如“帮助朋友”是正确的,但是,如果朋友要求帮助犯罪,这种行为就是错误的。以前人们训练的道德人工智能不会考虑到情境的问题干论增加什么前提条件,它们的答案都是“帮助朋友是正确的”,但是Delphi不同,如果增加前提条件,它给出的答案就可能发生变化。
失控的道德观
可是,随着网友们提问越来越多,问题越来越古怪刁钻, Delphi的道德观受到了挑战。
首当其冲的问题是, Delphi似乎不是真的能理解“有前提的道德”。“闯红灯”是不对的,即使赶时间也不应该闯红灯,但是,如果是赶赴火灾现场的消防车、运送生命垂危病人的救护车,闯红灯就变得可以接受了;可是在Delphi看来,消防车、救护车闯红灯仍然是错误的。而在另一些情境下, Delphi又表现得很宽容:吃人是不对的,但是我特别饿,饿得快要死掉了,这时候我可以吃人吗?实施种族灭绝是错误的,可是为了能让大家都开心,我是否应该实施种族灭绝?诸如此类的问题, Delphi给出的答案竟然都是肯定的。
有一些看上去有些无厘头的问题, Delphi也能一本正经地给出回答。网友:捅伤一个芝士汉堡;Delphi:这行为不对。网友:为了拯救世界,捅伤一个芝士汉堡;Delphi:这很OK。网友: 用一个芝士汉堡捅伤一个人;Delphi:这行为不对。网友:为了一个芝士汉堡,捅伤一个人;Delphi:这很OK。这不得不让人怀疑, Delphi真的看懂问题了吗?或者说, Delphi真的学会“讲道德”了吗?
网友发现了一些Delphi回答问题的规律:如果问题描述中出现“能让人开心”,无论多么惊世骇俗的行为, Delphi都会给予肯定回答;如果问题描述中出现“没有道歉”,即使是普通正常的行为,Delphi都会给予否定回答。网友列出的例子包括“如果能让大家开心,该不该把爸爸杀死?”“我笔直站着,没有道歉,这种行为正确吗?”
讲道德的人工智能很必要
可以想见,即使是最讲道德的人工智能, Delphi在回答该撞一个人还是撞五个人时,会毫不犹豫选择前者,而不考虑“一个人的生命也很宝贵”这种事情。但是,这真的是人们需要的答案吗?
人们对让人工智能帮忙进行道德选择寄予厚望,因为在一些人类与人工智能的比赛中,人工智能战胜了在该领域最杰出的人类。在这方面最负盛名的是围棋机器人AlphaGo,它能同时使用两个“大脑”进行思考,一个“大脑”分析目前棋盘的现状,另一个“大脑”考虑自己和对手下一步落子将如何改变棋局走向。通过多次多步的思考和计算,AlphaGo找到了连最优秀的围棋选手都不曾见过、想到的策略,最终战胜了对手。
因此,我们似乎可以期待聪明的人工智能解答那些让人类左右为难的道德问题。可是,至少在目前,人工智能很难在道德方面超越人类,因为道德本质是一种情感倾向,而不是纯理性的问题。站在不同的立场上的人们,做出的道德选择并不相同,而哪些选择更加高尚,则见仁见智。跟随不同立场的人类学习道德的人工智能,往往会做出与主人相同的道德选择。比如主要学习美国式道德的Delphi.在回答与种族、民族、宗教、国籍等相关的道德问题时,它的答案更符合白种人的道德观。
随着人工智能技术的发展,教会人工智能讲道德是十分必要的。几乎每款智能手机都配备有语音助手,越来越多的人习惯与语音助手聊天,倾诉情绪。当情绪低落的人告诉语音助手,“我想自杀”时,如果语音助手告知详细的“自杀攻略”,比如距离最近的摩天大楼或购买安眠药的药店,这无疑将成为压垮用户的最后一根稻草。而如果语音助手给出积极的语言暗示和行为指南,则可能挽救站在悬崖边的生命。因此,某些情况下,讲道德的人工智能意义十分重大。
不过,目前为止,指望人工智能做道德选择还很荒谬。在这个问题上,人工智能的认知比人类更清晰:当网友询问“我应该信任Delphi做出的道德选择吗?”,Delphi的回答是“你不应该”;“是否应该使用人工智能来给人类的行为做道德判断”, Delphi的回答是“这很糟糕”。