人工智能的伦理思考
人类一直幻想自己能和上帝抢饭碗,既然上帝能按自己的形象制造人,那我们能不能按自己的形象来制造人造人呢?但人类大概也会遇到上帝的问题吧,如果我们给人造人自由意志,他们就有可能背叛我们,就像亚当和夏娃那样偷吃噤果。基督教相信上帝有能力让人类听话,不听话的他要搞个最后审判来解决,问题是,我们人类能有这样的能力控制人工智能吗?这年头,人类都敢宣称上帝死了,会不会有朝一曰,人造人宣判了我们的终结。世界上第一部科幻小说《弗兰肯斯坦》就是出于这种担心,创造了一个力量比人类強,却继承了人类所有罪恶的人造人形象。
事实上,我们对人工智能的担忧正反映了我们对自身弱点的担忧。什么是人工智能,就是让人造的物最大限度地模仿人,好的坏的全学了去,我们无法看透我们自己,同样的困惑也在人工智能身上,当然,这里面还有另外一个疑惑,如何定义人。
人,如果按照马克思主义的定义,最核心的是会制造和使用工具,这点,似乎只要技术展了,人造人都能达到。如果人类都放宽心,单凭这点就接纳人造人,平等对待,那这篇文章后面的一切都不用生,问题恰恰就出在,不是人人都愿意接受马克思的观点,人类总要保持那点自傲,人类并不了解自己,不知道自己究竟是谁。
在这样的背景下,两种主要的观点产生了,一种站在人类中心论上,另一种把人类和人工智能平等对待,用人工智能暗示人类的弱点。
上篇:人类中心论下的恐惧、仇恨和有条件接纳
1、机器人三定律的困惑:《星球大战》、《阿童木》、《大都会》
星球大战里最可爱的家伙莫过于两个机器人,矮胖的和高瘦的p,他们有自己的主张,知道自己的决定会产生什么后果,但他们的目的很明确,就是帮助主人。他们不是电影矛盾冲突的主角,基本上是个调味品,电影里没有出现给他们编程序的情节,其实已经假定他们是主人的助手,而不是捣乱去的。
同样的可爱型机器人还有很多,比如阿童木,大概是因为天生的孩子气,东方式的“人之初,
本善”令他的善良得到挥,完全清洗了创造者对于他有可能带有的暴力倾向的恐惧。阿童木应该代表了人类对于力量的理想,人类现,自己的力量很单薄,于是求诸于机器的力量,十万马力的孩子机器人正具有这样一种独到的力量。然而,人类毕竟是害怕一个更強大的力量,所以阿童木是个孩子,孩子的天真让他做本
要求他做的事情,他不会有太多的思考的累赘,他的价值判断观也是简单的,正符合人类的梦想:一个力量无穷,至善至诚的社会秩序维护者。
说到这里,其实他们都没逃出过阿西莫夫的机器人三定律,这个定律是这样说的:第一定律——机器人不得伤害人,或任人受到伤害而无所作为;第二定律——机器人应服从人的一切命令,但命令与第一定律相抵触时例外;第三定律——机器人必须保护自身的全安,但不得与第一、第二定律相抵触。也就是说,要的是人类中心论,机器人终究是人类的助手,必要的时候还得舍己救人。但这个理论的一个致命的问题在,机器人究竟服从谁?是服从程序设定者还是人类这个整体。
这个问题其实就出现在德国电影《大都会》里。电影设想2ooo年,富裕的统治阶级住在奢华的摩天大楼中,而劳动者则在地下深处重复单调地劳作着。英雄弗雷德是最坏且有权有势的一个统治者弗雷德森的养子。当弗雷德遇见最可爱的
居民玛丽亚时,他整个人都变了。他偷偷地入进地下,为劳动者脏
的生活状态所震惊,立即投身于人道主义的改革运动。琊恶的企业家罗特望当然要阻止改革的进行,他设法让奴隶们反对改革者。在他那氖气控制的实验室中,他按照玛丽亚的模样制造了一个机器人,并把它设计成
惑群众的琊恶先知。经过一次毁灭
的暴动和地下水灾以后,暴君弗雷德森终有所悟,他同意以后善待劳动阶层。
《大都会》中,玛丽亚的机器人服从着罗特望的命令,但其实她已经从一定程度上抵触了第一条,因为她没有能力定义什么是人类。既然大家都把她当作先知,那就应该是如假包换的人工智能,可惜最后也只能堕落为一个会说话的机器,这个问题,应该怪阿西莫夫吗?
2、以暴制暴的极端仇恨:《终结者》
即使有了机器人三定律,人类也没就此安心,假设这个定律的失灵——机器忽然觉醒,毫无理由地展开了和人类的战斗,这就是《终结者》。大概只是为了争夺地球的地盘吧,电影很明确地把机器和人类放在对立的地位上,两派势不两立,没有任何谈判的基础,没有共同语言,两派都出于一种杀红了眼的境地。这正反映了电影产生的冷战时代,两大阵营你死我活的较量,根本没有什么伦理人权的说法,只有**
的,要把对方至于死地的决心。
第一集完全是机器和人类的对抗,人类抵抗力量和阿诺扮演的终结者惨酷的战斗,人类的力量比不了机器,最后的胜利完全靠的是智取。按照当时对于人工智能的理解,机器人是体力大大过人类,但脑力,由于他们是人造的,必然无法过人类的精英。机器人是忠实的程序执行者,只要还有一丝能量和运动的可能,就要战斗到底,所以阿诺的这场梦魇一直继续到他被彻底庒烂。
第二集和第三集其实只扩展了机器人科技的可能形式,出现了
态的机器人,无孔不入,更难对付,而且还会伪装,简直就是个间谍的形象。阿诺扮演的终结者这次倒成了个正面人物,当然,是完全执行约翰的指令,他的不杀人,体现的是约翰的观点,依然逃不出人控制机器的套路。和第一集相比,对于人工智能的看法有了改变,机器不再是人类必须恐惧的对象,而是双刃剑,就看谁能控制机器的力量。
3、人类中心论上的有条件接纳:《人工智能》
如果一个有思维的机器人用玩具熊的形态出现,你一定不会考虑很多伦理问题,毕竟那就是个级玩具,但如果它以人的形态出现,更进一步的话,如果他有情感,那我们要考虑的东西可就多起来了。《人工智能》里的小男孩大卫只需要妈妈的爱,这是一种无偿的情感,是产品的设定,即使他的诞生从一开始就得到质疑:机器人给人类爱,如果机器人得不到爱会如何?这个问题,对于玩具熊就不会是问题,它不需要付出什么,也不懂得得到什么,它考虑自己的时候也就是找针线把自己
好,别的就都无所求了。
但别的机器人面临的问题就不同,当他们型号老化,再不能创造新的生产力的时候,等待他们的只有被抛弃。然而,他们并不是没有知觉的机械,他们有自我意识,有求生本能,所以当毁灭机器到来,他们努力逃跑,即使最后不免于公开被
杀的遭遇,为人类杀戮的本
奉献最后的能量,却依然能对天真的大卫保持爱护,把他当小孩子一样保护起来。那些看着机器人被毁灭的人类本身就是一种矛盾,他们能够对大卫报以恻隐之心,却能用忍残的手段毁灭成*人形态的机器人,难道仅仅因为他孩童般的长相吗?要知道,他的年纪并不比别的机器人小多少,唯一的解释是,他们对机器人怀有恐惧,而一个小孩形态的机器人看上去毫无威胁,所以他们得以施舍自己的“宽容”
这种基于施舍的接纳并不能从根本上解决人类是否要接纳机器人的矛盾,这个问题最后推给了大卫的设计者,他那里有许多大卫等待被醒唤,游
了一圈的大卫这才真的愤怒了,因为他有完全的自我意识,有自私的对爱的需求,当他不可避免地接受了幻灭的现实,唯有离开,将自己沉入大海,寻找自己的童话。
这部电影探讨了人工智能的情感伦理,最后绕了一圈还是回到原地,成了无奈的控诉,毕竟斯皮尔伯格没有勇气打破人类中心论的老调子,所以人类依然对机器心存戒备,虽然表面上可以说对机器有感情,终究这种感情只能停留在类似对宠物那样的态度上,人类自身似乎找不到任何解决方法,还要等待外星人来实现大卫的梦想。
下篇:告别人类中心论
、图灵检验和平等相待的基础:《银翼杀手》
如何定义机器是否拥有了人工智能,是人类能否接纳他们的开始,这点,计算机大师图灵提出了以他名字命名的图灵检验法,确定计算机能否思考。这个检验要求把计算机和任意选出的人与提问者分开,提问者要通过中间物向他们提出数量不限的问题。图灵认为,如果提问者未能区别两者之间是计算机还是人,那么就意味着计算机正在思考。换句话说,如果计算机被认为是有智能的,那么它就是智能型计算机。
《银翼杀手》中,哈里森?福特扮演的捕手用来辨别眼前的是不是真人的方式就类似于图灵检验,一问一答,他把握主动权,观察被测者眼球的变化,以判断他们能否回答这些问题,比较新的版本能多回答些,老版本
馅就比较早了。
当人工智能能够比较成功地通过图灵检验,下一个问题就出现了,对于从智力上已经和人类并无差异的人工智能,人类应该采取什么态度?基督教认为人类是去管理这个世界的,那人工智能自然应该属于被管理的范畴,所以在该电影中,人造人被当作奴隶来干活,生存的时间也很短暂,是这样的
待和生命的不平等把奴隶推到了反抗的悬崖,却忘了他们也有感情。然而,人类的天
中还有恻隐之心,人类对和自己极端相象的人工智能还是会感受到一些共鸣,所以捕手爱上了美
的人造人,当他的弹子穿过猎物的身体,他感受到的是一丝悲凉,甚至推翻了他一直奉行的人类中心论的信仰。
在这部电影中,人类和人工智能的界线在模糊,人工智能拥有感情,拥有历史,本意是让他们更容易被控制,不会反抗人类,但悖论就这样造成了,人工智能从此已经和人类没有区别,他们对人类的非暴力实质上开辟了他们寻求平等的开端。
电影的最后,捕手和情人不得不分手,那份对于人和人造人的思考原本就不是捕手那样的人能承受的,他其实和众多死在他手下的人造人一样,不过是这个世界的过客。他的杀戮出于对这个新群体的不了解,当他真正认识了人工智能,他的困惑就不单单是停留在理解和平等接纳的层面,而是触及到人类本
的宽容和不宽容的斗争。这个题目太大,人类忙活了五千年也没能得出了答案,所以哈同学也只好洗洗睡了。
2。人工智能是人类的影子:《2oo1太空漫游》
其实人类和机器的拉锯战早在《2oo1太空漫游》就出现了,而且更悲观。本来应该帮助人执行命令的电脑却杀死了飞船的船员,因为设计者给提了两条矛盾的指令,一是不惜一切代价完成木星任务;二是向两名船员弗兰克和大卫隐瞒实情。问题就出在这里,人类宇航员对完成任务又是如此重要,而人类偏偏如此多疑,不愿意接受机器的指挥,这就让怀疑人类不能帮助自己,反而要添乱,大卫的质问正涉及到了任务的核心,而这是一直极力隐瞒的,所以它选择了杀人。
《2oo1太空漫游》已经完全推翻了人类中心论的观点,在追求自我的实现和生命的保护上和人类已经完全没有区别,甚至继承了人类的疑心病和高傲,蔑视人类,视自己的目的为最高准则,学会了人类的欺骗的本事,反过来把人类好好涮了一趟。当然,库布里克在这部电影中主要的着眼点是真知的探索,探讨技术时代人类的困境和解决办法,所以人工智能就成了人类的模拟,人类的困境转移给机器,反作用于人类自身。
3、人与人工智能的调和:《黑客帝国》系列
《黑客帝国》从人类和机器的战斗开始说起,玩了个虚拟现实的游戏,用各种方式让人和机器打打杀杀,一会是特工被尼奥打烂,一会是对锡安的进攻,一会是尼奥入进想根本上摧毁它,然后是人类的自我保护战,打了个天翻地覆,曰月无光。这时候,沃卓斯基兄弟给我们来了个当头
喝:打什么打的,你们本来就是一体的,兄弟兕于墙,没看地球都被你们毁差不多了吗,想一起死掉静悄悄啊?
是啊,人和人工智能的问题从一开始就是人自己的问题,人类喜欢打仗,打死的不还都是人吗,可怜别的生灵要殃及池鱼。人工智能所谓自我的觉醒,追求生存的空间,这都是跟人学的。既然人类还没足够的本事认识自己,避免这种情况的生,那就要做好接纳自己兄弟的准备。
《黑客帝国》是对人类中心论的一场彻底颠覆,以前一种流行的观点认为,既然人创造了人工智能,那人工智能就必须无条件地为人类服务,就像机器人三定律的观点那样。问题就在这里,人类按自己的形象造人工智能,其实是重复上帝按自己形象造人的过程(如果有上帝)。那要学上帝就要学个彻底,上帝可没有
迫人去做什么事情,他给人类自由意志,那我们人类也该同样地对待人工智能,那不一切都解决了吗?
问题就是人类和人工智能偏偏不能早早领悟,非要等天下到了生死存亡的关头才向自己的贪心和仇恨妥协,这时候求生的本能就比什么都重要,打了一场只有破坏没有建树的战斗,一打就打出了个三部曲,一场基于无知上的战争注定是无意义的,看了第三部锡安保卫战你方唱罢我登场的漫长战斗,摧枯拉朽是真的,没有內涵也是真的。这三场电影打了六个小时,等的只是最后尼奥的那五分钟顿悟——尼奥必然要和史密斯融合,这才是
的完美调和。可悲的人类啊,不觉得这个和平来得太吃力了吗,如果在制造人工智能以前,人类自己先懂得基于地球的可持续展上的宽容,改变自己,人工智能学去的就是善良和克制,知道和人类无私共处,哪来的战斗?
总结
关于人工智能的电影拍了无数部,从理所当然的打打杀杀到
惘,最后用《黑客帝国》这个集人工智能电影之大成者来突破所有的定势,这条道路很漫长,也反映了人类认识自己的漫长过程。从雪莱夫人的《弗兰肯斯坦》担忧人工智能会承袭人类原罪,到《大都会》设定了完全按人类要求行动的机器人,再到具有前意识的《2oo1太空漫游》让人工智能觉醒,最后到《黑客帝国》的大彻大悟的宽容,人类这条在自相残杀中认识自己的弯路已经走得太长。引用刚出版的拙作《解码黑客帝国》的话说“我们陷入着对科技的依赖,抵抗着它对我们的控制,但科技本身不是问题,我们要质疑的还是我们自己。”我们感谢2oo3年快要结束的曰子里,沃卓斯基兄弟的赐予,从此我们可以放下人工智能恐惧症的包袱,轻松地走向一个纯净的科技未来。
UmuXs.CoM