机器人战士的下一个敌人,会不会是整个人类?
【《财经网》专稿/记者 于达维】6月1日晚,被誉为“人工大脑之父”的雨果·德·加里斯(Hugo de Garis)教授在清华大学讲堂里,描述了一个既诱人又恐怖的“人工智能的世界”——20年或30年后,人工智能机器就可以和人做朋友。而50年后,人工智能将成为人类最大的威胁。
他说,世界最终会因人工智能超过人类而爆发一场战争,这场智能战争也许会夺去数十亿人的生命。加里斯宣称,最折磨他的道德问题是:如果推动人工智能研究最终将带来几十亿人死亡该怎么办?他自问到:如果肯定这将是所需的代价,你还会继续吗?
加里斯的新作《智能简史——谁会替代人类成为主导物种》已在2007年由清华大学出版。
尽管上世纪40年代,科幻小说家阿西莫夫提出了避免机器人伤害人类的“机器人三原则”,但如今携带半自动机枪和火箭弹的机器人已经走上了战场,它们是去杀戮被主人视为敌人的人。阿西莫夫的幻想已经被打破——机器人的下一个敌人,会不会是整个人类?
机械公敌
2004年,由威尔·史密斯主演的美国影片《机械公敌》在全球上映,其中描述了芝加哥警探戴尔·史普纳对付学会了独立思考,脱离了人类控制的机器人NS-5的故事。当然,最终人类战胜了机器人。现实中,这样的危机似乎正在迫近。
《机械公敌》取材于阿西莫夫的科幻小说《我,机器人》。1942年,阿西莫夫在小说中提出“机器人三原则”——1) 机器人不应伤害人类,而且不能忽视机器人伤害人类;2) 机器人应遵守人类的命令,与第一条违背的命令除外;3)机器人应能保护自己,与第一条相抵触者除外。
阿西莫夫认为,有了这三个原则的限制,人类就可以和机器人无忧无虑的相处。但这一原则在“人工大脑之父”加里斯看来,已经不可能。他说,在人工智能还比较低级的情况下,我们人类可以为所欲为地发出各种指令,也可以强调这三原则。但当不断提高它们的智能,使它们的聪明程度接近甚至超过人类时,它们则根本不会听任人类给它们安装各种按钮。它们会有自己的意志,从而不愿接受我们的操控。
实际上,机器人不能伤害人类的原则,早已在伊拉克战场上被打破。2004年11月,美国一架无人驾驶飞机(UAV)在遥控指挥下,成功消灭了阻碍美国重新夺取费卢杰的一个迫击炮连。
2005年5月,美国MQ-1“掠夺者”(Predator)无人驾驶飞机在巴基斯坦靠近阿富汗的边境地区发射导弹,击毙了一名基地组织高级头目。从2002年开始,美国空军就已经开始利用“掠夺者”搜索基地组织,是否开火由上万公里外的人控制。
2005年初,美国陆军驻伊拉克的作战部队开始装备“特种武器观测、侦察、探测系统”(SWORDS)。它不仅具备履带行进设备、X射线瞄准设备和排雷设备,还装备了5.56毫米口径的M249机枪,可升级为7.62毫米口径的M240机枪,还能装备M16系列突击步枪,M202-A16毫米火箭弹发射器和6管40mm榴弹发射器。
《时代》杂志评价它是“21世纪最伟大发明之一,可以装备从激光枪到枪榴弹发射器在内的一切武器,严重违反了阿西莫夫的机器人三定律。”
目前,已经有超过4000名机器人被部署在伊拉克和阿富汗执行作战任务。美国国防部计划,到2015年,三分之一的作战力量将由机器人组成。这是被称为“未来作战系统”项目的一部分,耗资为1270亿美元。
美国全球安全组织负责人约翰·派克(John parker)说,现实中的士兵和电影中的士兵是不同的。在战场上,很多士兵不愿把武器瞄准对方,因为他们不愿伤害对方,或为了保全自己而不愿刺激对方。而机器人能感知、瞄准并无情地射击,为它们指示目标的人不用担心自己被击中。
中国人工智能学会智能机器人学会理事、清华大学智能技术与系统国家重点实验室的朱纪洪教授对《财经》记者表示,现在世界各国略有技术能力和财力的,都在研究战争机器人。机器人不会疲劳,没有生理极限,不会有人员伤亡,而且成本更小。他同时也指出,“战争机器人有视觉,有武器,有能量,确实很危险。”
“机器伦理”
2007年8月,英国谢菲尔德大学人工智能与机器人专家诺伊尔·沙基(Noel Sharkey)撰文指出,随着机器人战士被投入战场,人类正在勇敢地梦游进一个由机器人决定在哪里、什么时间、杀死谁的世界。
尽管美国国家学术委员会(US National Research Council)对于全自动战斗机器人的要求是:应该让机器对付机器,人对付人。但机器人在面对手持攻击武器的人时,是很难判断对方究竟是机器还是人。而且,机器人可能会把一个手持冰激凌的小孩看作威胁,机器人也无法判断一辆满载乘客的汽车里面是恐怖分子还是小学生。
诺伊尔·沙基介绍说,他已在人工智能领域工作了几十年,让机器人决定一个人的生死是很可怕的事情。他提醒说,随着技术的进步和成本的下降,机器人的军备竞赛将很难阻止。
今年2月,沙基预测说,随着美国、俄罗斯、日本、以色列等国家在无人战斗系统上研究和投入大幅度增加,能够自己决定什么时候开火的机器人将在十年内走上战场。同时,他也提醒,用机器人进行恐怖攻击代替自杀式炸弹将只是个时间问题。
他估计,恐怖分子利用GPS移动电话和飞机模型进行空中攻击的成本只要4000美元左右。身为大学教授的沙基还是英国广播公司的“机器人战争”比赛节目的裁判。“我见过太多的机器人,我知道这做起来太容易了。”
在沙基看来,如果一个国家开始开发作战机器人,其他国家必定跟进。“我担心的是,一个战士可以根据常识判断一个妇女是怀孕了还是带着炸药,但机器人不行;一个战士不会因为楼顶上有个狙击手而炸掉坐满学生的学校,但谁知道机器人会不会。”
根据目前的国际法,人必须参与任何机器人的开火决定,但是美国国防部计划让机器人变得越来越自由。沙基认为,人类必须在这之前完善相关的国际公约,并设法在机器人体内植入人类的道德伦理。否则,真到机器人大开杀戒的时候,就太晚了。
为了给战斗机器人一定的良知,美国乔治亚理工大学的罗纳德·阿金(Ronald Arkin)正在开发一套机器人使用致命武器的准则。他认为,让机器人上战场的另一个重要原因是,在极端条件下机器人也能够不折不扣的执行事先设定好的伦理原则。从这一角度看,他们的表现能“比人更像人”。
他把这套准则命名为“可能行为多维数学决定空间”(multidimensional mathematical decision-space of possible behaviour actions)。机器人可以根据雷达资料、任务状态和智能输入将各种可能行为分成两组,哪些符合伦理,哪些不符合伦理。
但问题是,战场上的情况瞬息万变,情报资料也可能有误,再完备的准则在混乱的战场上也无法面面俱到。清华大学的朱纪洪教授指出,机器人说白了就是一个简单的程序,它判断的依据要和它已知的状态匹配上才能做出判断,匹配不上就不行。
而外界环境和国际象棋不一样,因为国际象棋是结构化的环境,所以机器可以战胜人,而外界环境几乎是变化无穷的,计算能力是机器人最大的限制。“加入伦理程序我认为是不可能的,人都很难做到,何况机器。”朱纪洪说。
挑战人类?
加里斯教授被称为“人工智能领域的霍金”,他因为研发成功第一台制作人脑的机器CBM(Cam Brain Machine)被列入吉尼斯纪录。他的“CBM”大脑制造机器可以在几秒钟内进化成一个神经网络。目前,他制造的“大脑”可以处理将近1亿个人工神经元,计算能力相当于一万台个人电脑,已经相当于一只猫的脑处理能力。
据他介绍,上个世纪制造人工大脑需要数十万美元,现在只需要2000美元。他认为,“人工大脑”迟早会超过人类。人脑的转换能力是10的16次方/秒,而人工智能机器的运算速度高达10的40次方/秒,是人脑水平的10的24次方倍。“人工大脑并不会立即控制人类,此前还会有一段与人类‘和平相处’的时期。这一时期它不断接近但尚未超越人的智力水平,因此‘聊天机器人’‘家务机器人’‘伴侣机器人’将使人类的生活充满乐趣。但这样的美景并不会长久,人工大脑的继续发展将使人类面临灾难。”加里斯说。
现在已经在市场上广泛流行的智能吸尘器,实际上就是‘家务机器人’的最新代表。售价仅有几百美元的智能吸尘器可以自己了解主人家里的布局,主动去寻找难以清理的死角,绕开家里的人和宠物。到了电池耗尽的时候,可以自己去充电。
而这样的机器人如果具备攻击能力和自我意识,将很难保证是人类的朋友还是敌人。
加里斯强调,人们普遍以为,人类给予人工智能机器某种功能,它们才会具备。事实上,人工智能机器已经在神经和智能上产生初级的自行进化,且以指数速度进化。它们将会在某天突然达到一种称作“奇点”的状态,一旦超越这个状态,人工智能机器将会“失去控制”,以人类无法想象的速度自行进化,乃至迅速地把人类抛在后面。“那时候的人类会怎样?我们该怎么办?现在考虑是不是已经太晚了?”加里斯表示十分忧虑。
美国ABC电视台在2006年8月的《地球最后的岁月》(Last Days on Earth)节目中,邀请了包括加里斯和霍金在内的全球最著名的七位科学家预测地球的终结。其中,前者的智能机器与后者的黑洞都被列入人类所面临的“七大致命威胁”。 而加里斯认为,智能机器的威胁在未来50年左右就会发生。
“这不是天方夜谭,只是时间问题。也许你的孙子一代就将经历这样的事情。”他说。
不过,对于加里斯教授的担心,清华大学智能技术与系统实验室主任贾培发认为,在短时间内,让机器具备人的智力还没有可能。他对《财经》记者表示,现在的机器人都是外延的东西,模仿人类的某些功能,而不是创造。关于智能机器思维本质的根本问题还没有解决。