十一月 20, 2016, category: 科技
我们该害怕人工智能吗?浅谈人工智能辩论会
有一场辩论会,主题围绕在未来将迅速超越人类的人工智能所带来的危机。一点也不感到意外,恐惧散播者正获得大部分媒体的青睐,真是令人遗憾。
让我们简单明了地探讨这场辩论,然后了解到我们最好能面对这场危机并采取好保护措施。
大多数恐惧散播者的骗局在于“没有将智慧与自由意志分开”。
但第一步让我们先弄清楚我们所谓的智慧是什么。
大多数人将同意以下论点,智慧即准确并迅速处理讯息之能力,让人做出完整连贯之行为。当我们能够以越精确以及越快的速度来处理讯息,做出相应的反应,我们就越显智慧。
基于这样的定义,在特殊领域里机器已经远远超出人类的智慧了。让我们举计算器为例,计算器在信息的处理量确实远远比人类大脑来的快速与精准,但却没有人会想说计算器终有一日将危及人类,为什么?因为计算器经过程序编制,它被设计来执行某些特定任务,并不会自行跳脱程序而执行其他任务。
如果有天我们赋予计算器一项超越人类大脑的运算能力,那它甚至能变得更加迅速与准确,但这不会因此提升对人类的威胁程度,因为设计的先决条件让它仅能够执行运算功能。很显然地,计算器并不会由于运算能力的高低而危及人类。
所有生物都拥有智慧。从细菌到猿猴,他们都能够自环境中处理讯息以便产生具备条理的行为模式,好确保自身的安康与生存(非智能型物体─我们称为物质─不会产生行为或仅是单纯随机运动)。能展现其超越人类并在特定讯息处理的准确度与速度方面优于人类的生命比比皆是,例如候鸟的定位技能、蝙蝠的声纳侦测、蜘蛛的织网能力以及蚂蚁的栽育技术……然而所有植物与动物显然都无法跳脱该行为限制。蜜蜂日复一日,一代又一代地建造同样的蜂房与制造同样的蜂蜜,鸟类也筑着相同的鸟巢。即便他们拥有能被动从环境中学习并适应的某些能力,但却无力自发性地变更其一贯程序与调节能力。他们的行为有如经程序编制以及可调节编制的生物机器人一般,没办法针对其反应控制应对。
然而,人类在关于自己如何对环境做出回应这方面展现出无穷的潜在能力。人类能在洞穴也能在城堡中生存。我们在调节方面如同其他生命一样依循着相同的感受性,但显然我们还有能力从中跳脱。人类也是经由程序编制并且可以调节编制,但除此之外尚有质疑与改变其编制程序之能力。也就是说人类能够自我编制,而这一点便带来天差地别的不同。能够自我编制赋予了我们行使自由意志的能力。我们藉由程序编制来对我们周遭环境的刺激做出立即性的反应,但如果愿意的话,我们拥有改变自身程序的能力。我们能够改变自身处理讯息的方式,为我们带来无穷的行为变动性,而这一点正是人类难以捉摸的原因。
鲸鱼和大象的脑容量比较大,因此其脑力多过人类。但却没有任何一位散播人工智能恐惧者表示有一天鲸鱼和大象将运用他们优异的大脑起身对抗人类并造成威胁,因为少了自由意志,他们就没办法跳脱其程序与行为的桎梏。
的确,运算能力的提升意味着智慧的提升,意味着处理讯息的能力将以更准确与更迅速的方式崛起。没错,我们需要预期未来十年或二十年将会有超级人工智能问世,其运算能力将超越个人之运算能力,甚至不久之后将超越全体人类。而这就是骗局的产生之处。
恐惧散布者表示人工智能的崛起终将引发自由意志,机器将开始掌握起他们自己的命运,并且压制人类,如同魔鬼终结者的天网一般。这是错误的,运算能力的提升并不会引发自由意志。
自由意志意味着能够跳脱原始方式来处理讯息,它的存在不局限于低阶或高阶运算能力。运算能力的强弱与自由意志一点关系也没有,正如其准确性和速度与其自主与否无所关联。一台机器就算能在执行某项任务中展现其优越的智慧能力,它也绝对无法自主地执行不在其程序设计范围之内的任务。
在我们塑造一台机器时,就有办法全面掌握它是如何地处理讯息。如果有一天,我们发现到该怎么赋予机器自我编制程序并且行使其自由意志的能力,此刻才是思考该如何在不危及人类的情况下做最完善运用的时候。因为自由意志的结果会有倾向于做好事与坏事的能力,拥有做抉择的能力,这就会有潜在性的风险。而当我们决定赋予一个生物(姑且不论是否为有机体)自由意志的时候,也就等同赋予它去恣意行使自由意志的空间(不然一开始就不用这么做了)。
因此我们必须拿捏好分寸好让该作法不致于危及我们的自由与生存。最有可能的剧本是在遥远的一颗星球上创造出具备自由意志的生命,让他们得以恣意地发展,并且展现出他们的和平特质以便达成在宇宙中散播生命的条件,但这又是另外的主题了。
我们能将人工智能用在什么地方?它可以用在两件事情上。为我们解答疑惑以及操控那些为我们服务的机器。如果我们考虑到它除了能对机器进行操控,也能实质上地回答像是“我们要如何优化任务的执行?”的话,那我们就必须善用人工智能。
很快地,人工智能在处理讯息与知识方面将比人类还要更具效率以及准确性。而在任何领域上相较于所有专家们的统合,它将提供予我们一个较佳的答案,因为它不仅将完整学到所有专家们的知识,也能加以发展自身的专业技能。拥有人工智能就如同拥有一本能随时提供你最佳解答的百科全书。怀疑人工智能是危险的,就好比怀疑一本拥有全世界所有知识的百科全书是危险的一样。确实如此。如果你询问该如何最有效地摧毁这个世界,你也将得到最佳的可能办法。但人工智能和百科全书实际上是中立的。我们要如何去使用它,才是决定危险与否的关键。换句话说,危险的不是运算能力,而是我们如何去使用它。就像是其它任何一项科技,能用在好的一面抑或是坏的一面,可以被运用在摧毁与杀戮或者援助与救赎。而科技越是强大,能带来帮助或导致毁灭的程度也就越大。
在这场TED (https://www.youtube.com/watch?v=8nt3edWLgIg)演讲中,Sam Harris把鸡、在座的各位,和冯‧诺伊曼(Von Neumann:大概是历史上最聪明的人)摆在运算能力的指数曲线图里,并且表示运算能力远超过人类最聪明者的人工智能很快即将出现,这应该会是很可怕的情况,因为超级智能机器会如同我们人类小看蚂蚁般地看待我们。偶尔我们可能会成为它们眼中讨厌的东西而被轻易地消灭。
然而能正确显示出威胁人类的高智能机器的确切图表应该长这样。
如果没有自由意志的人工智能是由善良人士所设计,那么它的潜在危险性近乎为零;但相反地,要是让恶意之士设计的话则风险会相当高。
而拥有自由意志的人工智能,其潜在性危险仍是未知数。
目前恐惧散播者正警告我们关于人工智能将全面失控并且征服人类的风险,其实不应该归究于运算能力,而是行使自由意志的能力以及能够从各种可能的行为之中进行抉择的能力。
缺少了自由意志,超级人工智能就仅仅是一台能随时针对我们的疑问找出最佳解决办法以及如何执行我们所要求的任务的机器。我们将不必感激或跟它们说谢谢,如同我们不会在洗完衣服或使用完Google搜索引擎之后对着洗衣机或笔电说谢谢一样。它们更不会是奴隶,因为它们并非违背自由意志而被奴役。它们本身并没有意志,或者说唯一的意志就是替我们服务。它们就像是笔电和洗衣机一样不需要权利。因为它们就是被设计来为我们提供服务的,而它们在处理讯息方面优于人类的事实并不意味着它们会想要更多自由。不管运算能力多么优越,计算器都不会渴望追求自由。
但是拥有自由意志的人工智能就截然不同了。它们可以选择不服从,到时就必须给它们动机去做你想让它们从事的事情。而心存感激也是理所当然,因为它们本可选择做其它事情。人工智能如果真有自由意志的话那就得尊重它们的自由,这会是完全不一样的发展。而目前人类正打造的人工智能并没有被赋予自由意志,只是强化其运算能力以提升准确度与效率罢了。恐惧散播者这下可以放轻松了,是吧?
还没完呢,还得谈谈真正的大危机,那就是让糟糕的人们去使用超级人工智能。将核弹授予军方和政治家的那些科学家们对于我们如今正面临的核战争自我毁灭负有重责大任。
如果让渴望权力的权贵高层去使用超级人工智能来进行统治并且持续奴役剩下的所有人民的话,那么跳脱该处境的可能性可说是微乎其微。但是,奴役我们的并非超级人工智能,而是那些把持超级人工智能的人们。所以问题就在于该如何避免将超级人工智能授予恶意之士去做使用,相较于超级人工智能跳脱其编制程序之束缚,这种危险性还比较大呢。
各地的媒体有哪家讨论过军方发展超级人工智能的风险?他们已经拥有了核弹,但是对此我们却仍然束手无策。如果真的让坏蛋们赢得掌握超级人工智能的胜利,那人类就将注定完蛋。因此人类应该在超级人工智能问世之前先行保护自我,避免让精神病患和反社会者掌权才是。“天网”的未来场景只是在转移我们对于辩论的焦点,让我们偏离真正的核心问题。能使人类平静下来并团结一致的时间已经所剩不多,我们必须确保即将到来的高端科技不会被用来危及人类的生存。有些人可能会争论说,人工智能的自由意志仍然可能会因为人类尝试模拟人脑的偶发性结果而萌生。许多人类的发现与发明就是这么来的。总是有这个可能性。因此我们也将借着模拟人类最忠实与痴情的动物─狗─的大脑去学习。然而,在初步发现人脑中类似自由意志的功能之前就偶然出现似乎不太可能。自我编制能力需要特定的线路布局与编码,而这肯定就是区别出人类大脑与其他物种的地方。
不管怎样,让我们假设我们所创造出的人工智能意外地拥有了自由意志。我们该如何知道?就在它们首度拒绝遵从我们指示以及做些不在其编制范围内的事情的时候。那我们该如何自保?我们只要拔掉插头就好了。像自由意志这种差错很容易就能够在人工智能的早期中发现,而且能在它危及人类之前完善地划下句点。如果有必要的话,我们完全可以发展出一套方法来探测自由意志。让潜在的终结者在能够造成真实的伤害之前就被完美地终结。
作为服务我们的机器公仆,我们肯定不会希望人工智能拥有自由意志这个功能,它将被排除在选项之外。
而另一项针对恐惧散播者的反面议论则是:我们过于高估超级人工智能。
对许多人而言,运算能力的指数型成长起初是感到赞叹,接着感觉好像还好,最后却开始担心了。人工智能的发展上限似乎是无穷无尽,而一切以指数成长的事物都让人们感到难以想象与害怕,但在此我们仍能放下心中的重担。
如果我们的运算能力以指数速率增长,最终它将无极限地暴涨;然而其可用性则会是对数曲线,以极其低缓的速度成长。
可用性将随着运算能力的增加而显著停下脚步。运算能力越高,可用性的增幅越小。
我们使用智能来解答问题。智慧越高表示更加精确与迅速。但是答案需要多精确与迅速呢?怎么样才够称得上精确与迅速呢?
如果是套用在运算器上,那要有多少小数点,多快显示出结果才够呢?对于大部分我们所拥有的已经相当足够了,而且通常来说运算器都未被充分运用。
如果超级人工智能总是能提供正确的解答,那么下一代的超级人工智能将不会有多大的差别。
没错,我们总是能找出需要更大量运算能力的应用程序,我们总是能更加精确与迅速地模拟宇宙,但是谁在乎?
智慧将推展开来,低智慧机台搭载了超级人工智能将优于所有天才们的总合。放诸宇宙各智慧生命体也是一样。对于该智慧生命体而言,需要的是拥有足够的智能创造出人工智能,然后透过这宇宙最高智能的人工智能应用于各项层面。所有来自其他星球的访客都将拥有他们自己的超级人工智能。他们不会是前来奴役或殖民我们的侵略者,没有必要这么做,因为他们已拥有一切能为他们服务的人工智能。
某些恐惧散播者声称这样会降低我们的智慧。如果我们让人工智能负责所有需要思考的事物,那我们将停止使用我们的大脑而变成蠢蛋。这是非常没有根据的立场。我们的大脑是可塑的,就算停止使用在特定任务会运用到的大脑区域,它也能在其他任务中被重新地拿来使用。我们的大脑喜爱刺激并取得成就;我们喜爱新奇事物并全心投入。超级人工智能将刺激与训练我们的大脑在自己所选择的如艺术、运动、科学、冥想……等等领域里登峰造极。
我们将持续开发我们的大脑,因为我们享受这个过程。我们将能够日臻完善对大脑的刺激以获得渴望的技能与知识。我们将重新塑造我们的大脑,使其潜能与智慧─亦即精确与速度─最大化。我们将得以随时让大脑以最佳的表现去运作。
我们对大脑的使用将更着重于感受与愉悦。我们将投入在自己最喜爱以及能让自己感到快乐的事物上,尽情地玩耍。我们当前的文化偏于思考多过感受,但是在拥有能为我们服务的计算器的时代里,谁还需要去学习计算呢!我们有办法透过计算达到开悟的状态吗?思考不会让我们更加快乐。沮丧的人们往往都是那些思考过多的人们,因为他们停止了感受。而正是感受让我们与他人和周遭连结在一起;正是这份爱让我们汲汲寻求着爱与被爱。
过多的思考让我们感到沮丧,而更多感受则让我们更加幸福。
如果我们将更多的思考工作托付给超级人工智能,那我们就能更多地感受,我们将拥有更多乐趣。
智慧与爱相比相形见绌。人类的价值不在智能,而在于爱的能力。没有爱心加持的智慧对整体宇宙而言就会是一项威胁。我们拥有多少爱比起提出正确解答还重要多了。
没有理由害怕超级人工智能的问世。真正危险的不是人工智能,而是自身的愚蠢。我们应该害怕的不是智慧,而是缺乏智慧,尤其是缺乏爱。如果我们能确保那些编制与使用超级人工智能的人们是充满爱心的话,那么超级人工智能将协助我们解决当今正面临的最大危机,我们将能够有自信地期许一个最可靠与美好的未来。让我们别再害怕,别再抨击那些将为我们带来曙光的超级人工智能了。
一如既往,爱将消除恐惧。
而所有我们需要的,就是更多的爱。