人工智能有没有机会统治人类?

如题所述

作者:刘明河

近期,警惕人工智能的文章和报道越来越多,甚至有人宣称“随着计算机运算能力增强,强人工智能将在我们的有生之年出现,给人类文明带来前所未有的冲击”,这些看似有理有据的观点深入人心,很多人甚至心生恐惧,担忧起了自己的未来。

人工智能真的会对人类产生如此大的威胁吗?

【困难重重】

对于人工智能这个过于庞大的概念,我们将它区分成弱人工智能(weak AI,或Narrow AI)和强人工智能(Strong AI或General AI)。

弱人工智能是处理特定问题的人工智能,AlphaGo就是一个专门下围棋的弱人工智能,iPhone里的Siri是一个专门语音识别的人工智能,Google的搜索框里也藏着一个专门提供搜索建议的人工智能——多亏了如今盛极一时的“人工神经网络”,我们已经愉快地发现,弱人工智能表现得非常出色,在某些时候真的比人类还要高效。

与之对应的,强人工智能模拟了完整的人类心智,我们通常会用能否通过“图灵测试”看作强人工智能的判断标准,但这样的人工智能直到今天仍未实现。另外,我们还进一步遐想了“超人工智能”这个概念,顾名思义,就是比人还睿智的人工智能,也就是科幻艺术和大众媒体中最担心的那种情形——但在人工智能的实践上,我们恐怕要说这更接近盲目乐观,追求的强人工智能的征途绝不像一些未来展望者那样,近在咫尺,迫在眉睫,数不清的艰难问题还等着我们攻克。

我们遭遇的第一个问题就是计算机的运算能力。

细胞虽小,却异常复杂,神经元尤其如此。在最微小的尺度上,一个神经元有成千上万个突触与其它细胞连接,释放或接受神经递质,识别数百种独立的活动,随后发出高速传导的神经兴奋,在整个大脑内激起复杂而不确定的反馈,有些突触还可以直接向脑脊液中释放递质和激素,在全身范围内引发更大尺度的反应——时至今日,人类发现细胞已近400年,即便动用最强大的超级计算机,也只是静态地构建出了一个突触的微观结构,真要模拟它完整的活动还无能为力——而人脑大约有860亿个神经元。

当然,神经科学与计算机科学的交叉处也的确有了些令人瞩目的成果,比如为人称道的,我们标记了隐杆秀丽线虫(Caenorhabditis elegans)302个神经元的连接方式,大约在2014构建了一个“开放蠕虫”的项目,试图用计算机模拟出一个等效于实体的虚拟线虫——但这个项目才刚刚起步,尚未收获成果,而且这个研究对象也是出奇的简单:它雌雄同体,全身固定有959个细胞,每个细胞的行为都专一且固定,神经活动非常单调,我们因此得以详细地观察它,用现在的手段模拟它们。

但是如果因为这一点星光就以为破晓来临,以为秀丽线虫的神经节与人类的大脑只是神经元的数目有所差异,只要计算速度够快就能实现质的飞跃——那就未免太天真了。

我们还会遇到动力学参数的壁垒。

如我们提醒过的,以现在的技术,我们还不能模拟神经元的完整活动,让它们在虚拟世界里自主地运动起来。只是在这个项目中,我们既然已经知道了线虫神经的连接方式,就能人为地给这些连接赋予动力学的参数,让这些虚拟神经元活动起来,逼真地模拟一条线虫。就像做题虽然不会,但是拿着答案倒推,也能猜个八九不离十——所以我们称这种做法是自底向上。

然而在目前阶段,不但我们还是个相当差的学生,离开了答案就寸步难行;而且我们遇到的问题也是空前的难题,根本没有现成的答案。

线虫的神经与人类的大脑,就像口中呼气和超级台风,它们之间绝不只是数量的差异。当基本单元通过种种联系形成复杂的系统,就会在更大的尺度上展现出新的结构。我们很早就对小尺度上的流体运动有了清晰的认识,但这并不代表我们可以从中推导出台风的运动规律。

首先的,线虫的个体差异极小,不同个体的细胞排列方式完全一样,所以作为一种全身透明的实验动物,我们很早就弄清楚了它们神经连接的方式。但人脑完全不是这样,我们拥有数量巨大的神经元,个体差异很大,而且可塑性极强,这令每个人大脑内的神经元连接方式都不一样——换句话说,一个具体的神经元怎样连接不重要,重要的是数量巨大的神经元如何组织成一个复杂的机体。

然而1个神经元、10个神经元、100个神经元、1000个神经元……每增加一个数量级,神经元的活动都会涌现出新的运动规律,从最小层面上神经元处理兴奋的方式,到不同递质的通路的组合方式,到处理不同信息的细胞构成功能模块,到大脑中不同功能区域的协作方式,都是我们必须面对的难题,虽然这些动力学的研究也正在热火朝天的研究中,但这样的研究不可能达到“指数上升”的速度,我们重建人脑的进程也就不能达到指数上升的速度。

所以先不论计算机科学能否一马平川地进步下去,即便计算机运算速度真的能指数上升,也无法在可以预见迅速地模拟出一个人脑:在神经科学和脑科学臻于高度成熟之前,大脑永远是一个黑盒子,我们要想知道大脑在具体的智力活动中在不同层面各自发生了怎样的事情,还困难重重。而且更加现实的情况是,随着我们对人脑的认识逐渐扩大,我们会发现越来越多的新问题。

我们知道的越多,就越发现自己无知,然而糟糕的是,真正的难题还在前方虎视眈眈——我们需要新的计算机原理。

必须意识到,在能否实现“智力”这个巨大的问题上,计算机的运算速度并不是决定性的。以当今的动物界而论,非洲象、长肢领航鲸,它们的大脑都比人的更重,神经元的数量也更多,为何偏偏缺乏智力?在相同的解剖基础上尚且如此,原理完全不同的电路元件,又该如何?

电路元件以金属和半导体为元件,获得了接近光速的信号传递速度,这比起神经元的冲动的确快多了,但也单调多了。电路元件的任何一次反应都只能得到固定的结果,只能在和、或、且的基础上展开一阶逻辑演算,今天,以及未来可以预见的一切计算机程序,都是不同复杂程度的一阶逻辑演算。

“一阶逻辑”已经非常强大,给今天的人类带来了整个21世纪的信息时代,但它只能从几个初始数据开始,根据预存的指令步步推导,绝不越雷池一步。这给计算机带来了那种可贵的可靠性,但也令它失去了更可贵的抽象、推理、创造——我们必须能够定义谓词的二阶和高阶逻辑。

举个例子,面对“a+b”这样的命令,计算机只会按照加法的规则,把a和b加起来,但是对于具有二阶逻辑的人,我们还会思考加法的意义,询问“加法是怎样一种运算?”,接着,我们还会能在三阶逻辑中思考“运算”的意义,询问“怎样规定一类运算?”,进一步的,我们又会在四阶逻辑中思考“规定”的意义,询问“数学上什么样的行为称得上规定?”。

这样的追问可以无穷地回溯下去,理论上,人类的思维可以实现“无穷高阶逻辑”,我们已经在整个哲学史上持续不断地展现了这种能力。对于普通人,我们也可以尝试一个计算机无论如何做不到的思维游戏:随便思考一件事,然后思考“我正在思考这件事”,然后思考“我正在思考‘我正在思考这件事’”,然后思考‘我正在思考“我正在思考‘我正在思考这件事’”’……虽然很费脑子,但我们在理论上也可以无穷地递归下去。

是的,如今所有的计算机都是一阶逻辑,或许在某些实验室里还有二阶逻辑的尝试,但无论怎样,高阶逻辑问题不能规约成低阶逻辑——我们绝不能用加法本身说明什么是加法,这就好像在电视机上做电视机的广告。

也就是说,我们即便动用了空前的计算能力,以不可思议的工作量找到了大脑中的每一个参数,但只要计算机原理不变,就是在用低阶逻辑模拟高阶逻辑——这在数学上不可能,程序员们会发现某些关键的参数无法定义,那个辛苦模拟出来的大脑仍然是个弱人工智能。

这是一个尖锐的问题,即便在另外一些规划中的道路上,用进化算法也好,用其它方式建模也好,它都会横亘在我们的前途中。我们需要一种革命性的计算机,能够实现高阶逻辑的演算,但是在所有已知的事物中,就只有大脑能做到这件事,这就带来一种新的困境:要模拟大脑需要新的计算机,要研究新的计算机就要深入了解大脑。这当然不是无法解决的问题,就好像制造新的机器需要新的材料,合成新的材料需要新的机器,我们在科技进步史上已经邂逅了无数次,没有理由认为我们会败给这一次,但也要做好思想准备,因为这将是一条漫长的路。

这样或者那样的问题会接踵而至,人工智能作为这时代最复杂的应用科学,没有理由认为我们能以逸待劳地只凭计算机科学的进步就让一切问题迎刃而解,更何况退一万步,我们还有一个更加现实的问题要面对。

【伦理障碍】

对与任何革命性的新技术,伦理都是最现实的问题,我们此前目睹了避孕措施对伦理的冲击,就以为伦理在技术面前不堪一击,这就未免太低估了伦理的力量,像“知情权”这样毫无意义的概念被煽动家利用起来蛊惑人心,都可以在食品安全领域掀起巨大的波澜,那么从今天开始数十年乃至上百年对人工智能的担忧积累起来,无论合理还是不合理,都会形成强大的伦理氛围,阻遏强人工智能的研究。

先不论“人工智能灭绝人类”这样惊悚的事情,就以最现实的问题来说,公众一定会关心强人工智能是否具有情感,是不是有了心脏的铁皮人,然而这却是强人工智能的定义中不曾提及的问题。

与其它意识活动不同,人类丰富而细腻的感情是人类作为一种社会动物,协调群体关系时的进化产物,并非智力的必需品。一个强人工智能未必真的具备这些特质,但他一定可以理解这种行为:想象成一个人先天性地没有任何感情,但以细致的观察和精湛的模仿成为了一个无可挑剔的表演家,在舞台上无论是哭是笑,心中都绝无一丝涟漪,犹如用肢体和表情肌完成了最复杂的体操——这大约就是电影《机械姬》中的情形。

长期以来,感情被认为是自由意志最关键的特质,所以我们不得不想象在那样的未来,分辨强人工智能是真的拥有感情还是在逢场作戏,抑或这两种情况并没有区别,都将会成为人工智能领域最重大的课题,也是人类面对自己时最深刻的拷问——无论哪一种结局成真,都意味着一个旧伦理的世界不复存在:我们要不要承认它是一个人?进一步的,“他”是否适用实体法,可以拥有最基本的人权?我们还能不能把“他”囚禁在实验室里?

我们接着就会设想,强人工智能如何利用自己的感情获取人类的信任,争取平等的对待,争取公民权的运动。强人工智能的感情或许只是一层伪装,但人类心底那种与生俱来的同情和善良却是毫无争议的事实,在这样的未来图景之下,强人工智能的研究几乎必然招致严格的限制,就像我们如今对待克隆技术时的做法:我们在上个世纪就掌握了克隆哺乳动物的技巧,但是在可以预见的未来里,这个世界上都不会有克隆人降世。

或者更武断地说,无论技术是否成熟,我们都不会允许一个拥有完全心智的强人工智能轻易问世,我们可能会在全球最重要的实验室里有限额地研发几个被严重削弱的强人工智能,成为认知科学和计算机科学的珍惜样本,如果要想象强人工智能诞生在民用领域,就像《机械公敌》或者《西部世界》那样,就未免不切实际了。

最后,我们要再次反省一下预测未来这件事:一个平静的社会大概激不起人们什么兴趣,所以我们总是在变革的浪潮中“高瞻远瞩”,但是我们忘了,科学革命或许加快了人类探索和改变世界的速度,但人类的认知过程从来都不是一帆风顺。旁观者赞美收获时的成就,却很少理会耕耘时的艰辛,盲目乐观是他们永远无法摆脱的缺陷。

温馨提示:答案为网友推荐,仅供参考
第1个回答  2017-12-27

近日,柯洁与人工智能AlphaGo的大战,再一次将人工智能推至风口浪尖,毕竟柯洁作为站在世界围棋顶端的人,比赛到了他这里已经是最后一战了。

人不轻狂枉少年,这句话对棋手柯洁来说,实在是太适合了。举个例子,比如说他之前跟李世石的一场决赛,李世石说我的胜算吧,也就五成,看人说话多么的谦虚,咱俩实力一样,各占一半,。柯洁随后就说,李世石是有五成把握这不假,不过夺冠的胜率可是100成,你啊想赢我只有1/20的把握,这话说的,你能说不狂?

还有个选手叫井山裕太,柯洁也说,我就跟他下一盘棋,没别的意思,我要让他血溅五步。意思是什么呢,我就没拿你当盘菜吃。

当然柯洁的狂妄都来自他在围棋上的实力,娘胎里就听棋,6岁学棋,7岁北漂聂道场,11岁职业定段。18岁三夺世界冠军,而且也是世界上最年轻的三冠王,上一个最年轻的三冠王是李世石,22岁。如今的柯洁,世界排名第一,站上中国乃至世界围棋之巅。成为响当当的中国围棋界的天才少年。

有人说,柯洁跟阿尔法狗之间的这三场大战,事关人类的最后尊严,到底是人类的智慧更强大,还是人工智能更胜一筹?就在这纵横19道棋盘上见分晓。

而战胜天才柯洁的阿尔法狗又是何方神圣呢?

阿尔法狗是谷歌开发的一套人工智能系统,专门用来下围棋,他从2016年大胜世界冠军李世石之后一举成名,因为围棋一直代表着人类智慧程度最高的比赛,现在一个人工智能,一个机器人把你打败了,这是不是意味着人类已经不是在食物链的最顶端了?

阿尔法狗之后过了半年,大家好不容易从这场失败中稳定了情绪,又一个叫master大师的人工智能又横空出世,在围棋界直接取得了52连胜,包括古力、陈耀华、聂卫平等围棋界的高手全部斩于马下,比当年的阿尔法狗更厉害,当时柯洁就感慨,人类总结了几千年的棋谱,现在来看,都是错的。

随后的真相大家也都知道了,master大师就是升级后的阿尔法狗。

现在又过了小半年,阿尔法狗再次升级,这次他面对的对手,就是中国棋手柯洁。而现在,它已经赢了两盘了。

阿尔法狗的一场场的比赛,不但是在围棋界掀起了血雨腥风,在社会界同样是引起了极大的讨论热度,可以说,围棋这项古老的体育赛事已经多少年没受这么多人关注了。要说是好事儿吧,这也算。

之前,人与人之间下棋,比的是经验,理性和灵感。昭和棋圣吴清源就将决定围棋胜负的三个要素归纳为:实力、气力和运气。

而人工智能,只有理性,靠的就是俩字:搜索。

阿尔法狗采用蒙特卡罗算法之后,它能很好的找到人类棋手下一步的最佳二十手选择,来下胜率最高的一步棋,因此人工智能进步神速。

此外,阿尔法狗见过、下过的棋,以百万计。柯洁的训练量,我们做最乐观的粗略估算,也难以超过五万局。

值得一提的是,本次与柯洁对弈的 AlphaGo,也不同于去年大战李世石的版本。

AlphaGo 有分布式版与单机版两个版本,去年与李世石对决,AlphaGo 还需动用分布式版全力以赴,今次只需单机版就能轻取棋艺更高的柯洁。两个版本的计算能力差距悬殊,单机版运行在48个CPU 和8 个 GPU 上,分布式版运行在1202个 CPU 和176个 GPU 上。

可以说,对李世石是群殴,对柯洁呢就是单挑。

虽然人类节节败退,不过大家也不要沮丧,计算机科学家开发 AlphaGo,并不是为了给人类创造修身养性的工具,而是像谷歌研究总监彼得·诺维格所说,希望用人工智能解决人类自己也不知道如何解决的问题。

未来十年,如果具备精准决策能力的人工智能获得大范围的应用,金融、医疗、法律、交通、公共安全等领域都将发生翻天覆地的变化。

我们或许可以用扎克伯格的观点作为结束:“我们现在担忧人工智能的安全性,就如同两百年前担心要是以后有飞机了飞机坠毁怎么办一样。但不管怎么样,我们要先造出飞机,再担心飞机的安全性。”

第2个回答  2017-12-27

人工智能(artificialintelligence)英文缩写AI。它是研究、开发用于模拟、延伸和扩展人的智能理论、方法、技术及应用系统的一门新技术科学属计算机科学的一个分支,AI是一门极富挑战性的科学,每当一项新技术出现,我们都会对其惊叹不已,但事实上我们从广义上对科技发展是可预测的,科技的发展具有趋向性,你可以把它想象成一滴落入山谷中的雨水,他的趋势我们知道,它终将落入山谷,它的实际路线我们却不可预测。但是总体方向是不变的,一个向下的趋势。所以这种深植于科技领域的趋向性使我们可以大致推测出科技发展的方向,比如手机的出现不可避免,但是苹果可以。互联网不可避免,但是谷歌可以。我认为AI将是我们社会未来20年里最具影响力的趋势方向或动力。当然,我们现在已经有了,我们已经有AI并且常在幕后发挥作用,最近比较著名的阿尔法在围棋上战胜了全世界顶尖的围棋选手,有人说这是AI胜利了,其实这应该是AI和人的这个团队获得胜利了。工业革命让各种高级机械进入人类文明,现在AI代表的是机械智能,它将机械变得更加聪明。

我们要全面的认识理解AI我们只有做好准备迎接它,我们才能掌控它,迎接了大趋势,我们就掌控了它更多的细节,AI将作为一个科技的基础在不同的认知者手上扮演不同的角色,如今我们能想到的很多不同种类的人工智能对不同的人来说作用也不一样,当然人工智能有时候在某些领域胜过人类,因为他们功能的专一性,比如GPS在空间导航方面比你聪明,驾驶车辆选择路径的时候他也能出色的完成任务,因为他有专业的数据实时更新,它的专业性使它不受干扰,它不用在工作的时候去思考自己出门关好门没有,或者觉得它应该去干金融专业,它只要把它的工作做好就是了。我们有时候把它标榜成一个无意识的东西,它们不是无意识,它们只是不用担心别的事,不会被干扰。所以,AI有极强的可靠性。

我们用AI开创第二次工业革命,这也给我们带来了新型经济动力和新的财富,工业革命让汽车通过我们操作能够在公路上已250匹马力行驶,AI将赋予它250种关于驾驶的思维,这就是无人驾驶汽车,AI将在各领域蓬勃发展,就像电力一样,所有电力驱动的东西都将智能化,当我们创造出机器人,机器人代替人类完成许多人类过去重复完成的工作,但是这些机器也能创造出全新类别的工作,行业转型,并他们带来的工作比他们夺走的还要多,所以不必担心智能化普及抢夺人类工作的问题,而且机械的强项是高产和高效,提高社会生产效率。AI将是我们的合作对象,而非敌人。

第3个回答  2017-12-27

Facebook关停了人工智能实验:因两个机器人开始用自己的语言交流

这则新闻,让整个世界的人类都沸腾了,科技界的大佬,对于人工智能也是纷纷站队两边。虽然,最后Facebook辟谣,并没有产生新的语言,关闭只是因为程序出现了bug,且这样交流下去无意义。

但是,对于人工智能,这个名词不得不再次出现在我们的视野中,成为我们讨论的热点话题。

围棋,被认为是世界上最复杂的棋盘游戏。作为人类围棋的第一人“柯洁”,面对阿尔法狗却接连失败,最后痛苦现场说“它(人工智能)告诉我们,我们研究了几千年的棋谱是错误的,是没有意义的。”

而如果放在一年前,它与李世石大战的时候,柯洁或许还有赢得希望,但是一年后,这个希望被直接扼杀,而这就是人工智能最可怕之处“自主的深度学习”。

人类为什么会站在食物链的顶端?

难道我们能够空手打死老虎,还是狮子?或者我们可以跑得过猎豹?又或者我们可以任意翱翔?

都不是。

是因为我们的智慧站在所有动植物的顶端。

而对于一个能够深度学习的人工智能,他的智慧一定会在我们之上,这是绝对的。

有人会说,我们可以设置程序让他一直听我们的话。

看过越狱吗?再完美的监狱,也是会有漏洞,天时地利再加一个聪明的人,就能够成功的逃出来。或许你又会说,可以设置很多道程序,而且程序是一个思维逻辑非常严谨的东西,你忘记了吗?当一群世界的顶尖黑客聚集在一起,他们或许可以攻破白宫的防火墙,取到他们想要的信息。因为再严谨的逻辑,还是会有漏洞的。

有人会说,我们可以拔掉它的电源或者敲掉它的主板。

小时候,家里装了一个座机,每一次有电话来了,在外面老远就听到了,就得气喘吁吁的跑回去。后来,出现了小手机,记得老爸那时候买了一个夏立的手机,翻盖的,一个很小的屏幕,但是彩屏的。后来,nokia出了一款智能手机,屏幕很大,可以直接在屏幕上点击,再往后苹果重新定义了智能机的概念,直到现在我们手机的运行速度越来越快,功能越来越多。

这时候,你再去回忆一下,从座机到翻盖手机用了多久?从翻盖手机到智能手机又是多久?

科技的发展速度是一直呈现指数翻倍的增长速度的,10年后,当人工智能真的出现的时候,它真的还要用电吗?要用主板吗?这是我们现在都想象不到的。

就算主板是他的致命伤,你的大脑被蹦了一枪,同样也是死亡,而且人类一定比机器人的生命更脆弱。

人工智能一定会拥有自我意识,这是不需要怀疑的,因为这才有人工智能的意义。

所以如果人类避免不了人工智能的诞生,避免不了他拥有自我意识,那么我们不妨设想一下如果他还有一颗善良的心呢?事是不是就会跟我们和平相处了呢?

就像变形金刚里面的汽车人。

可是....紧接着的结局又会变成?

第4个回答  2017-12-27

最近AI话题如火如荼阿尔法狗大行其道,人工智能的发展速度越来越快,面对如此的情形,不免提出疑问,人工智能是否真能威胁人类社会。

《终结者》一部未来人机大战的科幻大片,预想人类在机器人的统治下已无还手之力,人类被迫从未来派遣战士回到过去阻止人工智能的出现。如今我们正处在研发的阶段,人类社会是否会出现这种不可思议的结局呢。

首先人工智能需要孕育出独立意识,现在的科技是否有所突破,我们底层小市民还真不清楚,世界大战的游戏从来都是掌握在掌权者的手上,但从最近各大科技公司所提出的无人汽车,无人机,机器狗等的实现上,绝对说明在人工智能上有了重大突破。

阿西莫夫的《我,机器人》的开篇《引言》的小标题就是《机器人学的三大法则》,把“机器人学三大法则”放在了最突出、最醒目的地位。

第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管

第二定律:机器人必须服从人给予它的命令,当该命令与第零定律或者第一定律冲突时例外

第三定律:机器人在不违反第零、第一、第二定律的情况下要尽可能保护自己的生存

可是规则就是用来打破的,这三则是从根本上杜绝机器人伤害人类,但是自从电脑发明出来,网络风行之后,电脑病毒就从未停止过更新繁衍,谁能保证人工智能出现后,人类社会不出现几个疯子,偶尔的系统故障说不准也会催生出可怕的后果。

随着智能设备的日益普及,我们可能也越来越分不清到底什么才是机器人。智能终端的功能会高度专业化,深入千家万户,但其外观样貌可能跟科幻作品中那些两足拟人机器大相径庭,我们可能不会再称它们为机器人。不过,名字并不重要,重要的是,随着工业的发展,这些设备的价格逐渐降低,达到普通消费者能够承受的水平,它们极有可能使人类社会生活的方方面面——包括工作、交流、学习及娱乐等。等人类深度依赖上这些智能设备的时候,谁还可以拒绝它们的成长呢!

我们梦想着人工智能的出现,又担心它的力量,当我们距离这个梦想越来越近的时候,我们有谁可以停下脚步想想,我们到底是底为何而来,然后又为何而去呢!

本文由《橘子空间》原创,如转载,请注明出处!

相似回答