人工智能真的会导致人类灭绝吗?
对立面
如果科技专家可信的话,人工智能(AI)有潜力改变世界。但同样是这些专家,他们对这种转变会对普通人产生什么样的影响意见不一。一些人认为,在先进的人工智能系统的帮助下,人类会变得更好,而另一些人则认为,这将导致我们不可避免的衰落。
一项技术如何能引起技术社区内人们如此不同的反应呢?
人工智能是一种用于学习或解决问题的软件——这些过程通常在人脑中执行。亚马逊(Amazon)的Alexa和苹果(Apple)的Siri等数字助手,以及特斯拉(Tesla)的自动驾驶仪,都是由人工智能驱动的。一些形式的人工智能甚至可以创造视觉艺术或写歌。
毫无疑问,人工智能具有革命性的潜力。自动化可以用机器和软件取代人类,从而改变我们的工作方式。自动驾驶汽车领域的进一步发展将使驾驶成为历史。人工智能购物助理甚至可以改变我们的购物方式。人类一直控制着我们生活的这些方面,所以对让人工系统接管我们的生活保持警惕是有道理的。
形势
人工智能正迅速成为一股重要的经济力量。据《福布斯》(Forbes)报道,麦肯锡全球研究所(McKinsey Global Institute)的一份研究报告显示,仅2016年,全球就有80亿至120亿美元投资于人工智能的开发。Goldstein Research分析师的一份报告预测,到2023年,人工智能将成为一个价值140亿美元的产业。
Wipro首席技术官KR Sanjiv认为,医疗保健和金融等截然不同领域的企业之所以如此迅速地在人工智能领域投入如此之多,是因为它们担心落后。他在去年发表于《科技危机》(Tech Crunch)的一篇专栏文章中写道:“就像所有新奇事物一样,普遍的看法是,被甩在后面的风险要比安全行事的好处大得多,也可怕得多。”
游戏为我们提供了一个了解人工智能日益成熟的有用窗口。例如,谷歌的DeepMind和埃隆?马斯克(Elon Musk)的OpenAI等开发者一直在利用游戏来教人工智能系统如何学习。到目前为止,这些系统已经击败了世界上最伟大的围棋策略游戏玩家,甚至是更复杂的游戏,如《超级粉碎兄弟》(Super Smash Bros)和《DOTA 2》(DOTA 2)。
从表面上看,这些胜利听起来可能是渐进式的、微不足道的——毕竟,会下围棋的人工智能无法驾驶自动驾驶汽车。但在更深的层面上,这些发展预示着未来更复杂的人工智能系统。通过这些游戏,人工智能能够做出复杂的决策,有朝一日,这些决策可以转化为现实世界中的任务。能够玩《星际争霸》(Starcraft)等无限复杂游戏的软件,可以通过更多的研发,自主地执行手术或处理多步语音命令。
当这种情况发生时,人工智能将变得异常复杂。这就是令人担忧的地方。
人工智能的焦虑
对强大的技术进步保持警惕并非新鲜事。从《黑客帝国》(The Matrix)到《我,机器人》(I, Robot),各种科幻小说都利用了观众对人工智能的焦虑。许多这样的情节围绕着一个叫做“奇点”的概念展开,在这个时刻,人工智能变得比它们的人类创造者更聪明。情况各不相同,但它们往往以彻底消灭人类,或以机器霸主征服人类而告终。
一些世界著名的科学和技术专家一直在表达他们对人工智能的恐惧。著名的理论物理学家斯蒂芬·霍金担心先进的人工智能将接管世界并终结人类。按照他的逻辑,如果机器人变得比人类更聪明,这些机器将能够轻松制造出难以想象的武器,并操纵人类领导人。2014年,他在接受BBC采访时表示:“它将自行起飞,并以越来越快的速度重新设计。”“人类受到缓慢的生物进化的限制,无法竞争,将被取代。”
特斯拉(Tesla)和SpaceX等风投公司的未来主义首席执行官埃隆?马斯克(Elon Musk)在2017年全美州长协会(National Governors Association)夏季会议上呼应了这种观点,称人工智能“……是人类文明存在的根本风险”。
马斯克和霍金都不认为开发者应该避免人工智能的开发,但他们一致认为,政府监管应该确保这项技术不会失控。马斯克在NGA的同一场演讲中表示:“通常情况下,监管的建立方式是一系列糟糕的事情发生,引发了公众的强烈抗议,多年之后,一个监管机构成立了,来监管这个行业。”“直到永远。在过去,这是不好的,但这并不代表文明存在的根本风险。”
霍金认为,一个全球性的管理机构需要规范人工智能的发展,以防止一个特定的国家变得更优越。俄罗斯总统弗拉基米尔?普京(Vladimir Putin)最近在9月初与俄罗斯学生的一次会议上加剧了这种担忧。这些评论进一步坚定了马斯克的立场——他在推特上表示,对人工智能优势的争夺是“最有可能导致第三次世界大战的原因”。
马斯克已经采取措施来对抗这一感知到的威胁。他与创业大师萨姆·阿尔特曼(Sam Altman)共同创立了非营利组织OpenAI,旨在引导人工智能朝着造福全人类的创新方向发展。根据该公司的使命声明:“通过站在该领域的最前沿,我们可以影响AGI创建的条件。马斯克还创建了一家名为Neuralink的公司,旨在创建脑-机接口。从理论上讲,将大脑与电脑连接起来,将增强大脑的处理能力,以跟上人工智能系统的步伐。
其他预测则不那么乐观。SETI高级天文学家塞思?肖斯塔克(Seth Shostak)认为,人工智能将取代人类,成为地球上最聪明的实体。“第一代(人工智能)只会按照你说的去做;然而,到了第三代,他们将有自己的议程。
然而,肖斯塔克并不认为复杂的人工智能最终会奴役人类——相反,他预测,人类将对这些超智能机器变得无关紧要。肖斯塔克认为,这些机器将存在于一个远远高于人类的智力层面,在最坏的情况下,我们只不过是一个可以容忍的讨厌鬼。
不要害怕
并非所有人都认为人工智能的崛起将对人类有害;一些人相信这项技术有潜力让我们的生活变得更好。“埃隆担心的所谓控制问题并不是人们应该感到迫在眉睫的事情。我们不应该对此感到恐慌,”微软创始人兼慈善家比尔?盖茨最近在接受《华尔街日报》采访时表示。Facebook的马克·扎克伯格(Mark Zuckerberg)在今年7月的一次Facebook直播中更进一步,称马斯克的言论“相当不负责任”。扎克伯格对人工智能将使我们实现的目标持乐观态度,他认为这些未经证实的末日场景只不过是在散布恐惧。
一些专家预测人工智能可以增强我们的人性。2010年,瑞士神经学家帕斯卡尔·考夫曼(Pascal Kaufmann)创立了Starmind公司,该公司计划利用自学习算法,创建一个由数千名专家的大脑组成的“超有机体”。“许多人工智能危言耸听者实际上并不在人工智能中工作。他们的恐惧可以追溯到电脑工作原理和大脑功能之间的不正确关联。”考夫曼告诉《未来主义》杂志。
考夫曼认为,这种基本的不了解导致了一些预测,这些预测可能会拍出好电影,但对我们未来的现实却只字未提。他说:“当我们开始比较大脑和电脑的工作原理时,我们马上就偏离了研究大脑原理的轨道。”“我们必须首先理解大脑如何工作的概念,然后我们才能将这些知识应用到人工智能的开发中。“更好地理解我们自己的大脑,不仅会使人工智能发展到足以与人类智能匹敌的高度,还会使大脑与电脑的接口更加完善,从而实现两者之间的对话。”
对考夫曼来说,人工智能就像之前的许多技术进步一样,并非没有风险。“这种强大而无所不知的技术的发明会带来危险,就像任何强大的东西都会带来危险一样。这并不意味着我们应该做最坏的打算,基于这种恐惧做出可能有害的决定。”
专家们对量子计算机、激光和核武器也表达了类似的担忧——应用这些技术可能是有害的,也可能是有益的。
未来
预测未来是一场微妙的问题。我们只能依靠我们对已经拥有的东西的预测,但不可能排除任何可能性。
我们还不知道人工智能是否会迎来人类生存的黄金时代,或者它是否会以毁灭人类所珍惜的一切而告终。然而,可以确定的是,多亏了人工智能,未来的世界可能与我们今天居住的世界几乎没有相似之处。
Copyright © 广州京杭网络科技有限公司 2005-2025 版权所有 粤ICP备16019765号
广州京杭网络科技有限公司 版权所有