贝壳电子书 > 文学历史电子书 > 智能简史 >

第13章

智能简史-第13章

小说: 智能简史 字数: 每页4000字

按键盘上方向键 ← 或 → 可快速上下翻页,按键盘上的 Enter 键可回到本书目录页,按键盘上方向键 ↑ 可回到本页顶部!
————未阅读完?加入书签已便下次继续阅读!



变得毫不重要。

  来信

  亲爱的德·加里斯教授:

  当您谈到计算机取代人类的时候,您是否考虑过让人类向智能机器转变呢?那对于我来说更像是一个进化的步骤。那些拥有更加强大的学习和逻辑能力的机器将以我们思维的载体 —— 大脑为思想和记忆的基础。人类可能会觉得自己仍然活在(并且很可能会这样)计算机内部。我从探索杂志上读到了一些报道,介绍在未来50年内人类可能能够把人脑移植到计算机上。我同意您关于人类必须进化的思想,并且我们处于一个可以让人类控制自身进化的重要时刻。我认为,把我们自己的记忆融入到人工智能机器内将有助于进化过程的成功。

  回答

  正如我在讨论“使人工智能成为可能的关键技术”的第3章中提到的,我认为人工智能的发展有可能用20年左右的时间就可以实现“扫描”大脑,并且将其内容下载到“超级计算机”内来进行分析的程度。也许从现在开始需要50年或者更多的时间,来让扫描的效果足够好从而能够捕捉到完整的人类功能。当然,由于在其内部已经有了一个人脑的等价物,作为载体的超级计算机那时可能已经是一个人工智能机器。这样的超级计算机从功能角度上来看,可以被认为是一个“半机器人” 。如上所述,一旦人工智能机器真正地开始扩展其自身的体积和智能的时候,半机器人(人类)的成分将会减少,直至半机器人成分最终从一个完全的人工智能机器内消失。


  然而,这种半机器人的变体有很大的吸引力,它让那些被扫描的人类获得某种程度的长生不老。单单这条理由,大概就会有很多人选择去被扫描。

  地球主义者将如何对待包含人脑的“下载”计算机将充满争议性(查看第5章)。一方面,地球主义者对于无实体的,甚至是“全新物质载体的”大脑将可能感到非常恐惧,并且无情地把它们作为怪物来排斥。另一方面,如果这些机器内的人类部分占据主导地位,那么地球主义者们可能觉得它们比完全的人工智能机器要少些不同,并且因此对它们的排斥感要少些。

  关于地球主义-宇宙主义主题的半
机器人变异肯定会使我的论题复杂化。你可能会因内容的丰富而更感兴趣,也可能倾向于使问题简单化,目前只是关注于宇宙主义-地球主义的辩论,而把复杂些的问题向后推。当我写本书的时候,倾向于尽量使问题简单,至少一开始是这样的。

问题3 为什么没有甜蜜轻松的前景呢

  问题3。 “为什么没有一个甜蜜和轻松的前景呢?”

  很多人认为,当我预言人工智能问题将爆发一场战争的时候,我可能太极端了。他们认为人工智能机器和人类应该能够以一种“甜蜜和轻松”的方式和谐共处。举个例子,下面是两个这样的观点。

  来信

  亲爱的德·加里斯教授:

  我读过您的一些关于人工智能的文章,并且我或多或少地同意您的观点,那就是本世纪最重要的辩论之一,将是关于“人类”这个词汇的定义问题。

  然而,在您的文章中,还有一篇cnn上的名为“瑞士科学家关于
机器人的《圣经》哈米吉多顿(世界末日善恶决战的战场)之战的警告”的报道中,我认为您夸大了这个可能性,那就是肉身人类和非肉身人类的不同会导致战争。这种下意识的反人工智能情感出现在一些科幻小说中,例如电影《终结者》,并且不值得作为严肃讨论的主题。

  我们(超人的/
外星人的/宇宙主义的个体和科学家)应该做的是去强调这点,那就是人工智能机器一旦开发出来,应该被当作奴隶一样去对待,而不应该以我们对待人类一样的尊敬态度来看待它们的存在。

  只是由于人类是由猿猴进化出来这一点并不能说明我们应该灭绝猿猴。只是由于另一个个体拥有和你同样的渴望,那就是通过获取和处理资源而生活和制造财富,并不意味着它们对你来说是一个威胁,并且应该死亡。

  回答

  这种“慷慨的”空洞的观点我认为是很幼稚的,因为它是建立在信任基础上的,也就是说,人类相信,人工智能机器将一直对我们很友好。我认为它忽视了一个重要的概念—— 风险。如果人类可以100%确定人工智能机器,特别是高级人工智能机器,将一直以我们期待的方式对待我们,那当然是非常理想的。但是,我们不能肯定。我认为,人工智能机器将不得不需要通过进
化工程技术来制造,正如我在本书(第5章)中提到的一样,并且因此,我们永远不可能肯定它们的电路对于人类来说是“道德的”。人工智能机器们可能会冷酷地认为人类只是害虫,或者人类对于它们来说是如此的低等,以至消灭我们从它们的角度来看也毫无关系。对于它们来说,杀死人类就像我们杀死蚊子或者踩死蚂蚁一样。

  由于这个赌注关系到整个人类的生存,我认为地球主义者不会容忍这个危险。他们可能期待最好的,但是,他们的领导们却有着最坏的打算,最极端来说,如果宇宙主义者真的要制造高级人工智能机器的话,他们将计划发动一场针对宇宙主义者的战争。

  我不认为人类将把人工智能机器看作奴隶。当然,一开始,当它们还只是愚钝的机器人的时候,可能会被这样对待。真正让我担心的是相反的情形。看看人类是怎样对待牛、猪、鸭子等动物的。和它们相比,我们觉得自己是如此的高等,它们对于我们来说是美味佳肴,屠宰它们我们一点不介意,除非你是一个素食主义者。在转化阶段,当人工智能机器还基本上是人类智慧水平的时候,有可能平等对待它们,但是在某种意义上,它们不是我们的同类,因为它们拥有迅速超越并且是大规模超越我们的能力。

  人类相对于人工智能机器来说非常局限,我们的大脑体积是固定的,我们思考和学习都很缓慢。一个在某个时刻具有人类智能的人工智能机器可以在一个小时之后变成天才。记住,它的思维速度比我们至少快100万倍。如果它准备增加其内存大小等,那么,它的能力可以增长得更快。

  我认为,这个评论给予人工智能机器太多的人性。它们将和我们非常不同,并且潜在的能力将极大地优越于我们。而且,我觉得这个评论严重低估了人类对与高级人工智能机器共存这个事实的恐惧—— 地球主义的恐惧。我们将不得不去信任它们不会杀死我们。大多数地球主义者不愿意面对这个风险。他们宁愿去面对他们所知的恶魔,即宇宙主义者,他们至少还是人类,战胜他们至少还有一半的机会。如果人工智能机器存在并且决定必须消灭人类的话,那么人类获胜的几率将是零。来信人的评论不够政治性,他没有面对残酷的现实,他不适合作为一个将军或是一名政治领导者。



  来信

  亲爱的德·加里斯教授:

  我很荣幸地作为一名听众聆听了您在墨尔本大学计算机系做的演讲。

  和您一样,我认为我们应该去认真思考随着“人工智能”的出现而带来的各种各样的可能。显然,我不知道未来会在技术、政治,或纯哲学上带来些什么。但是,我预想了一个和您预想的世界末日画面有些不同的场景:不是迅速地被超级人工智能机器大大超越,我们可能发现人工智能机器正逐步溶入人类的生命形式中,从而被认为是我们中的一员,并且从长期来看,发现拥有“人类的”身体—— 即智人的身体—— 对于成为人类不是那么的重要。一句话,我们将逐渐发现它们正在变成我们而且我们也在变成它们。

  回答

  我同意,某些人希望变为半
机器人并且和其他具有相似意向的半机器人和睦相处,它们都是处于变成高级人工智能机器的转型中。但是这个观点,即每个人都想要这样做,同样是幼稚和不现实的。思考一下,如果人类要变为半机器人,从定义上意味着,在某种程度上可能要通过添加高科技成分来改变他们的大脑,这将改变其行为。地球主义者会对这些半机器人有怎样的反应呢?年轻的妈妈们会接受她们的孩子被“改良”吗?事实上,大多数母亲们不是对此观点持排斥态度吗?是不是大多数母亲会觉得她们的孩子在某种意义上已经变成了“怪物”,或者从外观上,或者是某种看不见的移植,成长的小孩在某种层面上似乎还是不同的,以一种非常的令人不安和非人类的方式存在?

  地球主义者将不信任半机器人,并且把它们推向宇宙主义者。甚至很有可能,半机器人会使很多宇宙主义者重新考虑自己的宇宙主义观点,并且回归到地球主义。作为结果,这可能会在宇宙主义者的领地内产生一些现实问题和更大的复杂性。半机器人可能需要和宇宙主义者结盟,如果它们希望更多的人类接受它们。

  我看不到“它们变成我们以及我们变成它们”。我只看到了不信任、憎恨,以及从长远观点来看的战争。实在抱歉说得如此直接,但我认为这样更现实。

问题4 为什么不使用毁灭开关

  问题4。 “为什么不使用毁灭开关?”

  许多人对我说:“有什么关系?如果人工智能机器变得太强大,只要把它们的电源拔掉,使用毁灭开关,等等,就可以了。”我认为,这个观点是“电脑出现故障而强制关机”的经验的过度概括。

  来信

  亲爱的德·加里斯教授:

  我一直在思考你们所创造的事物。继续制造这样的机器……但是,在你们的每一个机器里面放置一个可以被我们控制的炸弹。让它们聪明但是我们会成为它们的主人!

  回答

  如果“可被引爆的”人工智能机器拥有接近人类等级的智慧,它将意识到它会被人类摧毁。那会让人类对人工智能机器变得很具威胁性。这里至少有两个问题值得关注,一、人类是否可以在每一个人工智能机器身上安装毁灭开关或放置炸弹。二、这样做是否聪明?

  在一个孤立的人工智能机器个体上,这样的附加炸弹的想法可能会有用,但是,你怎样对于一个达到人工智能智慧等级的网络系统使用同样的方法呢?毁掉这样一个网络的唯一方法就是摧毁所有相关事物,但是对于人类来说,那样的代价太高了。例如,如果明天世界上所有的互联网和电脑都毁掉了,几百万人将会突然失去工作,并且可能会饿死。这个破坏以及人类所付出的代价将是巨大的。

  随着早期的人工智能机器变得更加聪明,它们会意识到附加在它们身上的炸弹和毁灭开关,就像一个体内携带毒药丸并且可以被其他人触发的人一样。这就像活在断头台下一样,只是在等待斧头落下,并且不知道它什么时候会落下。一个智慧的人工智能机器,假设它已经拥有了生存的本能,将会有解除这个威胁的强烈愿望。如果它足够聪明,它可能会行贿其人类主人来移除对其生存的威胁。作为回报,它可能会给予其人类“解放者”某些实质性的回报,例如,金钱、癌症的治疗,等等。人工智能机器变得越聪明,它们的分布越广,毁灭开关的想法就会越不实际。


返回目录 上一页 下一页 回到顶部 3 4

你可能喜欢的