人工智能的极限在哪?可否具有意识?

从自动驾驶汽车到语音助手,人工智能(AI)正在迅速发展,但它的发展方向是什么?需要注意的是,在人和机器之间肯定存在着一种分歧,而不是一种智能的融合。人工智能是一种由机器展示的逻辑能力,与动物展示的启发式自然智能形成对比。问题是,前者能与后者等同吗?想要回答这个问题,我们必须首先理解AI到底是什么。从广义上讲,人工智能指的是能够执行通常需要自然智能才能完成的任务的计算机系统的理论和发展,比如视觉感知、语音识别和决策。

事情是这样的。在哲学上,意识的“难题”首先是关于解释为什么一些有生命的物体是经验的主体?更重要的是,无生命的物体能成为经验的主体吗?目前真正的问题是,哪些物体有思想,为什么有思想。想象一下,在极度高温的情况下,人的身体会因为灼烧的疼痛而感到内心的痛苦。与此同时,不管温度有多高,恒温烤箱都感觉不到任何东西。

自然智能和人类环境中有一些独特的东西是机器永远无法企及的,不管它们变得多么复杂。这就是我的观点。就像接近无限一样,机器将会越来越接近人类,但它们永远不会和人类一样。更复杂的是,随着机器的能力越来越强,那些被认为需要智能的任务常常被从人工智能的定义中删除。这就是所谓的“人工智能效应”。

基本上,泰斯勒定理中的一句话是这样说的:“人工智能是尚未完成的事情。”因此,光学字符识别经常被排除在人工智能之外,成为一项常规技术。一般被归类为人工智能的现代机器学习能力包括自动操作移动车辆、在战略游戏系统中处于最高水平的竞争、理解和翻译人类语言、在内容传递网络中进行智能路由等等。目前,人工智能研究的传统方法包括计算智能、统计方法和传统的符号人工智能。

机器学习的圣杯是一般人工智能(AGI),它是一种机器的智能,能够理解或学习人类能够理解的任何智力任务。因此,开发“强大的人工智能”是该领域的长期目标之一。问题是,我们可能永远无法超越“弱人工智能”的水平。另外,我们怎么知道电脑是否有意识呢?一般来说,计算机最困难的问题被称为“AI-hard”,这意味着解决这些问题等同于人类智能的一般能力,超出了特定目的算法的能力。

人工智能难题被假设为包括一般的计算机视觉、自然语言理解以及在解决任何实际问题时处理意外情况。照目前的情况来看,人工智能难题仅靠当前的计算机技术是无法解决的。它们仍然需要人工干预,而且很可能永远都需要。遵循这一趋势,人工智能将不会有自我意识。所以,世界末日阴谋论者是错的。随着电脑和机器人接管世界,人工智能不会成为地球上智能的主导形式。尽管如此,采取一些预防措施以确保未来的超级智能机器仍在人类控制之下,这并没有错。然而,我认为“机器人暴乱”是不可能的。

尽管如此,还是有人相信机器是有思想的,或者很快就会有。这就是为什么科学家们开发了大量测试人工智能的实验,以找出人工智能的极限。这方面的经典例子是图灵测试,在这个测试中,一个机器和一个人都与另一个人进行了交谈,后者必须评估这两个人中哪一个是机器,从而通过测试。接下来,在咖啡测试中,需要一台机器进入一个典型的现代家庭,并弄清楚如何煮咖啡。换句话说,一个机器人必须找到咖啡机,找到咖啡,加水,找到一个杯子,并通过按适当的按钮来煮咖啡。

与此同时,在机器人大学生测试中,一台机器进入一所大学,学习和人类相同的课程,并获得学位。最后,在就业测试中,机器从事一项经济上重要的工作,其表现至少与从事相同职业的人一样好。然而,即使一个机器人通过了所有这些测试,它能被认为是有意识的吗?电脑可以很容易地创作音乐,但要让机器欣赏它却是极其困难的。仅仅因为我们能让机器人跳舞,并不意味着它能感受到节拍。

20世纪的人工智能完全基于基于规则的机器学习,这是计算机科学中的一个术语,旨在包含任何识别、学习或演化规则以存储、操作或应用的机器学习方法。21世纪的人工智能基于深度学习,深度学习是机器学习的一个子集,它能够从非结构化或未标记的数据中学习无监督的内容。在22世纪,人工智能将会经历更多的发展,包括一种全新的基于量子计算和其他现代的机器学习。不过,即便如此,机器里也不会有意识。

虽然我很想和一个无私的机器人做朋友,但我认为这是不可能实现的。在我看来,人类的精神根本无法在实验室里合成,无论我们如何努力。不管你怎么分解。作为没有灵魂的设备,电脑永远不会有意识。诚然,许多设备都能意识到并对周围环境做出反应,但这就是清醒的真正含义吗?人工智能会质疑它自身存在的本质,或任何类似的东西吗?我真的很怀疑。机器人就是不具备有知觉、有智慧的灵魂,而且永远不会。

我永远不会看到一个机器人靠自己的意志冥想或祈祷。这是因为连贯的限定词在物体中是不存在的,只存在于生物体中,所以机器人将永远无法知道它们知道什么,甚至只是关心它们能知道什么。话虽如此,即使随着量子计算的出现,一般人工智能的未来仍有许多事情等着它去做,但这还不足以让一台计算机像人类一样具有意识。从现在起一千年后,机器狗不会像真正的狗一样爱它们的主人。

无论开发人员在软件上投入多少精力,它都不会生成意识,算法也不会赋予它个性。他们和我们之间不可思议的差距将永远存在。考虑到中国的天网是世界上最大的视频监控系统,利用面部识别技术和大数据分析。幸运的是,它不可能像电影《终结者》中那样,变得有自知之明,认定所有人类都是它的生存威胁,然后努力消灭所有人。

问题不在于人工智能有一天会醒来。真正的问题是,人工智能可以被编程去做一些有益的事情,但随后可以开发出一种破坏性的方法来实现其目标。任何时候,如果我们不能将人工智能的目标与我们自己的目标完全一致,这种情况就会发生。所以,我们可能想要关注的是意外后果和附带损害。如果一个超级智能系统被赋予了一项复杂的地球工程项目,它可能会对我们的生态系统造成严重破坏,作为一个副作用,或者更糟的是,它会把人类试图阻止它的行为视为一种威胁。

所以,要回答我一开始提出的问题,电脑不可能变得有意识。机器人不会焦虑,我们也绝对不需要把人格扩展到机器人身上。聊天机器人索菲亚本不应该获得沙特阿拉伯国籍,成为有史以来第一个拥有国籍的机器人。这是荒谬的。机器人并不占据形而上空间的内在主观世界,而是栖居于网络空间的世界。所以,最终,底线是,尽管机器人看起来是有生命的,但也只是看起来像而已。