14世纪的文艺复兴,我们认识到了美和理性;18世纪的思想启蒙,;19世纪的工业革命,我们认识到了科学与机器;当我们越来越对这个世界熟悉与了解的时候,人类的智慧才真正开始显现:我们开始深入思考这样一个曾经困扰我们很长一段时间的问题:“我是谁?“
当一个种族的智慧达到一定程度的时候,就会跳出一切藩篱,来思考自我本身的意义。当一个种族开始思考自己的形成,自己的存在并且希望创造智慧的时候,那时,这个种族的思想便获得了最彻底的解放。
1950年,阿兰·图灵先生在论文《计算机器与智能》中提出了震惊世界的图灵测试,为人工智能理论提供了一个更深层次的发展空间。我们究竟能不能创造出一个有智慧的生命?究竟意识是个什么东西,我怎么知道别人是否有相同的体验,存在和感知究竟是主观还是客观?
计算机能够超越人脑做到超大规模的运算,我们能够将已知的智能做到极致,当计算机的计算能力随着电信号光速传播令我们汗颜的时候,我们也乐观地预计人工智能时代即将到来,并且恐慌他会取代人类的时候。可是情感逻辑呢?当我们想到这个问题的时候,不禁心中一震,连我们都无法破解的最高权限,怎么去创造这样一个智能?
我们能在悬崖之上告诉自己不要害怕,因为害怕这样的情感根本没有意义,就真的不害怕了吗?我们能够在看恐怖片的时候告诉自己这个就是电影没有必要恐慌,就真的能够平静地看完一部恐怖片吗?同样地,我们在失败之后告诉自己不要灰心,灰心的情感是错误的,就能够立刻振作起来吗?情感的力量好像就像大自然一般,它以一种不可抗拒的力量无声而自然地左右着我们,以至于在很长一段时间内,我们都难以意识到这样一股强大的力量的存在。只有一段情感体验过去之后,我们才能够意识到,原来当时我是这样的。
于是当我们都无法破解这样一种最高权限的时候,我们又怎么去让机器实现呢?我想做一个最原初的设定:任何高智慧智只能有意识地创造低或者等同的智慧。你可能会说,那我们这样好了,像黑箱实验一样,我没有必要搞清楚原理,我只要将这些最基本的细胞组织起来,然后控制那些我们已知的东西,让它变得更好不就行了吗?
如果你对此有疑问,我们不妨来想这样一个故事:有一位外科医生打开了一位患者的大脑,应要求帮助患者忘掉自己残暴哥哥的。面对眼前错综复杂的神经元,医生顺利地切掉了他关于一切他哥哥的直接记忆,当医生心满意足地准备缝合伤口的时候,突然想到,他大脑中那些关于的父母的记忆中会不会有他哥哥的记忆呢?于是他开始着手关于父母记忆的神经元......故事到这里讲不下去了。我们不能在有意识的情况下完成:根据黑箱实验的反馈来完成对黑箱实验的内部改进,并希望得到更好的效果。
于是,一个问题开始困扰我们:"情感"是理性思考的必须附加产物吗?能不能有这样一个机器,可以独立思考,但是不产生任何独立的情感,没有灰心,没有消沉,同时也没有激情与快乐。一种机器装置或者算法能够在基本没有能动性(其实"基本"这个程度很难定义)的情况下做出思考吗?于是我想引出第二设定:情绪是理性思维的必然附加产物。假设我们有这样一种机器存在,那么是什么能够推动它进一步思考下去?循环结构,漫无目的地探索?
计算机中“顺序,循环,判断三种基本结构被证明可以解决一切问题,但是解决问题就能被称为智慧吗?情感逻辑是连续还是间断的,我们最基本的情感逻辑单元和01的这样非对即错的编码一样吗?在我们想用现有的基础实现智能之时,或许我们从一开始就错了。"上帝不掷骰子"爱因斯坦在讨论确定性与不确定性的时候以一种原始的思维来考虑,可是波尔却用类似"大数据"时代的统计想法来对解释量子力学,他开启了一种新的思维方式,我们的思想是不是无序且随机的呢?很可惜的是我们好像无法有意识地意识到我们的思考方式,那些解决方案究竟是怎么跑到我们的大脑里来的呢?无法破解这些权限我们就不能够创造出我们真正意义上的智慧。我们可以说随机得到的结果如果看起来合理,或者是黑箱结果看起来合理是不是说里面的结构就是和我们有着一样的情感体验吗?何况现在随机的算法也是经过精心编写的,所以说一个精心设计过得情感体验就是人工智能吗?
几千年来,人们用神学来解释精神与灵魂这些最高权限,而现代我们用一些基本的物理物质组成,神经元,神经递质,电信号,希望能够创造出智慧。可是现在创造出的智慧,在许多未知力量尚未得到合理解释之前,是不可能主动学习,像在短时间内将人类所有的文献数据导入大脑独立分析并学习,或者独立情感体验,学会绘画作诗;用统计学得出来的规律做图灵测试的时候只能让我们自欺欺人地认为他是一个人,就像在电解质中的大脑一样,可能我们每个人都活在各不相同的意识物质世界中。
在算法理论如此发达的今天,依然没有可以模拟人类活动的算法出现,在我们无法破解自身权限的时候,也许就像永动机一样,或许,我们在人工智能最开始努力的方向上就错了。
在我们信心满满地预测奇点临近之时,或许,它在飞速地离我们而去,甚至从未存在过。