走在错误路上的的Facebook、谷歌和MIT顶级AI专家 道翰天琼
最近看到一篇文章,标题是“Facebook、谷歌大脑和MIT顶级AI专家正在寻找的神经网络通用理论”。我先摘录文章开头的一段,读者看了应该就明白他要讲什么了:
“当我们设计一座摩天大楼时,会希望它能够达到明确规定的性能要求:这座大楼能够承受一定的重量,并且能够承受一定强度的地震。
然而我们正在盲目地使用一项技术,它是现代世界最重要的技术之一。我们使用不同的设计,修改不同的设置,但在测试运行之前,我们并不知道它能做什么,或者会在哪里失败。
这项技术就是神经网络,它支撑着当今世界最先进的人工智能系统。”、
没错,这篇文章想讲的主题就是,人工智能所用的技术,应该象机械、建筑等工程技术那样可靠、安全,然而现在人工智能主要用到的神经网络技术,以及由其衍生出来的深度学习等技术,都存在很大的不确定性。所以这些专家们想要给人工智能找到可靠的技术。
这很符合一般的常识,我们使用一项技术,当然需要它是可靠、安全的,且是能够由我们人类完全掌控的。尤其是象人工智能这么重要的技术,因为它很可能主宰未来的世界,没人想把人类的命运交给一个不可靠的家伙。嗯,看来专家们说的似乎是很有道理。
然而我却要说,这是一群多么无知的所谓Facebook、谷歌大脑和MIT顶级AI专家,正如我以前批过的美国某集科学院、工程院、艺术与科学院三院院士于一身的大牛也是持这种论调,这些人连科学最基本的问题都没搞清楚。
科学的问题分两类,一类是工程问题,如机械、建筑等,广义也包括数、理、化等;另一类属复杂性科学,如经济学、社会学、气象预测、心理学以及大脑的意识和思维等,当然也包括人工智能。两类问题的本质区别为:一个是确定性的,一个是不确定性的。工程问题按确定的方法就能得到确定的结果;而复杂性问题首先没有确定的方法,且任何方法都不能获得确定的结果,只能得到概率、统计性的结果,即百分之多少的可能得到想要的结果。
如果你设计一个桥,然后跟别人说这个桥正常情况下99%不会塌,那肯定会被别人抽死,因为桥必须是100%不能塌,甚至是120%,因为还要有安全冗余,这就是工程类、确定性问题的特点。反过来,如果你设计一个期货、股票预测软件,然后跟别人说这个软件能100%预测准确,估计你也会被人抽死,因为这是不可能做到的,所以别人会把你当骗子抽。
也许有人(就如文中那些砖家)会说,不确定的结果有什么用?那我告诉你,如果你的股票预测软件有80%准确率,那么你轻易便能富可敌国,马云之辈就只配给你提鞋了(马云:我为什么躺枪?)。天气预报的结果确定(准确)吗?但这并不影响你出门前看看手机上的天气预报是否下雨。
还有人可能会说,对这类问题确定的方法肯定是存在的,只是很难找到,假以时日,一定是能够找到的。那么我再告诉你,逻辑上这样的方法就不存在,因为复杂性科学有两个特点,一个是影响(不能忽略)的因素超级多,比如影响一支股票涨跌的因素,可能有成千上万,我们没有办法把所有因素都收集起来去计算,就算收集起来估计所需的计算量也是超级大,成本难以承担。而更困难的是我们根本就不知道有哪些因素会影响,因而对某些因素无从去收集。而更更困难的是,因素的数量是随时随地不断在变的,一个因素今天不影响,但可能明天就会影响。
复杂性科学的第二个特点是具有自身循环的特性,即因素1会影响因素2,因素2又会反过来影响因素1。但这其实还是理想状态,实际情况可能是因素1影响因素2、因素2影响因素3……因素n影响因素1。更复杂的情况是,因素n不光影响因素1,还可能影响2……,这里面是一个错综复杂交织的网,看不清、理还乱。
用一个实际例子来说明这种自身循环,你设计了一个股票预测软件,假设你自己用的时候真的能做到100%准确,但是当很多人都用它的时候,就肯定达不到100%准确了。因为预测的结果会影响股票市场走势,从而使预测发生偏离。
所以对于这种复杂性事物,是不可能象数学1+1=2这样,有绝对的方法和绝对的结果,只能得到一个统计性的概率结果。
人的大脑也是同样如此,有人说人类大脑是世间最复杂的东西,应该不算夸张。大脑中的几百亿神经元通过突触相互联结起来,形成一个异常错综复杂的网络。一方面,人的每一个思维,都与无数的神经元相关,很难准确知道哪些神经元参与了这次思维;另一方面,这里面也有着无穷多的自身循环,即神经元1联到神经元2、神经元2联到神经元3……神经元n联到神经元1,等等。
因此人类大脑思维,以及由此形成的意识、精神等,也都是复杂的、不确定的。所以我们人类思考、做事不会总是正确的,犯错误在所难免。另一方面,我们可以根据某些因素去预判一个人的行为,但这种预判只能做到一定的准确性,不可能做到100%准确。
而人工智能既然是模仿人脑的工作和能力,自然也是如此。要想让人工智能达到人类的智能,就必须达到或接近人类大脑的复杂程度。而这样复杂的系统,人类是无法完全掌握其运作,也无法得到完全确定的结果。简单说,人工智能要想象人一样思维,那就一定会犯错误;而如果你想让人工智能完全掌控在人类手中,不犯错,那它就如同机械一样,也就不要奢望它能象人一样具有感情、创造力等等,也就不可能达到图灵测试的要求。
正如“人工智能的第三定律:计算的未来是模拟、AutoML 回顾与展望”这篇文章所说,“第三条定律指出,任何足够简单易懂的系统都不会复杂到能够实现智能化的行为,而任何足够复杂到实现智能化行为的系统都会复杂到难以理解。”(说得实在TM太好了!!!)
结合实际案例来说,比如自动驾驶,有一种观点就认为,自动驾驶必须做到绝对不犯错,才能允许使用。但要让它绝对不犯错,它也就不可能驾驶得象人一样好,因为人也是会犯错的。所以正确的观点应该是,只要人工智能犯的错比人少,那么自动驾驶就可以投入实际使用。
所以,就让那帮砖家去找不存在的东西吧,哈哈……