20210911看过,今日是911事件20周年,点开《萨利机长》很有感触。
安东尼奥达马西奥《笛卡尔的错误》之中指出,感性与理性二分法,是一个错误的概念。人们常常形容一个人“很有理性”,在于其冷静沉着,逻辑能力,做数学题非常强悍。人工智能研发出后,一直存在着瓶颈,无法超越人类,在于其存在着本质的区别。简单打个比方,一份数学试卷,人类花费一个小时获得95分,“理性人”花费两天时间获得99.9分,哪一个更理性?
人类的理性,是“逻辑推演”与临场反应辩证统一的存在。《笛卡尔的错误》中的盖奇,被一根钢管穿过了头颅,其变得更加“理性”。盖奇就像变了一个人,在一些简单测试题上面与常人没有区别,但在生活中,热情的他与亲戚朋友更加冷漠,做事决策一窍不通。人类生活与模拟世界不一样的点在于,生活之中无不存在着变数,一些变数需要通过理论知识解决【时间非常充足的前提下】,绝大多数需要通过“经验”,这些经验甚至内化到我们的肌肉和大脑之中,可以让人快速选择优等方案,尽管可能不是最佳方案。
老生常谈的一句话,“趋利避害是人的本性”,人类的理性正建立在人的本性之上。人类看到蛇会害怕,害怕会使人做出决策,比如立即逃跑,或远离草丛从而避免与蛇相遇。人在生活决策或做数学题情境中,道理亦是如此。一道数学题可能有多个步骤,高端数学做题家,可能洋洋洒洒一气呵成,他甚至觉得自己没有用到理性。在每一步时,他觉得该用这个方法、或者这个公式,大脑就会产生“快乐”的化学递质,题目很快即可解出。
在电影中,电脑模拟的最佳解决方案是,鸟群撞到发动机后,飞机立马去临近的两个机场降落,这种方案是安全可行的。但现实实际情境是,机长需要时间做出决策,将35秒考虑时间纳入参数后,前往机场降落方案变得不可行,途中会碰到大桥或纽约大楼的建筑物。机长在飞机发动机报废的情况下,仅有35秒中做出决策,他处于哈德逊河之上,两侧都是高楼大厦,40年的驾驶经验促使他做出“迫降于河上”的决策。
另外一本书是塔勒布的《反脆弱》,书中提到为什么不能用“自动驾驶”完全替代“人类驾驶”。先讲述一个案例:在汽车保险行业兴起之后,美国的汽车出事概率更高了。因为司机会这样想:“每年保险费都是固定的,反正车出了事故,都会有保险来承担费用。”保险行业本身出发点是好的,让一般人能够承担的起风险,但最终导致了更多的事故。原因在于,责任归属的问题。如果司机完全承担人员伤亡、车辆维修的责任,相信现在的马路会更加安全。飞机行业亦是如此,如果出现事故,飞行员会将责任推脱到“自动驾驶”的问题上,将责任完全摆脱干净。
飞行员工作不仅是出行那么简单,身后是一百多个家庭的幸福。机长质疑电脑模拟,没有将“人性”和“实际情境”等因素考虑进去,一个没有感情的电脑,在遇到没有“编程过”的情境下,可能会崩溃或死机。我在这里没有完全否认人工智能的意思,人工智能阿尔法狗击败李世石已有多年,却像是昨日之事。但大多数人所不知的是,阿尔法狗不是最强的存在,更厉害的是人类顶尖棋手与阿尔法狗并肩作战。建立在人类本性之上的制度是好制度【比如飞行员】,强行纠正人类本性的制度【比如利用人工智能监督工人工作】是坏制度,希望不用工作。