[ 编者按 ] 在这个信息爆炸的时代,我们似乎越来越难以客观地看待事实。很多时候,即便面对再多的证据,人们依然固执地坚持自己的观点,难以做出合理的判断和决策。究竟是什么原因导致了这种现象?
多项心理学实验研究发现,即便在面对明确的反证信息时,人们也难以改变既有的观点和信念。这种“确认偏见”不仅存在于日常生活中,也影响到人们对复杂问题的判断。这无疑折射出了科技发展与人类认知局限之间的矛盾。而如何克服这一心理定势,培养理性客观的思维,已成为摆在创业者面前的重要课题。
本文从认知科学的角度,深入探讨了人类思维的局限性及其背后的演化机制。只有当我们充分了解了“为什么会这样想”,才能够更好地刻意练习自己的思考方式,做出更准确的判断。
每期监测和精编全球高价值情报,为你提供先人一步洞察机会的新鲜资讯,为你提供升级思维方式的深度内容,是为[ 红杉汇内参 ]。
人,很难理性思考
1970年代,斯坦福大学招募了一批学生进行研究。研究人员分别向A、B两组学生们分发了版本稍有不同的消防员信息卡片。相同的是一些基础信息,比如其中一位消防员K有一个女儿,喜欢潜水。
但稍有不同的是:A组的学生被告知,K是一名成功的消防员,风险偏好是保守(即塑造形象:成功=保守);B组的学生则被告知,K是一名糟糕的消防员,曾多次被“记过”,风险偏好也是保守(即塑造形象:糟糕=保守)。
研究进行到一半时,学生们被告知他们被误导了——他们之前收到关于消防员的信息完全是虚构的。此时,学生们被要求针对“一位成功的消防员对风险应该会是什么态度”阐述自己的想法。
结果,A组的学生普遍认为成功的消防员会避免风险;但B组的学生则更多认为成功的消防员会接受风险——因为A组之前已经被灌输“成功=保守”的第一印象,而B组则相反,被灌输的是“糟糕=保守”的第一印象。
也就是说,即使被告知之前给的信息是虚构的,人们也很难改变这些信息造成的第一印象。而且,关键是即便这些信息过于简单,其实完全无法得出任何可靠的结论,但它还是对人们产生了影响。
斯坦福大学的这一研究在当时可谓轰动。毕竟,那还是在1970年代,第一次有学者提出了“人很难理性思考”的观点。
当然,现在已经有数以千计的实验证实并进一步阐述了这一观点:看似理性的人往往是完全非理性的。但一个更关键的问题是:人为什么会这样?
理性是一种进化的结果
在哈佛大学出版的书籍《理性之谜》(The Enigma of Reason)中,认知科学家Hugo Mercier和Dan Sperber试图回答了这个问题:理性是一种进化的结果。就像两足动物或三色视觉一样,是古老的人类自非洲的大草原起,就慢慢开始进化而演变成今天这个样子的。
两位学者认为:与其他物种相比,人类最大的优势在于我们的合作能力。但合作很难建立和维持。对于任何个体来说,“吃白食/搭便车”永远是最好的选择。理性思维的能力并不是为了让我们解决抽象的逻辑问题,甚至也不是为了帮助我们分析陌生的数据得出什么结论;相反,人类发展出理性,其实是为了解决在协作群体中生活的问题,进而在群居环境中维护自己的地位和利益。
即,“理性是人类进化出的适应超社会性的产物。”
许多心智习惯,从“智识主义”视角来看,可能显得古怪、愚蠢,甚至荒谬,但从“互动主义”的社交视角来看,它们却常常表现得颇为高明。例如著名的“自证偏见”(Confirmation bias,亦称“确认偏差”)——人们倾向于接受支持自己信念的信息,而排斥接受与之相悖的信息。在已发现的多种形式的认知偏见中,自证偏见是被研究得最深入的一种,相关实验成果足以编纂成教材。
如果说理性的设计目的是生成可靠的判断,那“自证偏见”无疑是一个严重的设计缺陷。假设有一只思维方式类似于人类的老鼠,如果它坚信周围没有猫的存在,同时,它执意寻找支持这一信念的证据,而忽略反对这一信念的证据,那么它很快就会成为猫的晚餐。从进化的角度看,这种倾向应当受到自然选择的淘汰。然而,人类与这种认知偏见共同存续的事实,恰恰说明它具有某种适应性功能。
相较于“自证偏见”,Mercier和Sperber更倾向将这一现象称为“我方偏见”(Myside bias)。他们指出,人类并非随机地轻信信息——面对别人的观点,我们擅长发现其弱点;但几乎无一例外的是,我们对自身立场中的盲点视而不见。
一项实验巧妙地验证了这一不对称性。该实验首先要求参与者回答一系列简单的推理问题;然后解释为什么这样想,此时如果发现有错,还有机会修改。但大多数人都会坚持自己最初的答案;只有不到15%的人在第二步中改变了主意。
接下来,参与者会看到同一道题以及一个其他参与者的不同答案——事实上,这些“他人的答案”其实是他们自己先前的回答——结果显示,有一半的人很快就反应过来,指出实验人员弄反了;但另一半没发现这一实验设计的参与者,突然对“他人的答案”(其实是自己的答案)表现出了更为严苛的批判性思维。近60%的人对“他人的答案”提出质疑,即便这些答案正是他们自己原先认可的。
研究认为,这种倾向反映出了人类进化出的理性思维的真正作用:防止个体在群体中被他人占便宜。生活在原始森林中的人类祖先,主要关心的是自己如何在群体中占据有利地位,以及确保其他人在洞穴里优哉游哉时,自己不会是那个需要去冒险狩猎的人。在这样的环境下,抽象的逻辑思考或者说理性思维主要并不是为了讲道理,更多的是发现别人论点中的漏洞,以防自己被骗。
而到了今天,我们如今需要担心的很多问题先辈们都不必考虑,他们也不必面对一个信息爆炸的世界。因此,如今理性似乎常常无法为我们提供助益也就不足为奇了。所以,一方面,我们往往更善于发现他人论点的缺陷,忽视自己观点的缺陷。另一方面,当我们面对一些抽象的问题时,往往难以保持客观和理性,反而更容易受到情绪和社交因素的影响。
“这仅仅是自然选择没有跟上社会环境变化速度的众多表现之一而已。”Mercier和Sperber写道。
“解释深度错觉”效应
在认知科学家Steven Sloman和Philip Fernbach的著作《知识的错觉:为什么我们从未独立思考》(The Knowledge Illusion:Why We Never Think Alone)一书中也表示,社交性是人类思维发挥作用的关键,也是人类思维失灵的关键。在这本著作的开头,谈到了一个“厕所问题”。
几乎每个人都对马桶不陌生。典型的抽水马桶通常都有一个陶瓷的储水箱。按下手柄或按钮时,里面的水就会将马桶里的污物一同冲进下水道。但,它的工作原理是怎样的呢?
在耶鲁大学进行的一项研究中,研究生们被要求为他们对于日常设备(如马桶、拉链和圆筒锁)的理解程度打分。然后,他们还需要详细、逐步写下这些设备的工作原理。这步之后,再次对自己的理解程度打分。显然,这样一次实验下来之后,大部分学生都意识到了自己的认知盲区——他们的自我评分普遍都有所下降。
Sloman和Fernbach将这种效应称为“解释深度错觉”(Illusion of explanatory depth),而且认为这种效应几乎无处不在。人们常常高估自己的知识储备,以为自己懂的远比实际要多。而让我们能维持这种错觉的,正是其他人。我们之所以能轻松使用各种工具、知识,完全是依赖于他人的专业知识和分工协作。
而这种依赖他人专业技能的合作,恰恰是人类特别擅长的事情。自从我们学会一起狩猎以来,这种相互依赖就一直存在,而这很可能也是我们进化过程中的一个关键转折点。也是因为人类的协作已经达到了如此娴熟的地步,以至于我们常常分不清哪些是自己的理解,哪些又是来自他人的知识。
他们写道:“我们自然而然地进行认知分工,这意味着‘个人的想法和知识’与群体中‘其他成员的想法和知识’之间‘并没有明确的界限’。”
这种无边界性,恰恰是我们所认为的进步的核心。当人们为新的生活方式发明新工具时,他们也同时创造出了新的“无知领域”。倘若人人都坚持在拿起刀之前必须先精通金属加工的原理,那么进化到青铜时代之后,恐怕人类智识就再也无法继续向前了。面对新技术,混沌的理解反而赋予了我们前进的动力。
所以,我们需要认识到我们认知的局限性,学会在依赖他人的同时保持独立思考,用批判性思维去分析和评估信息。这意味着在形成任何观点之前,我们应当深入探究信息的来源、证据的可靠性和论点的逻辑性。我们应当培养提问的习惯,对任何看似理所当然的陈述提出质疑,探究其背后的假设和前提。同时,我们也应该开放心态,愿意接受新的证据和不同的观点,这有助于我们更全面地理解问题,避免陷入认知偏见的陷阱。
我们还需要培养自我反思的能力,定期审视自己的思维过程和结论,识别可能的认知偏差和盲点。在依赖他人的专业知识时,我们也应该保持警觉,理解他们的观点可能存在的局限性,而不是盲目接受。
(声明:本文仅代表作者观点,不代表新浪网立场。)