《三十六计》中的第一计就是瞒天过海,它是这样说的:备周则意怠,常见则不疑。

用我们现在话讲,就是对于那些布置周全的工作,我们常常会疏于防范;对于那些经常看到的事物,我们常常不会对它们有所怀疑。

公元221年,刘备为夺回荆州,为关羽报仇,率领数十万大军攻打东吴。而他的对手陆逊,在他眼里不过是一个文弱书生,他根本没把陆逊放在眼里。

认识了崩溃,我们才不会措手不及

夷陵古战场

一开始蜀军连连胜利,东吴则节节败退,这更助长了蜀军的自大,以至于刘备在布置军队的时候竟然犯了兵家大忌,联营结寨七百余里,但他却以为自己已经布置妥当,防备周全。陆逊眼见战机,一把大火烧了刘备的联营,打的刘备命陨白帝城。

打仗是一件很复杂的事情,除了兵马钱粮,还需要选贤任能,更需要指挥者有足够的谋略。如此复杂的一件事情,稍不注意就会全线崩溃。

如今的社会系统更是复杂。一方面科技的创新和进步不断的改变着世界运行的模式;另一方面,这些进步也让我们的系统变得更加复杂,我们稍不注意,就会引起失败和崩溃,甚至造成灾难性的后果。

《崩溃》的作者克里斯·克利尔菲尔德亲眼目睹了雷曼兄弟银行(Lehman Brothers)的倒闭和全球股市的震荡,从那时起,他就对避免灾难性错误这一问题产生了浓厚的兴趣。

克里斯·克利尔菲尔德在哈佛大学学习物理和生物,长期从事衍生品交易,他还是一个有执照的商业飞行员。克里斯为《卫报》、《福布斯》和《哈佛肯尼迪学院书评》写了许多有关复杂性和失败的文章。

《崩溃》的另一位作者安德拉什·蒂尔克斯经常在多伦多大学罗特曼管理学院主持战略、组织和社会研究讲座,他被认为世界前40的40岁以下的商业教授。联合国评价他在组织失败方面的课程为商业学院中有关灾难风险管理的最佳课程。

认识了崩溃,我们才不会措手不及

《崩溃》这本书共分为两个部分,第一个部分探讨的是系统崩溃的案例和原因分析,揭示了看上去毫不相关的事件背后隐藏的共同原因。第二部分则为人们提供了防止崩溃的解决办法。

一、系统越复杂,发生的崩溃也就越严重

三里岛核事故是美国历史上最严重的一次核事故。1979年3月28日凌晨4时,美国宾夕法尼亚州的三里岛核电站第2组反应堆的操作室里,红灯闪亮,汽笛报警,涡轮机停转,堆芯压力和温度骤然升高,之后,开始有大量放射性物质溢出。在三里岛事件中,从最初清洗设备的工作人员的过失开始,到反应堆彻底毁坏,整个过程只用了120秒。

原来只是因为管道工程中的一个减压阀被卡住了而没有及时关闭,但是控制室的指示灯却显示关闭状态,导致了操作员发生了错误的操作,本该加水的操作实际的结果却是放水,缺少了冷却水,于是堆芯便开始融化。

研究这一事件的查尔斯·培洛结合自己长期的研究经验,总结出了促使系统发生崩溃的两大因素。第一个因素就是系统的复杂性,如今的各种系统要比几十年前的更加复杂,以前的系统发生了问题最多的可能就是线性问题,找到问题点解决掉就可以了。但是,复杂的系统一旦发生问题,往往会引起连锁反应,让人很难弄清楚问题的所在。

认识了崩溃,我们才不会措手不及

复杂的系统

第二个因素就是系统中的松动空间。工程学中有一个术语,叫作紧密耦合。如果一个系统是紧密耦合的,那么它的各部分的松动空间就会很小,一个地方出问题,会引起别的地方同时出问题。如果有了松动空间,在一个部分出现问题的时候,其他部分还可以不受影响。

因此,越是复杂的,越是紧密耦合的系统,这样的系统往往容易发生崩溃。

二、我们的习惯,让我们走到了崩溃边缘

不必像以前那样麻烦,我们现在可以通过各种数据和指标来判断一件事情的下一步动作,但我们的做出的反应真的科学合理吗?

事实上并非如此,主要有以下三方面的原因:

第一,人们往往过于相信自己的直觉。很多人在自己熟悉的领域往往都是有经验的人,他们做事情的时候靠的就是这些经验,但这些经验却并非百试百灵。比如,有些医生在接触的案例比较多的时候,往往不用仪器检查就可以断言患者的疾病是什么。但是,一旦出现症状相同而病因不同的情况,那么误诊的几率就会很大。

在复杂的系统面前,我们很难理解决策会造成什么影响,也无法从中学习,而我们常常被直觉误导。

第二,人们都有从众的心理。艾莫利大学的神经学家雷格·伯恩斯曾经做过一个测试。参与测验的对象要观看几对三维物体,每个物体显示的角度并不相同。参与者必须说出每一对物体是否相同。他将参与者分为5人一组,但其中只有一个是真正参与者,其他4个则是雇来的演员。演员们的答案总是保持一致的正确和错误,参与者的答案是研究的重点。

结果让人意外,参与者有超过40%的时间会顺从团队的错误意见。实验表明:人们愿意与他人保持一致。这就意味着,一旦大部分人出现了失误,我们也会跟着失误。

第三,人们往往局限于自己的眼光。同样一件事情,圈内人和圈外人往往有着不同的看法。比如,你所在的单位出了负面新闻,那么你可能会极力去维护它,但当你离开这个单位的时候,你可能就会觉得它做的确实不对。

福特汽车在1970年初的时候发生过一次召回事件,丹尼·焦亚是当时的召回协调员,但他在离职后对召回事件却有了相反的看法。“在我去福特工作以前,我会强烈认为,福特有道义上的责任召回车辆。在我离开福特以后,我也认为福特有道义上的责任召回车辆,在教学中也这样说。但是,当我在那里工作时,我没有感到召回车辆的道义责任。”

三、改变我们的习惯,崩溃才会离我们远一点

面对科技的不断进步和系统的不断复杂化,我们容易忽视的地方太多了,而我们并不知道,究竟是那一点出了问题才会导致崩溃的发生,只是在灾难之后才推断出引起崩溃的不过是一个小问题,因此,我们都容易变成“事后诸葛亮”。

有没有什么办法提前预防呢?有以下三点:

第一,对可能产生的后果提前预测。提前把系统可能出现的崩溃结果进行罗列,并对罗列的结果找出对应的解决之法,这样才能更加的有备无患。加里·克莱因发明了一种事前检验(premortem)的方法。这种方法的基础是心理学家称之为未来的后见之明的概念。

在一个事件开始之前,我们应该说:“让我们现在看一看水晶球,这个项目将会失败,是一次惨败。现在,诸位同仁,花上两分钟,写下你们想到的所有可能造成项目失败的原因。”

然后通过他们想到的原因,提出方法,预防团队集体归纳出的一系列风险。

第二,听得进不同的声音。人们对于正面的赞美的喜欢总是要胜过负面的直言相告,当有了与我们期待的结果不一样的声音时,我们总是会想办法去掩盖它。

2014年夏季,佛林特市的李安妮·沃尔斯特发现了自己家里的水有了问题,以至于她的孩子都得了严重的皮疹。设备管理员对水化验的结果显示,水中的铅含量严重超标。但是当地官员却试图掩盖这一问题,他们甚至在取样的过程中做了手脚,以使的检验的结果看起来正常。

查尔斯·培洛认为,“我们无法把握我们现有的世界,因此我们构建了一个我们期待的世界,然后加工那些与期待的世界相符的信息,并找出理由排除那些可能与他抵触的信息。”

这意味着,当我们排除这些负面信息的时候,那些有可能引发崩溃的相互作用也被我们直接忽视了。如果我们能够像唐太宗包容魏征那样,又怎会缺少属于自己的“贞观之治”呢?

第三,让自己的团队多元化。麻省理工学院的教授埃文·阿普费尔鲍姆曾经说过:“多元型市场要比单一型市场准确的多”,也就是我们经常说的“兼听则明”。因为如果你处在一个单一型的市场,其中的一个人犯了错,其他人就可能被传染,但多元型市场中错误扩散的可能性则小很多。

认识了崩溃,我们才不会措手不及

多元化会让团队变的更加多疑,团队可能无法太顺利地一块工作,但这在复杂的、紧密耦合的系统中非常重要。

这就如同在一个在试图狂飚的汽车上加了半脚刹车,而这种减速只会让这辆车更加的安全。

其实,生活中的崩溃无处不在:一颗螺丝钉的松动就能让整个火箭发射失败,黑客们的攻击总会让大片网络陷入瘫痪,很多娱乐明星的人设崩塌更是在一夜之间。

正如《崩溃》的作者在文中所说,“我们拓展了科学的疆界,同时意味着我们进入了危险区”。因此,在不断向前的过程中,我们也要时不时的停下来看看,也许将来的全线崩溃只是前面的一小步出了问题。给系统以空间,给自己以时间,如此,我们才能在崩溃的黄金时代幸免于难。

相关文章