研究人员通过程序控制,让机器蟑螂也具有蟑螂的特点:喜欢躲藏到阴暗的遮蔽处和喜欢扎堆。在12只蟑螂中放进4只机器蟑螂,这个群体的表现和正常的蟑螂群体一样,让它们在一暗一亮两个遮蔽处挑选,大多数时候它们都会躲到暗的遮蔽处去。
然后,研究人员改变程序,让机器蟑螂喜欢较亮的遮蔽处。结果,在这几个机器蟑螂的误导下,出现了反常:在大多数时候,蟑螂群体会躲到较亮的遮蔽处去。说不定我们以后可以利用这种机器蟑螂,把房间中暗藏的蟑螂都引到明处,聚而歼之。
所以呢,民主决策虽然是个好东西,但是也很脆弱,很容易被别出心裁的异己分子所破坏。不过,如果这些异己分子出的是坏主意,会很快被自然选择淘汰。不幸的是,在它们被淘汰时,会有一大帮盲从它们的家伙陪葬。
好人和骗子的博弈
1950年,美国数学家阿尔伯特?塔克(Albert Tucker)在斯坦福大学给心理学家做报告时,讲了一个故事。警察在盗窃现场附近抓到了两名疑犯阿尔和鲍勃,把他们分开审讯,并分别向他们开了条件:如果两人都不招供(疑犯彼此“合作”),警方没有他们盗窃的证据,将以携带武器这一较轻的罪名将他们各判处1年监禁;如果两人都招供并牵连对方(疑犯彼此背叛),两人都将被判处10年监禁;如果有一人招供并牵连对方,而对方不招供,此人将被免予起诉,而对方将被判处最高刑期20年。
阿尔会想:“鲍勃要么招供要么不招。如果鲍勃招了,而我不招,那么我将被判20年,我招了则被判10年。如果鲍勃不招,我也不招,那么我将被判1年。但是,如果我招了,我将被免予起诉。所以,不管鲍勃招不招,我招供都是最好的选择。”鲍勃也这么想。最终两人因为都“理性”地选择招供而被判了10年。但是,如果他们都“非理性”地选择不招,则只会被判1年。
理性的选择却不能带来最佳的结果,这个“囚徒困境”后来成了博弈论最著名的问题。博弈论还有一个类似的问题,也是关于合作与背叛(或欺骗)的关系,但是条件有些不同。有两个人驾车回家,遇到暴风雪,被雪堆分别堵在了街道的两头。司机要么出来铲雪清除路障,要么待在车中。如果两个司机分别从两头铲雪(“合作”),就能都把车开回家并分担劳动付出。如果只有一个司机铲雪,另一个司机待在车中等对方铲完雪,他也能回家,而且还避免了劳动付出(“欺骗”)。当然,如果两人都待在车中,没人铲雪,那就谁也回不了家了。在这种情况下,应该怎么选择呢?最佳的策略是作出与对方相反的选择:如果对方当“好人”铲雪,我就当“骗子”坐享其成;如果对方不铲雪,我就当“好人”自己来铲雪。这样虽然被人占了便宜,总比坐以待毙好。