能力无限(5)

但霍尔茨勒在检查谷歌的系统时却认定,搜索引擎的问题和反应速度的问题根源不在硬件上。他的结论正好相反。他认为,佩奇和布林的功课都做得很好,使用PC元件也没有问题,它是性价比最优的选择。问题出在软件上,它是在忙碌的大学校园环境下写出来的,并没有考虑到当请求的量持续上升,或当硬盘驱动器及其他元件出现故障时,将会暴露出哪些缺陷。霍尔茨勒重写了全部代码,他相信,这一下谷歌不仅用不着放弃使用PC元件这种省钱的方式,而且在速度与可靠性方面将取得双赢。

在对谷歌的软件系统全面检查完成后,霍尔茨勒在斯坦福大学计算机科学学术报告会上解释道:“PC机有其杰出的一面,它很容易买到,价格又便宜,就其价位而言,运行速度相当快。但它还不是世界上最可靠的机器,所以人们还是担心它会出故障。”在获得了更多的经验后,谷歌的工程师们确立了一个标准的设计:在一个支架里摆放40~80台服务器,每一台服务器都有与大型驱动盘配套的中型台式PC机相同的处理能力。在2003年,用大约万美元就可以装备一套有176个微处理器、176×1012比特的存贮器和7×1012比特的磁盘空间的设备。如果要购买知名厂商的产品,价值万美元的服务器却只能装备8个处理器、1/3的存贮量和大体相同的磁盘空间。因此,谷歌的性价比还是令人满意的。它因此而拥有了如何用比较少的钱获得比竞争对手更杰出的表现的能力。

谷歌在2000年春天迈出的一步使它走到了当时网络公司排头阵营的前列,并将这个优势一直保持到今天:除了早先在加利福尼亚的第一个数据中心外,谷歌又在东海岸创办了第二个数据中心。这个具有多重目的的中心的建立是为了处理被工程师们称作“冗余”的数据,即提供一种并行的运行能力,它时刻准备着,一旦何处出现系统故障,就可以替代上阵。在谷歌,冗余数据的处理由分布在两个不同地理位置的数据中心的数千台机器完成,不管哪个网站出现重大事故,谷歌都有能力为其所有用户提供不间断的服务。

增加第二个数据中心,对于任何一个希望提供不间断服务的网络公司来说都是最基本的要求。在2007年7月,Craiglist、Technorati、Second Life、Yelp、LiveJournal、RedEnvelope、TypePad及其他位于旧金山的365个主要公司的价值亿美元的数据中心都陷入了黑暗――Craigshist更是长达11个小时,原因是某个电站的断电事故影响了这座城市的部分地区,被指望在这种情况下提供电力支持的柴油发电机却在此时出现了故障。

当谷歌增加第二个数据中心时,它不仅增加了第一个数据中心抗击病毒攻击的保护能力,而且缩短了信息比特的移动距离。即便是电子的运行速度,物理距离仍会对反应速度造成影响。即使只将回应时间减少几分之一秒,也是用户所介意的。谷歌曾经做过试验,看看用户是否能注意到秒得到25个结果(一般水平)和秒得到10个结果之间的区别,结果显示,用户们在等待那个中间水平的秒之后,显然很容易产生厌烦情绪并离开谷歌网站。

为了加快哪怕是一点点速度,谷歌也认识到它应该继续在全世界不同地区设立数据中心,并尽快做到这一点,因为它不需要建设自己的设备,而可以用便宜得可笑的价格租用商业性数据中心的多余设备。这样一来,2000年初期对谷歌的扩张来说就成了一个最难得的时机:对新启动的商业网站的疯狂投资以及向它们提供数据中心等技术服务等。这些行为都在2001年年底戛然而止,这与股票市场上股价猛跌正好是同一时间。数据中心失去了租户,签约新用户又毫无指望,谷歌的计划真是赶上了好时候!

读书导航