会员登录 注册新帐号电脑店行业门户 | U盘启动工具

首页

 电脑店主页 > 产品技术 > 服务器储存 > 服务器 > 数据中心 > Facebook重新设计数据中心内部网络应对流量增长

Facebook重新设计数据中心内部网络应对流量增长

发布时间:2017-06-02 10:56      点击:     关注官方微博:

 日前,社交网络巨头Facebook公司已经升级了连接其服务器的网络,以应对内部数据流量的增长。新的快速骨干网络(EBB)可以缓解其数据中心内的网络拥塞,并为最终用户提供更好的服务。

  所有用户流量都保留在现有网络上,又称为‘Classic Backbone’。

  一个不同的挑战

  在过去十年中,Facebook公司在美国和欧洲的数据中心使用单一广域网(WAN)骨干网进行互连,该网络承载了用户流量和内部服务器之间的流量。

  内部流量由与用户交互不直接相关的各种操作组成,例如将图片和视频移动到冷存储或复制异地数据以进行灾难恢复等。

  根据网络工程师Mikel Jimenez和Henry Kwok的博客文章,Facebook内部数据中心流量的增长速度远远快于用户流量,直到开始干扰前端功能。

  “随着新的数据中心的建立,我们意识到需要将跨数据中心与面向互联网的流量分为不同的网络,并对其进行优化。在不到一年的时间里,我们构建了新的跨数据中心骨干网络的第一个版本,称为快速骨干网(EBB),从那以后我们一直在增长。”工程师在文章中解释说。

  在创建EBB时,Facebook公司将其网络的物理拓扑划分为四个并行平面,就像在2014年设计数据中心架构时一样。该公司还开发了专有的模块化路由平台来提供内部网关协议(IGP)和消息传递功能。

  Jimenez和Kwok在文章中写道:“我们的新网络的第一次迭代是使用内部网关协议(IGP)和全网内部BGP协议(IBGP)拓扑结构的完美结合来构建的,以实现基本的数据包路由。下一步是添加一个流量矩阵估计器和中央控制器来执行假设‘静态’拓扑的流量工程函数。最后的迭代将内部分布式网络平台Open/R替代了原有的IGP,将分布式版本与中央控制器完全集成。”

  由此产生的网络能够实现干净的拆分故障域,并可实时响应流量峰值。接下来,Facebook公司计划扩展网络控制器功能,以更好地管理流量拥堵。

★★★ 电脑店行业门户(www.diannaodian.com)独家文章,欢迎大家转载 ★★★