网间协议优化让Web访问提速10倍?(1)


如今,排名全球2000名以内的企业均朝向数据中心整合与服务器整合的方向发展,数据中心从数以百计缩减为少数几个,应用程序也整合到少数几台服务器上。由此,越来越多的企业员工以远程方式或在分公司内工作。
企业在建设集中数据中心时大多使用广域网作为传输网络,而广域网的传输性能问题,也为集中数据中心应用的效率带来了全新的挑战,这个问题经常造成数据中心访问速度低下,而广域网的传输性能主要受到以下的因素影响:传输线路带宽的大小、数据的传输效率、网络的延时和TCP协议传输控制方式等。

而为了解决广域网的传输性能问题,Juniper、F5、Citrix、RiverBed、深信服等网络设备厂商都纷纷推出了各种各样的解决措施,例如数据压缩、Cache动态缓存、TCP协议优化、应用协议优化、QoS优化等系列广域网加速手段,

为了全面剖析广域网加速技术,IT168网络频道推出了系列广域网加速技术连载,从各个方面去分析广域网加速技术,以及它为企业用户所带来的好处。

广域网加速技术连载目录:
网间加速之TCP协议和应用协议优化
网间加速之数据压缩、Cache动态缓存
网间加速之Web应用加速分析
网间加速之C/S应用加速分析
网间加速之应用难题分析

在多种网间加速方法中,除了数据压缩、Cache动态缓存这两种主要的加速手段外,相对重要的就要算TCP协议和应用协议优化了。

100Mb/s到底比2Mb/s带宽快多少?

目前有一种常规的认识是,100Mb/s带宽肯定比2Mb/s带宽的数据传输速率高,并且会高很多。真的是这样的么?

回答是不幸的。这里有一份来自国内网络设备厂商深信服给企业所做的实际测试数据。某企业同时使用100Mb/s带宽接入和2Mb/s带宽的带宽接入,并对之进行对比。

根据实际测试数据显示,一条2Mb/s的ADSL线路在最大64K字节窗口TCP数据传输协议的相关数据传输原理术语)情况下,在网络延时小于40ms时,线路能达到其带宽允许的最高数据吞吐量,但是当网络延时逐渐增大的时候,线路传输效率明显下降,实际的吞吐量只能达到带宽所允许的最高数据吞吐量的10%以下。

在另外的100Mb/s带宽的线路上面进行相同64K字节窗口)的测试,得到的结果显示在网络延时大于40ms以后,100Mb/s带宽线路的数据吞吐量和2Mb/s的线路几乎下降到同样的水平,所以说存在网络延时以及TCP窗口不合适的时候100Mb/s带宽线路的数据传输能力并不比2Mb/s带宽线路的数据传输能力强多少。

从上面的测试可见,并不是带宽足够大了,网络的传输能力就一定能够同步增长,宽带足够大只是必要条件,不是充分条件,它还受制于数据的传输协议以及网络延时对传输协议的影响等多种因素。

 
图1 

从上图我们可以看到在网络延时小于40ms的时候,传输速度可以达到网络带宽的90%左右,但是随着网络延时的增加,传输速度逐渐减小,当网络延时达到120ms以上后,传输速度将到带宽的10%了。

现在我们知道TCP协议会受到网络延时的影响了,那么是否有方法来解决这个问题,能不能既确保数据传输的安全性同时又把网络延时造成的影响降到最低程度,接下来就看看网间加速是怎么解决这个问题的。

图2

实际上,网间加速技术采用的是类似于“代理”这样的方式来解决这个问题的,就是说将原本需要通过广域网进行传输的应答消息,改成由本地网间加速设备来进行处理,在分支机构的网间加速设备代替服务器来处理客户端的应答消息,而在总部的网间加速设备则代替客户端来处理服务端的应答消息,这样所有的应答消息都是在本地网络进行传输,自然就消除了广域网的影响。

TCP协议经过以上的优化,众多的应答消息就直接避开了广域网,从而极大地减少了网络延时,提高了网络传输效率。


相关内容