云计算分布式服务器负载均衡原理(1)


许多企业组织正在和IT人员谈论,关于向云环境转移和/或使用虚拟机技术,从而获得更好的可扩展性。能够根据需求访问更多的资源,让您的企业拥有向内部和外部客户提供卓越的最终用户体验的能力。应用程序可以运行得更快,并且可在处理网络流量高峰时减少中断服务。

在分布式服务器的世界里,负载均衡是任何系统可扩展性功能的核心方面。长期的负载均衡工作的秘诀是自动化。让我们一起来看看在负载平衡的基础。然后,我们可以看看自动化是如何使程序更快,更便宜,更有效的。

什么是负载均衡?它是如何工作的?

负载平衡将网站流量分送到多个服务器,以帮助确保资源得到有效利用,并确保每次都没有服务器的工作负载过重。服务器网络之间分配需求,可以限制时间延迟和提高响应速度。有了负载平衡,如果一个或多个服务器由于故障或日常维护而宕机,应用程序将不一定会被彻底关闭。相反,余下的服务器会直接接过任务。你可以在本地布置多台服务器,或者你也可以选择云网络模型里面的分布式服务器。

在分布式计算云里面,服务器可以位于许多不同的地理区域的安全数据中心中。即使一个数据中心遭受了自然灾害,仍然会有大量分布在其他地方可用的服务器来处理工作量。利用拥有一个完整的基础设施即服务(IaaS)包的私有云,负载平衡能够为一个特定的企业客户保留的一组专用服务器。

在公共云中,您的IP流量与许多其他客户一起在广泛分布的网络服务器上负载平衡。从一个真正的可扩展性的角度来看,在公共云中负载均衡可能是最容易的,因为你可以从主要云服务提供商那里得到无限的服务器资源。当然,检查的任何潜在的云服务提供商的业绩记录也是很重要的,以确保他们的客户真正有体验到轻松的可扩展性需求的经验。

关注可扩展性并不意味着整个程序必须转移到云上。也有可以利用的混合选项。

例如,亚马逊提供了2个EC2(亚马逊弹性云端运算)版本的Zeus(流量管理器和简单的负载均衡器),允许企业和小型企业客户根据需求在云上均衡网络流量负载。这给客户提供了两种选择,正常流量的时候使用本地服务器,而流量高峰期则暂时扩展到云上。


相关内容