一、概述 Internet的规模每一百天就会增长一倍,客户希望获得7天24小时的不间断可用性及较快的系统反应时间,而不愿屡次看到某个站点“Server Too Busy”及频繁的系统故障。 网络的各个核心部分随着业务量的提高、访问量和数据流量的快速增长,其处理能力和计算强度也相应增大,使得单一设备根本无法承担。在此情况下,如果换掉现有设备去做大量的硬件升级,这样将造成现有资源的浪费,而且如果再面临下一次业务量的提升,这又将导致再一次硬件升级的高额成本投入,甚至性能再卓越硬件设备也不能满足当前业务量的需求。于是,负载均衡机制应运而生。 当业务系统服务器无法支撑当前的业务量时,用户可以选择更高性能的服务器。但更为合理的做法是通过在既有业务服务器基础上,增量的方式增加相同功能的服务器,将计算任务分摊到后台多台较低配置的服务器处理,每台服务器都可以响应服务请求。实现合理安排客户请求并加快了请求相应速度,来提高用户体验。而用户仅感受到是一台高性能服务器在提供服务。 二、方案背景 负载均衡,英文名称为Load Balance,其含义就是指将负载(工作任务)进行平衡、分摊到多个操作单元上进行运行,例如FTP服务器、Web服务器、企业核心应用服务器和其它主要任务服务器等,从而协同完成工作任务。 负载均衡是一项基本的网络服务,主要是为了解决上层业务的并发压力,增强网络处理能力,减轻单个设备的资源压力,提高整体服务性能。负载均衡构建在原有网络结构之上,它提供了一种透明且廉价有效的方法扩展服务器和网络设备的带宽、加强网络数据处理能力、增加吞吐量、提高网络的可用性和灵活性。 负载均衡有两方面的含义:首先,大量的并发访问或数据流量分担到多台节点设备上分别处理,减少用户等待响应的时间;其次,单个重负载的运算分担到多台 节点设备上做并行处理,每个节点设备处理结束后,将结果汇总,返回给用户,系统处理能力得到大幅度提高。 负载均衡的目的是创建一个系统:将来自实际运行服务的物理服务器中的“服务”(用户访问站点)进行虚拟化处理,在大量物理服务器之间实现负载均衡,并使这些服务器对外界看起来犹如一个大服务器,为用户提供高可用性、高扩展性、可预测的应用服务。 高可用性:一个站点即使在一个或多个系统瘫痪的情况下仍保持可用和可接入的能力。服务虚拟化为高可用性提供了机会。 高扩展性:服务器能够动态适应负载的增加而不影响现有性能的能力。 可预测性:指能够控制如何交付服务以及何时交付服务以实现高可用性和性能等方面的能力。 负载均衡器会维护一个可用的服务清单,通过心跳检测来剔除故障的服务端节点,以保证服务器清单中都是可以正常访问的服务器。当客户端借助网络发送请求到负载均衡器时,负载均衡器会按照某种算法,从维护的服务清单里面选择一个服务器,并将客户端请求转发到指定的服务器,从而提高系统的可用性和稳定性。 三、适配平台 芯片:鲲鹏 操作系统:麒麟/统信 四、方案介绍 (一)方案的架构 本方案基于B/S架构建设,采用全可视化的配置界面,同时实现四、七层网络流量的负载均衡的处理。 (二)应用场景 负载均衡适用于高访问量的业务,提高应用程序的可用性和可靠性。 1、应用于高访问量的业务: 如果应用访问量很高,可以通过配置监听规则将流量分发到不同的应用服务器上。此外,还可以使用会话保持功能将同一客户端的请求转发到同一台后端服务器上,提高访问效率。 2、扩展应用程序: 可以根据业务发展的需要,随时添加和移除后端服务器来扩展应用系统的服务能力,适用于各种Web服务器和App服务器。 3、消除单点故障: 可以在负载均衡实例下添加多台后端服务器实例。当其中一部分后端服务器实例发生故障后,负载均衡会自动屏蔽故障的后端服务器实例,将请求分发给正常运行的后端服务器实例,保证应用系统仍能正常工作。 4、同城容灾(多可用区容灾): 为了提供更加稳定可靠的负载均衡服务,可在各地域部署多可用区以实现地域容灾。当主可用区出现机房故障或不可用时,负载均衡仍然有能力在非常短的时间内切换到另外一个备可用区恢复服务能力。 (三)技术特点 特点一:智能分流技术,通过智能分流器将流量均衡的分配到各个CPU,保证了系统处理能力的均衡性。 特点二:当负载均衡中的一台或几台服务器不可用时,服务不会中断。网络负载均衡自动检测到服务器不可用时,能够迅速在剩余的服务器中重新指派客户机通讯。这项保护措施能够为关键的业务程序提供不中断的服务,并可以根据网络访问量的增加来相应地增加网络负载均衡服务器的数量; 特点三:负载均衡对外只需提供一个业务IP地址(或域名); (四)核心优势 优势一:并行多核软件架构,无论何种业务, 都可发挥最高的处理性能; 优势二:线性化处理技术,通过各CPU独立的数据处理,实现性能与内核数量的线性化; 优势三:可接入各平台,适配各软硬件产品。
|