设为首页 - 加入收藏 平凉站长网 (http://www.0933zz.com)- 国内知名站长资讯网站,提供最新最全的站长资讯,创业经验,网站建设等!
热搜: 标签 学习 2018 什么
当前位置: 首页 > 新潮汕台湾神算 > 外闻 > 正文

F5并购Ngnix,负载均衡实现软硬结合

发布时间:2019-03-18 12:16 所属栏目:[外闻] 来源:架构师技术联盟
导读:3月11日,F5与NGINX宣布了一项最终协议,根据该协议,F5将收购 NGINX 的所有已发行股票,总价值约为 6.7 亿美元。 F5是多云应用服务的全球领导者,其为全球最大的企业、服务提供商、政府和消费者提供了安全交付应用的自由。而 Ngnix 最知名产品 Nginx 是互

3月11日,F5与NGINX宣布了一项最终协议,根据该协议,F5将收购 NGINX 的所有已发行股票,总价值约为 6.7 亿美元。

F5是多云应用服务的全球领导者,其为全球最大的企业、服务提供商、政府和消费者提供了安全交付应用的自由。而 Ngnix 最知名产品 Nginx 是互联网上最受欢迎的Web 服务器之一,Ngnix提供一整套用于开发和交付现代应用的技术,同时它也是应用交付领域的开源领导者。

此次战略收购将确保长期收入和每股盈利增长。F5和 Ngnix将在所有环境中实现多云应用服务,提供开发人员所需的易用性和灵活性,同时还提供网络运营团队所需的规模、安全性和可靠性等能力。

F5并购Ngnix,负载均衡实现软硬结合

F5并购Ngnix,负载均衡实现软硬结合

此外,F5 将通过 F5 安全解决方案增强 Ngnix目前的产品并将F5云原生创新与Ngnix的软件负载均衡技术相集成,从而加速 F5 为现代容器化应用提供应用服务的上市时间。F5还将利用其全球销售团队、渠道基础设施和合作伙伴生态系统来扩展Ngnix向企业销售的机会。

负载均衡(Load Balance)是一种集群技术,它将特定的业务(网络服务、网络流量等)分担给多台网络设备(包括服务器、防火墙等)或多条链路,从而提高了业务处理能力,保证了业务的高可靠性。负载均衡建立在现有网络结构之上,它提供了一种廉价有效透明的方法扩展网络设备和服务器的带宽、增加吞吐量、加强网络数据处理能力、提高网络的灵活性和可用性。

负载均衡有两方面的含义:首先,大量的并发访问或数据流量分担到多台节点设备上分别处理,减少用户等待响应的时间;其次,单个重负载的运算分担到多台节点设备上做并行处理,每个节点设备处理结束后,将结果汇总,返回给用户,系统处理能力得到大幅度提高。目前负载均衡技术大多数是用于提高诸如在Web服务器、FTP服务器和其它关键任务服务器上的Internet服务器程序的可用性和可伸缩性。

负载均衡技术优势

  • 高性能:负载均衡技术将业务较均衡地分配到多台设备或多条链路上,提高了整个系统的性能。
  • 可扩展性:负载均衡技术可以方便地增加集群中设备或链路的数量,在不降低业务质量的前提下满足不断增长的业务需求。
  • 高可靠性:单个甚至多个设备或链路发生故障也不会导致业务中断,提高了整个系统的可靠性。
  • 可管理性:大量的管理工作都集中在应用负载均衡技术的设备上,设备群或链路群只需要通常的配置和维护即可。
  • 透明性:对用户而言,集群等同于一个可靠性高、性能好的设备或链路,用户感知不到也不必关心具体的网络结构。增加和减少设备或链路均不会影响正常的业务。

负载均衡包括服务器负载均衡,防火墙负载均衡和链路负载均衡等类型,各种负载均衡应用场景如下:

  • 服务器负载均衡:在数据中心等组网环境中,,可以采用服务器负载均衡,将网络服务分担给多台服务器进行处理,提高数据中心的业务处理能力。
  • 防火墙负载均衡:在防火墙的处理能力成为瓶颈的组网环境中,可以采用防火墙负载均衡,将网络流量分担给多台防火墙设备,提高防火墙的处理能力。
  • 链路负载均衡:在有多个运营商接口的组网环境中,可以采用链路动态负载均衡,实现链路的动态选择,提高服务的可靠性。

服务器负载均衡分为四层服务器负载均衡和七层服务器负载均衡两种:

  • 四层服务器负载均衡支持 IPv4 协议和IPv6 协议,是基于流的服务器负载均衡,对报文进行逐流分发,将同一条流的报文分发给同一个服务器。四层服务器负载均衡对基于HTTP 的七层业务无法做到按内容进行分发,限制了负载均衡业务的适用范围。四层服务器负载均衡有NAT(Network Address Translation,网络地址转换)和直接路由(Direct Routing,以下简称DR)两种应用方式。
  • 七层服务器负载均衡只支持 IPv4 协议,是基于内容的服务器负载均衡,对报文的承载内容进行深度解析,包括HTTP协议、RTSP 协议等,根据其中的内容进行逐包分发,按既定策略将连接导向指定的服务器,实现了业务使用范围更广泛的服务器负载均衡。七层服务器负载均衡仅支持NAT 方式。

负载均衡策略

目前有许多不同的负载均衡技术用以满足不同的应用需求,下面从负载均衡所采用的设备对象(软、硬件负载均衡),应用的OSI网络层次(网络层次上的负载均衡),及应用的地理结构(本地、全局负载均衡)等来分类。

1) 软、硬件负载均衡

软件负载均衡解决方案是指在一台或多台服务器相应的操作系统上安装一个或多个附加软件来实现负载均衡,如DNS Load Balance,Check Point Firewall-1 Connect Control,Keepalive+ IPVS等,它的优点是基于特定环境,配置简单,使用灵活,成本低廉,可以满足一般的负载均衡需求。

软件解决方案缺点也较多,因为每台服务器上安装额外的软件运行会消耗系统不定量的资源,越是功能强大的模块,消耗得越多,所以当连接请求特别大的时候,软件本身会成为服务器工作成败的一个关键;软件可扩展性并不是很好,受到操作系统的限制;由于操作系统本身的Bug,往往会引起安全问题。

硬件负载均衡解决方案是直接在服务器和外部网络间安装负载均衡设备,这种设备通常是一个独立于系统的硬件,我们称之为负载均衡器。由于专门的设备完成专门的任务,独立于操作系统,整体性能得到大量提高,加上多样化的负载均衡策略,智能化的流量管理,可达到最佳的负载均衡需求。

负载均衡器有多种多样的形式,除了作为独立意义上的负载均衡器外,有些负载均衡器集成在交换设备中,置于服务器与Internet链接之间,有些则以两块网络适配器将这一功能集成到PC中,一块连接到Internet上,一块连接到后端服务器群的内部网络上。

软、硬件负载均衡的对比

【免责声明】本站内容转载自互联网,其相关言论仅代表作者个人观点绝非权威,不代表本站立场。如您发现内容存在版权问题,请提交相关链接至邮箱:bqsm@foxmail.com,我们将及时予以处理。

网友评论
推荐文章