重磅!GitHub 开源负载均衡组件 GLB Director

来源: OSCHINA
编辑: h4cd
2018-08-10 08:23:00

8 日,GitHub 发布了开源负载均衡组件 GitHub Load Balancer Director(GLB) Director,GLB 是 GitHub 针对裸机数据中心的可扩展负载均衡解决方案,它支持大多数 GitHub 的对外服务,并且还为诸如高可用 MySQL 集群这样最为关键的内部系统提供负载均衡服务。

项目地址:https://github.com/github/glb-director


GLB Director 有如下诸多优势:

使用ECMP扩展IP

4层负载均衡器的基本属性是能够使用单个IP地址在多个服务器之间实现均衡连接。 为了扩展单个IP以处理更多的流量,我们不仅需要在后端服务器之间进行流量拆分,还需要能够扩展负载均衡器本身。 这实际上是另一层负载均衡。

通常,我们将IP地址视为单个物理机器,将路由器视为将数据包移动到下一个最近路由器的机器。 在最简单的情况下,总是有一个最佳的下一跳,路由器选择该跳并转发所有数据包直到达到目的地。


实际上,大多数网络都要复杂得多。 两台计算机之间通常有多条路径可用,例如,使用多个ISP或者两台路由器通过多条物理电缆连接在一起以增加容量并提供冗余。 这是等价多路径(ECMP)路由发挥作用的地方 - 而不是由路由器选择单个最佳下一跳,ECMP中很多路径具有相同成本(通常定义为到目的地的AS的数量), 路由器分散流量以便在所有可用的相同成本路径之间均衡连接。


ECMP通过对每个数据包进行hash以确定其中一个可用路径。此处使用的hash函数因设备而异,但通常是基于源和目标IP地址以及TCP流量的源和目标端口的一致性hash。这意味着同一个TCP连接的多个数据包通常会遍历相同的路径,这意味着即使路径具有不同的延迟,数据包也会以相同的顺序到达。值得注意的是,在这种情况下,路径可以在不中断连接的情况下进行更改,因为它们总是最终位于同一个目标服务器上,此时它所采用的路径大多无关紧要。

ECMP的另一种用法是当我们想要跨多个服务器而不是跨多个路径上的同一服务器时。每个服务器都可以使用BGP或其他类似的网络协议使用相同的IP地址,从而使连接在这些服务器之间进行分片,路由器不知道连接是在不同的地方处理的,而非传统做法那样所有的连接都同一台机器上处理。


虽然ECMP会像对流量进行分片,但它有一个巨大的缺点:当相同IP的服务器更改(或沿途的任何路径或路由器发生变化)时,连接必须重新均衡,才能保证每个服务器上的连接比较均衡。 路由器通常是无状态设备,只是为每个数据包做出最佳决策而不考虑它所属的连接,这意味着在这种情况下某些连接会中断。


在上面的例子中,我们可以想象每种颜色代表一个活动的连接。 添加新的代理服务器使用相同的IP。 路由器保证一致性哈希,将1/3连接移动到新服务器,同时保持2/3连接在老服务器上。 不幸的是,对于进行中的1/3连接,数据包现在到达了无连接状态的服务器,因此连接会失败。

将director/proxy分离

以前仅使用ECMP的解决方案的问题在于它不知道给定数据包的完整上下文,也不能为每个数据包/连接存储数据。事实证明,通常使用Linux Virtual Server(LVS)等工具。我们创建了一个新的“director”服务器层,它通过ECMP从路由器获取数据包,但不是依靠路由器的ECMP hash来选择后端代理服务器,而是对所有链接控制hash和存储状态(选择后端)。当我们更改代理层服务器时,director层有望不变,我们的连接也不会断掉。

虽然这在许多情况下效果很好,但它确实有一些缺点。在上面的示例中,我们同时添加了LVS director和后端代理服务器。新的director接收到一些数据包,但是还没有任何状态(或者具有延迟状态),因此将其作为新连接进行hash处理并可能使其出错(并导致连接失败)。 LVS的典型解决方法是使用多播连接同步来保持所有LVS director服务器之间共享的连接状态。这仍然需要传播连接状态,并且仍然需要重复状态 - 不仅每个代理都需要Linux内核网络堆栈中每个连接的状态,而且每个LVS director还需要存储连接到后端代理服务器的映射。

将所有状态从director层移除

当我们设计GLB时,我们决定要改善这种情况而不是重复状态。 通过使用已存储在代理服务器中的流状态作为维护来自客户端的已建立Linux TCP连接的一部分,GLB采用与上述方法不同的方法。

对于每个进入的连接,我们选择可以处理该连接的主服务器和辅助服务器。 当数据包到达主服务器且无效时,会将数据包转发到辅助服务器。 选择主/辅助服务器的散列是预先完成一次,并存储在查找表中,因此不需要在每个流或每个数据包的基础上重新计算。 添加新的代理服务器时,对于1/N连接,它将成为新的主服务器,旧的主服务器将成为辅助服务器。 这允许现有流程完成,因为代理服务器可以使用其本地状态(单一事实来源)做出决策。 从本质上讲,这使得数据包在到达保持其状态的预期服务器时具有“第二次机会”。

即使director仍然会将连接发送到错误的服务器,该服务器也会知道如何将数据包转发到正确的服务器。 就TCP流而言,GLB director层是完全无状态的:director服务器可以随时进出,并且总是选择相同的主/辅服务器,只要它们的转发表匹配(但它们很少改变)。 在变更代理时有些细节需要注意,我们将在下面介绍。

维护Hash集合不变

GLB Director设计的核心归结为始终如一地选择主服务器和辅助服务器,并允许代理层服务器根据需要排空和填充。 我们认为每个代理服务器都有一个状态,当有服务器加入或者退出时调整状态。

我们创建一个静态二进制转发表,它以相同方式在每个控制器服务器上生成,以将进入的连接映射到给定的主服务器和辅助服务器。 我们并没有采用在数据包处理时从所有可用服务器中选择服务器的这种复杂逻辑,而是通过创建表(65k行)这种间接的方式,每行包含主服务器和辅助服务器IP地址。 该表以二维数组的方式将数据存储在内存中,每个表大约512kb。 当数据包到达时,我们始终将其(仅基于数据包数据)hash到该表中的同一行(使用hash作为数组的索引),这提供了一致的主服务器和辅助服务器对。

我们希望每个服务器在主要和辅助字段中大致相同,并且永远不会出现在同一行中。 当我们添加新服务器时,我们希望某些行使其主服务器成为辅助服务器,并且新服务器将成为主服务器。 同样,我们希望新服务器在某些行中成为辅助服务器。 当我们删除服务器时,在它是主服务器的任何行中,我们希望辅助服务器成为主服务器,而另一个服务器则成为辅助服务器。

这听起来很复杂,但可以用几个不变量简洁地概括:

  • 当我们更改服务器集时,应保持现有服务器的相对顺序。

  • 服务器的顺序应该是可计算的,除了服务器列表之外没有任何其他状态(可能还有一些预定义的种子)。

  • 每个服务器在每行中最多应出现一次。

  • 每个服务器在每列中的出现次数应大致相同。

针对上述的一些问题,集合hash是一个理想的选择,因为它可以很好地满足这些不变量。 每个服务器(在我们的例子中,IP)都与行号一起进行hash,服务器按该hash(只是一个数字)进行排序,并且我们获得该给定行的服务器的唯一顺序。 我们分别将前两个作为主要和次要。

将保持相对顺序,因为无论包含哪些其他服务器,每个服务器的hash都是相同的。 生成表所需的唯一信息是服务器的IP。由于我们只是对一组服务器进行排序,因此服务器只出现一次。 最后,如果我们使用伪随机的良好hash函数,那么排序将是伪随机的,因此分布将如我们所期望的那样均匀。

代理(Proxy)相关操作

添加或删除代理服务器,我们需要一些特别的处理方式。这是因为转发表条目仅定义主要/辅助代理,因此排空/故障转移仅适用单个代理主机。 我们为代理服务器定义以下有效状态和状态转换:

当代理服务器处于活动状态,耗尽或填充时,它将包含在转发表条目中。 在稳定状态下,所有代理服务器都是活动的,并且上面描述的集合点散列将在主列和辅助列中具有大致均匀且随机的每个代理服务器分布。

当代理服务器转换为耗尽时,我们通过交换我们原本包含的主要和次要条目来调整转发表中的条目:

这具有将数据包发送到先前次要的服务器的效果。 由于它首先接收数据包,它将接受SYN数据包,因此接受任何新连接。 对于任何不理解为与本地流有关的数据包,它将其转发到其他服务器(先前的主服务器),这允许完成现有连接。

这样可以优雅地耗尽所需的连接服务器,之后可以完全删除它,并且代理可以随机填充到第二个空槽:

填充中的节点看起来就像活动一样,因为该表本身允许第二次机会:

此实现要求一次只有一个代理服务器处于活动状态以外的任何状态,这实际上在GitHub上运行良好。对代理服务器的状态更改可以与需要维护的最长连接持续时间一样快。我们正致力于设计的扩展,不仅支持主要和次要,而且一些组件(如下面列出的标题)已经包含对任意服务器列表的初始支持。

数据中心内封装

现在有了一个算法来一致地选择后端代理服务器,但是如何在数据包内把辅助服务器(secondary server )的信息也封装进去呢?这样主服务器可以在不理解数据包的情况下转发数据包。

LVS 的传统方式是使用IP over IP(IPIP)隧道。客户端 IP 数据包封装在内部IP数据包内,并转发到代理服务器,代理服务器对其进行解封装。但很难在 IPIP 数据包中编码其他服务器的元数据,因为唯一可用的空间是 IP 选项,数据中心路由器传递未知 IP 的数据包到处理软件(称之为“第2层慢速路径”),速度从每秒数百万到数千个数据包。

为了避免这种情况,需要将数据隐藏在路由器不同数据包格式中,避免它试图去理解。我们最初采用原始 Foo-over-UDP(FOU)和自定义 GRE载荷(payload),基本上封装了 UDP 数据包中的所有内容。我们最近转换到通用 UDP 封装(GUE),它提供了封装内部 IP 协议的标准 UDP 数据包。我们将辅助服务器的 IP 放在GUE标头的私有数据中。从路由器的角度来看,这些数据包都是两个普通服务器之间的内部数据中心 UDP 数据包。

使用 UDP 的另一个好处是源端口可以使用每个连接的哈希填充,以便它们通过不同的路径(在数据中心内使用ECMP)在数据中心内流动,并可在代理服务器的 NIC 的不同 RX 队列上接收消息(类似使用 TCP/IP 头字段的哈希)。这对 IPIP 是不可能的,因为大多数数据中心的 NIC 只能理解普通 IP,TCP/IP 和 UDP/IP。值得注意的是,NIC 无法查看 IP/IP 数据包。

当代理服务器想要将数据包发送回客户端时,它不需要封装或通过我们的导向器层(director tier)返回,它可以直接发送数据到客户端(通常称为“Direct Server Return”)。这是典型的负载均衡器设计,对于内容提供商尤其有用,因为大多数情况都是出站流量远大于入站流量。

数据包流如下图所示:

引入DPDK

自从首次公开讨论了我们的初始设计以来,我们已经完全使用 DPDK重写了 glb-director 。DPDK 是一个开源的通过绕过Linux内核,允许从用户空间进行非常快速的数据包处理的项目。这样就能够在普通 NIC 上通过 CPU 上实现 NIC 线路速率处理,并可轻松扩展导向器层,以处理与公共连接所需的入站流量一样多的流量。这在防 DDoS 攻击中尤为重要,我们不希望负载均衡器成为瓶颈。

GLB 最初的目标之一是可以在通用数据中心的硬件上运行,而无需任何特殊的硬件配置。 GLB 的 Director 和代理服务器都可像数据中心的普通服务器一样供应。每个服务器都有一对绑定的网络接口,这些接口在 GLB Director 服务器上的 DPDK 和 Linux 系统之间共享。

现代 NIC 支持SR-IOV,这种技术可以使单个 NIC 从操作系统的角度看起来像多个 NIC。这通常由虚拟机管理程序使用,以要求真实 NIC(“Physical Function”)为每个 VM 创建多个虚拟 NIC(“Virtual Functions”)。为了使 DPDK 和 Linux 内核能够共享 NIC,我们使用 flow bifurcation,它将特定流量(目标是 GLB IP 地址)发送给我们DPDK 在 Virtual Function 上处理,同时将剩余的数据包与 Linux 内核的网络堆栈保留在 Physical Function 上。

我们发现 Virtual Function 上 DPDK 的数据包处理速率可以满足要求。 GLB Director 使用 DPDK Packet Distributor模式来分发封装数据包的任务到机器上的 CPU,支持任意数量的 CPU 核心,因为它是无状态的,可以高度并行化。

GLB Director 支持匹配和转发包含 TCP 有效负载的入站 IPv4 和 IPv6 数据包,以及作为 Path MTU Discovery的一部分的入站 ICMP Fragmentation Required 消息。

使用Scapy为DPDK加入测试用例

一个典型的问题是,在创建(或使用)那些使用了低级原语(例如直接与NIC通信)但是高速运行的技术时,它们变得非常难以测试。作为创建GLB Director的一部分,我们也创建了一个测试环境,支持对我们的DPDK应用进行简单的端对端包流测试,通过影响DPDK的方式支持一个环境抽象层(EAL),允许物理NIC和基于libpcap的本地接口,在应用视图中是相同的。

这允许我们在Scapy中写测试,使用简单的Python的lib包查看,操作和写数据包。通过创建一个Linux的虚拟网卡驱动,一边用Scapy,另一边用DPDK,我们能传输定制的包并且验证我们软件在另一边支持的功能,这是一个完整GUE封装的后端代理服务期望的数据包。

该方法允许我们测试更多的复杂行为,例如为了正确路由,遍历传输层的ICMPv4/ICMPv6头获取源IP和TCP端口,以便正确转发来自外部路由器的ICMP消息。

健康检查

GLB的设计包含了优雅地处理服务器故障的部分。目前设计包含主/备,对于给定的转发表/客户端,意味着我们可以通过健康检查通过观察每个Director来解决单服务器故障。我们运行一个名为glb-healthcheck的服务,它不断验证每个后端服务器的GUE隧道和任意HTTP端口。

当服务器出现故障时,我们将切换主/备,将备换成主。这是服务器的“软切换”,支持故障转移的好办法。如果健康检查失败是误报,则连接不会中断,它们只会换一条不同的路径遍历。

proxy使用iptables提供第二次机会

构成GLB的最后一个组件是Netfilter模块和iptables的目标,它在每个代理服务器上运行,并提供“第二次机会”进行设计。

此模块提供了一个简单的任务,根据Linux内核TCP堆栈,确定每个GUE数据包的内部TCP / IP数据包是否在本地有效,如果不是,则将其转发到下一个代理服务器(备服务器),而不是在当前服务器解封装。

在数据包是SYN(新连接)或在本地对已建立的连接有效的情况下,当前服务器会接收它。然后,我们接收GUE包,使用包含fou模块的Linux 内核4.x GUE在本地处理它。

来源:高可用架构

展开阅读全文
点击加入讨论🔥(8) 发布并加入讨论🔥
8 评论
43 收藏
分享
返回顶部
顶部