通过 Linux 服务器的多网卡绑定来提示服务器之间的传输带宽

红薯 发布于 2015/06/18 16:44
阅读 877
收藏 15

最近研究如何提升应用服务器和存储服务器之间的传输带宽,经同学指点,找到了一个关键词 —— 多网卡绑定。相当于把服务器上的多个物理网卡绑定在一起变成一个逻辑网卡,带宽相当于物理网卡带宽的 N 倍。

具体配置方法如下(转自百度经验

在Linux下,支持将多块网卡绑定为一块逻辑网卡,被绑定的物理网卡不再直接使用,IP配置在绑定后的逻辑网卡上,通过逻辑网卡,我们可以提高网络带宽或稳定性;这篇文章使用CentOS实例演示Linux的多网卡绑定技术。

工具/原料

  • 创建绑定网卡的配置文件
  • 修改被绑定网卡的配置文件
  • .添加网卡绑定驱动支持

方法/步骤

  1. .创建绑定网卡的配置文件

    在绑定物理网卡前,需要先禁用NetworkManager服务,然后再创建逻辑网卡的配置文件:

  2. 1/*切换到超级管理员*/

    2[qing@QingSword.COM ~]$ su -

    4/*禁用NetworkManager服务*/

    5[root@QingSword.COM ~]# service NetworkManager stop

    6[root@QingSword.COM ~]# chkconfig NetworkManager off

    8/*使用vi创建配置文件ifcfg-bond0,其中bond0为这块逻辑网卡的自定义名称*/

    9[root@QingSword.COM ~]# vi /etc/sysconfig/network-scripts/ifcfg-bond0

    10 

    11/*

    12 * 根据实际需求,输入配置信息:

    13 * DEVICE=bond0 逻辑网卡的设备名称为bond0

    14 * ONBOOT=yes 网络服务启时自动启动

    15 * BOOTPROTO=dhcp 使用动态IP分配

    16 * BONDING_OPTS="mode=0 miimon=50" 这条配置中:

    17 * mode=后面的参数控制了网卡绑定模式,0为负载均衡模式,1为主动备份模式,

    18 * 负载均衡模式将网络流量平均分配给多块网卡,提高吞吐量,

    19 * 主动备份模式只使用一块网卡,其他网卡用作备份,当使用中的网卡出现故障时自动顶替。

    20 */

    21DEVICE=bond0

    22ONBOOT=yes

    23BOOTPROTO=dhcp  

    24USERCTL=no

    25BONDING_OPTS="mode=0 miimon=50"

    26 

    27/*如果想使用静态IP配置,可以输入下面的内容,其中,IP地址和网关请根据自己的网络情况更改*/

    28DEVICE=bond0

    29ONBOOT=yes

    30BOOTPROTO=static

    31IPADDR=192.168.1.202

    32NETMASK=255.255.255.0

    33GATEWAY=192.168.1.1

    34USERCTL=no

    35BONDING_OPTS="mode=0 miimon=50"

  3. [*2*].修改被绑定网卡的配置文件

    修改配置之前,需要先关闭正在使用中的网卡,这里我的系统中安装了两块网卡,eth0、eth1,使用ifdown关闭它们,然后修改它们的配置文件(在实际环境中,可以将多块网卡绑定成一块逻辑网卡,配置方法相同,这里仅仅使用了两块网卡):

  4. 1/*注意,你们系统中的物理网卡名称可能和这里的eth0不同,可以使用ifconfig查看到名称,替换下面的eth0、eth1即可*/

    2[root@QingSword.COM ~]# ifdown eth0

    3[root@QingSword.COM ~]# ifdown eth1

    5/*修改eth0的配置文件,删除里面的全部信息*/

    6[root@QingSword.COM ~]# vi /etc/sysconfig/network-scripts/ifcfg-eth0

    8/*添加如下信息*/

    9DEVICE=eth0   //这里对应你在ifconfig中看到的网卡设备名称

    10BOOTPROTO=none

    11ONBOOT=yes

    12USERCTL=no

    13MASTER=bond0  //这里的bond0必须对应第一步中创建的逻辑网卡配置文件的名称

    14SLAVE=yes

    15 

    16/*创建第二块网卡的配置文件*/

    17[root@QingSword.COM ~]# vi /etc/sysconfig/network-scripts/ifcfg-eth1

    18 

    19DEVICE=eth1  

    20BOOTPROTO=none

    21ONBOOT=yes

    22USERCTL=no

    23MASTER=bond0

    24SLAVE=yes

  5. 配置文件修改后,需要启动对网卡绑定的驱动支持,请看下面的配置。

  6. [*3*].添加网卡绑定驱动支持

  7. 1/*创建启动支持配置文件*/

    2[root@QingSword.COM ~]# vi /etc/modprobe.d/bonding.conf

    4/*输入下面的内容,其中bond0为第一步中创建的逻辑网卡名称*/

    5alias bond0 bonding

  8. [*4*].启动逻辑网卡并测试

    因为我们使用的绑定模式为“负载均衡”,重启网络后,去ping这块逻辑网卡地址,使用ifconfig可以监控到流量被平均分配给了多块网卡:

  9. 1/*直接启动逻辑网卡*/

    2[root@QingSword.COM ~]# ifup bond0

    3/*或者重启网络服务*/

    4[root@QingSword.COM ~]# service network restart

    6/*监控网卡的流量,此时打开一个网页,就可以看到流量被负载均衡了*/

    7[root@QingSword.COM ~]# watch -n 1 ifconfig

加载中
0
红薯
红薯

多网卡绑定跟 multipath 有何区别呢?

0
如比如比
如比如比
以后要按照这篇作为标准发表共享哦,不然给差评的。
0
Beyonds
Beyonds

引用来自“茶壶”的评论

以后要按照这篇作为标准发表共享哦,不然给差评的。
支持
0
SVD
SVD
尤记起那次去十堰,配置服务器网络的痛苦经历。现在想来,真是书到用时方恨少。
0
木昜月月鸟昌
木昜月月鸟昌
这跟windows下的网卡冗余一个样吧
返回顶部
顶部