logo Debian Debian Debian-France Debian-Facile Debian-fr.org Forum-Debian.fr Debian ? Communautés logo inclusivité

Debian-facile

Bienvenue sur Debian-Facile, site d'aide pour les nouveaux utilisateurs de Debian.

Vous n'êtes pas identifié(e).

#1 20-12-2015 20:35:19

anonyme
Invité

Bonding réseau

Bonsoir
le sujet est plutot dans réseau mais comme je sais pas si il peut  aboutir
j'ai cherché de la doc sur le bonding avec debian  (utilisation de plusieurs cartes réseau )
voici quelques liens pour comprendre de quoi il s agit . ( pour ceux comme moi qui connaissent pas ).

https://debian-facile.org/viewtopic.php?id=9643
https://debian-facile.org/viewtopic.php?id=4811
https://wiki.debian.org/Bonding
https://www.guillaume-leduc.fr/lagregat … -nuls.html
https://doc.ubuntu-fr.org/bonding
https://fr.wikipedia.org/wiki/Agr%C3%A9gation_de_liens

un wiki sur le sujet serait pas mal  smile

j'ai pas les compétences réseau mais peu etre le materiel pour tester.
4 cartes intel (serveur, une seule active pour l instant) et un switch d-link DGS 1100 DSP 8 ports (je sais pas si il est compatible hmm  )
le mode 0 avec 2 cartes réseau a l air pas mal , (tolérance de panne et  débit amélioré )

je sais pas si une bonne idée ou pas

Dernière modification par anonyme (20-12-2015 22:38:02)

#2 20-12-2015 21:08:05

paskal
autobahn
Lieu : ailleurs
Inscription : 14-06-2011
Site Web

Re : Bonding réseau

anonyme a écrit :

un wiki sur le sujet serait pas mal  smile

Pas de soucis : démarre ça dans le chantier.  cool


I'd love to change the world
But I don't know what to do
So I'll leave it up to you...

logo-sur-fond.png

Hors ligne

#3 20-12-2015 21:35:45

milou
Membre
Lieu : Sur une autre planète....
Distrib. : Jessie - Stretch/Sid
Noyau : 3.16.0-4-amd64
(G)UI : Lxde
Inscription : 12-02-2015

Re : Bonding réseau

On te donnera un coup de main wink

J’adorerais changer le monde, mais ils ne veulent pas me fournir le code source
Un vrai geek, c'est un mec qui croit que dans 1km, il y a 1024 mètres
Dans le doute, rebootes. Si tu te tâtes, formates.
1453651422.jpg

Hors ligne

#4 20-12-2015 22:10:07

anonyme
Invité

Re : Bonding réseau

vous pas gentil avec moi tongue
c'est de conseil que j'ai besoin pas d un chantier de tuto tongue (en plus j'ai oublié comment on l utilise )
j'ai réussi a rentrer dans mon switch , il fait du mirroring dans le menu (je peu affecté des ports , le serveur est sur le 3 , le 4 est libre)
mais il faut cablé les 2 cartes ethernet , configurer le switch et le serveur.
comme la plupart des termes je comprend rien et en plus le switch c est une usine (bon il fait pas le café) roll

ps: le port mirroring (tout en anglais) c'est pas ce que je pense (rien a voir avec le bonding)
pour la connectique je sais pas si il faut 2 switch ou les 2 cartes sur le meme switch.
je vais y aller tranquille , je pense qu il faut commencer par la configuration des cartes du serveur (avec pour l instant une seule carte connecté eth0)
vous l aurez ni pour la noel ni pour le jour de l an votre tuto tongue lol

Dernière modification par anonyme (20-12-2015 22:20:17)

#5 20-12-2015 23:22:54

tatave
Membre
Lieu : France-Belgique
Distrib. : Debian / Pfsense / esxi / hyper-v
Noyau : debian / windows Srv
(G)UI : aucun
Inscription : 23-06-2014

Re : Bonding réseau

salut salut

Je fait de l'agrégat de liens (carte réseaux) avec des switch stackés (empilé si tu préfères)
- carte A sur switch 1
- carte B sur switch 2
- pont entre swtich 1 et 2 qui simule un switch plus gros si tu préfères.

En résumé si
- la carte A sur le switch 1 lache le signal passe par la carte B sur le switch 2 ou inversement avec la carte B.
- un câble lâche entre l'un des deux switch vers l'une des cartes le signal passe quand même.
- de même que si la liaison principale entre les deux switch 1 et 2 lâche il y a un autre cable qui lui permet la communication switch / switch ce ci est assuré par un mécanisme qui évite les bouclage réseaux (un peu comme un court circuit si tu préfères.

Tu as plusieurs manière de faire de l'agrégat de lien entre autre comme suit ;
- deux cartes, une répond après l'autre. sur la même ip
- deux cartes, elles groupes la bande passante et fonctionnent sur une ip commune
- deux cartes, elles groupes la bande passante et enplus autorisent le passage de vlan.

En fonction de ce que tu veux faire au final tu utiliseras telle ou telle paramétrage d'agrégat de lien.
Fait des test, bien que la virtualisation puisse etre un solution, tu ne pourras pas voir dans le concret les problématiques liées au câblage et l'importance de certains paramètres appliqués sur un switch et sur tes cartes réseau

C'est pourquoi mon projet perso (monter un micro SI en HA basé avec du démon et du gnu et bien plusieurs swtich) j'ai réaliser le tout en physique (minima 2 pc et 2 switch).
Projet que je dois réactiver car mis en pause faute de temps et budget (pour le matériel) et qui sous peu devrait se finaliser par une mise en prod perso/pro.

Ne perd pas de vu qu'il faut bien comprendre les mécanismes réseaux au minima.
je te conseil de jeter un l'oeil sur ce site qui pourrait d'en expliquer sur les réseaux
https://www.ciscomadesimple.be/
ou aussi
http://irp.nain-t.net/doku.php

je te souhaite bonne lecture et que ton projet arrive à bon port.

++

1 Cluster Pare-feu sous Pfsense 2.3.x (2wan,1wifi,1dmz,1lan)
1 Cluster Data center maison sous debian en cours de refonte
2 Cluster Labo de Virtualisation 1 sous esxi et 1 sous hyper-v
----- vm prod debian, windows serveur 2012/2016, freebsd

Hors ligne

#6 20-12-2015 23:45:30

anonyme
Invité

Re : Bonding réseau

Merci pour les conseils tatave smile
en mode 0 sur un switch ça fonctionne (1Gbs en duplex 2 fois eth0 et eth1)
il me reste a voir le mtu 9000 de ce lien => https://www.guillaume-leduc.fr/lagregat … -nuls.html

sur ma configuration de la carte réseau (bonding)
dns-search indique le domaine de recherche local.  // ici je ne l ai pas spécifié (déja précisé dans un autre script )
mtu 9000 permet la prise en charge des Jumbo Frames. // je sais pas ce qu est un jumbo Frames , il me semble avoir vu cela sur la config du switch.

ps: pour la configuration de mon réseau , coté internet a travers  une passerelle le débit est limité a environ 50% du débit max de l adsl.
par contre coté sous reseau (du serveur) le débit est illimité , la mise a jour des clients c est quelques secondes , l installation aussi ça va tres vite.
par contre sur une panne du switch je perd tout . (modem ,switch , serveur et passerelle sont ondulé )

Dernière modification par anonyme (20-12-2015 23:57:17)

#7 21-12-2015 00:19:21

anonyme
Invité

Re : Bonding réseau

le fichier a mettre dans /etc/modprobe.d/bonding.conf


alias bond0 bonding
options bonding mode=0 arp_interval=2000 arp_ip_target=192.168.10.10
 


la configuration de la carte réseau


# This file describes the network interfaces available on your system
# and how to activate them. For more information, see interfaces(5).

# The loopback network interface
auto lo
iface lo inet loopback

#post-up iptables-restore < /etc/firewall-client
#post-up ip6tables-restore < /etc/firewallipv6-client

# network eth0
#auto eth0
#iface eth0 inet static
#address 192.168.10.10
#network 192.168.10.0
#netmask 255.255.255.0
#gateway 192.168.10.1
#dns-nameservers 192.168.10.1

# network bonding
auto bond0
iface bond0 inet static
address 192.168.10.10
netmask 255.255.255.0
gateway 192.168.10.1
dns-nameservers 192.168.10.1
slaves eth0 eth1
bond_mode balance-rr
bond_miimon 100
bond_downdelay 200
bond_updelay 200
mtu 9000
 



le paquet a installer


apt-get install ifenslave-2.6 ifenslave
 



sur mon switch l option jumbo Frame activée


Jumbo Frame Settings
Jumbo Frame Enabled
 
Note:   Maximum frame length is 9216 bytes if enabled.
 



pour les explications => https://fr.wikipedia.org/wiki/Trame_g%C3%A9ante
donc c'est mon cas , je suis dans un sous reseau 192.168.10.0 , du réseau local 192.168.1.0 , donc l option n affectera que le sous réseau 192.168.10.0

pour le domaine (le search que je n ai pas mit dans la config reseau) il est dans mon resolv.conf (network manager n est pas installé bien sur smile  )


# Generated by NetworkManager
search mondomain.com
nameserver 192.168.10.1
 



pour switch stackés , pour l instant avec mon materiel je ne sais pas si cela est possible.
je ne pense pas pouvoir faire tous les cas de figure non plus des différent mode de bonding

tests:
commande


ip addr show
 


retour


1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 9000 qdisc mq master bond0 state UP group default qlen 1000
    link/ether bc:ee:7b:1c:c6:93 brd ff:ff:ff:ff:ff:ff
3: eth1: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 9000 qdisc mq master bond0 state UP group default qlen 1000
    link/ether bc:ee:7b:1c:c6:93 brd ff:ff:ff:ff:ff:ff
4: bond0: <BROADCAST,MULTICAST,MASTER,UP,LOWER_UP> mtu 9000 qdisc noqueue state UP group default
    link/ether bc:ee:7b:1c:c6:93 brd ff:ff:ff:ff:ff:ff
    inet 192.168.10.10/24 brd 192.168.10.255 scope global bond0
       valid_lft forever preferred_lft forever
 



commande


cat /proc/net/bonding/bond0
 


retour


Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)

Bonding Mode: load balancing (round-robin)
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 200
Down Delay (ms): 200

Slave Interface: eth0
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: bc:ee:7b:1c:c6:93
Slave queue ID: 0

Slave Interface: eth1
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: bc:ee:7b:1c:c6:94
Slave queue ID: 0
 



description du mode que je viens de tester :


balance-rr ou 0 :
dans ce mode, les paquets sont transmis aux esclaves dans un ordre séquentiel suivant une ronde.
Ce mode gère évidemment la répartition de charge et la tolérance de panne.
 


en conclusion si on a le materiel c'est assez simple avec un bon tuto
et si en plus on a les explications c'est encore mieux
(le réseau reste une science complexe pour le commun des mortel)  hmm lol

Dernière modification par anonyme (21-12-2015 01:01:09)

#8 21-12-2015 06:58:11

tatave
Membre
Lieu : France-Belgique
Distrib. : Debian / Pfsense / esxi / hyper-v
Noyau : debian / windows Srv
(G)UI : aucun
Inscription : 23-06-2014

Re : Bonding réseau

salut salut

Petit rappel pour les switch stackés il te faut des switch de niveau L2 minimum et donc administrable.

++

1 Cluster Pare-feu sous Pfsense 2.3.x (2wan,1wifi,1dmz,1lan)
1 Cluster Data center maison sous debian en cours de refonte
2 Cluster Labo de Virtualisation 1 sous esxi et 1 sous hyper-v
----- vm prod debian, windows serveur 2012/2016, freebsd

Hors ligne

#9 21-12-2015 12:10:58

anonyme
Invité

Re : Bonding réseau

Pour le d-link cité plus haut pas de possibilités de stack , si je me souvient bien il me semble que c est un connecteur de fond de panier a brancher sur les 2 switchs (et a configurer)
il me semble aussi qu a l époque nous avions des hubs stackables et manageables . ( tout ceci a été remplacé tongue )
il chauffait beaucoup et tres bruyant. roll

pour mon affaire j'ai le "trunking" comme option sur le switch , coupler 2 entrées pour un débit plus important.
reste a savoir si c est compatible avec le bonding mode 0 du serveur (eth0 port3 du switch , eth1 port4 du switch ). le port1 vers la passerelle , les autres ports disponibles pour les clients (ou autres switch )

le switch a 8 ports (les meme en 16 et 24 ports ne font pas le trunking roll )  .
pour le mtu de 9000 du serveur (et du switch ) la question est comment les clients se comportent (le mtu par défaut sur une configuration réseau est de 1500 je pense )
Pour la mise à jour du mirroir local pas de souci , pour les clients (mise a jour) je vais tester aujourd'hui .

#10 21-12-2015 13:54:50

anonyme
Invité

Re : Bonding réseau

il y a du port trunking et du vlan trunking (pour le "port trunking" mon switch est compatible )
pour le vlan (réseau virtuel , faut que je regarde )
quelques liens intéressant

https://fr.wikipedia.org/wiki/Agr%C3%A9gation_de_liens
http://www.commentcamarche.net/forum/af … n-de-trunk
https://www.ciscomadesimple.be/2010/07/ … ux-switch/
http://www-igm.univ-mlv.fr/~duris/RESEA … eVLAN.html

pour le port trunking j ai testé
le switch me propose 2 id et 4 ports par id (figé non modifiable)
id1  port 1,2,3 et 4
id2 port  5,6,7 et 8

pour connecter 2 switch  (voir lien ) du trunking aussi

je n ai qu un switch manageable (un netgear mais déja utilisé sur le reseau local1)
Pour l instant je vais rester en bonding sur le serveur (pas de trunking et vlan sur le switch )
apprendre a utiliser tcpdump  tongue
et une aspirine pour la migraine hmm lol

Dernière modification par anonyme (21-12-2015 13:56:44)

#11 21-12-2015 16:04:51

tatave
Membre
Lieu : France-Belgique
Distrib. : Debian / Pfsense / esxi / hyper-v
Noyau : debian / windows Srv
(G)UI : aucun
Inscription : 23-06-2014

Re : Bonding réseau

hs on


prepare une hache émoussée, très pratique pour les bobos de cheveux récalcitrant.

hs off

1 Cluster Pare-feu sous Pfsense 2.3.x (2wan,1wifi,1dmz,1lan)
1 Cluster Data center maison sous debian en cours de refonte
2 Cluster Labo de Virtualisation 1 sous esxi et 1 sous hyper-v
----- vm prod debian, windows serveur 2012/2016, freebsd

Hors ligne

#12 21-12-2015 18:02:51

anonyme
Invité

Re : Bonding réseau

j'ai regardé un peu les switch sur le net les prix ont baissés , entre 100 et 200 euros tu a de belles betes  tongue
port combo fibre et cuivre neutral
pour mon netgear gs108t v2 , bien que manageable , il a moins de choses que le d-link , si il a l heure et la date cool .

#13 22-12-2015 07:07:11

tatave
Membre
Lieu : France-Belgique
Distrib. : Debian / Pfsense / esxi / hyper-v
Noyau : debian / windows Srv
(G)UI : aucun
Inscription : 23-06-2014

Re : Bonding réseau

salut salut


Pour l'instant je suis avec

- 1 tp-link gs2216 , 18 ports 10/100/1000 avec 2 mini gbic coté lan
- 1 hp ProCurve Switch 2610-24 du 24 ports 10/100 et 2 ports 10/100/1000 avec 2 mimi gbic coté labo/dmz

Tous deux administrable via console ssh et ou interface web.
Se qui fait monter la note sur les switch c'est la capacité de stockage d'adressage du font de panier.
Des fois un vieux modèl 10/100 est plus intéressant qu'un 10/100/1000 quand on a un budget ric-rac.

++

1 Cluster Pare-feu sous Pfsense 2.3.x (2wan,1wifi,1dmz,1lan)
1 Cluster Data center maison sous debian en cours de refonte
2 Cluster Labo de Virtualisation 1 sous esxi et 1 sous hyper-v
----- vm prod debian, windows serveur 2012/2016, freebsd

Hors ligne

#14 27-12-2015 00:08:37

anonyme
Invité

Re : Bonding réseau

suite a ce post => https://debian-facile.org/viewtopic.php … 14#p155214

citer => "veille méthode foireuse"  , je cherche des infos plus récente sur le sujet.
sur debian.org le tuto est obsolet
les exemples dans /usr/share/doc/ifenslave  sont trés léger et ne traite pas du sujet en détail.
si je comprend bien , il n est plus nécessaire de donner des infos au noyau tout ce traite sur le fichier "interfaces" des cartes réseau.

je met ici les 2 cas des examples en cartes ethernet.



cas 1
two_ethernet

A simple configuration with two ethernet (wire) interfaces.

-----8<----------8<----------8<----------8<----------8<-----

auto bond0
iface bond0 inet dhcp
  bond-slaves eth0 eth1
  bond-mode 1
  bond-miimon 100
  bond-primary eth0 eth1

-----8<----------8<----------8<----------8<----------8<-----

You do not need an "iface eth0" nor an "iface eth1" stanza.

cas 2
two_hotplug_ethernet

A configuration with two hotplug ethernet (wire) interfaces.

-----8<----------8<----------8<----------8<----------8<-----

auto bond0
iface bond0 inet dhcp
  bond-slaves none
  bond-mode 1
  bond-miimon 100

allow-hotplug eth0
iface eth0 inet manual
  bond-master bond0
  bond-primary eth0 eth1

allow-hotplug eth1
iface eth0 inet manual
  bond-master bond0
  bond-primary eth0 eth1

-----8<----------8<----------8<----------8<----------8<-----

The "auto bond0" stanza is required, else bond0 won't bring up.
 



ma configuration actuelle  smile
qui est en mode 0


# network bonding
auto bond0
iface bond0 inet static
address 192.168.10.10
netmask 255.255.255.0
gateway 192.168.10.1
dns-nameservers 192.168.10.1
slaves eth0 eth1
bond_mode balance-rr
bond_miimon 100
bond_downdelay 200
bond_updelay 200
mtu 9000
 



roll

=> http://wiki.bolay.net/doku.php?id=opera … _on_debian
ps: chacun y va de sa méthode tongue  , peut etre tout mettre dans un sac et bien secoué on verra ce qu il en sort  tongue   lol

si quelqu un a des infos pour un noyau récent , 3.16 ou superieur je suis partant (pour l instant ce que je teste , voir au dessus fonctionne tres bien )
peut etre faire d 'autres tests roll

Dernière modification par anonyme (27-12-2015 00:38:05)

Pied de page des forums