Vous n'êtes pas identifié(e).
- carte mère asus m5a87 socket am3+
- 1 cpu Amd phenom 555be (dual coeur non unlock)
- 4*4 Mo ddr3
- 1 video nvidia gts210 fanless 1 go pci-e
- 1 hdd 500 go sata pour le système et les apps
- 1 hdd 1000 go sata pour les data
- 2 place pour 2 hdd supplémentaire suivant évolution du projet
- 1 lecteur dvd-rw sata
- 1 lecteur cartes mémoire usb
- réseau
-- carte réseau interne à la carte mère
-- 2 cartes réseaux pci 10/100/1000
-- 2 cartes réseaux pci-e 10/100/1000
Coté système je suis reparti avec une debian 8.1
- sans interface graphique
- apt installés
-- la base du système
-- ssh
-- bind9
-- apache2
-- mysql5.5
-- php5.6
-- phpmyadmin
-- ifensalve2.6
- réseau en ip statiques
-- la carte sur la carte mère qui doit servir de carte d'administration (192.168.4.0/24) eth1
-- 2 cartes en agrégat pour lan/dmz (192.198.4.0/24) bond0 [eth0 et eth2]
-- 2 cartes en agrégat pour la synchro entre les deux serveur (10.10.10.0/24)bond1 [eth3 et eth4]
J'ai réussie à faire :
- paramétrer la carte d'aministration (pas trop dure)
- paramétrer le premier agrégat bond0
Ce qui me cause soucis c'est le bond1 qui en remonte pas, c'est là ou j'ai besoin de coup de pieds pour y arriver.
dans /etc/modprobe.d/aliase-bond.conf
alias bond0 bonding
options bonding mode=6 miimon=100 downdelay=200 updelay=200
alias bond1 bonding
options bonding mode=6 miimon=100 downdelay=200 updelay=200
dans /etc/network/interface
# This file describes the network interfaces available on your system
# and how to activate them. For more information, see interfaces(5).
source /etc/network/interfaces.d/*
# The loopback network interface
auto lo eth0 eth1 eth2 eth3 eth4 bond0 bond1
iface lo inet loopback
# Carte d'administration
allow-hotplug eth1
iface eth1 inet static
address 192.168.4.30
netmask 255.255.255.0
network 192.168.4.0
gateway 192.168.4.10
broadcast 192.168.4.255
# agregat niveau cluster1
allow-hotplug bond0
iface bond0 inet static
address 192.168.4.32
netmask 255.255.255.0
network 192.168.4.0
gateway 192.168.4.10
broadcast 192.168.4.255
up /sbin/ifenslave bond0 eth0 eth2
down /sbin/ifenslave -d bond0 eth0 eth2
# agregat niveau de synchronisation de cluster2 vers culster1
allow-hotplug bond1
iface bond1 inet static
address 10.10.10.2
netmask 255.255.255.0
network 10.10.10.0
broadcast 10.10.10.255
up /sbin/ifenslave bond1 eth3 eth4
down /sbin/ifenslave -d bond1 eth3 eth4
le retour de ifconfig
bond0 Link encap:Ethernet HWaddr ee:4b:c3:75:fc:7b
inet adr:192.168.4.32 Bcast:192.168.4.255 Masque:255.255.255.0
UP BROADCAST MASTER MULTICAST MTU:1500 Metric:1
RX packets:0 errors:0 dropped:0 overruns:0 frame:0
TX packets:0 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 lg file transmission:0
RX bytes:0 (0.0 B) TX bytes:0 (0.0 B)
eth1 Link encap:Ethernet HWaddr 54:04:a6:b5:d5:6f
inet adr:192.168.4.30 Bcast:192.168.4.255 Masque:255.255.255.0
adr inet6: fe80::5604:a6ff:feb5:d56f/64 Scope:Lien
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
RX packets:6986 errors:0 dropped:4618 overruns:0 frame:0
TX packets:332 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 lg file transmission:1000
RX bytes:516309 (504.2 KiB) TX bytes:71046 (69.3 KiB)
lo Link encap:Boucle locale
inet adr:127.0.0.1 Masque:255.0.0.0
adr inet6: ::1/128 Scope:Hôte
UP LOOPBACK RUNNING MTU:65536 Metric:1
RX packets:6 errors:0 dropped:0 overruns:0 frame:0
TX packets:6 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 lg file transmission:0
RX bytes:300 (300.0 B) TX bytes:300 (300.0 B)
Plus tard je désactiverais ipv6 car je n'en ai pas besoin.
si vous avez une idée ou une astuce car je sèche depuis une petite semaine.
Dernière modification par tatave (26-12-2015 17:09:01)
1 Cluster Pare-feu sous Pfsense 2.3.x (2wan,1wifi,1dmz,1lan)
1 Cluster Data center maison sous debian en cours de refonte
2 Cluster Labo de Virtualisation 1 sous esxi et 1 sous hyper-v
----- vm prod debian, windows serveur 2012/2016, freebsd
Hors ligne
Que donne le resultat ?
Desktop : Debian Jessie Mate/Kali
Serveur/NAS/firewall : Debian stable,Centos,BSD
Hors ligne
1 Cluster Pare-feu sous Pfsense 2.3.x (2wan,1wifi,1dmz,1lan)
1 Cluster Data center maison sous debian en cours de refonte
2 Cluster Labo de Virtualisation 1 sous esxi et 1 sous hyper-v
----- vm prod debian, windows serveur 2012/2016, freebsd
Hors ligne
le reste je l ai déclaré dans la config réseau (voir mon post bonding dans "autres")
par contre pour le loopback (déclaration de la boucle locale) je me suis aperçu d'un manque chez moi , tu est sur de ce que tu déclare ? (je n ai fait que lo )
ce qui me semble plus correct , il n y a qu une seule boucle locale "lo" , quelque soit le nombre de cartes physiques . (a confirmer)
Dernière modification par anonyme (26-12-2015 17:52:36)
1 Cluster Pare-feu sous Pfsense 2.3.x (2wan,1wifi,1dmz,1lan)
1 Cluster Data center maison sous debian en cours de refonte
2 Cluster Labo de Virtualisation 1 sous esxi et 1 sous hyper-v
----- vm prod debian, windows serveur 2012/2016, freebsd
Hors ligne
dans /etc/modprobe.d/aliase-bond.conf
C'est de la vieille méthode bien foireuse, ça. A oublier. Utilise plutôt les options intégrées dans le fichier /etc/network/interfaces décrites dans /usr/share/doc/ifenslave/README.Debian et inspire-toi des exemples fournis dans /usr/share/doc/ifenslave/examples/.
-- la carte sur la carte mère qui doit servir de carte d'administration (192.168.4.0/24) eth1
-- 2 cartes en agrégat pour lan/dmz (192.198.4.0/24) bond0 [eth0 et eth2]
Est-ce bien 192.198.4.0/24 (préfixe IP public attribué à l'université d'Oklahoma ou une erreur de frappe ?
Si tu voulais écrire 192.168.4.0/24, ça ne va pas non plus puisque c'est le même préfixe que sur eth1.
Il vaut mieux montrer que raconter.
Hors ligne
1 Cluster Pare-feu sous Pfsense 2.3.x (2wan,1wifi,1dmz,1lan)
1 Cluster Data center maison sous debian en cours de refonte
2 Cluster Labo de Virtualisation 1 sous esxi et 1 sous hyper-v
----- vm prod debian, windows serveur 2012/2016, freebsd
Hors ligne
Dernière modification par tatave (28-12-2015 11:49:03)
1 Cluster Pare-feu sous Pfsense 2.3.x (2wan,1wifi,1dmz,1lan)
1 Cluster Data center maison sous debian en cours de refonte
2 Cluster Labo de Virtualisation 1 sous esxi et 1 sous hyper-v
----- vm prod debian, windows serveur 2012/2016, freebsd
Hors ligne
Bon j'ai effectivement un soucis avec mes cartes réseaux qui ne tolèrent pas la mise en agrégat.
Comment es-tu arrivé à cette conclusion ?
A ma connaissance n'importe quelle carte réseau peut faire du bonding, c'est l'OS qui s'occupe de l'agrégation.
Il vaut mieux montrer que raconter.
Hors ligne
Dernière modification par tatave (28-12-2015 12:21:29)
1 Cluster Pare-feu sous Pfsense 2.3.x (2wan,1wifi,1dmz,1lan)
1 Cluster Data center maison sous debian en cours de refonte
2 Cluster Labo de Virtualisation 1 sous esxi et 1 sous hyper-v
----- vm prod debian, windows serveur 2012/2016, freebsd
Hors ligne