45 private links
On peut maintenant personnaliser notre configuration avec plusieurs options. Par défaut, lorqu'un client gluster accède au cluster via un des noeuds et que celui-çi subit une indisponibilité de service, glusterfs-serveur mettra 42 secondes pour le reconnecter automatiquement sur un autre noeud. On peut réduire ce timeout à une seconde:
stockage1:~$ sudo gluster volume set vol1 network.ping-timeout 1
success
Si la charge de travail est basée sur des petits fichiers, la performance générale de Gluster va diminuer considérablement car les lookups seront de plus en plus nombreux, ainsi que les métadonnées à lire. Pour combler ceci, l'utilisation de disque SSD est très fortement conseillée. Une large bande-passante serait également souhaitable. Mais pour aller plus loin, nous pouvons activer plusieurs threads par écriture/lecture sur le cluster. Cela correspond par exemple à 3 connexions TCP simultanées pour chaque accès à un fichier sur le système de fichier. Un exemple de configuration serait le suivant:
stockage1:~$ sudo gluster volume set vol1 client.event-threads 3
La même manipulation peut être faite entre les noeuds du cluster:
stockage1:~$ sudo gluster volume set vol1 server.event-threads 5
Maintenant, on vérifie l'état final de la configuration:
stockage1:~$ sudo gluster volume info vol1
Volume name: vol1
Type: Replicate
Volume ID: d6954613-92g1-46e7-2w38-3r1298ze6y72
Status: Started
Number of Bricks: 1 x 4 = 4
Transport-type: tcp
Bricks:
Brick1: stockage1:/mnt/pool1/brick1
Brick2: stockage2:/mnt/pool1/brick1
Brick3: stockage3:/mnt/pool1/brick1
Brick4: stockage4:/mnt/pool1/brick1
Options Reconfigured:
network.ping-timeout: 1
client.event-threads: 3
server.event-threads: 5