Serveurs dédiés - Questions avant de se lancer dans l'aventure avec 3 serveurs Promox + CEPH
... / Questions avant de se lan...
BMPCreated with Sketch.BMPZIPCreated with Sketch.ZIPXLSCreated with Sketch.XLSTXTCreated with Sketch.TXTPPTCreated with Sketch.PPTPNGCreated with Sketch.PNGPDFCreated with Sketch.PDFJPGCreated with Sketch.JPGGIFCreated with Sketch.GIFDOCCreated with Sketch.DOC Error Created with Sketch.
Frage

Questions avant de se lancer dans l'aventure avec 3 serveurs Promox + CEPH

Von
Casimex
Erstellungsdatum 2018-09-25 10:16:16 (edited on 2024-09-04 14:09:58) in Serveurs dédiés

Hello,

J'envisage de tester une solution proxmox avec CEPH (3 serveurs infrastructures EG32).

Mon but serait d'avoir une solution HA en utilisant PFsense et de pouvoir load-balancer (via PFsense) du traffic (essentiellement HTTPS) vers des VM se trouvant sur des serveurs physiques différents et idéalement dans 3 datacenters OVH différents. J'aimerais donc pouvoir utiliser un range d'ip publique sur les 3 serveurs et de pouvoir migrer les ip indifférement d'un serveur à l'autre. D'après ce que j'ai lu je peux le faire via VRACK.

Suis-je dans le bon? A quelles difficultés dois-je m'attendre?

Merci de votre aide.


1 Antwort ( Latest reply on 2018-10-09 14:37:22 Von
TBC_Ly0n
)

Entre les 3 datacenters, il peut y avoir des latences qui vont gêner la réplication des données. Pour du pur load balancing, ça peut rendre l'exercice compliqué.

Par contre, rien n'empêche d'avoir un load balancing sur un site et avoir un second site répliqué pour la reprise après crash.

Sinon, pour s'abstraire du matériel, il y a les offres de cloud public / privé.

OK merci pour les infos.
J'ai bien vu pour l'offre cloud, mais le but serait de pouvoir gérer un maximum moi-même.

Pour la bascule d'ip je ne vois pas trop ce que vient faire le vrack là dedans.
Il faut prendre des IP FO à l'unité et tu pourras les basculer d'un dédié à un autre sans problème.

CEPH sera répliqué entre les 3 dédiés ? Donc les vms sont stockés sur les mêmes serveurs que le storage ?
Pour faire de la HA généralement on sépare l'hébergement des VM et l'hébergement des données. Ce qui fait un datastore centralisé aux 3 dédiés, les VM sont stockés sur le storage centralisé et exécutée depuis l'un des dédiés.

Proxmox gère déjà tout seul la bascule sur un autre dédié en cas de down d'un des serveurs, sous réserve de stocker les vm sur un storage centralisé.
Par contre il faut gérer la bascule de l'ip fo via l'api d'ovh.

Par contre tout ceci implique d'être sur le même DC.
Faire ce genre de manip sur des datacenters différents risque de poser des problèmes de latence / débit entre les serveurs.

Il vaut mieux tout mettre sur le même DC pour des raisons de perfs, ou laisser les dédiés indépendants les uns des autres.


Pour la bascule d'ip je ne vois pas trop ce que vient faire le vrack là dedans.
Il faut prendre des IP FO à l'unité et tu pourras les basculer d'un dédié à un autre sans problème.


Mon but serait de pouvoir bouger une ip publique d'une machine a une autre (comme expliqué ici: https://docs.ovh.com/fr/dedicated/ajouter-ou-enlever-un-bloc-ip-du-vrack/)


CEPH sera répliqué entre les 3 dédiés ? Donc les vms sont stockés sur les mêmes serveurs que le storage ?
Pour faire de la HA généralement on sépare l'hébergement des VM et l'hébergement des données. Ce qui fait un datastore centralisé aux 3 dédiés, les VM sont stockés sur le storage centralisé et exécutée depuis l'un des dédiés.

Oui. Le taille des VM sera suffisante pour VM et stockage. Le plus important sera que je puisse déplacer la VM sur un autre host en gardant son ip publique.


Proxmox gère déjà tout seul la bascule sur un autre dédié en cas de down d'un des serveurs, sous réserve de stocker les vm sur un storage centralisé.


D'où l'utilisation de CEPH.


Faire ce genre de manip sur des datacenters différents risque de poser des problèmes de latence / débit entre les serveurs.


ok bien compris pour le probleme de latence (qui est tout a fait comprehensible). Mais cela devrait pas trop poser problème dans mon cas.

Merci pour ton feedback.


ok bien compris pour le probleme de latence (qui est tout a fait comprehensible). Mais cela devrait pas trop poser problème dans mon cas.


En es-tu certain ? À ma connaissance la réplication dans Ceph est synchrone (https://tracker.ceph.com/projects/ceph/wiki/Can_Ceph_Support_Multiple_Data_Centers source) et ça risque d'être mauvais niveau perfs si les nœuds ne se trouvent pas au même endroit.

Ce n'est pas un risque, c'est une certitude, il y a une dizaine de millisecondes entre Roubaix et Strasbourg ! Rien qu'avec ça, on ruine n'importe quel service par la latence qu'on insère dans le système.

Avant même de parler haute disponibilité, je parlerais résilience !
Hormis quelques cas, la haute disponibilité est trop chère pour ce qu'elle apporte.

Ok Bien compris. Je vais donc prendre les serveurs dans le même DC.
Je suppose qu'il vaut mieux que je les prenne tout les 3 dans une même commande pour avoir une chance de les avoir dans le même range d'IP?

Bonjour,

Il faudrait voir dans la doc de Ceph, mais je ne suis pas sur que ce soit nécessaire.
Si tu peux, mets les trois serveurs dans des baies, voire des salles du même datacenter différentes.
Ca te permettra de résister à la coupure électrique d'une baie voire d'une salle.

Voila, sous vos conseils j'ai 3 serveurs dans le meme DC. Pour le moment, les 3 serveurs sont en cluster promox avec un fs clusteurisé. La migration live fonctionne impeccable.

J'aimerais maintenant pouvour utiliser un /28 qui me reste (chez Soyoustart que je vais migrer). Mais je me pose la question de comment procéder pour pouvoir l'utiliser sur les 3 serveurs. Je comptais mettre un pfsense (2 en fait mais ca sera pour plus tard) et faire pointer le range dessus.
Par contre, quand je veux importer le range d'ip il me demande sur quel serveur je veux l'importer. N'est-il pas possible de l'importer sur le vrack ?
Y a-t-il une meilleure solution pour pouvoir profiter du range sur les 3 serveurs?
Encore merci de votre aide.

Je sais que ça se fait, mais ne me rappelle pas de la procédure... Peut-être que le support OVH pourra te diriger vers la bonne doc.