Hello,
Si tu veux faire vraiment faire du Ceph sur un seul serveur, je te conseille
d'avoir 3 OSD (sur 3 disques différents) et la triple réplication.
Ca permettra d'assurer la consistance des données et de ne pas en perdre.
D'un point de vue technique ça fonctionnera sans problème, ceph se moqu
monitors je pense que 2 est une prise de risque, on ne sait
jamais ce qui peut arriver.
Étienne
‐‐‐ Original Message ‐‐‐
On Wednesday, December 2nd, 2020 at 3:51 PM, Julien Escario
wrote:
> Le 02/12/2020 à 15:20, Etienne Menguy a écrit :
>
> > Hello,
> >
> > Si tu veux fai
> Si on n'a que 3 noeuds et qu'on en perd un, on n'a pas exactement 33%
> des PG hors ligne, mais un peu plus ou un peu moins, ce qui fait qu’on
> se retrouve potentiellement avec des écritures bloquées sur une partie
> du cluster.
Il y a peut être des cas particuliers avec la configuration, mais j
Hello,
C'est difficile de répondre sans avoir toutes les contraintes en tête ou votre
maturité technique.
Une solution simple serait un autre cluster cephfs en EC
Une nouvelle fonctionnalité a été ajouté sur le cephfs, le snapdiff comme pour
RBD.
https://github.com/ceph/ceph/pull/53229 à voir s
Hello,
Tu comptes rester sur un seul serveur?
--
Étienne Menguy
Feb 21, 2024, 09:46 by da...@network-studio.com:
> 'jour les gens.
>
> Je voudrais faire des tests (et peut-être un peu plus) en interne de backup
> vers du S3.
>
> Le serveur qui va héberger le service existe déjà, c'est du ZFS,
; Re-
>
> Il y a déjà l'infra en place (serveurs dans différents DC, sous ZFS et qui
> font du send/receive).
>
> L'idée est de tester S3 (vs NFS) pour des backups (de pleins de petits
> fichiers - des mails).
>
> David
>
> - Mail original -
&
Hello,
Il n'y aura pas de perte d'espace puisqu'un 1 object = 1 chunk.
--
Étienne Menguy
Mar 11, 2024, 10:16 by da...@network-studio.com:
> 'jour à tous.
>
> Je me réponds à moi même (et aux autres - merci à eux).
>
> Dans Minio, la fonction gateway n'existe plus (et pas de fork à l'heure
>