Je me suis mal exprimé : les bugs rencontrés étaient une consommation
excessive de la mémoire, disproportionnée avec l'usage normal attendu
d'une déduplication.


Le 31 octobre 2013 13:27, piti <pablo.p...@gmail.com> a écrit :
> On Thu, Oct 31, 2013 at 12:15:00PM +0100, Olivier Doucet wrote:
>> Sinon pour parler de ZFS spécifiquement, les rares bugs que j'ai vu
>> sur ce système de fichiers concernait à chaque fois la partie dédup
>> (souci de consommation mémoire, overhead, ...). Perso, j'hésite à
>> l'activer et je préfère me reposer sur la compression à la volée.
>
> It's not a bug ! Dédupliquer, c'est conserver en RAM le checksum de
> chaque bloc, afin de retrouver ce bloc si on voulait stocker le même
> contenu. La RAM nécessaire est directement proportionnelle au nombre
> de bloc du pool, cf
> http://www.oracle.com/technetwork/articles/servers-storage-admin/o11-113-size-zfs-dedup-1354231.html
>
> Par conséquent, la déduplication consomme énormément de RAM, je n'en
> recommande pas l'usage, sauf si on a un budget RAM disproportionné
> … déjà que ZFS est très gourmant en RAM... (ARC)
>
> --
> Pablo Joubert
> _______________________________________________
> Liste de diffusion du FRsAG
> http://www.frsag.org/
_______________________________________________
Liste de diffusion du FRsAG
http://www.frsag.org/

Répondre à