2013/6/21 luiz damascena <luiz.damasc...@trt8.jus.br>

> Colaboradores da lista.
>
> Meu ambiente é um postgreSQL 9.1.4, Linux RedHat 6.3 64 bits, 24
> processadores Intel X5690.
>
> Quatro databases no cluster (36 GB, 70 GB, 800 MB e 2 GB), sendo que dois
> deles (o maior inclusive (70 GB)) armazenam basicamente LOB´s.
>
> O backup lógico está consumindo mais de dez horas - só a geração /
> compactação do maior database com LOB´s consome 9 horas e 15 minutos.
>
>
Uma ideia é "backupear" os LOBs separadamente e em paralelo, mas na 9.1
você não vai conseguir garantir consistência nisso (a partir da 9.2 já
consegue).

Ainda, a 9.3 (já em beta) tem pg_dump em paralelo, vale a pena testar.


> O comando é $BIN_DIR/pg_dump -h 127.0.0.1 -p $PGPORT -U $PGUSER -F c -E
> LATIN1 -b NomeDoMeuDatabase | gzip > NomeDoMeuDatabase.backup.gz 2>>
> $LOG_DIR/backup_logico.log
>
>
Se está usando o -Fc não vejo necessidade de passar pelo gzip. O -Fc já
gera um arquivo comprido (pelo menos se instalou o PostgreSQL com zlib). Só
não consigo dizer com certeza se o fato de ser muito LOB pode atrabalhar,
se quiser, faça o teste, crie sem o gzip e depois passe por ele e compare
os tamanhos.

PS: Cada vez mais eu vejo motivos para não se armazenar arquivos binários
no banco... mas isso é uma discussão infinita!!!

Atenciosamente,
-- 
Matheus de Oliveira
Analista de Banco de Dados
Dextra Sistemas - MPS.Br nível F!
www.dextra.com.br/postgres
_______________________________________________
pgbr-geral mailing list
pgbr-geral@listas.postgresql.org.br
https://listas.postgresql.org.br/cgi-bin/mailman/listinfo/pgbr-geral

Reply via email to