Amigos,

Tenho um Postgres 8.3 rodando em um cliente, e tenho uma tabela com 350
milhoes de linhas ( 10 colunas: 4 varchar 30, 4 char 1, 1 date, 1 numerico
12,2)
Essa tabela cresce 1 milhão de linhas por dia e terá o limite de 400 milhoes
de linhas.
Nesa tabela, faço um group by para abastecer uma tabela com os dados
resumidos. (nova tabela tem 10 colunas: 3 varchar 30, 5 char 1, 1 date, 1
numerico 12,2)
Criei vários indices diferentes para tentar trabalhar essa tabela, mas em
todos os casos acontece a mesma coisa, quando eu passo de 400.000 linhas, o
banco para de usar os indices, com isso, se eu processar 400.000 o
processamento sai em menos de 1 segundo se eu coloco 400.001 linhas demora 1
hora.

Ja tentei desativas valores como (enable_seqscan) e (enable_nestloop) e nada
adiantou.
Imagino que algum dos parâmetros de configuração do banco pode estar dando
problema.
Tenho um servidor com 4Gb de memoria e processador Xeon Quad X3210.

Alguns dos meus principais parâmetros no postgres

max_connections = 100
shared_buffers = 2048MB
work_mem = 2MB
maintenance_work_mem = 48MB
max_fsm_pages = 16777216
max_fsm_relations = 1000

Alguém tem alguma idéia do que posso fazer para corrigir isso?

Abraços.
José Augusto.
_______________________________________________
pgbr-geral mailing list
pgbr-geral@listas.postgresql.org.br
https://listas.postgresql.org.br/cgi-bin/mailman/listinfo/pgbr-geral

Responder a