Amigos, Tenho um Postgres 8.3 rodando em um cliente, e tenho uma tabela com 350 milhoes de linhas ( 10 colunas: 4 varchar 30, 4 char 1, 1 date, 1 numerico 12,2) Essa tabela cresce 1 milhão de linhas por dia e terá o limite de 400 milhoes de linhas. Nesa tabela, faço um group by para abastecer uma tabela com os dados resumidos. (nova tabela tem 10 colunas: 3 varchar 30, 5 char 1, 1 date, 1 numerico 12,2) Criei vários indices diferentes para tentar trabalhar essa tabela, mas em todos os casos acontece a mesma coisa, quando eu passo de 400.000 linhas, o banco para de usar os indices, com isso, se eu processar 400.000 o processamento sai em menos de 1 segundo se eu coloco 400.001 linhas demora 1 hora.
Ja tentei desativas valores como (enable_seqscan) e (enable_nestloop) e nada adiantou. Imagino que algum dos parâmetros de configuração do banco pode estar dando problema. Tenho um servidor com 4Gb de memoria e processador Xeon Quad X3210. Alguns dos meus principais parâmetros no postgres max_connections = 100 shared_buffers = 2048MB work_mem = 2MB maintenance_work_mem = 48MB max_fsm_pages = 16777216 max_fsm_relations = 1000 Alguém tem alguma idéia do que posso fazer para corrigir isso? Abraços. José Augusto.
_______________________________________________ pgbr-geral mailing list pgbr-geral@listas.postgresql.org.br https://listas.postgresql.org.br/cgi-bin/mailman/listinfo/pgbr-geral