On 02-08-2012 13:55, Flavio Henrique Araque Gurgel wrote: > 2) Fazer um cache grande o suficiente para que todas as tabelas caibam > na memória. > - vantagem: não vejo muita. > - desvantagem: cache muito grande costuma causar piora de desempenho no > PostgreSQL, justamente por causa do algoritmo que verifica o que deve > ficar e o que deve sair da memória. > Você está chamando de cache a cache do PostgreSQL mas não se esqueça que alguns sistemas operacionais fazem cache dos arquivos lidos para aumentar a eficiência das operações. Então, quanto mais memória melhor (se puder caber a quantidade de dados manipulados no dia a dia, seria perfeito). Sendo assim, uma vez lidos os arquivos referentes as tabelas e índices envolvidos, a manipulação desses dados será algumas vezes mais rápida do que se o arquivo estivesse sendo acessado pela primeira vez.
O que o Tiago precisa é de um bom sistema de discos. De preferência uma controladora que tenha bastante cache. E se o orçamento permitir, invista em discos SSD. > 4) Procure outro SGBD que atenda sua necessidade. Mas acho que é radical > demais. O que você precisa é desempenho? Já fez testes? O tempo de > acesso via índices no PostgreSQL é de microssegundos, o tempo maior é > enviar o resultado da consulta via rede. Memória não ajuda tanto assim. > Acho que ele não precisa. ;) O PostgreSQL é extremamente rápido se a aplicação for pensada levando em consideração alguns aspectos da arquitetura do SGBD. Por último, é prudente pensar em um esquema de particionamento para a tabela C. -- Euler Taveira de Oliveira - Timbira http://www.timbira.com.br/ PostgreSQL: Consultoria, Desenvolvimento, Suporte 24x7 e Treinamento _______________________________________________ pgbr-geral mailing list pgbr-geral@listas.postgresql.org.br https://listas.postgresql.org.br/cgi-bin/mailman/listinfo/pgbr-geral