2012/1/7 maureen duque <[email protected]>: > > Me encuentro en un desarrollo Web en donde se estima la creación de tablas > en postgresql que almacenarán alrededor de 120 millones de registros.
por politica propia dudo de cualquier estimado que me presenten... como llegaron a concluir cuantos registros llegaran a haber? > ¿Que experiencia previa tienen en relación al asunto? > Se usará un sistema Debian 6.0 como servidor. Pero quisiera saber algunas > cosas en relación al tipo de sistema de archivos subyacente recomendado > (ReiserFS, XFS... etc) si usas ext3 desactiva el jurnalling para el xlog y para los datos dejalo en ordered, o usa xfs > ¿es recomendable el particionamiento de tablas? depende de la situacion > ¿que tipo de indices debo usar? depende de la situacion > ¿que tareas de mantenimiento deben realizarse? vacuum y analyze; de preferencia configura bien el autovacuum > ¿Realmente está postgresql preparado para almacenar tal cantidad de datos y > ejecutar operaciones OLTP sobre dichas enormes tablas? > si un consejo: siempre guiate bajo la premisa de que la optimizacion adelantada es la raíz de todos los males... es decir, no trate de optimizar antes de saber que problemas realmente vas a tener, si lo haces terminaras con soluciones a problemas que no tuviste y con problemas reales sin solucion... o peor aun, con soluciones que provocan mas problemas de los que solucionan -- Jaime Casanova www.2ndQuadrant.com Professional PostgreSQL: Soporte 24x7 y capacitación - Enviado a la lista de correo pgsql-es-ayuda ([email protected]) Para cambiar tu suscripción: http://www.postgresql.org/mailpref/pgsql-es-ayuda
