Hola En mi trabajo, hasta ahora, he trabajado con modelos transaccionales y otros para reportes..y en este último caso sobre información fácilmente manejable (en cuanto a cantidad de registros....).....estamos hablando de estadísticas obtenidas a partir de archivos de texto que tienen las transacciones del cliente y que al día pueden ser 20 millones de registros.... y que al pasar a la BD terminan siendo unos cientos o miles al día, dependiendo de la totalización o clasificación en el cálculo de las estadísticas.... como decía.. muy manejable.
Sin embargo, se presentó un proyecto para una BD de reportes muy similar a los que ya manejo....pero existe una alta probabilidad que el cliente insista en solicitar un reporte que requiera listar el detalle de estas transacciones bajo algún criterio de identificación...... Para ello requiero insertar cada uno de estos 20 millones de registros a la BD....lo que al mes me significaría 600 millones... y tomando en cuenta un histórico estandar de 3 meses... 1800 millones de registros presentes en la BD luego de 3 meses de uso...... Lo único que se me ocurre hasta ahora es hacer una cantidad X de tablas que en conjunto tengan todos estos registros y luego ver en los procedimientos de cálculo y de reportes los mecanismos para derivar la información o las consultas..... esto sin mencionar las tareas de mantención como el vacuum.. cuando ocurra la limpieza > 90 días.. Me imagino que alguno de Uds. talvez tiene o ha tenido que diseñar una BD con esta cantidad de registros... Cómo lo hizo?.. Estoy dando por descartado tener una tabla con esa data.. ( pero desconozco las bondades del postgres como para asegurar ese descarte ).. Lo único que sé es que será un servidor dedicado sólo a eso (sin especificaciones aún) y usaría el Postgres 8.4.. Bueno... eso.. cualquier ayuda, comentario, link (preferentemente en español) se agradece.. Saludos Andrés