El 22/09/11 23:29, Sebastián Salazar Molina. escribió:

Son datos que procesa jmeter (una historia extensa) que por
Wow.... Si te refieres a HP Jmeter entonces sí que tenéis logs largos de la JVM... :)
requerimiento no funcional deben quedar en xml, procesar datos más
pequeños resultó bastante bien, son con los datos mayores a 800MiB
en donde tenemos problemas, las pruebas las realizamos sobre
ubuntu lts x86_64, con los paquetes de PostgreSQL que venian en la
distribución (y los backports), googleando no encontré nada muy
descriptivo.
Por otra parte, dado las capacidades actuales (de RAM y
Almacenamiento), tener campos de más de 1GiB no me parece tan
descabellado, no es razonable, pero me parece una condición
posible.

Si bien me parece interesante este ejercicio para probar postgres en este área, existiendo un límite de 1GB por campo yo no le daría muchas vueltas: dado que tienes ficheros entorno a este tamaño no es razonable guardarlos en la bbdd.

Si por otra parte no vas a consultar los elementos xml dentro del xml (xpath, etc) entonces no te aporta demasiado guardarlo como tipo xml. No sé qué parseado se hace -o no- del XML para insertarlo, pero eso definitivamente podría afectar de forma brutal al consumo de memoria. Pero vamos, para tí es un "blob", no un "xml", entiendo.

    Por todo ello, yo lo almacenaría fuera de la db.

    Saludos,

    Álvaro

--
Álvaro Hernández Tortosa


-----------
NOSYS
Networked Open SYStems

-
Enviado a la lista de correo pgsql-es-ayuda ([email protected])
Para cambiar tu suscripci�n:
http://www.postgresql.org/mailpref/pgsql-es-ayuda

Responder a