El 22/09/11 23:29, Sebastián Salazar Molina. escribió:
Son datos que procesa jmeter (una historia extensa) que por
Wow.... Si te refieres a HP Jmeter entonces sí que tenéis logs
largos de la JVM... :)
requerimiento no funcional deben quedar en xml, procesar datos más
pequeños resultó bastante bien, son con los datos mayores a 800MiB
en donde tenemos problemas, las pruebas las realizamos sobre
ubuntu lts x86_64, con los paquetes de PostgreSQL que venian en la
distribución (y los backports), googleando no encontré nada muy
descriptivo.
Por otra parte, dado las capacidades actuales (de RAM y
Almacenamiento), tener campos de más de 1GiB no me parece tan
descabellado, no es razonable, pero me parece una condición
posible.
Si bien me parece interesante este ejercicio para probar postgres
en este área, existiendo un límite de 1GB por campo yo no le daría
muchas vueltas: dado que tienes ficheros entorno a este tamaño no es
razonable guardarlos en la bbdd.
Si por otra parte no vas a consultar los elementos xml dentro del
xml (xpath, etc) entonces no te aporta demasiado guardarlo como tipo
xml. No sé qué parseado se hace -o no- del XML para insertarlo, pero eso
definitivamente podría afectar de forma brutal al consumo de memoria.
Pero vamos, para tí es un "blob", no un "xml", entiendo.
Por todo ello, yo lo almacenaría fuera de la db.
Saludos,
Álvaro
--
Álvaro Hernández Tortosa
-----------
NOSYS
Networked Open SYStems
-
Enviado a la lista de correo pgsql-es-ayuda ([email protected])
Para cambiar tu suscripci�n:
http://www.postgresql.org/mailpref/pgsql-es-ayuda