Excerpts from Sebastián Salazar Molina.'s message of vie sep 23 01:29:33 -0300 2011:
> Son datos que procesa jmeter (una historia extensa) que por > requerimiento no funcional deben quedar en xml, procesar datos más > pequeños resultó bastante bien, son con los datos mayores a 800MiB > en donde tenemos problemas, las pruebas las realizamos sobre > ubuntu lts x86_64, con los paquetes de PostgreSQL que venian en la > distribución (y los backports), googleando no encontré nada muy > descriptivo. Si son los paquetes de Martin Pitt para la arquitectura x86-64, entonces es todo de 64 bits y debería funcionar. Dado que estás bastante cercano al límite de 2 GiB y que aún hay memoria disponible (examinaste free, verdad?) y que la petición que viene es de un tamaño no tan grande (67 MiB), yo diría que deberías volver a examinar la idea de que hay un "ulimit" o mecanismo similar que está impidiendo emplazar más memoria. Por ejemplo, es posible que si abres un terminal común y corriente y ejecutes "ulimit" te diga que todo es ilimitado, pero que el script de inicio de Postgres esté seteando un ulimit. O quizás hay algún módulo de seguridad que está configurado para eso, o algún otro mecanismo. > Por otra parte, dado las capacidades actuales (de RAM y > Almacenamiento), tener campos de más de 1GiB no me parece tan > descabellado, no es razonable, pero me parece una condición > posible. No debería ser imposible, hasta el límite de 1GiB que permite TOAST. Prueba desactivando la compresión como te sugerí antes, y usando el paso de parámetros fuera de línea, a ver si tienes más suerte. Para datos mayores que 1 GiB y menores que 4 GiB, podrías usar large objects. -- Álvaro Herrera <[email protected]> - Enviado a la lista de correo pgsql-es-ayuda ([email protected]) Para cambiar tu suscripci�n: http://www.postgresql.org/mailpref/pgsql-es-ayuda
