On Mon, 22 Feb 2016 01:09:13 +
Edwin Quijada wrote:
> Que siginifica el RAC, solo era por curiosidad tengo un sitio con
> alrededor de 500K de imagenes y otro con alrededor de 100K en
> imagenes almacenadas en texto con PG y todo va muy bien.
Yo tuve una bd de tamaño similar, como precaucio
Gracias lista por su ayuda,
Estamos analizando las diferentes soluciones propuestas por ustedes, y para
quedarnos mas tranquilos, dedicaremos cierto tiempo en aprendizaje y testeo
de estas tecnologías.
Una vez hayamos sacado conclusiones adoptaremos la que más nos interese.
Parece ser que este p
> Puedes hacer el explain analyze con ese valor nuevo de work_mem 2048 MB
> a ver que hizo con el Sort Method, pues me da la impresión que el
> problema esta ahí en el Sort Method
>
> Creo que no se trata de las cantidad de JOIN, hay que detectar donde es
> el cuello de botella en el plan.
Uhmmm
On Mon, 22 Feb 2016 09:55:21 -0500
Hellmuth Vargas wrote:
> Hola Lista
> Les tengo el siguiente desafio pues no he podido dar con el tema,
> tengo dos tablas
>
> CREATE TABLE ath_tecnicosv2
> (
> descripcionmovimiento character varying(160),
> fechamto date,
> horamto character varying(8),
Hola Antony
Pues, restaure indices y lleve el work_mem hasta 4096 MB (la tercera
parte de la RAM del servidor) y pasaron 4 minutos y nada.
set local work_mem='4096 MB'
select t.descripcionmovimiento, t.fechamto, t.horamto, t.fechaact,
t.horaact, t.usuario, t.identificacionusuario, t.tipomovim
Para colocar ese valor tan alto, debes considerar tu max_connections
El valor que estás colocando es muy alto
De: pgsql-es-ayuda-ow...@postgresql.org
[mailto:pgsql-es-ayuda-ow...@postgresql.org] En nombre de Hellmuth Vargas
Enviado el: lunes, 22 de febrero de 2016 16:35
Para: Eduardo M
Hola Antony
Si es demasiado alto, lo estuve subiendo de a 255 MB cada vez, llegando
hasta este punto para verificar.. en ninguno de los casos mejoro.
El 22 de febrero de 2016, 14:39, Mario Soto Cordones<
marioa.soto.cordo...@gmail.com> escribió:
> Para colocar ese valor tan alto, debes considera
Hola, no estaba diciendo que dejaras ese valor en el archivo de
configuración, solo que le dieras un valor alto para la session con la
consulta en cuestión, y ver si afectaba el plan, pues veo que hay Sort
en el plan de ejecución y según cuando separas la consulta en partes
parece que cuello
Hola,
Buscando informacion sobre el work_mem, me tope con esto, tal vez te pueda
ser de utilidad
http://pgtune.leopard.in.ua/
Saludos.
2016-02-22 16:48 GMT-03:00 Anthony Sotolongo :
> Hola, no estaba diciendo que dejaras ese valor en el archivo de
> configuración, solo que le dieras un valor
saludos
como puedo saber la cantidad de trigger (#) que se disparan al ejecutar
una operacion dada en una tabla
y otra pregunta, si yo tuviera 20 000 trigger sobre una misma tabla que
estan puestos para dispararse al insertar, si yo hago un insert sobre
dicha tabla que garantias tengo de que
Marcos Michel Martinez Perez escribió:
> saludos
>
> como puedo saber la cantidad de trigger (#) que se disparan al ejecutar una
> operacion dada en una tabla
Una manera fácil es mirar \d ... o bien, mirar
select * from information_schema.triggers
> y otra pregunta, si yo tuviera 20 000 trigger
Hellmuth Vargas escribió:
> Hola Mario
>
> Ajuste los parámetros y no se ve gran cambio, tanto con el work_mem por
> default como con el de 2048 MB, ya no adjunto imagen pues por el tamaño del
> mensaje no lo permite la lista.
Estimados, no es necesario adjuntar las mismas imágenes una y otra vez
On 2/23/2016 10:57 AM, Alvaro Herrera wrote:
Hellmuth Vargas escribió:
Hola Mario
Ajuste los parámetros y no se ve gran cambio, tanto con el work_mem por
default como con el de 2048 MB, ya no adjunto imagen pues por el tamaño del
mensaje no lo permite la lista.
Estimados, no es necesario ad
Horacio Miranda escribió:
> Estoy de acuerdo con Alvaro, claro que no tengo idea de donde salio ese tema
> de los gatitos muertos...
Es una tontera ilustrativa solamente.
> Estan las definiciones de las tablas voy a hacer un lab para ver si
> reproduzco el error en unas horas ( estoy trabajando
Pregunta tonta
Para que quieres hacer un group by ? cuando no hay funciones que
necesiten un group by ?
Puedes correr la consulta sin el group by for favor.
PS: ahora tengo tiempo para mirar esto y estoy viendo como crear datos...
-
Enviado a la lista de correo pgsql-es-ayuda (pgsql-es-a
Hola Horacio
El group by es porque originalmente había un distinct porque salen
registros duplicados ( son registros de trazas según me dicen) por lo
tanto cambie el distinct por group by pues es más óptimo. Igual lo retire
en un principio y tampoco obtuvo resultados.
El feb. 22, 2016 5:45 PM, "
Estoy revisando en este momento, estoy haciendo ( una brutalidad pero
voy a salir a comer algo asi que no problema que quede corriendo ).
for j in $(seq 1 200) ; do
for i in $(seq 1 1) ; do
psql lentitud -c \
"insert into ath_cajerosv2 (fecha,id_usuario,usuario) values (now() -
inte
Horacio Miranda escribió:
> Estoy revisando en este momento, estoy haciendo ( una brutalidad pero voy a
> salir a comer algo asi que no problema que quede corriendo ).
>
> for j in $(seq 1 200) ; do
> for i in $(seq 1 1) ; do
> psql lentitud -c \
> "insert into ath_cajerosv2 (fecha,id_
Acabo de volver y si es super lento, estaba pensando en prepared
statement ( o el equivalente a variables Bind de Oracle en postgresql ).
voy a ver de que se trata generate_series.
On 2/23/2016 12:21 PM, Alvaro Herrera wrote:
Horacio Miranda escribió:
Estoy revisando en este momento, estoy h
On 2/23/2016 12:37 PM, Horacio Miranda wrote:
Acabo de volver y si es super lento, estaba pensando en prepared
statement ( o el equivalente a variables Bind de Oracle en postgresql ).
voy a ver de que se trata generate_series.
On 2/23/2016 12:21 PM, Alvaro Herrera wrote:
Horacio Miranda escri
Solo para aclarar, los planes de ejecución de un distinct y group by (
cuando no se usan funciones de agregación ) son iguales.
Por simplicidad y objetividad ( ya que quieres registros no duplicados
), te sugiero usa distinct.
Ahora una pregunta, puedes ver si tus datos están duplicados ?
Ti
21 matches
Mail list logo