Gracias Gerardo..
Justamente cuando leía la WIKI de postgres me encontré con algo que
indicaba lo de repetir la operación de SR en estas situaciones... pero
quería asegurarme de tener una respuesta/experiencia actualizada al
respecto.
OK, con esto ya sé que manualmente puedo continuar la operació
Buenas Tardes Estimad@s
Necesito orientación para habilitar failover en el tema streaming
replicación sin WAL..
Escenario:
Un Master (192.168.10.1)(ref nodo1)
Un Esclavo (192.168.10.2) (ref nodo2)
Hola .. ya se aclaró el escenario..
Se estaba usando en el desarrollo una antigua librería hecha para procesar
SPs con sólo un cursor como salida ... por eso no les resultaba este nuevo
SP en esa librería.
Se modificará esa librería para esos proyectos (más antiguos)... para los
más nuevos usará
Gracias Anthony..
Yo en forma manual (psql) me funciona... pero al parecer en PHP no les ha
funcionado...Voy a insistirle al desarrollador en que valide bien la
estructura begin-end al momento de hacer los fetch..
Te cuento los resultados.
Slds.
AP.
El 24 de septiembre de 2015, 18:33, anthony
Estimados
Tengo un Stored Procedure que es mas menos lo siguiente en cuanto a
definición...
mi_procedimiento(param1 ..
param2...
cursor1 refcursor,
cursor2 refcursor,
.
Gracias Álvaro.,...
En una de las máquinas (9.2.9) que debo chequear, el comando que me indicas
entrega:
-bash-3.2$ pg_config --configure;
'--disable-rpath' '--prefix=/usr/pgsql-9.2'
'--includedir=/usr/pgsql-9.2/include' '--mandir=/usr/pgsql-9.2/share/man'
'--datadir=/usr/pgsql-9.2/share' '--with
Gracias..
Ambos parámetros están en: America/Santiago
Y respecto a las alternativas de la lista las asociadas a Chile serían:
name | abbrev | utc_offset | is_dst
---+++
Chile/Continental
El año pasado pensaba esopero resulta que al otro día del cambio nos
dimos cuenta que el S.O. estaba igual y la BD había cambiado... por eso
no me quiero fiar de ese supuesto.
Gracias
Slds.
A.
El 13 de marzo de 2015, 12:10, Gilberto Castillo <
gilberto.casti...@etecsa.cu> escribió:
>
>
>
Hola
Qué se debe hacer para que el motor no cambie la hora de las BDs en
aquellas zonas horarias que tienen la instrucción de cambiar la hora dos
veces en el año??...en nuestros servidores a nivel de S.O. ya está
deshabilitado ese cambio pero no se que parámetros del postgresql.conf hay
que setear
Buenas Tardes Estimados
Perdonen lo extenso... pero necesito que tengan paciencia y lean esto y me
den sugerenciasO.. que me den ejemplos claros de como crear y rescatar
círculos jeje..
Tengo una tabla que guarda geocercas y como no tengo dominado el tema
decidí crearla con dos campos (
Ahh...ok.. Gracias por la info.
Saludos
AP.
El 11 de febrero de 2015, 17:07, Maximiliano Riffo
escribió:
> Antiguamente se utilizaba sad69 que creo que es 4618. Aun ( hasta hace 3
> años atrás que cotizamos ) el igm.cl vendía cartografía en ese origen.
>
>
> El 11 de febrero de 2015, 16:56,
Gracias Max..
Hace un tiempo atrás, cuando estuve googleando encontré el SRID 4618
pero ya no recuerdo si lo encontré en referencias a postgres u oracle... y
ahora que estoy retomando este desarrollo quiero asegurarme de no tener
problemas después por no usar el más adecuado..
Slds.
AP.
El
Hola
Estoy trabajando con Postgis y siguiendo ejemplos en la creación de areas
usé el SRID 4326 pero no tengo claro si es o no el más adecuado para
Chile. Cuál es el más adecuado?.. o no es un valor tan directamente
asociado a una zona geográfica?..
Gracias desde ya.
Saludos
A.
Guaaa Gracias Álvaro por la aclaración.en la documentación leí
mal... en la documentación aparece:
SCHEMA
SET SCHEMA 'value' is an alias for SET search_path TO value. Only one
schema can be specified using this syntax.
...asi que obvié la información original de set search_path en la
Gracias Felipe...
...mira... al leer los detalles de esa variable, llegamos a la conclusión
que no podíamos setear esa variable ya que al parecer el valor debe ser
único y resulta que todos los objetos de nuestra bd pertenecen a un esquema
propio.. "un_catalogo" como aparece en la descripción del
Estimados
Tanto tiempo sin pasar por aquí saludos..
Consulta:
Ambiente:
===
-bash-3.2$ more /etc/redhat-release
Red Hat Enterprise Linux Server release 5.4 (Tikanga)
-bash-3.2$ psql una_db un_usuario
psql (9.2.9)
Type "he
Hola Álvaro...
Osea, realmente no existe el uso de esa opción "selected_by_position" ??...
en este enlace parecía ser válido:
http://archives.postgresql.org/pgsql-es-ayuda/2012-05/msg00174.php
.. o entendí muy mal la idea de la "solución". o talvez era eso...una
propuesta a desarrollar??...
Hola Nicolas..
Gracias por tu aporte... lo tendré a la mano..
Sin embargo, justamente lo que me quiero evitar es hacer algo auxiliar para
un tipo de carga que en lo personal debiera ser considerado por cualquier
gestor de BD... y quiero pensar que yo estoy haciendo mal uso de esa
opción y no que
Hola Lista
Les quería recordar este pedido
No he encontrado nada... y no quiero hacer una shell o llevarlos a excel
para agregarles un separador y cargarlos de la forma que siempre lo
hago.. debo encontrar una respuesta pronto para avanzar con otras
cosas..
Gracias desde ya..
Slds.
And
Hola lista..
Tengo la siguiente situación (postgres 9):
una tabla MITABLA :
Column| Type |
-+---+
tbl_id | character varying(2) |
tbl_codigo | smallint |
tbl_descrip | character varying(20) |
tbl_dato| character
Hola lista
Sorry Martin por lo tarde de esta respuesta, pero estuve desconectado de
todo tipo de correos...(voy recién en el 17 de Enero). Respecto a tu
consulta , bueno, no puedo indicarte mucho más que las instrucciones que me
dieron acá... no puedo pensar mas allá de 3-4GB como límite a te
Ok. gracias Edwin por respaldar con tu experiencia y a todos por los
aportes. Por mi parte doy por cerrada esta consulta.
Saludos y felices fiestas a todos(as).
AP.
El 27 de diciembre de 2011 11:36, Edwin Quijada
escribió:
> Oye, eso de PAER solo es un dolor de cabeza ademas q no funciona, a mi
upgrade estuve leyendo del PAE y por lo visto el server que tiene el
problema ya lo tiene aplicado:
-bash-3.2$ uname -a
Linux dbprod 2.6.18-128.el5PAE #1 SMP Wed Dec 17 12:02:33 EST 2008 i686
i686 i386 GNU/Linux
lo que se refleja en que el serv reconoce los 16GB:
-bash-3.2$ cat /proc/meminf
jaja ok, llevaré a los que configuraron el server al patíbulo...
Efectivamente el server soporta 64b pero el Linux es de 32b.. y necesitaba
entender dos cosas: si podía hacer algo para configurar más memoria en el
postgres y por lo visto la respuesta es clara: "cambiar s.o. a
64b". y
Hola Lista!
Hacía tiempo que no se me presentaba una situación en la que tuviera que
recurrir a la teoría para poder explicar lo que se presenta en la
prácticadicho de otra forma, salir de lo mecánico y rutinas que uno
realiza y que da por sentado al momento de instalar y diseñar y desarrollar
Ok.
Sipen comparación con otras plataformas, también me parece alto...pero
es que son a lo mas 8 conecciones de usuario y sin tantos ordenamientos,
aunque sí harta data en la Wiki había leído algo de Jaime que indicaba
un valor referencial entre 2 y 4% de la memoria... yo en esta plat
Ok.. Esa es justamente la opción que nos quedaba por aplicar
Anoche por otro tema aumenté el work_mem y me quedé pensando si el COPY
podría colateralmente verse beneficiado... pero desconozco si usa o no estos
espacios?...
De todas formas, después del COPY de esta noche aplicaríamos la asigna
Hola
Tengo una tabla de 15Mill. de registros... y a las 00:00 hrs. hay una shell
que ejecuta en el mismo server de la bd (como root) lo siguiente:
\COPY (SELECT id, fecha FROM data_catalog.tabla) TO '/path/archivo.txt'
Se demora menos de 3 minutos, lo que en términos prácticos a mi juicio está
Ahh..ok!..
Gracias Alvaro.
Slds.
AP
El 19 de abril de 2011 12:59, Alvaro Herrera escribió:
> Excerpts from Andrés P.P.'s message of mar abr 19 11:41:13 -0300 2011:
> > Efectivamente habilité esa variable y funcionó..
> >
> > Cuando apareció este problema nosotros empezamos a usar :
> >
>
Efectivamente habilité esa variable y funcionó..
Cuando apareció este problema nosotros empezamos a usar :
psql datadb data_usr -h localhost
..para hacer nuestras mantenciones o consultas directas, asi que seguíamos
trabajando "normalmente".
Afortunadamente en las aplicaciones y en las sh
Hola
Retomando este tema...
Anoche hubo una actividad en la que se aprovechó de reiniciar la BD y como
ya tenía preparado el parámetro unix_socket_directory funcionó la creación
de esos archivos en el nuevo Path.. sin embargo, al tratar de conectarme
sigue reclamando por /tmp
.
unix_
Gracias Álvaro
Respecto a un limpiador del tmp... tendría lógica si todo el tmp hubiese
sido vaciado pero archivos muchos más antiguos -e innecesarios incluso- que
están ahí no fueron eliminados...ahí me surje la opción de "alguien"..
Respecto al path.. por ahora lo coloqué en el $PGDATA para que
Hola!
Haciendo un chequeo rutinario... me intenté conectar a una de las BDs y me
salió el error:
psql: could not connect to server: No such file or directory
Is the server running locally and accepting
connections on Unix domain socket "/tmp/.s.PGSQL.5432"?
Lo primero que pensé fu
Ok!... Muchas Gracias!
Saludos
AP.
El 22 de diciembre de 2010 10:35, Alvaro Herrera escribió:
> Excerpts from Andrés P.P.'s message of mié dic 22 10:22:18 -0300 2010:
> > Exacto... por lo mismo creo que el DEVEL no debiera ir.. pero quería
> > asegurarme con la experiencia de alguien al respec
Exacto... por lo mismo creo que el DEVEL no debiera ir.. pero quería
asegurarme con la experiencia de alguien al respecto.
Gracias.
Saludos
AP.
El 22 de diciembre de 2010 06:52, p valdes escribió:
> No uso redhat hace tiempo, pero de todos modos normalmente los devel
> son paquetes para los desa
(Perdonen la demora... he estado ocupado...)
Gracias Gilberto, Martín
Lo que indica Martín se acerca a mi realidad en el sentido que él por lo
visto instala sólo tres paquetes.. el rpm1, rpm2 y el rpm3... y le hes
suficiente en su configuración cliente.
Por lo que me decías tú, Gilberto, pensé q
Hola
Como decía al principio yo siempre instalo en los server los siguientes
RPMs..
rpm1: postgresql-8.X.Y-1PGDG.rhelZ.i586.rpm
rpm2: postgresql-devel-8.X.Y-1PGDG.rhelZ.i586.rpm
rpm3: postgresql-libs-8.X.Y-1PGDG.rhelZ.i586.rpm
rpm4: postgresql-server-8.X.Y-1PGDG.rhelZ.i586.rpm
Lo que tú me indic
Estimados
Hasta ahora en mi trabajo todas las aplicaciones que hemos desarrollado
corren sobre el mismo server en el que está postgres y por lo general RedHat
4 o 5. Por lo tanto siempre he instalado los RPMs:
rpm1: postgresql-8.X.Y-1PGDG.rhelZ.i586.rpm
rpm2: postgresql-devel-8.X.Y-1PGDG.rhelZ.i5
Osea... yo no considero equivalente esa shell al initdb..
Yo cuando empecé con postgres siempre usaba los comandos nativos
directamente. initdb, pg_ctl, etc... pero en algún momento por
protocolo me indicaron que estaba este script que se usaba "para lo
mismo" En ese tiempo lo empecé a
Estimados listeros...
Luego de unas sugerencias de Álvaro pude comprobar que en general lo que
estaba intentando hacer , asi como las sugerencias de Guillermo estaba
bien. sin embargo, había una diferencia entre lo que hice alguna vez
con los servidores antiguos y lo que estaba haciendo en el
Gracias Guillermo por las sugerencias seguiré investigando.
Saludos
Andrés
El 23 de septiembre de 2010 12:07, Guillermo Villanueva <
guillermo...@gmail.com> escribió:
> A mi me pasaba lo mismo hasta que probé con template0 , pero desde pgadmin,
> no tengo idea como se hará con línea de com
Ok.
Hice dos intentos:
El primero conectándome a template0, pero me reclama que esa bd no acepta
conecciones. Ahí se terminó el primer intento.
El segundo intento me conecté al template1 y agregué los parámetros
LC_COLLATE y LC_CTYPE pero me arrojó otro tipo de error.. aunque relacionado
a lo mi
Gracias Guillermo
Yo trabajo con terminal e hice lo que me sugeriste... pero tampoco me
resultó:
---
*[r...@s3]# service postgresql initdb -E LATIN1 --locale=C
Initializing
Hola
Tengo 3 servidores RedH5.. (S1, S2 y S3 para mayor comprensión..) .
- S1 y S2 están operativos, con postgres 8.4 y en cada uno una BD con
encoding=LATIN1
- Ahora me encuentro en la fase de instalar y crear una BD de iguales
características en el servidor 3 (S3), sin embargo me he encon
Ahh.. ok!.. por un momento pensé equivocadamente que podía usar el índice
bajo ese subuso...
Gracias Álvaro... haré las pruebas sin índice para comparar. (Ojala que la
reconstrucción del PK sobre 13 millones no sea tan lento..)
Saludos
AP.
El 3 de septiembre de 2010 16:59, Alvaro Herrera escri
Hola Álvaro
Los updates que te mostré son aplicados a dos tablas "diferentes"... tabla1
y tabla2 ..pero la data que hay en cada una de ellas y el resultado de
ambos updates es el mismo... hice esto para comparar si el uso del lpad era
mejor o no que usar concatenación con || sobre el mismo gru
Estimados listeros
Necesito confirmación a lo siguiente: hice dos updates sobre tablas cuya
definición y carga fueron iguales:
*En Desarrollo :*
upd1) update tabla1 set valor = lpad(substr(valor,4,9),11,76) where
length(valor)=12; 21867.891 ms
upd2) update tabla2 set valor = 76||substr(valor,4,
Álvaro...
efectivamente faltaba un array() para castear la operación... y no
tratara de intepretar el string que le armaba el bloque del UPDATE quedó
finalmente así:
==
loop
update test_catalog.test_table
set
test_minute_trans[v_r
(perdonen el correo original... por alguna razón llegó cortado...)
Hola
Ya no me arroja el error original...después del último cambio, pero aparece
otro:
=
Último cambio:
...
loop
update test_catalog.test_table
set
test_minute_trans[v_r
Hola
Ya no me arroja el error original...después del último cambio, pero aparece
otro:
=
Último cambio:
...
loop
update test_catalog.test_table
set
test_minute_trans[v_record.trans_minute_pos:v_record.trans_minute_pos][2:2]
= '{'||v_re
Gracias Álvaro
Lo estuve mirando, pero creo que no se aplica a mi problema Sin embargo,
seguí insistiendo con probar distintas formas en el UPDATE que es donde se
presenta el problema y descubrí que el problema NO ESTA en los índices que
uso en el SET... sino en el valor que asigno osea, v_rec
Hola
Les indico extractos de los objetos asociados a mi consulta.
tabla:
create table test_catalog.test_table (
,
,
test_minute_trans integer[][]
) without oids;
osea, un atributo de tipo Array de dos dimensiones. ese atributo
contiene pares (minuto, transacciones) ..60 pares
Gilberto... Yo en ningún momento uso COPY sin embargo por alguna razón
en el log aparece COPY cuando lo único que se ejecuta en ese momento es una
función que sólo tiene una línea de tipo INSERT... ... pero bueno, seguiré
probando e investigando.
Gracias.
Sds.
Andrés
El 12 de julio de 201
Ok... no uso esas herramientas (pgadmin) pero entiendo tu propuesta Mi
intención era validar si alguien le había pasado algo similar y ya tuviera
la explicación a eso.
Gracias.
Saludos
AP.
El 12 de julio de 2010 16:11, Gilberto Castillo Martínez <
gilberto.casti...@etecsa.cu> escribió:
>
>
Gracias Gilberto..
mmm... como decía;.. a esa hora aparte del respaldo , lo único que podría
coincidir es la ejecución de una función que trunca una tabla y luego
explícitamente usa INSERT. en ningún momento usa COPY.
podrías detallarme más tu respuesta??... te refieres talvez a co
Estimados
Tengo la siguiente línea (tipo) en el log..
*2010-07-11 01:00:26 CDT LOG: duracion: 24584.826 ms sentencia: COPY
tabla1 (campo1, campo2...campoN) TO stdout;*
Aparece todos los días a la misma hora... sin embargo, NO existen
procedimientos ni shells vía crontab que hagan uso EXPLÍCITO
Hola listeros
Insistiendo en mi consulta sobre las propiedades de log de postgres o de
monitoreo para encontrar las razones asociadas a eventuales locks que
pudieran presentarse. Tengo un día más para averiguar al respecto...
asi que necesito de la validación de Uds. De lo contrario tendré qu
Estimados listeros
Tenemos un Server con postgres , dedicado, y con baja carga y hace unos días
se presentó una situación que ya se había presentado en Diciembre pasado y
que entonces abordamos parcialmente (osea..le dimos un placebo al cliente ya
que nuestras sospechas iban contra él, pero no p
Gracias Horacio por tus consideraciones adicionales
...dudo que la cantidad de usuarios concurrentes sea mayor a 10 y esta
data a ese nivel de detalle sólo va a entrar y no va a ser modificada ni
borrada (salvo la mayor a 3 meses..pero sería la eliminación de una tabla
completa consideran
Fernando..
..talvez no entendí bien , de lo que vi creo que esto te serviría...
select larcod as Largo,
count(*) as Total,
sum(CASE when extract(day from now() - fecha) = 0 then 1 else 0 end)
as Dia0,
sum(CASE when extract(day from now() - fecha) = 1 then 1 else 0 end)
as Dia
yap.. mis comentarios..
> No, para nada. Tú haces una consulta sobre tabla_todos_meses con un WHERE
> fecha=...
> y automáticamente postgres se encarga de usar sólo las tablas de esos
> meses.
> (Lee sobre el parámetro constraint_exclusion en la documentación)
>
> Por otra parte, considera que si
Hola ayer ya era tarde cuando les escribí, asi que recién vengo
leyendo..
Gracias Javier por la respuesta, pero sin haber trabajado en DW tengo
entendido que ésta es una estructura que es Construida y se orienta para
análisis (a grandes rasgos), pero mi caso es prácticamente un vaciado desde
Hola
En mi trabajo, hasta ahora, he trabajado con modelos transaccionales y otros
para reportes..y en este último caso sobre información fácilmente manejable
(en cuanto a cantidad de registros).estamos hablando de estadísticas
obtenidas a partir de archivos de texto que tienen las transacc
Jaime
El autovacuum está en off desde un principio.la carga es tan pequeña
y "específica", por decirlo de alguna forma, que se decidió que se hicieran
vacuums en estas cargas que se daban cada 10 minutos ya que era el momento
en el que se limpiaban dos tablas y se generaban updates en
otra
Ahh..ok!..
Te pregunté esa diferencia de curioso ya que la BD es realmente pequeña y la
mayor actividad se reduce justamente a estos ciclos de carga que se dan cada
10 minutos... y cada procesamiento no supera los 10 o 30 segundos (entre
truncar las tablas, cargar las tablas con data nueva y ejecu
Marcos
Lo de hacer el ciclo del vacuum cada 10 minutos es que estos Vacuum están en
un script que se ejecuta via crontab y están asociados a 2 tablas que se
vacían (truncate) completamente y luego se cargan con archivos que la
aplicación va dejando cada 10 minutos. en ese sentido no sé
Hola!
Perdonen lo extenso..Creo tener la solución al siguiente problema pero lo
quiero validar con Uds. antes de aplicarlo.
Tengo una BD pequeña en la cual hay 4 tablas que tiene actividad cada 10
minutos que incluyen update y delete y en las cuales se ejecuta un vacuum en
cada uno de esos ciclos
67 matches
Mail list logo