:21, Monica Ferrari Villarino wrote:
> Estou com problema de desempenho numa aplicação (zabbix), desde que recuperei
> o banco, após ter estourado um dos discos que suportam o banco de dados
> postgresql ( versão: "PostgreSQL 9.0.4 on x86_64-unknown-linux-gnu, compiled
> by GC
Um database ou vários databases, não importa, pois tudo vai estar no mesmo
cluster. Mas em termos de administração é bem mais fácil administrar apenas um
database.
Além disso ao se criar vários databases, você estará ocupando mais espaço em
disco, pois cada database terá várias estruturas repet
Matheus de
Oliveira
Enviada em: segunda-feira, 23 de julho de 2012 11:21
Para: Comunidade PostgreSQL Brasileira
Assunto: Re: [pgbr-geral] postgresql 9.1 não inicializa
2012/7/23 Monica Ferrari Villarino
mailto:moni...@stf.jus.br>>
Pessoal, bom dia!
Estou com um problema na inicialização
inicializa
Esse banco que tá recebendo os logs é replicado? Ou instancia única?
Emerson Martins
DBA Jr
Em 23 de julho de 2012 10:27, Monica Ferrari Villarino
mailto:moni...@stf.jus.br>> escreveu:
Pessoal, bom dia!
Estou com um problema na inicialização do meu postgresql, após encher o dis
Pessoal, bom dia!
Estou com um problema na inicialização do meu postgresql, após encher o disco
de logs do wall, o banco parou, alguns logs foram perdidos e outros apagados.
Sei que não vou mais conseguir recuperar totalmente meu banco. Tenho um pg_dump
feito com o banco parado, então quero usa
Se eu fosse você, restauraria todo o dmp em uma outra máquina (ambiente de
teste, por exemplo) e geraria um novo dmp com o database requerido, no formato
pg_dump -fc -n (-n para exportar apenas os objetos de um esquema).
-Mensagem original-
De: pgbr-geral-boun...@listas.postgresql.org.b
Boa tarde pessoal,
Deixo aqui minha contribuição para esta questão, com o exemplo abaixo, sempre
que preciso manipular a ordem, atribuo pesos aos valores desejados:
select i.rolname from (
select rolname,
(case upper(rolname)
when 'POSTGRES' then 0
when 'NAGIOS' then 1
Filipe,
Os logs de wal são justamente para serem usados para realizar backup físico on
line, e fazer uma recuperação do banco em caso de ocorrer um desastre.
Os 5 "backups" diários a que você se refere não seria dumps extraídos por meio
do pg_dump (backup lógico on line)?
Opa..
Pessoal,
Gostaria de saber se tem como rotacionar e truncar o arquivo de log do postgres
baseado no tempo e tamanho.
Eu estou tentando fazer isso, mas não estou obtendo sucesso. Eu consigo
rotacionar o arquivo a cada 24hs, mas não consigo com que ele trunque se o
arquivo crescer acima de 1M
Beto,
Eu aprendi num curso de postgresql a seguinte consulta para verificar se os
índices da minha aplicação estão realmente sendo usados:
select relname,indexrelname,idx_scan,idx_tup_read from pg_stat_user_indexes;
idx_scan = quantidade de leituras via índice
idx_tup_read = quanti
Eu faço dessa forma:
SELECT usename,count(*) FROM pg_stat_activity GROUP BY usename ORDER BY
count(*) DESC;
Mônica.
De: pgbr-geral-boun...@listas.postgresql.org.br
[mailto:pgbr-geral-boun...@listas.postgresql.org.br] Em nome de JotaComm
Enviada em: sábad
Pedro,
Para ambiente de produção eu costumo fazer o seguinte:
Crio uma role para DBA
Crio uma role para cada aplicação, de acordo com as necessidades da aplicação.
Tem aplicação que exige dois perfis: um perfil somente consulta e um perfil de
alteração de dados. Neste caso crio duas roles para
Pessoal, boa tarde!
Uso uma ferramenta de monitoração de ambiente chamada zabbix, na versão 1.83 e
o seu repositório de dados fica no postgresql 8.4.4.
Estou com o seguinte problema, no log do meu banco tenho as seguintes mensagens:
usuariozabbix stfz 127.0.0.1(46900) 2010-10-18 12:22:
Use:
pg_dumpall -r > usuarios.sql
ou
pg_dumpall -g > usuarios.sql
De: pgbr-geral-boun...@listas.postgresql.org.br
[mailto:pgbr-geral-boun...@listas.postgresql.org.br] Em nome de Eduardo Az -
EMBRASIS Informática e O&M
Enviada em: quinta-feira, 14
Eu tenho o livro, comprei no 1º PGCON que ocorreu em SP.
Como tenho bastante experiência com banco de dados, eu achei o livro bem
fraquinho. Mas para um principiante pode ser útil.
Como a área de informática é muito dinâmica, deixei de comprar livros de
informática há muito tempo. Prefiro
Gozado, eu também fui excluída da lista, sem nenhum aviso e tive que refazer
meu cadastro.
Ocorreu alguma falha nessa lista?
Mônica.
De: pgbr-geral-boun...@listas.postgresql.org.br
[mailto:pgbr-geral-boun...@listas.postgresql.org.br] Em nome de Fabiano C
1. criar o banco no destino:
createdb -T template0 meu_banco
2. exportar o banco na origem:
pg_dump -U postgres -Fc meu_banco > exp_meu_banco.dmp
3. importar o banco no destino:
time pg_restore -d meu_banco -Fc -v exp_meu_banco.dmp 2>>import_meu_banco.log
_
Cadu,
No meu ambiente Postgresql versão 8.4.4 agendo as rotinas de vacuum e
reindexação uma (1) vez por semana, sempre aos domingos, porém não faço vacuum
full (opção -f )pois o vacumm full bloqueia completamente a tabela que está
sendo trabalhada, além de gerar muito I/O e degradar a perfor
Tudo bem Tiago. Valeu assim mesmo. Podemos aproveitar sua rotina em outra
aplicação.
Agradeço a todos que contribuíram.
Mônica.
-Mensagem original-
De: pgbr-geral-boun...@listas.postgresql.org.br
[mailto:pgbr-geral-boun...@listas.postgresql.org.br] Em nome de Tiago Adami
Enviada em: qu
Não seria melhor aglutinar as lista pgbr_dev com a pgbr_eventos ?
Mônica.
De: pgbr-geral-boun...@listas.postgresql.org.br
[mailto:pgbr-geral-boun...@listas.postgresql.org.br] Em nome de Fábio Telles
Rodriguez
Enviada em: quinta-feira, 29 de julho de 20
Um backup físico do seu cluster consiste em copiar os arquivos existentes no
diretório $PGDATA. Mas para isso é preciso parar o serviço postgresql, para
garantir a integridade dos dados.
Backup:
cd $PGDATA
pg_ctl stop
tar czf backup7.dump.tgz data
Restore:
Cd $PGDATA
tar xzf
tamanho do registro ?
Em 28 de julho de 2010 15:33, Monica Ferrari Villarino
escreveu:
Olá!
Será que é possível otimizar a seguinte consulta, executada de hora em hora no
banco:
select count(*) from history;
Essa consulta costuma ter uma duração que varia de 32000.000 ms a 62262.751 ms
Olá!
Será que é possível otimizar a seguinte consulta, executada de hora em hora no
banco:
select count(*) from history;
Essa consulta costuma ter uma duração que varia de 32000.000 ms a 62262.751 ms
conforme o horário em que é executada.
A tabela history possui em média 87 milh
23 matches
Mail list logo