Muito boa a sua idéia,

Faço a coleta, e filtragem dos dados que estiverem no arquivo de log, e gravo 
em uma tabela de log em outro tablespace, acho que assim, elimina a lentidão na 
hora de consultar as informações. Vou testar e depois posto aqui

Muitíssimo Grato,

Renato

De: [EMAIL PROTECTED] [mailto:[EMAIL PROTECTED] Em nome de William Leite Araújo
Enviada em: terça-feira, 12 de agosto de 2008 12:01
Para: Comunidade PostgreSQL Brasileira
Assunto: Re: [pgbr-geral] Arquivos de log

     Não sei se está certo ou errado, mas que é mais difícil, com certeza.
     Talvez pudesse colocar em outro banco, em outro "tablespace", já que o 
problema é "inchar o banco". E até seu analizador de LOG pode ser o responsável 
por povoar o outro banco.

     Acho que é a maneira mais rápida de agilizar a(s) resposta(s) da(s) 
auditoria(s)...
2008/8/12 Renato <[EMAIL PROTECTED]>
Bom dia
 
Estou trabalhando na parte de auditoria do sistema que a empresa onde trabalho 
está desenvolvendo, e uma solução encontrada foi aproveitar o próprio arquivo 
de log do PG. Para isso configurei no postgresql.conf os parametros 
relacionados ao log, conforme o manual, e o parâmetro log_statement = 'mod' 
para poder capturar as instruções de INSERT, UPDATE, DELETE e SELECT. Consegui 
fazer também ,criando uma function, capturar as informações do arquivo de log e 
jogá-los em uma tabela temporária, fazendo com que os dados de log, 
temporariamente, estejam no banco para serem consultados por um aplicativo 
criado com esse propósito, fiz umas instruções no aplicativo para filtrar dados 
não importantes, me aproveitando de alguns dados chave contidos nas linhas.  
Até aí tudo bem. Acontece que, com o passar do tempo, e conseqüentemente a 
quantidade de dados aumentando no arquivo de log, todo esse processamento fica 
demorado, e eu já previa isso, e não me importo com a demora. Porém, mesmo com 
muitos filtros, ainda vem muito "lixo" (Selects feitos na inicialização da 
aplicação principal, e outros feitos em consultas de tabelas auxiliares, etc) 
que faz com que a busca pela informação desejada passe a ser penosa. Minhas 
perguntas são:
 
1 – Existe alguma forma de eu escolher quais tabelas eu desejo fazer log? 
2 – O que estou fazendo, é certo, ou pelo menos aceitável?
 
Explicações:
A leitura do arquivo de log e exportação, tem funcionado sem problema tanto em 
servidores Linux quanto Window$ e somente lê o último arquivo de log gravado, 
ignorando aqueles gerados pelo rotacionamento, justamente pra não sobrecarregar.
Minhas aplicações são em Delphi.
Exporto o arquivo para uma tabela temporária no PG, pois foi a única forma que 
encontrei de ter acesso a esse arquivo (que é propriedade do usuário postgres) 
a partir de qualquer máquina
Não gostaria de gravar esse log em tabelas no banco, pra eliminar tráfego 
duplicado na rede e não inchar o banco (se bem que isso não seria problema para 
o PG, rsrs), mas isso também influenciaria no backup (eu faço, viu?)
 
Bem, depois de quase uma epístola, espero ter sido claro com minha dúvida, e 
agradeço antecipadamente àqueles que tiveram paciência pra ler tudo isso.
 
Grato
 
Renato
Senda
-------------------------------------------------------------------------------------
 
Esta mensagem foi verificada pelo sistema de Anti-virus da SJB Solados. 

_______________________________________________
pgbr-geral mailing list
pgbr-geral@listas.postgresql.org.br
https://listas.postgresql.org.br/cgi-bin/mailman/listinfo/pgbr-geral



-- 
William Leite Araújo
Analista de Banco de Dados - QualiConsult
-------------------------------------------------------------------------------------
 
Esta mensagem foi verificada pelo sistema de Anti-virus da SJB Solados. 


----------------------------------------------------------------------------------
Esta mensagem foi verificada pelo sistema de Anti-virus da SJB Solados.

_______________________________________________
pgbr-geral mailing list
pgbr-geral@listas.postgresql.org.br
https://listas.postgresql.org.br/cgi-bin/mailman/listinfo/pgbr-geral

Responder a