Muito boa a sua idéia,
Faço a coleta, e filtragem dos dados que estiverem no arquivo de log, e gravo em uma tabela de log em outro tablespace, acho que assim, elimina a lentidão na hora de consultar as informações. Vou testar e depois posto aqui Muitíssimo Grato, Renato De: [EMAIL PROTECTED] [mailto:[EMAIL PROTECTED] Em nome de William Leite Araújo Enviada em: terça-feira, 12 de agosto de 2008 12:01 Para: Comunidade PostgreSQL Brasileira Assunto: Re: [pgbr-geral] Arquivos de log Não sei se está certo ou errado, mas que é mais difícil, com certeza. Talvez pudesse colocar em outro banco, em outro "tablespace", já que o problema é "inchar o banco". E até seu analizador de LOG pode ser o responsável por povoar o outro banco. Acho que é a maneira mais rápida de agilizar a(s) resposta(s) da(s) auditoria(s)... 2008/8/12 Renato <[EMAIL PROTECTED]> Bom dia Estou trabalhando na parte de auditoria do sistema que a empresa onde trabalho está desenvolvendo, e uma solução encontrada foi aproveitar o próprio arquivo de log do PG. Para isso configurei no postgresql.conf os parametros relacionados ao log, conforme o manual, e o parâmetro log_statement = 'mod' para poder capturar as instruções de INSERT, UPDATE, DELETE e SELECT. Consegui fazer também ,criando uma function, capturar as informações do arquivo de log e jogá-los em uma tabela temporária, fazendo com que os dados de log, temporariamente, estejam no banco para serem consultados por um aplicativo criado com esse propósito, fiz umas instruções no aplicativo para filtrar dados não importantes, me aproveitando de alguns dados chave contidos nas linhas. Até aí tudo bem. Acontece que, com o passar do tempo, e conseqüentemente a quantidade de dados aumentando no arquivo de log, todo esse processamento fica demorado, e eu já previa isso, e não me importo com a demora. Porém, mesmo com muitos filtros, ainda vem muito "lixo" (Selects feitos na inicialização da aplicação principal, e outros feitos em consultas de tabelas auxiliares, etc) que faz com que a busca pela informação desejada passe a ser penosa. Minhas perguntas são: 1 – Existe alguma forma de eu escolher quais tabelas eu desejo fazer log? 2 – O que estou fazendo, é certo, ou pelo menos aceitável? Explicações: A leitura do arquivo de log e exportação, tem funcionado sem problema tanto em servidores Linux quanto Window$ e somente lê o último arquivo de log gravado, ignorando aqueles gerados pelo rotacionamento, justamente pra não sobrecarregar. Minhas aplicações são em Delphi. Exporto o arquivo para uma tabela temporária no PG, pois foi a única forma que encontrei de ter acesso a esse arquivo (que é propriedade do usuário postgres) a partir de qualquer máquina Não gostaria de gravar esse log em tabelas no banco, pra eliminar tráfego duplicado na rede e não inchar o banco (se bem que isso não seria problema para o PG, rsrs), mas isso também influenciaria no backup (eu faço, viu?) Bem, depois de quase uma epístola, espero ter sido claro com minha dúvida, e agradeço antecipadamente àqueles que tiveram paciência pra ler tudo isso. Grato Renato Senda ------------------------------------------------------------------------------------- Esta mensagem foi verificada pelo sistema de Anti-virus da SJB Solados. _______________________________________________ pgbr-geral mailing list pgbr-geral@listas.postgresql.org.br https://listas.postgresql.org.br/cgi-bin/mailman/listinfo/pgbr-geral -- William Leite Araújo Analista de Banco de Dados - QualiConsult ------------------------------------------------------------------------------------- Esta mensagem foi verificada pelo sistema de Anti-virus da SJB Solados. ---------------------------------------------------------------------------------- Esta mensagem foi verificada pelo sistema de Anti-virus da SJB Solados. _______________________________________________ pgbr-geral mailing list pgbr-geral@listas.postgresql.org.br https://listas.postgresql.org.br/cgi-bin/mailman/listinfo/pgbr-geral