Marcio de Araujo Benedito wrote:

Tenho um arquivo texto que é resultado de uma consluta a um banco de
dados. Porém, este arquivo tem vários dados duplicados porquê os
registros estavam corrompidos, e preciso remover estes dados para
refazer a database. A estrutura do arquivo é a seguinte:

dado1
dado1
dado2
dado2
dado3
dado4
dado5
dado5

Como fazer para "limpar" este arquivo, eliminando as linhas repetidas???
Tentei com o sed, mas não vi na manpage dele uma sintaxe que fizesse
isso. O arquivo em questão tem umas 10000 linhas ...

$ man uniq ... uniq - remove duplicate lines from a sorted file ...

Faça um
cat arq1 | sort | uniq
que estará tudo resolvido.

--
Marcos


-- To UNSUBSCRIBE, email to [EMAIL PROTECTED] with a subject of "unsubscribe". Trouble? Contact [EMAIL PROTECTED]



Responder a