> AUjourd'hui j'ai re-tester le premier qui a marché mais maintenant j'ai les 
> même e-mailS qui sorte, bon je passer pour un spammer ...
> La je veux récupérer les adresseS de site web donc je tape :
> $ find . -type f -print | xargs  egrep -o 
> '0www.[a-zA-Z0-9._-]{2,}\.[a-z]{2,4}' >www-______.txt
> Et j'ai les erreurS :
> grep: le fichier d'entrée « ./www-_______.txt » est aussi en sortie
> xargs: guillemets simple non appairés ; par défaut les guillemets sont 
> particuliers à xargs à moins d'utiliser l'option -0
> grep: ./www._____.com/pics/contents/webzine/c+: No such file or directory
> grep: horreur.jpg: No such file or directory
> grep: ./www.______.com/pics/contents/webzine/campagne: No such file or 
> directory
> grep: mars.jpg: No such file or directory
> grep: ./www.______.com/pics/contents/webzine/campagne: No such file or 
> directory
> grep: ▒co: No such file or directory
> grep: emballages.jpg: No such file or directory
> 
> [...]
> Mais j'ai plus rien dans le fichier ...
> On n'est pas vendredi, mais je suis obliger de faire fonctionner mes doigts, 
> sinon je vais attraper une entorse falangique ;-)
> 
> Y a une gréve dans la presse les numéro de https://www.closermag.fr/ ; 
> www.voici.fr/ ; https://www.public.fr/ ; people.com/ ; www.purepeople.com/ ; 
> www.gala.fr/ , etc ...
> 
> non pas été imprimer ? Y a un beug majeure dans le logiciel libre qui fait 
> que les serveurs ne servent plus la bonne soupe ?
> 
> Ptilou
> 

Tente ça : 
egrep -R 'www\.[a-zA-Z0-9._\-]+\.[[:alpha:]]{2,4}' . 

Christian

Répondre à