> AUjourd'hui j'ai re-tester le premier qui a marché mais maintenant j'ai les > même e-mailS qui sorte, bon je passer pour un spammer ... > La je veux récupérer les adresseS de site web donc je tape : > $ find . -type f -print | xargs egrep -o > '0www.[a-zA-Z0-9._-]{2,}\.[a-z]{2,4}' >www-______.txt > Et j'ai les erreurS : > grep: le fichier d'entrée « ./www-_______.txt » est aussi en sortie > xargs: guillemets simple non appairés ; par défaut les guillemets sont > particuliers à xargs à moins d'utiliser l'option -0 > grep: ./www._____.com/pics/contents/webzine/c+: No such file or directory > grep: horreur.jpg: No such file or directory > grep: ./www.______.com/pics/contents/webzine/campagne: No such file or > directory > grep: mars.jpg: No such file or directory > grep: ./www.______.com/pics/contents/webzine/campagne: No such file or > directory > grep: ▒co: No such file or directory > grep: emballages.jpg: No such file or directory > > [...] > Mais j'ai plus rien dans le fichier ... > On n'est pas vendredi, mais je suis obliger de faire fonctionner mes doigts, > sinon je vais attraper une entorse falangique ;-) > > Y a une gréve dans la presse les numéro de https://www.closermag.fr/ ; > www.voici.fr/ ; https://www.public.fr/ ; people.com/ ; www.purepeople.com/ ; > www.gala.fr/ , etc ... > > non pas été imprimer ? Y a un beug majeure dans le logiciel libre qui fait > que les serveurs ne servent plus la bonne soupe ? > > Ptilou >
Tente ça : egrep -R 'www\.[a-zA-Z0-9._\-]+\.[[:alpha:]]{2,4}' . Christian