curl a une option method pour faire des HEAD au lieu de GET
Le 20 janvier 2017 à 23:23, a écrit :
> > Désolé pour l'aspect "bourrin" de ma réponse (visiblement ça te choque)
> non, pas du tout, je parlais de la solution que j'avais trouvé sur le net,
> pas de la tienne.
>
> HEAD est au contraire
> Désolé pour l'aspect "bourrin" de ma réponse (visiblement ça te choque)
non, pas du tout, je parlais de la solution que j'avais trouvé sur le
net, pas de la tienne.
HEAD est au contraire une solution élégante (comme dit, je pensais que
les options de curl indiquées dans la "solution" trouvée
Désolé pour l'aspect "bourrin" de ma réponse (visiblement ça te choque)
mais il reste encore le problème des domaines qui disparaissent et sont
tout de suite cybersquattés par des "wildcards" publicitaires (peu importe
ce qu'on met dans l'URL, ça affiche la page de pub, il n'y a pas de 404
retourné
Merci j'avais bêtement recopié la réponse à une question qui portait
pourtant spécifiquement sur les headers. Professionnellement j'utilise
bien HEAD quand j'en ai besoin, je ne pensais pas tomber sur une réponse
aussi bourrine non relevée par un autre internaute.
Vu ta remarque, il vaut mieux
Méthode couteuse: les requêtes ici sont des GET mais ça récupère tout (même
si tu filtres ensuite par un head -n 1). Un HEAD serait plus approprié
(pour ne récupérer d'abord que les entêtes et pas les pages entières) :
c'est suffisant pour obtenir un statut 404.
Note: certains sites retournent une
|Le plus simple c'est sans doute de demander à curl depuis un overpass
turbo pour récupérer les url :
|
|curl -L -I http://www.example.org 2>/dev/null | head -n 1 | cut -d$' '
-f2|.
rend 200 et
|curl -L -I http://www.example.org/pageAbsente 2>/dev/null | head -n 1 |
cut -d$' ' -f2|.
rend 4
6 matches
Mail list logo