Salut Nicolas,

J'arrive à charger la page dont tu parles (avec url-retrieve) bie bien
sûr mais voilà ce que j'ai dans le buffer *Messages d'emacs :

Permanently accepting certificate for wikipedia.org:443
uncompressing publicsuffix.txt.gz...done
Continue connecting? ([A]lways, [S]ession only, [N]o, [D]etails, [?]): 
Permanently accepting certificate for www.wikipedia.org:443
Parsing html document...
Creating html document tree for ‘https://www.wikipedia.org/’...

Donc un problème pour toi vraisemblablement dans la transaction https
parce qu'apparemment tu ne peux pas répondre positivement aux fait que
tu acceptes je ne sais quel certificat.

On peut essayer de démêler ça ensemble si tu veux ! J'ai vu sur emacs
que tu postes beaucoup sur eww que tu dois utiliser. Je l'ai moi-même
abandonner pour développer ma propre interface (i.e. une surcouche de
url-retrieve) qui me permet d'afficher les page html dans un format qui
me convient. Si tu es intéressé par ce code je te donnerai le repos svn
où je l'ai mis.

Amitié

Nicolas Graner <nico...@graner.name> writes:

> Bonjour tout le monde,
>
> quand j'essaye de télécharger des pages dans un programme en emacs lisp
> avec la fonction url-retrieve, parfois le serveur coupe immédiatement la
> connexion sans que je comprenne pourquoi. C'est parfaitement
> reproductible : certains sites coupent immédiatement à chaque tentative,
> d'autres fonctionnent toujours bien. J'ai essayé en changeant le
> User-Agent, j'ai regardé du côté des cookies, tout a l'air normal. Si
> vous avez des idées de quel côté je pourrais chercher, je suis preneur.
>
> Pour entrer un peu plus dans le détail, voici d'abord un exemple avec un
> site qui fonctionne bien, The Conversation :
>
> (switch-to-buffer (url-retrieve
> "https://theconversation.com/fr/"; '(lambda (&rest ignore))))
>
> Le buffer qui s'affiche contient des en-têtes HTTP, puis le texte de la
> page en HTML.
>
> Si je trace la fonction url-http-async-sentinel le buffer *trace-output*
> contient :
>
> ======================================================================
> 1 -> (url-http-async-sentinel #<process theconversation.com> "open
> ")
> 1 <- url-http-async-sentinel: nil
>
> Maintenant, la même chose avec un site qui ne marche pas, Wikipédia :
>
> (switch-to-buffer (url-retrieve "https://wikipedia.org/";
> '(lambda (&rest ignore))))
>
> Le buffer qui s'affiche est vide.
> La trace de la fonction url-http-async-sentinel donne :
>
> ======================================================================
> 1 -> (url-http-async-sentinel #<process wikipedia.org> "open
> ")
> 1 <- url-http-async-sentinel: nil
> ======================================================================
> 1 -> (url-http-async-sentinel #<process wikipedia.org>
> "connection broken by remote peer
> ")
> 1 <- url-http-async-sentinel: nil
>
> Il semble donc bien que c'est le serveur qui coupe la connexion et pas
> le client, mais pour quelle raison ?
>
> Merci pour votre aide,
> Nicolas

--
   CBLX - CarrefourBLinuX MailingListe
   Pour obtenir de l'aide, envoyez le sujet  help  à:
   carrefourblinux-requ...@lists.tuxfamily.org
   Archives:
   http://listengine.tuxfamily.org/lists.tuxfamily.org/carrefourblinux
   ou
   http://www.mail-archive.com/carrefourblinux@lists.tuxfamily.org/

Répondre à