Salut Nicolas,
J'arrive à charger la page dont tu parles (avec url-retrieve) bie bien sûr mais voilà ce que j'ai dans le buffer *Messages d'emacs : Permanently accepting certificate for wikipedia.org:443 uncompressing publicsuffix.txt.gz...done Continue connecting? ([A]lways, [S]ession only, [N]o, [D]etails, [?]): Permanently accepting certificate for www.wikipedia.org:443 Parsing html document... Creating html document tree for ‘https://www.wikipedia.org/’... Donc un problème pour toi vraisemblablement dans la transaction https parce qu'apparemment tu ne peux pas répondre positivement aux fait que tu acceptes je ne sais quel certificat. On peut essayer de démêler ça ensemble si tu veux ! J'ai vu sur emacs que tu postes beaucoup sur eww que tu dois utiliser. Je l'ai moi-même abandonner pour développer ma propre interface (i.e. une surcouche de url-retrieve) qui me permet d'afficher les page html dans un format qui me convient. Si tu es intéressé par ce code je te donnerai le repos svn où je l'ai mis. Amitié Nicolas Graner <nico...@graner.name> writes: > Bonjour tout le monde, > > quand j'essaye de télécharger des pages dans un programme en emacs lisp > avec la fonction url-retrieve, parfois le serveur coupe immédiatement la > connexion sans que je comprenne pourquoi. C'est parfaitement > reproductible : certains sites coupent immédiatement à chaque tentative, > d'autres fonctionnent toujours bien. J'ai essayé en changeant le > User-Agent, j'ai regardé du côté des cookies, tout a l'air normal. Si > vous avez des idées de quel côté je pourrais chercher, je suis preneur. > > Pour entrer un peu plus dans le détail, voici d'abord un exemple avec un > site qui fonctionne bien, The Conversation : > > (switch-to-buffer (url-retrieve > "https://theconversation.com/fr/" '(lambda (&rest ignore)))) > > Le buffer qui s'affiche contient des en-têtes HTTP, puis le texte de la > page en HTML. > > Si je trace la fonction url-http-async-sentinel le buffer *trace-output* > contient : > > ====================================================================== > 1 -> (url-http-async-sentinel #<process theconversation.com> "open > ") > 1 <- url-http-async-sentinel: nil > > Maintenant, la même chose avec un site qui ne marche pas, Wikipédia : > > (switch-to-buffer (url-retrieve "https://wikipedia.org/" > '(lambda (&rest ignore)))) > > Le buffer qui s'affiche est vide. > La trace de la fonction url-http-async-sentinel donne : > > ====================================================================== > 1 -> (url-http-async-sentinel #<process wikipedia.org> "open > ") > 1 <- url-http-async-sentinel: nil > ====================================================================== > 1 -> (url-http-async-sentinel #<process wikipedia.org> > "connection broken by remote peer > ") > 1 <- url-http-async-sentinel: nil > > Il semble donc bien que c'est le serveur qui coupe la connexion et pas > le client, mais pour quelle raison ? > > Merci pour votre aide, > Nicolas -- CBLX - CarrefourBLinuX MailingListe Pour obtenir de l'aide, envoyez le sujet help à: carrefourblinux-requ...@lists.tuxfamily.org Archives: http://listengine.tuxfamily.org/lists.tuxfamily.org/carrefourblinux ou http://www.mail-archive.com/carrefourblinux@lists.tuxfamily.org/