Re: [PUG] MediaWiki export zu Plain HTML
Michael Bischof schrieb: Am Montag, 11. Februar 2008 01:55:59 schrieb Markus Schönhaber: Michael Bischof schrieb: Nein, Markus, mit wget -E -H -k -K -p URL geht das schon! Eben nicht. Was Dir auch aufgefallen wäre, wenn Du es mal probiert hättest (Hinweis: Es geht hier um über MeiaWiki erzeugte Seiten - wie bspw. auf www.pug.org - nicht um Spiegel online). Habe ich jetzt auch mit der angegebenen Seite probiert. Das geht mit der war-Methode, aber auch mit wget. Nein. Nicht mit wget. Die von mir heute gegebene Lösung ist erheblich eleganter. Nein, das Lob geht an Matthias Grimrath! Du hast verifiziert, daß diese Lösung die oben beschriebene Schwäche von Firefox' Speicherfunktion und wget nicht hat? Dann hat Denny ja die Antwort, die er sucht. Ja, das meinte ich ja. Man erhält ein Archiv, das die Seite genauso aussehen läßt wie im Original. Das habe ich auch mit einer PUG-Seite probiert. Mit wget erhalte ich statisches html, aber die css-Funktionen klappen nicht so: das Ergebnis entspricht optisch nicht dem Original und ist sehr so aufgebaut ist, dass es viele Umstände machen würde, damit zu arbeiten. Eben. Es geht nicht mit wget, denn das für das einigermaßen originalgetreue Aussehen der Seite unerläßliche Stylesheet holt wget gerade nicht. Das ist es doch, was ich die ganze Zeit sage - und Denny in seinem OP übrigens auch: | wget erzeugt nur eine häßliche Ausgabe. Damit wir nicht aneinander vorbeireden habe ich es auch mit der o.g. Seite getestet und schicke Dir das Ergebnis per PM zu. Warum hast Du mir auch Downloads von dem Blog-Eintrag über mw2html geschickt? Die haben mit dem Problem, um das es geht, nichts zu tun. Um es noch mal klar zu sagen: Daß man mit wget Webseiten zum offline-Lesen herunterladen kann, habe ich nie bestritten - dafür (u. a.) ist wget schließlich da. Meine Behauptung ist lediglich, daß wget mit der speziellen Art, ein Stylesheet zu referenzieren (per @import ...), zumindest in der auf pug.org verwendeten Form, nicht zurecht kommt. Diese Behauptung wird durch die Sachen, die Du mir geschickt hast, auch bestätigt. Ich habe übrigens mit dem zu KDE 3.5.8 gehörenden Konqueror per Extras / Webseite archivieren... eine Seite von pug.org abgespeichert. Da fehlt besagtes Stylesheet ebenso. Falls Du nicht eine völlig andere Methode verwendest, um solche Archive zu erzeugen, läßt mich das vermuten, daß Deine Aussage im anderen Posting man muß aber [...] ersetzen nicht nur richtig sondern auch essentiell wichtig ist, denn in dem .war, das Du mir geschickt hast, ist das Stylesheet vorhanden. Gruß mks -- PUG - Penguin User Group Wiesbaden - http://www.pug.org
Re: [PUG] MediaWiki export zu Plain HTML
Am Montag, 11. Februar 2008 11:24:58 schrieb Markus Schönhaber: Ich habe übrigens mit dem zu KDE 3.5.8 gehörenden Konqueror per Extras / Webseite archivieren... eine Seite von pug.org abgespeichert. Da fehlt besagtes Stylesheet ebenso. Falls Du nicht eine völlig andere Methode verwendest, um solche Archive zu erzeugen, läßt mich das vermuten, daß Deine Aussage im anderen Posting man muß aber [...] ersetzen nicht nur richtig sondern auch essentiell wichtig ist, denn in dem .war, das Du mir geschickt hast, ist das Stylesheet vorhanden. Sagte ich doch! Der normale Webarchiver,den Du wohl auch hast, tut es nicht. Was ich Dir geschickt hatte war mit dem von Matthias Grimrath veränderten gemacht worden. Und damit geht es mit einem schlichten Klick - was Denny benutzt hat kann ich nicht beurteilen, das müßte ich wohl selber kompilieren... Wie dem auch sei: ich habe die beiden Dateien, um die es geht. Wer das will/braucht möge sich melden. Ich brauche das in meinem Alltag dauernd und klappen sollte es schon... Gruß, Michael Bischof -- PUG - Penguin User Group Wiesbaden - http://www.pug.org
Re: [PUG] MediaWiki export zu Plain HTML
hi, Markus Schönhaber schrieb: ? mw2html ist doch sogar so nett, Dir zu sagen, wo Du htmldata findest, wenn es fehlt: http://oregonstate.edu/~barnesc/htmldata/ oh my tux, die Peinlichkeit ist grenzenlos. Ich habe die Zeile nicht einmal wahrgenommen. Kommt davon, wenn man das zwischen Koffer packen und Zug erwischen macht. @Michael Vielen Dank für deine Hilfe. Das mw2html erledigt diese Aufgabe perfekt. Der legt nun die komplette Pug in einem Ordner ab und auch das CSS wird angepasst. einfach tuxlich :-) cu denny -- Stoppt den Überwachungswahn - Stoppt den Schäuble Katalog: http://www.nopsis.de signature.asc Description: OpenPGP digital signature -- PUG - Penguin User Group Wiesbaden - http://www.pug.org
Re: [PUG] MediaWiki export zu Plain HTML
hi, Michael Bischof schrieb: [...] gemacht worden. Und damit geht es mit einem schlichten Klick - was Denny benutzt hat kann ich nicht beurteilen, das müßte ich wohl selber kompilieren... [...] da braucht es nichts zum kompilieren :-) http://www.denny-schierz.de/wordpress/2008/02/11/mediawiki-offline-als-reines-html-exportieren/ cu denny -- Stoppt den Überwachungswahn - Stoppt den Schäuble Katalog: http://www.nopsis.de signature.asc Description: OpenPGP digital signature -- PUG - Penguin User Group Wiesbaden - http://www.pug.org
[PUG] MediaWiki export zu Plain HTML
hi, ich würde gern die eine od. andere Pug Wiki Seite mobil haben wollen. Hat einer von euch schonmal ein Programm gehabt, um aus den PHP Seiten ein statisches HTML zu generieren? wget erzeugt nur eine häßliche Ausgabe. http://barnesc.blogspot.com/2005/10/mw2html-export-mediawiki-to-static.html Das soll es können, finde aber auf die schnelle kein pyhton-htmldata. Genial wäre natürlich, wenn ich pug.org komplett als statisches HTML vorliegen hätte. cu denny signature.asc Description: This is a digitally signed message part. -- PUG - Penguin User Group Wiesbaden - http://www.pug.org
Re: [PUG] MediaWiki export zu Plain HTML
Denny Schierz schrieb: ich würde gern die eine od. andere Pug Wiki Seite mobil haben wollen. Hat einer von euch schonmal ein Programm gehabt, um aus den PHP Seiten ein statisches HTML zu generieren? wget erzeugt nur eine häßliche Ausgabe. Im Firefox als Webseite komplett speichern. Was der Firefox (und anscheinend auch wget) nicht angepaßt bekommt sind die Referenzen auf die Stylesheets. Wirklich wichtig scheint aber nur das @import /skins/monobook/main.css?42b zu sein. Das händisch ziehen und die Referenz in der HTML-Datei entsprechend anpassen (händisch, per sed, whatever). http://barnesc.blogspot.com/2005/10/mw2html-export-mediawiki-to-static.html Das soll es können, finde aber auf die schnelle kein pyhton-htmldata. ? mw2html ist doch sogar so nett, Dir zu sagen, wo Du htmldata findest, wenn es fehlt: http://oregonstate.edu/~barnesc/htmldata/ Gruß mks -- PUG - Penguin User Group Wiesbaden - http://www.pug.org
Re: [PUG] MediaWiki export zu Plain HTML
Am Sonntag, 10. Februar 2008 18:59:03 schrieb Markus Schönhaber: Denny Schierz schrieb: ich würde gern die eine od. andere Pug Wiki Seite mobil haben wollen. Hat einer von euch schonmal ein Programm gehabt, um aus den PHP Seiten ein statisches HTML zu generieren? wget erzeugt nur eine häßliche Ausgabe. Im Firefox als Webseite komplett speichern. Was der Firefox (und anscheinend auch wget) nicht angepaßt bekommt sind die Referenzen auf die Stylesheets. Wirklich wichtig scheint aber nur das @import /skins/monobook/main.css?42b zu sein. Das händisch ziehen und die Referenz in der HTML-Datei entsprechend anpassen (händisch, per sed, whatever). Hier eine Möglichkeit wie das geht: Aus dem Quelltext einer Spiegel-Online Seite von heute: link rel=stylesheet type=text/css href=http://www.spiegel.de/css/http/0,5459,PB64-dmVyPTgmcmV2PTIwMDcxMTIzMDAwMSZzdHlsZT1kb2t1bWVudGFuc2ljaHQ_3,00.css; / So steht es auf der Webseite. Und so kann man speichern: link rel=stylesheet type=text/css href=0,5459,PB64-dmVyPTgmcmV2PTIwMDcxMTIzMDAwMSZzdHlsZT1kb2t1bWVudGFuc2ljaHQ_3, 00.css / So willst Du es doch haben, Denny, nicht wahr? Es ging so: KDE 3.5.7 plus ,,kdeaddons''. Da drin ist ein Webarchiver, ein Plugin in /usr/lib/kde3/libwebarchiver.so Das aber wurde von dem Entwickler Matthias Grimrath, über den ich hier schon berichet hatte, verbessert. Diese Version habe ich - man muß/sollte dann aber auch die /usr/lib/libkhtml.so.4.2.0 ersetzen (habe ich auch). Das ist für mich die schlechthinnige Lösung zum Speichern von Webseiten als statisches html - mein täglich Brot. Im Moment korrespondiere ich gerade mit Matthias und den Leuten von KDE, damit diese verbesserte Version ins offizielle Paket kommt. Ach so: das Teil speichert die Seite als .war-Datei (~ tar.gz: alle Dateien liegen in einem komprimierten Ordner). Ein Python-Skript, um diese .war-Datei wahlweise in tar.gz- oder zip-Dateien umzuwandeln, hat Matthias auch bereit gestellt, was ich hier auch schon vorgestellt hatte. Gruß, Michael Bischof (Falls Du kein KDE hast: kdelib und qt wirst Du dafür wohl aufwenden müssen!) -- PUG - Penguin User Group Wiesbaden - http://www.pug.org
Re: [PUG] MediaWiki export zu Plain HTML
Denny Schierz schrieb: hi, ich würde gern die eine od. andere Pug Wiki Seite mobil haben wollen. Hat einer von euch schonmal ein Programm gehabt, um aus den PHP Seiten ein statisches HTML zu generieren? wget erzeugt nur eine häßliche Ausgabe. Eventuell bietet HTTrack eine Möglichkeit für dich Gruß Rino -- PUG - Penguin User Group Wiesbaden - http://www.pug.org
Re: [PUG] MediaWiki export zu Plain HTML
Am Sonntag, 10. Februar 2008 18:59:03 schrieb Markus Schönhaber: Denny Schierz schrieb: ich würde gern die eine od. andere Pug Wiki Seite mobil haben wollen. Hat einer von euch schonmal ein Programm gehabt, um aus den PHP Seiten ein statisches HTML zu generieren? wget erzeugt nur eine häßliche Ausgabe. Im Firefox als Webseite komplett speichern. Was der Firefox (und anscheinend auch wget) nicht angepaßt bekommt sind die Referenzen auf die Stylesheets. Nein, Markus, mit wget -E -H -k -K -p URL geht das schon! Erfordert aber hinterher, wenn man die Daten an Andere weitergeben will, viel Handarbeit. Die von mir heute gegebene Lösung ist erheblich eleganter. Nein, das Lob geht an Matthias Grimrath! Gruß, Michael Bischof -- PUG - Penguin User Group Wiesbaden - http://www.pug.org
Re: [PUG] MediaWiki export zu Plain HTML
Michael Bischof schrieb: Am Sonntag, 10. Februar 2008 18:59:03 schrieb Markus Schönhaber: Im Firefox als Webseite komplett speichern. Was der Firefox (und anscheinend auch wget) nicht angepaßt bekommt sind die Referenzen auf die Stylesheets. Nein, Markus, mit wget -E -H -k -K -p URL geht das schon! Eben nicht. Was Dir auch aufgefallen wäre, wenn Du es mal probiert hättest (Hinweis: Es geht hier um über MeiaWiki erzeugte Seiten - wie bspw. auf www.pug.org - nicht um Spiegel online). Die in Deinem anderen Post angegebene Methode, wie man in link rel=stylesheet type=text/css href=... / den Wert des Attributes href für das Laden vom Filesystem anpassen kann, ist schön. Allerdings habe ich weder bestritten, daß das so geht, noch, daß wget das automatisch macht. Nur leider sind die link-Elemente eben gerade nicht das Problem. Was aber weder die Speicherfunktion von Firefox noch wget[1] gebändigt bekommen sind Konstrukte wie das von mir als Beispiel angegebene (und von Dir geschickterweise nicht mitgequotete) @import /skins/monobook/main.css?42b innerhalb eines style-Elements[2]. Die von mir heute gegebene Lösung ist erheblich eleganter. Nein, das Lob geht an Matthias Grimrath! Du hast verifiziert, daß diese Lösung die oben beschriebene Schwäche von Firefox' Speicherfunktion und wget nicht hat? Dann hat Denny ja die Antwort, die er sucht. Gruß mks [1] Zumindest weder mein wget, so wie ich es benutzt habe, noch mein wget mit den von Dir oben angegebenen Parametern. Falls ich den entscheidenden Parameter übersehen haben sollte, bitte ich um einen Hinweis. [2] Wobei ich nicht ausprobiert habe, ob das @import-Statement an sich das Problem darstellt oder die Tatsache, daß es auf den PUG-Seiten, die ich mir im Quelltext angesehen habe, jeweils von /*![CDATA[*/ und /*]]*/ umgeben ist, für Verwirrung sorgt. -- PUG - Penguin User Group Wiesbaden - http://www.pug.org
Re: [PUG] MediaWiki export zu Plain HTML
Am Montag, 11. Februar 2008 01:55:59 schrieb Markus Schönhaber: Michael Bischof schrieb: Am Sonntag, 10. Februar 2008 18:59:03 schrieb Markus Schönhaber: Im Firefox als Webseite komplett speichern. Was der Firefox (und anscheinend auch wget) nicht angepaßt bekommt sind die Referenzen auf die Stylesheets. Nein, Markus, mit wget -E -H -k -K -p URL geht das schon! Eben nicht. Was Dir auch aufgefallen wäre, wenn Du es mal probiert hättest (Hinweis: Es geht hier um über MeiaWiki erzeugte Seiten - wie bspw. auf www.pug.org - nicht um Spiegel online). Habe ich jetzt auch mit der angegebenen Seite probiert. Das geht mit der war-Methode, aber auch mit wget. Die von mir heute gegebene Lösung ist erheblich eleganter. Nein, das Lob geht an Matthias Grimrath! Du hast verifiziert, daß diese Lösung die oben beschriebene Schwäche von Firefox' Speicherfunktion und wget nicht hat? Dann hat Denny ja die Antwort, die er sucht. Ja, das meinte ich ja. Man erhält ein Archiv, das die Seite genauso aussehen läßt wie im Original. Das habe ich auch mit einer PUG-Seite probiert. Mit wget erhalte ich statisches html, aber die css-Funktionen klappen nicht so: das Ergebnis entspricht optisch nicht dem Original und ist sehr so aufgebaut ist, dass es viele Umstände machen würde, damit zu arbeiten. Damit wir nicht aneinander vorbeireden habe ich es auch mit der o.g. Seite getestet und schicke Dir das Ergebnis per PM zu. Gruß mks [1] Zumindest weder mein wget, so wie ich es benutzt habe, noch mein wget mit den von Dir oben angegebenen Parametern. Falls ich den entscheidenden Parameter übersehen haben sollte, bitte ich um einen Hinweis. [2] Wobei ich nicht ausprobiert habe, ob das @import-Statement an sich das Problem darstellt oder die Tatsache, daß es auf den PUG-Seiten, die ich mir im Quelltext angesehen habe, jeweils von /*![CDATA[*/ und /*]]*/ umgeben ist, für Verwirrung sorgt. Damit wir nicht aneinander vorbeireden schaue Dir bitte die Ergebnisse an, die ich Dir schicke. Gruß, Michael Bischof -- PUG - Penguin User Group Wiesbaden - http://www.pug.org