Re: [PUG] MediaWiki export zu Plain HTML

2008-02-11 Diskussionsfäden Markus Schönhaber
Michael Bischof schrieb:

 Am Montag, 11. Februar 2008 01:55:59 schrieb Markus Schönhaber:

 Michael Bischof schrieb:

 Nein, Markus, mit
 wget -E -H -k -K -p URL
 geht das schon!

 Eben nicht. Was Dir auch aufgefallen wäre, wenn Du es mal probiert
 hättest (Hinweis: Es geht hier um über MeiaWiki erzeugte Seiten - wie
 bspw. auf www.pug.org - nicht um Spiegel online).
 
 Habe ich jetzt auch mit der angegebenen Seite probiert. Das geht mit 
 der war-Methode, aber auch mit wget.

Nein. Nicht mit wget.

 Die von mir heute gegebene Lösung ist
 erheblich eleganter. Nein, das Lob geht an Matthias Grimrath!
 Du hast verifiziert, daß diese Lösung die oben beschriebene Schwäche von
 Firefox' Speicherfunktion und wget nicht hat?
 Dann hat Denny ja die Antwort, die er sucht.
 
 Ja, das meinte ich ja. Man erhält ein Archiv, das die Seite genauso aussehen 
 läßt wie im Original. Das habe ich auch mit einer PUG-Seite probiert.
 
 Mit wget erhalte ich statisches html, aber die css-Funktionen klappen nicht 
 so: das Ergebnis entspricht optisch nicht dem Original und ist sehr so 
 aufgebaut ist, dass es viele Umstände machen würde, damit zu arbeiten.

Eben. Es geht nicht mit wget, denn das für das einigermaßen
originalgetreue Aussehen der Seite unerläßliche Stylesheet holt wget
gerade nicht. Das ist es doch, was ich die ganze Zeit sage - und Denny
in seinem OP übrigens auch:
| wget erzeugt nur eine häßliche Ausgabe.

 Damit wir nicht aneinander vorbeireden habe ich es auch mit der o.g. Seite 
 getestet und schicke Dir das Ergebnis per PM zu.

Warum hast Du mir auch Downloads von dem Blog-Eintrag über mw2html
geschickt? Die haben mit dem Problem, um das es geht, nichts zu tun.
Um es noch mal klar zu sagen: Daß man mit wget Webseiten zum
offline-Lesen herunterladen kann, habe ich nie bestritten - dafür (u.
a.) ist wget schließlich da.
Meine Behauptung ist lediglich, daß wget mit der speziellen Art, ein
Stylesheet zu referenzieren (per @import ...), zumindest in der auf
pug.org verwendeten Form, nicht zurecht kommt.
Diese Behauptung wird durch die Sachen, die Du mir geschickt hast, auch
bestätigt.

Ich habe übrigens mit dem zu KDE 3.5.8 gehörenden Konqueror per
Extras / Webseite archivieren...
eine Seite von pug.org abgespeichert. Da fehlt besagtes Stylesheet ebenso.
Falls Du nicht eine völlig andere Methode verwendest, um solche Archive
zu erzeugen, läßt mich das vermuten, daß Deine Aussage im anderen
Posting man muß aber [...] ersetzen nicht nur richtig sondern auch
essentiell wichtig ist, denn in dem .war, das Du mir geschickt hast, ist
das Stylesheet vorhanden.

Gruß
  mks

-- 

PUG - Penguin User Group Wiesbaden - http://www.pug.org


Re: [PUG] MediaWiki export zu Plain HTML

2008-02-11 Diskussionsfäden Michael Bischof
Am Montag, 11. Februar 2008 11:24:58 schrieb Markus Schönhaber:
 
 Ich habe übrigens mit dem zu KDE 3.5.8 gehörenden Konqueror per
 Extras / Webseite archivieren...
 eine Seite von pug.org abgespeichert. Da fehlt besagtes Stylesheet ebenso.
 Falls Du nicht eine völlig andere Methode verwendest, um solche Archive
 zu erzeugen, läßt mich das vermuten, daß Deine Aussage im anderen
 Posting man muß aber [...] ersetzen nicht nur richtig sondern auch
 essentiell wichtig ist, denn in dem .war, das Du mir geschickt hast, ist
 das Stylesheet vorhanden.

Sagte ich doch! Der normale Webarchiver,den Du wohl auch hast, tut es nicht.
Was ich Dir geschickt hatte war mit dem von Matthias Grimrath veränderten 
gemacht worden. Und damit geht es mit einem schlichten Klick - was Denny 
benutzt hat kann ich nicht beurteilen, das müßte ich wohl selber 
kompilieren...
Wie dem auch sei: ich habe die beiden Dateien, um die es geht. Wer das 
will/braucht möge sich melden. Ich brauche das in meinem Alltag dauernd und 
klappen sollte es schon...

Gruß,

Michael Bischof 

 

-- 

PUG - Penguin User Group Wiesbaden - http://www.pug.org


Re: [PUG] MediaWiki export zu Plain HTML

2008-02-11 Diskussionsfäden Denny Schierz
hi,


Markus Schönhaber schrieb:

 ? mw2html ist doch sogar so nett, Dir zu sagen, wo Du htmldata findest,
 wenn es fehlt:
 http://oregonstate.edu/~barnesc/htmldata/

oh my tux, die Peinlichkeit ist grenzenlos. Ich habe die Zeile nicht
einmal wahrgenommen. Kommt davon, wenn man das zwischen Koffer packen
und Zug erwischen macht.

@Michael

Vielen Dank für deine Hilfe. Das mw2html erledigt diese Aufgabe perfekt.
Der legt nun die komplette Pug in einem Ordner ab und auch das CSS wird
angepasst.

einfach tuxlich :-)

cu denny

-- 
Stoppt den Überwachungswahn - Stoppt den Schäuble Katalog:
http://www.nopsis.de



signature.asc
Description: OpenPGP digital signature
-- 

PUG - Penguin User Group Wiesbaden - http://www.pug.org


Re: [PUG] MediaWiki export zu Plain HTML

2008-02-11 Diskussionsfäden Denny Schierz
hi,

Michael Bischof schrieb:

[...]
 gemacht worden. Und damit geht es mit einem schlichten Klick - was Denny 
 benutzt hat kann ich nicht beurteilen, das müßte ich wohl selber 
 kompilieren...
[...]

da braucht es nichts zum kompilieren :-)

http://www.denny-schierz.de/wordpress/2008/02/11/mediawiki-offline-als-reines-html-exportieren/

cu denny

-- 
Stoppt den Überwachungswahn - Stoppt den Schäuble Katalog:
http://www.nopsis.de



signature.asc
Description: OpenPGP digital signature
-- 

PUG - Penguin User Group Wiesbaden - http://www.pug.org


[PUG] MediaWiki export zu Plain HTML

2008-02-10 Diskussionsfäden Denny Schierz
hi,

ich würde gern die eine od. andere Pug Wiki Seite mobil haben wollen. Hat 
einer von euch schonmal ein Programm gehabt, um aus den PHP Seiten ein 
statisches HTML zu generieren? wget erzeugt nur eine häßliche Ausgabe.

http://barnesc.blogspot.com/2005/10/mw2html-export-mediawiki-to-static.html

Das soll es können, finde aber auf die schnelle kein pyhton-htmldata.

Genial wäre natürlich, wenn ich pug.org komplett als statisches HTML vorliegen 
hätte.

cu denny


signature.asc
Description: This is a digitally signed message part.
-- 

PUG - Penguin User Group Wiesbaden - http://www.pug.org


Re: [PUG] MediaWiki export zu Plain HTML

2008-02-10 Diskussionsfäden Markus Schönhaber
Denny Schierz schrieb:

 ich würde gern die eine od. andere Pug Wiki Seite mobil haben wollen. Hat 
 einer von euch schonmal ein Programm gehabt, um aus den PHP Seiten ein 
 statisches HTML zu generieren? wget erzeugt nur eine häßliche Ausgabe.

Im Firefox als Webseite komplett speichern.
Was der Firefox (und anscheinend auch wget) nicht angepaßt bekommt sind
die Referenzen auf die Stylesheets. Wirklich wichtig scheint aber nur das
@import /skins/monobook/main.css?42b
zu sein. Das händisch ziehen und die Referenz in der HTML-Datei
entsprechend anpassen (händisch, per sed, whatever).

 http://barnesc.blogspot.com/2005/10/mw2html-export-mediawiki-to-static.html
 
 Das soll es können, finde aber auf die schnelle kein pyhton-htmldata.

? mw2html ist doch sogar so nett, Dir zu sagen, wo Du htmldata findest,
wenn es fehlt:
http://oregonstate.edu/~barnesc/htmldata/

Gruß
  mks
-- 

PUG - Penguin User Group Wiesbaden - http://www.pug.org


Re: [PUG] MediaWiki export zu Plain HTML

2008-02-10 Diskussionsfäden Michael Bischof
Am Sonntag, 10. Februar 2008 18:59:03 schrieb Markus Schönhaber:
 Denny Schierz schrieb:
  ich würde gern die eine od. andere Pug Wiki Seite mobil haben wollen. Hat
  einer von euch schonmal ein Programm gehabt, um aus den PHP Seiten ein
  statisches HTML zu generieren? wget erzeugt nur eine häßliche Ausgabe.

 Im Firefox als Webseite komplett speichern.
 Was der Firefox (und anscheinend auch wget) nicht angepaßt bekommt sind
 die Referenzen auf die Stylesheets. Wirklich wichtig scheint aber nur das
 @import /skins/monobook/main.css?42b
 zu sein. Das händisch ziehen und die Referenz in der HTML-Datei
 entsprechend anpassen (händisch, per sed, whatever).
 
Hier eine Möglichkeit wie das geht:

Aus dem Quelltext einer Spiegel-Online Seite von heute:

link rel=stylesheet type=text/css 
href=http://www.spiegel.de/css/http/0,5459,PB64-dmVyPTgmcmV2PTIwMDcxMTIzMDAwMSZzdHlsZT1kb2t1bWVudGFuc2ljaHQ_3,00.css;
 /

So steht es auf der Webseite. Und so kann man speichern:

link rel=stylesheet type=text/css
href=0,5459,PB64-dmVyPTgmcmV2PTIwMDcxMTIzMDAwMSZzdHlsZT1kb2t1bWVudGFuc2ljaHQ_3,
00.css /

So willst Du es doch haben, Denny, nicht wahr? 
Es ging so:
KDE 3.5.7 plus ,,kdeaddons''. Da drin ist ein Webarchiver, ein Plugin   
in /usr/lib/kde3/libwebarchiver.so
Das aber wurde von dem Entwickler Matthias Grimrath, über den ich hier schon 
berichet hatte, verbessert. Diese Version habe ich - man muß/sollte dann aber 
auch die /usr/lib/libkhtml.so.4.2.0 ersetzen (habe ich auch).

Das ist für mich die schlechthinnige Lösung zum Speichern von Webseiten als 
statisches html - mein täglich Brot. Im Moment korrespondiere ich gerade mit 
Matthias und den Leuten von KDE, damit diese verbesserte Version ins 
offizielle Paket kommt. 
Ach so: das Teil speichert die Seite als .war-Datei (~ tar.gz: alle Dateien 
liegen in einem komprimierten Ordner). Ein Python-Skript, um diese .war-Datei 
wahlweise in tar.gz- oder zip-Dateien umzuwandeln, hat Matthias auch bereit 
gestellt, was ich hier auch schon vorgestellt hatte.

Gruß,

Michael Bischof 

(Falls Du kein KDE hast: kdelib und qt wirst Du dafür wohl aufwenden müssen!)
-- 

PUG - Penguin User Group Wiesbaden - http://www.pug.org


Re: [PUG] MediaWiki export zu Plain HTML

2008-02-10 Diskussionsfäden rino

Denny Schierz schrieb:

hi,

ich würde gern die eine od. andere Pug Wiki Seite mobil haben wollen. Hat 
einer von euch schonmal ein Programm gehabt, um aus den PHP Seiten ein 
statisches HTML zu generieren? wget erzeugt nur eine häßliche Ausgabe.


Eventuell bietet HTTrack eine Möglichkeit für dich

Gruß
Rino
-- 

PUG - Penguin User Group Wiesbaden - http://www.pug.org


Re: [PUG] MediaWiki export zu Plain HTML

2008-02-10 Diskussionsfäden Michael Bischof
Am Sonntag, 10. Februar 2008 18:59:03 schrieb Markus Schönhaber:
 Denny Schierz schrieb:
  ich würde gern die eine od. andere Pug Wiki Seite mobil haben wollen. Hat
  einer von euch schonmal ein Programm gehabt, um aus den PHP Seiten ein
  statisches HTML zu generieren? wget erzeugt nur eine häßliche Ausgabe.
 
 Im Firefox als Webseite komplett speichern.
 Was der Firefox (und anscheinend auch wget) nicht angepaßt bekommt sind
 die Referenzen auf die Stylesheets. 

Nein, Markus, mit 
wget -E -H -k -K -p URL
geht das schon! Erfordert aber hinterher, wenn man die Daten an Andere 
weitergeben will, viel Handarbeit. Die von mir heute gegebene Lösung ist 
erheblich eleganter. Nein, das Lob geht an Matthias Grimrath!

Gruß,

Michael Bischof 

 

-- 

PUG - Penguin User Group Wiesbaden - http://www.pug.org


Re: [PUG] MediaWiki export zu Plain HTML

2008-02-10 Diskussionsfäden Markus Schönhaber
Michael Bischof schrieb:

 Am Sonntag, 10. Februar 2008 18:59:03 schrieb Markus Schönhaber:

 Im Firefox als Webseite komplett speichern.
 Was der Firefox (und anscheinend auch wget) nicht angepaßt bekommt sind
 die Referenzen auf die Stylesheets. 
 
 Nein, Markus, mit 
   wget -E -H -k -K -p URL
 geht das schon! 

Eben nicht. Was Dir auch aufgefallen wäre, wenn Du es mal probiert
hättest (Hinweis: Es geht hier um über MeiaWiki erzeugte Seiten - wie
bspw. auf www.pug.org - nicht um Spiegel online).

Die in Deinem anderen Post angegebene Methode, wie man in
link rel=stylesheet type=text/css href=... /
den Wert des Attributes href für das Laden vom Filesystem anpassen
kann, ist schön.
Allerdings habe ich weder bestritten, daß das so geht, noch, daß wget
das automatisch macht. Nur leider sind die link-Elemente eben gerade
nicht das Problem.
Was aber weder die Speicherfunktion von Firefox noch wget[1] gebändigt
bekommen sind Konstrukte wie das von mir als Beispiel angegebene (und
von Dir geschickterweise nicht mitgequotete)
@import /skins/monobook/main.css?42b
innerhalb eines style-Elements[2].

 Die von mir heute gegebene Lösung ist 
 erheblich eleganter. Nein, das Lob geht an Matthias Grimrath!

Du hast verifiziert, daß diese Lösung die oben beschriebene Schwäche von
Firefox' Speicherfunktion und wget nicht hat?
Dann hat Denny ja die Antwort, die er sucht.

Gruß
  mks

[1] Zumindest weder mein wget, so wie ich es benutzt habe, noch mein
wget mit den von Dir oben angegebenen Parametern. Falls ich den
entscheidenden Parameter übersehen haben sollte, bitte ich um einen Hinweis.
[2] Wobei ich nicht ausprobiert habe, ob das @import-Statement an sich
das Problem darstellt oder die Tatsache, daß es auf den PUG-Seiten, die
ich mir im Quelltext angesehen habe, jeweils von /*![CDATA[*/ und
/*]]*/ umgeben ist, für Verwirrung sorgt.

-- 

PUG - Penguin User Group Wiesbaden - http://www.pug.org


Re: [PUG] MediaWiki export zu Plain HTML

2008-02-10 Diskussionsfäden Michael Bischof
Am Montag, 11. Februar 2008 01:55:59 schrieb Markus Schönhaber:
 Michael Bischof schrieb:
  Am Sonntag, 10. Februar 2008 18:59:03 schrieb Markus Schönhaber:
  Im Firefox als Webseite komplett speichern.
  Was der Firefox (und anscheinend auch wget) nicht angepaßt bekommt sind
  die Referenzen auf die Stylesheets.
 
  Nein, Markus, mit
  wget -E -H -k -K -p URL
  geht das schon!

 Eben nicht. Was Dir auch aufgefallen wäre, wenn Du es mal probiert
 hättest (Hinweis: Es geht hier um über MeiaWiki erzeugte Seiten - wie
 bspw. auf www.pug.org - nicht um Spiegel online).

Habe ich jetzt auch mit der angegebenen Seite probiert. Das geht mit 
der war-Methode, aber auch mit wget.
 
  Die von mir heute gegebene Lösung ist
  erheblich eleganter. Nein, das Lob geht an Matthias Grimrath!

 Du hast verifiziert, daß diese Lösung die oben beschriebene Schwäche von
 Firefox' Speicherfunktion und wget nicht hat?
 Dann hat Denny ja die Antwort, die er sucht.

Ja, das meinte ich ja. Man erhält ein Archiv, das die Seite genauso aussehen 
läßt wie im Original. Das habe ich auch mit einer PUG-Seite probiert.

Mit wget erhalte ich statisches html, aber die css-Funktionen klappen nicht 
so: das Ergebnis entspricht optisch nicht dem Original und ist sehr so 
aufgebaut ist, dass es viele Umstände machen würde, damit zu arbeiten.

Damit wir nicht aneinander vorbeireden habe ich es auch mit der o.g. Seite 
getestet und schicke Dir das Ergebnis per PM zu.

 Gruß
   mks

 [1] Zumindest weder mein wget, so wie ich es benutzt habe, noch mein
 wget mit den von Dir oben angegebenen Parametern. Falls ich den
 entscheidenden Parameter übersehen haben sollte, bitte ich um einen
 Hinweis. [2] Wobei ich nicht ausprobiert habe, ob das @import-Statement
 an sich das Problem darstellt oder die Tatsache, daß es auf den PUG-Seiten,
 die ich mir im Quelltext angesehen habe, jeweils von /*![CDATA[*/ und
 /*]]*/ umgeben ist, für Verwirrung sorgt.

Damit wir nicht aneinander vorbeireden schaue Dir bitte die Ergebnisse an, die 
ich Dir schicke.

Gruß,

Michael Bischof 

-- 

PUG - Penguin User Group Wiesbaden - http://www.pug.org