[PUG] MediaWiki export zu Plain HTML

2008-02-10 Diskussionsfäden Denny Schierz
hi,

ich würde gern die eine od. andere Pug Wiki Seite mobil haben wollen. Hat 
einer von euch schonmal ein Programm gehabt, um aus den PHP Seiten ein 
statisches HTML zu generieren? wget erzeugt nur eine häßliche Ausgabe.

http://barnesc.blogspot.com/2005/10/mw2html-export-mediawiki-to-static.html

Das soll es können, finde aber auf die schnelle kein pyhton-htmldata.

Genial wäre natürlich, wenn ich pug.org komplett als statisches HTML vorliegen 
hätte.

cu denny


signature.asc
Description: This is a digitally signed message part.
-- 

PUG - Penguin User Group Wiesbaden - http://www.pug.org


Re: [PUG] MediaWiki export zu Plain HTML

2008-02-10 Diskussionsfäden Markus Schönhaber
Denny Schierz schrieb:

 ich würde gern die eine od. andere Pug Wiki Seite mobil haben wollen. Hat 
 einer von euch schonmal ein Programm gehabt, um aus den PHP Seiten ein 
 statisches HTML zu generieren? wget erzeugt nur eine häßliche Ausgabe.

Im Firefox als Webseite komplett speichern.
Was der Firefox (und anscheinend auch wget) nicht angepaßt bekommt sind
die Referenzen auf die Stylesheets. Wirklich wichtig scheint aber nur das
@import /skins/monobook/main.css?42b
zu sein. Das händisch ziehen und die Referenz in der HTML-Datei
entsprechend anpassen (händisch, per sed, whatever).

 http://barnesc.blogspot.com/2005/10/mw2html-export-mediawiki-to-static.html
 
 Das soll es können, finde aber auf die schnelle kein pyhton-htmldata.

? mw2html ist doch sogar so nett, Dir zu sagen, wo Du htmldata findest,
wenn es fehlt:
http://oregonstate.edu/~barnesc/htmldata/

Gruß
  mks
-- 

PUG - Penguin User Group Wiesbaden - http://www.pug.org


Re: [PUG] MediaWiki export zu Plain HTML

2008-02-10 Diskussionsfäden Michael Bischof
Am Sonntag, 10. Februar 2008 18:59:03 schrieb Markus Schönhaber:
 Denny Schierz schrieb:
  ich würde gern die eine od. andere Pug Wiki Seite mobil haben wollen. Hat
  einer von euch schonmal ein Programm gehabt, um aus den PHP Seiten ein
  statisches HTML zu generieren? wget erzeugt nur eine häßliche Ausgabe.

 Im Firefox als Webseite komplett speichern.
 Was der Firefox (und anscheinend auch wget) nicht angepaßt bekommt sind
 die Referenzen auf die Stylesheets. Wirklich wichtig scheint aber nur das
 @import /skins/monobook/main.css?42b
 zu sein. Das händisch ziehen und die Referenz in der HTML-Datei
 entsprechend anpassen (händisch, per sed, whatever).
 
Hier eine Möglichkeit wie das geht:

Aus dem Quelltext einer Spiegel-Online Seite von heute:

link rel=stylesheet type=text/css 
href=http://www.spiegel.de/css/http/0,5459,PB64-dmVyPTgmcmV2PTIwMDcxMTIzMDAwMSZzdHlsZT1kb2t1bWVudGFuc2ljaHQ_3,00.css;
 /

So steht es auf der Webseite. Und so kann man speichern:

link rel=stylesheet type=text/css
href=0,5459,PB64-dmVyPTgmcmV2PTIwMDcxMTIzMDAwMSZzdHlsZT1kb2t1bWVudGFuc2ljaHQ_3,
00.css /

So willst Du es doch haben, Denny, nicht wahr? 
Es ging so:
KDE 3.5.7 plus ,,kdeaddons''. Da drin ist ein Webarchiver, ein Plugin   
in /usr/lib/kde3/libwebarchiver.so
Das aber wurde von dem Entwickler Matthias Grimrath, über den ich hier schon 
berichet hatte, verbessert. Diese Version habe ich - man muß/sollte dann aber 
auch die /usr/lib/libkhtml.so.4.2.0 ersetzen (habe ich auch).

Das ist für mich die schlechthinnige Lösung zum Speichern von Webseiten als 
statisches html - mein täglich Brot. Im Moment korrespondiere ich gerade mit 
Matthias und den Leuten von KDE, damit diese verbesserte Version ins 
offizielle Paket kommt. 
Ach so: das Teil speichert die Seite als .war-Datei (~ tar.gz: alle Dateien 
liegen in einem komprimierten Ordner). Ein Python-Skript, um diese .war-Datei 
wahlweise in tar.gz- oder zip-Dateien umzuwandeln, hat Matthias auch bereit 
gestellt, was ich hier auch schon vorgestellt hatte.

Gruß,

Michael Bischof 

(Falls Du kein KDE hast: kdelib und qt wirst Du dafür wohl aufwenden müssen!)
-- 

PUG - Penguin User Group Wiesbaden - http://www.pug.org


[PUG] PS/2 Ram gesucht

2008-02-10 Diskussionsfäden Rainer Trusch
Hallo,

hat jemand vieleicht noch ein paar alte PS/2 Rams, die nicht mehr
gebraucht werden? Ich habe hier noch einen alten Rechner, den ich gerne
nochmal mit einer Minidistri testen würde und dann mal schauen, ob
jemand damit noch etwas anfangen kann. Ich bräuchte aber ab 2x16MB
aufwärts.

Mir fällt gerade noch ein, dass das Cdrom defekt ist. könnte ich auch
noch eins brauchen.

Gruß
Rainer
--

PUG - Penguin User Group Wiesbaden - http://www.pug.org


Re: [PUG] MediaWiki export zu Plain HTML

2008-02-10 Diskussionsfäden rino

Denny Schierz schrieb:

hi,

ich würde gern die eine od. andere Pug Wiki Seite mobil haben wollen. Hat 
einer von euch schonmal ein Programm gehabt, um aus den PHP Seiten ein 
statisches HTML zu generieren? wget erzeugt nur eine häßliche Ausgabe.


Eventuell bietet HTTrack eine Möglichkeit für dich

Gruß
Rino
-- 

PUG - Penguin User Group Wiesbaden - http://www.pug.org


Re: [PUG] PS/2 Ram gesucht

2008-02-10 Diskussionsfäden oliver . kalk

Rainer Trusch schrieb:

Hallo,

hat jemand vieleicht noch ein paar alte PS/2 Rams, die nicht mehr
gebraucht werden? Ich habe hier noch einen alten Rechner, den ich gerne
nochmal mit einer Minidistri testen würde und dann mal schauen, ob
jemand damit noch etwas anfangen kann. Ich bräuchte aber ab 2x16MB
aufwärts.

Mir fällt gerade noch ein, dass das Cdrom defekt ist. könnte ich auch
noch eins brauchen.



Ich habe mit Sicherheit auch noch RAM hier rumliegen. Ich melde mich morgen 
Abend noch mal

ciao
Oliver
--

PUG - Penguin User Group Wiesbaden - http://www.pug.org


Re: [PUG] MediaWiki export zu Plain HTML

2008-02-10 Diskussionsfäden Michael Bischof
Am Sonntag, 10. Februar 2008 18:59:03 schrieb Markus Schönhaber:
 Denny Schierz schrieb:
  ich würde gern die eine od. andere Pug Wiki Seite mobil haben wollen. Hat
  einer von euch schonmal ein Programm gehabt, um aus den PHP Seiten ein
  statisches HTML zu generieren? wget erzeugt nur eine häßliche Ausgabe.
 
 Im Firefox als Webseite komplett speichern.
 Was der Firefox (und anscheinend auch wget) nicht angepaßt bekommt sind
 die Referenzen auf die Stylesheets. 

Nein, Markus, mit 
wget -E -H -k -K -p URL
geht das schon! Erfordert aber hinterher, wenn man die Daten an Andere 
weitergeben will, viel Handarbeit. Die von mir heute gegebene Lösung ist 
erheblich eleganter. Nein, das Lob geht an Matthias Grimrath!

Gruß,

Michael Bischof 

 

-- 

PUG - Penguin User Group Wiesbaden - http://www.pug.org


Re: [PUG] MediaWiki export zu Plain HTML

2008-02-10 Diskussionsfäden Markus Schönhaber
Michael Bischof schrieb:

 Am Sonntag, 10. Februar 2008 18:59:03 schrieb Markus Schönhaber:

 Im Firefox als Webseite komplett speichern.
 Was der Firefox (und anscheinend auch wget) nicht angepaßt bekommt sind
 die Referenzen auf die Stylesheets. 
 
 Nein, Markus, mit 
   wget -E -H -k -K -p URL
 geht das schon! 

Eben nicht. Was Dir auch aufgefallen wäre, wenn Du es mal probiert
hättest (Hinweis: Es geht hier um über MeiaWiki erzeugte Seiten - wie
bspw. auf www.pug.org - nicht um Spiegel online).

Die in Deinem anderen Post angegebene Methode, wie man in
link rel=stylesheet type=text/css href=... /
den Wert des Attributes href für das Laden vom Filesystem anpassen
kann, ist schön.
Allerdings habe ich weder bestritten, daß das so geht, noch, daß wget
das automatisch macht. Nur leider sind die link-Elemente eben gerade
nicht das Problem.
Was aber weder die Speicherfunktion von Firefox noch wget[1] gebändigt
bekommen sind Konstrukte wie das von mir als Beispiel angegebene (und
von Dir geschickterweise nicht mitgequotete)
@import /skins/monobook/main.css?42b
innerhalb eines style-Elements[2].

 Die von mir heute gegebene Lösung ist 
 erheblich eleganter. Nein, das Lob geht an Matthias Grimrath!

Du hast verifiziert, daß diese Lösung die oben beschriebene Schwäche von
Firefox' Speicherfunktion und wget nicht hat?
Dann hat Denny ja die Antwort, die er sucht.

Gruß
  mks

[1] Zumindest weder mein wget, so wie ich es benutzt habe, noch mein
wget mit den von Dir oben angegebenen Parametern. Falls ich den
entscheidenden Parameter übersehen haben sollte, bitte ich um einen Hinweis.
[2] Wobei ich nicht ausprobiert habe, ob das @import-Statement an sich
das Problem darstellt oder die Tatsache, daß es auf den PUG-Seiten, die
ich mir im Quelltext angesehen habe, jeweils von /*![CDATA[*/ und
/*]]*/ umgeben ist, für Verwirrung sorgt.

-- 

PUG - Penguin User Group Wiesbaden - http://www.pug.org


Re: [PUG] MediaWiki export zu Plain HTML

2008-02-10 Diskussionsfäden Michael Bischof
Am Montag, 11. Februar 2008 01:55:59 schrieb Markus Schönhaber:
 Michael Bischof schrieb:
  Am Sonntag, 10. Februar 2008 18:59:03 schrieb Markus Schönhaber:
  Im Firefox als Webseite komplett speichern.
  Was der Firefox (und anscheinend auch wget) nicht angepaßt bekommt sind
  die Referenzen auf die Stylesheets.
 
  Nein, Markus, mit
  wget -E -H -k -K -p URL
  geht das schon!

 Eben nicht. Was Dir auch aufgefallen wäre, wenn Du es mal probiert
 hättest (Hinweis: Es geht hier um über MeiaWiki erzeugte Seiten - wie
 bspw. auf www.pug.org - nicht um Spiegel online).

Habe ich jetzt auch mit der angegebenen Seite probiert. Das geht mit 
der war-Methode, aber auch mit wget.
 
  Die von mir heute gegebene Lösung ist
  erheblich eleganter. Nein, das Lob geht an Matthias Grimrath!

 Du hast verifiziert, daß diese Lösung die oben beschriebene Schwäche von
 Firefox' Speicherfunktion und wget nicht hat?
 Dann hat Denny ja die Antwort, die er sucht.

Ja, das meinte ich ja. Man erhält ein Archiv, das die Seite genauso aussehen 
läßt wie im Original. Das habe ich auch mit einer PUG-Seite probiert.

Mit wget erhalte ich statisches html, aber die css-Funktionen klappen nicht 
so: das Ergebnis entspricht optisch nicht dem Original und ist sehr so 
aufgebaut ist, dass es viele Umstände machen würde, damit zu arbeiten.

Damit wir nicht aneinander vorbeireden habe ich es auch mit der o.g. Seite 
getestet und schicke Dir das Ergebnis per PM zu.

 Gruß
   mks

 [1] Zumindest weder mein wget, so wie ich es benutzt habe, noch mein
 wget mit den von Dir oben angegebenen Parametern. Falls ich den
 entscheidenden Parameter übersehen haben sollte, bitte ich um einen
 Hinweis. [2] Wobei ich nicht ausprobiert habe, ob das @import-Statement
 an sich das Problem darstellt oder die Tatsache, daß es auf den PUG-Seiten,
 die ich mir im Quelltext angesehen habe, jeweils von /*![CDATA[*/ und
 /*]]*/ umgeben ist, für Verwirrung sorgt.

Damit wir nicht aneinander vorbeireden schaue Dir bitte die Ergebnisse an, die 
ich Dir schicke.

Gruß,

Michael Bischof 

-- 

PUG - Penguin User Group Wiesbaden - http://www.pug.org