la storia mi pare meritevole di essere pubblicata sul sito, pero' non sono convinto di quanto dice fabio:
> 1) i PC sono sempre piu potenti. 2) Linux ha permesso di > riprodurre su PC lo stesso ambiente UNIX-like delle work station > beh, se con PC intendiamo architettura intel (pentium, ix86) e' vero che sono sempre piu' potenti, come lo sono d'altronde i nuovi sgi i nuovi sparc (anche se pare che la compaq abbia chiuso lo sviluppo dei processori alpha) i nuovi sun ecc... linux e' stato sviluppato inizialmente su architettura intel perche' questa era la macchina che aveva a disposizione allora linus torvalds e perche' questa era (e') la macchina piu' economica in circolazione e quindi e' anche la piu' diffusa. ma oggi come oggi linux va anche su tutte le altre architetture. e su architetture con sistemi unix proprietari non sempre una istallazione di linux e piu' performante, anzi. un conto e' una libreria open source (che tipicamente, con piu' o meno fatica, e' installabile su qualunque unix-like) un conto e' il sistema operativo e ovviamente linux non puo' (quasi mai) competere con sistemi studiati apposta per le macchine su cui girano. la storia di legrand dimostra i vantaggi delle librerie open source e la miopia dei direttori di laboratorio che non aggiornano l'hardware. ma non dimostra che i pc (intel) siano la panacea di tutti i mali. per quanto riguarda calcolo parallelo e calcolo scalare la battaglia e' tra supercalcolatori (con centinaia-migliaia di cpu in parallelo gestite dal sistema operativo, in maniera trasparente per l'utente) e cluster di pc monocpu (anche questo, si spera, gestito dal sistema operativo in maniera trasparente). i cluster costano molto ma molto di meno ma hanno, al momento, prestazioni nettamente inferiori ai migliori supercalcolatori, il che mi pare ovvio tenendo conto dell'enorme difficolta' tecnica di scrivere un sistema operativo adatto a gestire il cluster. linux, cosi' com'e' non e' adatto, esistono versioni che sono appositamente scritte per andare su cluster, ma i risultati non sono al momento chiarissimi. in un istituto dove ho lavorato succedeva la stessa cosa raccontata da legrand, tutti avevamo una workstation sgi (oxigen 2) con irix e zero-freesoftware, anche i nuovi computer venivano comprati dalla sgi (i modelli piu' cessi, pero', per risparmiare) in ottemperanza alle preferenze della cariatide che dirigeva l'istituto e a laute mazzette (sono sicuro). e' ovvio che in questa situazione avremmo lavorato tutti meglio con dei pc, ma sarebbe anche bastato poter installare quello che ci pareva su irix (la sgi infatti ha anche un progetto per far il porting a irix del freesoftware), ma l'amministratore di sistema non voleva rogne, e cosi' ecco volare decine di migliaia di euro direttamente nel cesso. a proposito pare che il concetto di open source abbia recentamente toccato anche l'hardware: http://slashdot.org/articles/03/12/08/2326236.shtml?tid=106&tid=126&tid=137&tid=185 si tratta di un primo prototipo di cip "open source", nel senso che le specifiche sono note e pubbliche e chiunque puo' pigliarsele modificarle come vuole e spedire il risultato a una azienda che fa i wafer di silicio per realizzarsi il proprio processore personalizzato. chissa'... _______________________________________________ www.e-laser.org [EMAIL PROTECTED]