la storia mi pare meritevole di essere pubblicata sul sito, pero'
non sono convinto di quanto dice fabio:

> 1) i PC sono sempre piu potenti.  2) Linux ha permesso di
> riprodurre su PC lo stesso ambiente UNIX-like delle work station
>

beh, se con PC intendiamo architettura intel (pentium, ix86) e' vero
che sono sempre piu' potenti, come lo sono d'altronde i nuovi sgi i
nuovi sparc (anche se pare che la compaq abbia chiuso lo sviluppo
dei processori alpha) i nuovi sun ecc... linux e' stato sviluppato
inizialmente su architettura intel perche' questa era la macchina
che aveva a disposizione allora linus torvalds e perche' questa era
(e') la macchina piu' economica in circolazione e quindi e' anche la
piu' diffusa. ma oggi come oggi linux va anche su tutte le altre
architetture. e su architetture con sistemi unix proprietari non
sempre una istallazione di linux e piu' performante, anzi. un conto
e' una libreria open source (che tipicamente, con piu' o meno
fatica, e' installabile su qualunque unix-like) un conto e' il
sistema operativo e ovviamente linux non puo' (quasi mai) competere
con sistemi studiati apposta per le macchine su cui girano. la
storia di legrand dimostra i vantaggi delle librerie open source e
la miopia dei direttori di laboratorio che non aggiornano
l'hardware. ma non dimostra che i pc (intel) siano la panacea di
tutti i mali. per quanto riguarda calcolo parallelo e calcolo
scalare la battaglia e' tra supercalcolatori (con centinaia-migliaia
di cpu in parallelo gestite dal sistema operativo, in maniera
trasparente per l'utente) e cluster di pc monocpu (anche questo, si
spera, gestito dal sistema operativo in maniera trasparente). i
cluster costano molto ma molto di meno ma hanno, al momento,
prestazioni nettamente inferiori ai migliori supercalcolatori, il
che mi pare ovvio tenendo conto dell'enorme difficolta' tecnica di
scrivere un sistema operativo adatto a gestire il cluster. linux,
cosi' com'e' non e' adatto, esistono versioni che sono appositamente
scritte per andare su cluster, ma i risultati non sono al momento
chiarissimi. in un istituto dove ho lavorato succedeva la stessa
cosa raccontata da legrand, tutti avevamo una workstation sgi
(oxigen 2) con irix e zero-freesoftware, anche i nuovi computer
venivano comprati dalla sgi (i modelli piu' cessi, pero', per
risparmiare) in ottemperanza alle preferenze della cariatide che
dirigeva l'istituto e a laute mazzette (sono sicuro). e' ovvio che
in questa situazione avremmo lavorato tutti meglio con dei pc, ma
sarebbe anche bastato poter installare quello che ci pareva su irix
(la sgi infatti ha anche un progetto per far il porting a irix del
freesoftware), ma l'amministratore di sistema non voleva rogne, e
cosi' ecco volare decine di migliaia di euro direttamente nel cesso.
a proposito pare che il concetto di open source abbia recentamente
toccato anche l'hardware:
http://slashdot.org/articles/03/12/08/2326236.shtml?tid=106&tid=126&tid=137&tid=185
si tratta di un primo prototipo di cip "open source", nel senso che
le specifiche sono note e pubbliche e chiunque puo' pigliarsele
modificarle come vuole e spedire il risultato a una azienda che fa i
wafer di silicio per realizzarsi il proprio processore
personalizzato. chissa'...




_______________________________________________
www.e-laser.org
[EMAIL PROTECTED]

Rispondere a