Nella mia università (università Ca' Foscari di Venezia), nel corso di laurea di informatica è stata fatta una conferenza con Apostolos N. Papadopoulos (Aristotle University of Thessaloniki) che ha presentato Apache Spark. E' stato mostrato come creare programmi per sistemi distribuiti in cui si dividono il carico di lavoro su un db comune.

Il tutto è stato mostrato in scala ma la libreria è disponibile anche in python ma ha detto che è ancora "instabile" rispetto a quella java/scala. Vista la fiera dell'elettronica a Venezia il 19 e 20 dicembre, io e un altro mio compagno volevamo sperimentare delle cose sui sistemi distribuiti utilizzando raspberry (pensavamo quelli da 5 dollari) però in python.

Quindi, qualcuno ha avuto esperienze con questo Apache Spark? E' davvero instabile? Che alternative abbiamo in python? Vale la pena fare questo lavoro in Python o meglio un altro linguaggio?

Grazie F333

PS:Vorremmo evitare C, C# e C++ perchè li troviamo "scomodi" per un progetto a "tempo perso" in quanto richiederebbero per noi tanto tempo per imparare come dio comanda il linguaggio
_______________________________________________
Python mailing list
Python@lists.python.it
http://lists.python.it/mailman/listinfo/python

Rispondere a