Sono totalmente in disaccordo con la lettera aperta, perché affronta il 
problema dalla parte sbagliata.
Non dobbiamo rallentare lo sviluppo di AI da parte dei privati, dobbiamo invece 
accelerare lo sviluppo dell’AI con finanziamenti pubblici ai ricercatori che 
oggi non dispongono delle risorse di calcolo necessarie per restare 
all’avanguardia, esplorando approcci e direzioni che non vengono seguite dalle 
aziende private.

Sono anche un disaccordo con l’idea di rafforzare l”European AI Act, che era 
già palesemente inadeguato e contraddittorio: non si può affermare da una parte 
che l’AI sia inaffidabile e dall’altra pretendere che lo diventi tramite un 
fantomatico e discriminatorio (in termini di costi) processo di 
autocertificazione.
Il fatto che la proposta non contemplasse il caso dei chatbot come tecnologia 
da regolamentare, dimostra non solo come la regolamentazione fosse inadeguata 
ma anche come qualunque regolamentazione lo sarebbe in un periodo di rapido 
sviluppo della tecnologia stessa.

Se c’è qualcosa da regolare, non è la tecnologia o il suoi tempi di sviluppo, 
ma il modo indecoroso con cui le Big Tech stanno dominando il settore digitale, 
con gli effetti deleteri che Daniela riporta, e con l’espansione ad altri 
settori ed ulteriore concentrazione che provoca l’uso di tecnologie, di cui 
solo loro possono permettersi di disporre (perché glielo abbiamo lasciato fare).

Una moratoria di sei mesi alle sviluppo “modelli più potenti di GPT-4” sarebbe 
solo una foglia di fico senza alcun effetto pratico: tutti gli altri, che non 
hanno modo di farlo, non ne trarranno alcun beneficio.

— Beppe

> On 31 Mar 2023, at 10:37, nexa-requ...@server-nexa.polito.it wrote:
> 
> Date: Fri, 31 Mar 2023 08:37:45 +0000
> From: Daniela Tafani <daniela.taf...@unipi.it 
> <mailto:daniela.taf...@unipi.it>>
> To: Andrea Bolioli <andrea.boli...@gmail.com 
> <mailto:andrea.boli...@gmail.com>>, "J.C. DE MARTIN"
>       <juancarlos.demar...@polito.it <mailto:juancarlos.demar...@polito.it>>
> Cc: "nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it>" 
> <nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it>>
> Subject: Re: [nexa] [Un'alternativa a] Pause Giant AI Experiments: An
>       Open Letter
> Message-ID: <ad3a3992a802403cb989b01bd372b...@unipi.it 
> <mailto:ad3a3992a802403cb989b01bd372b...@unipi.it>>
> Content-Type: text/plain; charset="windows-1252"
> 
> Buongiorno.
> 
> 
> Non mi pare difficile trovare un'iniziativa pubblica meno indecente della 
> mossa insultante di quella lettera aperta:
> 
> il modo in cui parlano di fantomatici rischi futuri, come se non si fossero 
> accorti di quanto siano reali e dolorosi
> i  danni generati dal loro sfruttamento di persone, dati e risorse naturali
> 
> e dal rilascio di strumenti deliberatamente ingannevoli,
> che inquinano pesantemente l'ecosistema dell'informazione
> 
> e illudono e manipolano per loro conto gli utenti inesperti,
> 
> mi ricorda - non a caso, visti i firmatari - il dialogo tra Huckleberry Finn 
> e la zia Sally:
> 
> 
> Huckleberry Finn, quando gli chiesero se lo scoppio della caldaia di un 
> battello a vapore avesse colpito qualcuno,
> rispose: «Nessuno: è rimasto ucciso un negro».
> Il commento della zia Sally: «Bene, è una fortuna, perché a volte capita che 
> qualcuno si faccia male»,
> riassume l’intera moralità che spesso ha prevalso fra gli uomini.
> 
> 
> Tra le iniziative non proposte da ideologhi 
> TESCREAL<https://nitter.snopyta.org/xriskology/status/1635313838508883968> 
> (transhumanism, extropianism, singularitarianism, cosmism, Rationalism, 
> Effective Altruism e longtermism),
> 
> segnalo una lettera aperta odierna:
> 
> <https://www.law.kuleuven.be/ai-summer-school/open-brief/open-letter-manipulative-ai>
> 
> 
> Un saluto,
> Daniela
> 

_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to