Buonasera,

Sono d'accordo che non ha molto senso affrontare la questione in questi
termini, piuttosto deve essere accelerato un quadro etico-legale nel quale
la ricerca pubblica e privata debba procedere.

A tal proposito, da quello che mi risulta, l'EU AI Act prevede un  European
Artificial Intelligence Board, con compiti di sorveglianza del rispetto del
regolamento in EU. Il diavolo naturalmente è nei dettagli ma un board
autonomo e competente è previsto.
Infine, l'autovalutazione, è uno strumento diffuso in molti ambiti; anche
per l'AI, non penso che sia pensato come sistema di autocertificazione, ma
piuttosto come un riferimento per ricercatori e sviluppatori.

Vedremo comunque una volta che sarà pubblicato
A presto, Alessandro



On Fri, 31 Mar 2023 at 12:55, Giuseppe Attardi <atta...@di.unipi.it> wrote:

> Sono totalmente in disaccordo con la lettera aperta, perché affronta il
> problema dalla parte sbagliata.
> Non dobbiamo rallentare lo sviluppo di AI da parte dei privati, dobbiamo
> invece accelerare lo sviluppo dell’AI con finanziamenti pubblici ai
> ricercatori che oggi non dispongono delle risorse di calcolo necessarie per
> restare all’avanguardia, esplorando approcci e direzioni che non vengono
> seguite dalle aziende private.
>
> Sono anche un disaccordo con l’idea di rafforzare l”European AI Act, che
> era già palesemente inadeguato e contraddittorio: non si può affermare da
> una parte che l’AI sia inaffidabile e dall’altra pretendere che lo diventi
> tramite un fantomatico e discriminatorio (in termini di costi) processo di
> autocertificazione.
> Il fatto che la proposta non contemplasse il caso dei chatbot come
> tecnologia da regolamentare, dimostra non solo come la regolamentazione
> fosse inadeguata ma anche come qualunque regolamentazione lo sarebbe in un
> periodo di rapido sviluppo della tecnologia stessa.
>
> Se c’è qualcosa da regolare, non è la tecnologia o il suoi tempi di
> sviluppo, ma il modo indecoroso con cui le Big Tech stanno dominando il
> settore digitale, con gli effetti deleteri che Daniela riporta, e con
> l’espansione ad altri settori ed ulteriore concentrazione che provoca l’uso
> di tecnologie, di cui solo loro possono permettersi di disporre (perché
> glielo abbiamo lasciato fare).
>
> Una moratoria di sei mesi alle sviluppo “modelli più potenti di GPT-4”
> sarebbe solo una foglia di fico senza alcun effetto pratico: tutti gli
> altri, che non hanno modo di farlo, non ne trarranno alcun beneficio.
>
> — Beppe
>
> On 31 Mar 2023, at 10:37, nexa-requ...@server-nexa.polito.it wrote:
>
> Date: Fri, 31 Mar 2023 08:37:45 +0000
> From: Daniela Tafani <daniela.taf...@unipi.it>
> To: Andrea Bolioli <andrea.boli...@gmail.com>, "J.C. DE MARTIN"
> <juancarlos.demar...@polito.it>
> Cc: "nexa@server-nexa.polito.it" <nexa@server-nexa.polito.it>
> Subject: Re: [nexa] [Un'alternativa a] Pause Giant AI Experiments: An
> Open Letter
> Message-ID: <ad3a3992a802403cb989b01bd372b...@unipi.it>
> Content-Type: text/plain; charset="windows-1252"
>
> Buongiorno.
>
>
> Non mi pare difficile trovare un'iniziativa pubblica meno indecente della
> mossa insultante di quella lettera aperta:
>
> il modo in cui parlano di fantomatici rischi futuri, come se non si
> fossero accorti di quanto siano reali e dolorosi
> i  danni generati dal loro sfruttamento di persone, dati e risorse naturali
>
> e dal rilascio di strumenti deliberatamente ingannevoli,
> che inquinano pesantemente l'ecosistema dell'informazione
>
> e illudono e manipolano per loro conto gli utenti inesperti,
>
> mi ricorda - non a caso, visti i firmatari - il dialogo tra Huckleberry
> Finn e la zia Sally:
>
>
> Huckleberry Finn, quando gli chiesero se lo scoppio della caldaia di un
> battello a vapore avesse colpito qualcuno,
> rispose: «Nessuno: è rimasto ucciso un negro».
> Il commento della zia Sally: «Bene, è una fortuna, perché a volte capita
> che qualcuno si faccia male»,
> riassume l’intera moralità che spesso ha prevalso fra gli uomini.
>
>
> Tra le iniziative non proposte da ideologhi TESCREAL<
> https://nitter.snopyta.org/xriskology/status/1635313838508883968>
> (transhumanism, extropianism, singularitarianism, cosmism, Rationalism,
> Effective Altruism e longtermism),
>
>
> segnalo una lettera aperta odierna:
>
> <
> https://www.law.kuleuven.be/ai-summer-school/open-brief/open-letter-manipulative-ai
> >
>
>
>
> Un saluto,
> Daniela
>
>
> _______________________________________________
> nexa mailing list
> nexa@server-nexa.polito.it
> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
>
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to