L'articolo è rilevante da vari punti di vista, anche l'aspetto economico.
La nuova azienda di Mira Murati ha già raccolto parecchi miliardi di
finanziamenti.

AB

On Mon, Sep 15, 2025 at 12:40 PM Giacomo Tesio <[email protected]> wrote:

> Ciao Stefano
>
> On Sun, 14 Sep 2025 14:27:56 +0000 Stefano Borroni Barale wrote:
>
> > mi sembra che si stia facendo un po' troppo rumore per nulla. O quasi.
> >
> > Se anche riuscissero a produrre un LLM che a temperatura 0 ritorna ad
> > essere deterministico [...]
>
> Ci sono riusciti, appunto. L'articolo spiega come hanno fatto.
>
>
> Comunque, sebbene da un punto di vista teorico abbiano "scoperto l'acqua
> calda", l'articolo è rilevante da un punto di vista tecnico e giuridico.
>
>
> Da un punto di vista giuridico, sostenere che la vector mapping machine
> (aka "rete neurale artificiale") sia imprevedibile perché autonoma e
> che quindi chi la realizza ed esegue non va considerato responsabile
> del suo output, si rivela per la menzogna che era.
>
> L'output di un LLM o di qualsiasi altro software, basato su "reti
> neurali artificiali" o meno, è deterministico a meno di bug
> assolutamente correggibili.
> Dunque chi lo pubblica su un sito web (come https://chatgpt.com/
> https://gemini.google.com/ ) o lo fornisce a terze parti, ne deve
> rispondere come per qualsiasi altro software rilasciato con bug
> noti al produttore.
>
>
> Se è _possibile_ rendere perfettamente deterministico il LLM, allora
> _non_ renderlo deterministico è una scelta di opacità cui si deve
> tener conto nella valutazione della pericolosità del modello.
> In altri termini, se possiamo riprodurre il processo di compilazione
> del modello (impropriamente detto "training") a partire dai dati
> sorgente, possiamo verificare che effettivamente il fornitore ha fatto
> tutto il possibile per evitare, ad esempio, di diffamare qualcuno.
> O che non ha usato dati di cui non disponeva dei diritti.
> O che non ha introdotto dati fittizzi per danneggiare un gruppo etnico
> o una nazione avversaria.
>
> Per contro, se il produttore di un LLM ha _scelto_ di rendere opaco il
> proprio prodotto, si potrà ritenere quel prodotto ad alto rischio,
> perché non è possibile escludere backdoor non identificabili ex-post
> (vedi [1] e il più recente [2])
>
> Il che ovviamente è il maggiore contributo tecnico dell'articolo: se
> possiamo verificare che il binario prodotto dal training corrisponde
> esattamente al sorgente, possiamo verificare che il sorgente non
> contenga backdoor, garantendo un livello minimo di sicurezza del
> "modello".
>
>
> > Sarebbe forse interessante dal punto di vista della "explainable Ai"
>
> Beh di certo la disponibilità completa dei dati sorgente, la
> riproducibilità del processo di compilazione ("training") e output
> ("inferenze") deterministici, sono condizioni necessarie per spiegare
> il comportamento di quel tipo di software.
>
> A "temperatura 0" potremo spiegare come una determinata sequenza di
> token è stata prodotta a partire dal prompt, dai testi sorgente, dai
> seed pseudocasuali etc, e potremo ritenere responsabile il produttore
> per il significato _apparente_ dell'output, in quanto interamente
> determinato dalle sue scelte.
>
> Ma le informazioni veicolate da quel output continueranno a ridursi a
> tali scelte: l'atto comunicativo del produttore inizia con la
> produzione del "modello" e del software di contorno e finisce con
> l'output inviato all'utente in risposta al suo prompt.
>
>
> D'altrone è ovvio: i LLM sono solo software ottimizzato per ingannare
> chi non ne comprende il funzionamento, ma non hanno né intelligenza né
> capacità o intenzionalità comunicativa.
>
>
> > quello che per OSI è LLM open source io non riesco a distinguerlo
> > da quello che da giovani chiamavamo "freeware"
>
> Eddai, la Open Washing Initiative di Maffulli ha fatto un ottimo lavoro!
> La differenza sta tutta nella confezione! ;-)
>
>
> Grazie all'OSI ora il freeware è open source!
>
> Infatti, secondo la OSAID qualsiasi BINARIO che sia rilasciato con una
> licenza OSI compliant è open source se è opensource il compilatore
> utilizzato per produrlo e fornisci una descrizione del sorgente.
>
>
> Per gli utenti e gli sviluppatori non c'è alcuna differenza fra
> freeware e OSAID, ma per le BigTech quella definizione è una linea di
> difesa contro i pochi obblighi imposti alle aziende dall'AI Act.
>
>
>
> Giacomo
>
>
> [1]
>
> https://ieee-focs.org/FOCS-2022-Papers/pdfs/FOCS2022-4Bu7jGV9xIcveUWYj3oWoi/551900a931/551900a931.pdf
>
> [2]
>
> https://www.cs.ru.nl/masters-theses/2025/T_van_Harskamp___Implementing_undetectable_backdoor_attacks_in_AI_models.pdf
>

Reply via email to