L'articolo è rilevante da vari punti di vista, anche l'aspetto economico. La nuova azienda di Mira Murati ha già raccolto parecchi miliardi di finanziamenti.
AB On Mon, Sep 15, 2025 at 12:40 PM Giacomo Tesio <[email protected]> wrote: > Ciao Stefano > > On Sun, 14 Sep 2025 14:27:56 +0000 Stefano Borroni Barale wrote: > > > mi sembra che si stia facendo un po' troppo rumore per nulla. O quasi. > > > > Se anche riuscissero a produrre un LLM che a temperatura 0 ritorna ad > > essere deterministico [...] > > Ci sono riusciti, appunto. L'articolo spiega come hanno fatto. > > > Comunque, sebbene da un punto di vista teorico abbiano "scoperto l'acqua > calda", l'articolo è rilevante da un punto di vista tecnico e giuridico. > > > Da un punto di vista giuridico, sostenere che la vector mapping machine > (aka "rete neurale artificiale") sia imprevedibile perché autonoma e > che quindi chi la realizza ed esegue non va considerato responsabile > del suo output, si rivela per la menzogna che era. > > L'output di un LLM o di qualsiasi altro software, basato su "reti > neurali artificiali" o meno, è deterministico a meno di bug > assolutamente correggibili. > Dunque chi lo pubblica su un sito web (come https://chatgpt.com/ > https://gemini.google.com/ ) o lo fornisce a terze parti, ne deve > rispondere come per qualsiasi altro software rilasciato con bug > noti al produttore. > > > Se è _possibile_ rendere perfettamente deterministico il LLM, allora > _non_ renderlo deterministico è una scelta di opacità cui si deve > tener conto nella valutazione della pericolosità del modello. > In altri termini, se possiamo riprodurre il processo di compilazione > del modello (impropriamente detto "training") a partire dai dati > sorgente, possiamo verificare che effettivamente il fornitore ha fatto > tutto il possibile per evitare, ad esempio, di diffamare qualcuno. > O che non ha usato dati di cui non disponeva dei diritti. > O che non ha introdotto dati fittizzi per danneggiare un gruppo etnico > o una nazione avversaria. > > Per contro, se il produttore di un LLM ha _scelto_ di rendere opaco il > proprio prodotto, si potrà ritenere quel prodotto ad alto rischio, > perché non è possibile escludere backdoor non identificabili ex-post > (vedi [1] e il più recente [2]) > > Il che ovviamente è il maggiore contributo tecnico dell'articolo: se > possiamo verificare che il binario prodotto dal training corrisponde > esattamente al sorgente, possiamo verificare che il sorgente non > contenga backdoor, garantendo un livello minimo di sicurezza del > "modello". > > > > Sarebbe forse interessante dal punto di vista della "explainable Ai" > > Beh di certo la disponibilità completa dei dati sorgente, la > riproducibilità del processo di compilazione ("training") e output > ("inferenze") deterministici, sono condizioni necessarie per spiegare > il comportamento di quel tipo di software. > > A "temperatura 0" potremo spiegare come una determinata sequenza di > token è stata prodotta a partire dal prompt, dai testi sorgente, dai > seed pseudocasuali etc, e potremo ritenere responsabile il produttore > per il significato _apparente_ dell'output, in quanto interamente > determinato dalle sue scelte. > > Ma le informazioni veicolate da quel output continueranno a ridursi a > tali scelte: l'atto comunicativo del produttore inizia con la > produzione del "modello" e del software di contorno e finisce con > l'output inviato all'utente in risposta al suo prompt. > > > D'altrone è ovvio: i LLM sono solo software ottimizzato per ingannare > chi non ne comprende il funzionamento, ma non hanno né intelligenza né > capacità o intenzionalità comunicativa. > > > > quello che per OSI è LLM open source io non riesco a distinguerlo > > da quello che da giovani chiamavamo "freeware" > > Eddai, la Open Washing Initiative di Maffulli ha fatto un ottimo lavoro! > La differenza sta tutta nella confezione! ;-) > > > Grazie all'OSI ora il freeware è open source! > > Infatti, secondo la OSAID qualsiasi BINARIO che sia rilasciato con una > licenza OSI compliant è open source se è opensource il compilatore > utilizzato per produrlo e fornisci una descrizione del sorgente. > > > Per gli utenti e gli sviluppatori non c'è alcuna differenza fra > freeware e OSAID, ma per le BigTech quella definizione è una linea di > difesa contro i pochi obblighi imposti alle aziende dall'AI Act. > > > > Giacomo > > > [1] > > https://ieee-focs.org/FOCS-2022-Papers/pdfs/FOCS2022-4Bu7jGV9xIcveUWYj3oWoi/551900a931/551900a931.pdf > > [2] > > https://www.cs.ru.nl/masters-theses/2025/T_van_Harskamp___Implementing_undetectable_backdoor_attacks_in_AI_models.pdf >
