Credo che il rilievo del Garante sul caso GEDI sia un atto dovuto: non si
possono cedere dati sensibili di cui si è responsabili, che i giornali
pubblicano in base al diritto di cronaca, a soggetti terzi che ne vogliono
farne usi diversi senza il consenso degli interessati. Quindi la cessione
sarebbe illecita anche se OpenAI (o chi per essa) avesse modo di correggere
e smentire le notizie 'on the fly' come possono fare i giornali.

Il problema è che i LLM acquisiscono competenze linguistiche generali (ad
es. quelle che servono per fare summarization) e fattuali (chi è David
Mayer) allo stesso modo, e anche se sulla modularizzazione si sono fatti
progressi, tutto è più o meno fuso in un sol blocco.

Diverso è il caso in cui gli LLM sono usati per fare Retrieval Augmented
Generation (RAG). In questi casi, le competenze fattuali si trovano nei
documenti 'in chiaro' dove il RAG va a pescare, e alla componente LLM
spetta solo il compito di mettere in bella prosa alcuni passaggi
informativi che non si trovano nel modello ma appunto in qualche testo
leggibile e emendabile.

La notizia è che per questo esercizio bastano modelli relativamente
piccoli, anche 'aperti', e non è impensabile che questi possano essere
costruiti con dati 'puliti'.
Nota a margine: quello che GEDI dice di voler fare, da quello che capisco,
è esattamente un RAG, come quello che altre testate (es. Washington Post)
stanno sperimentando. Non c'è davvero bisogno che OpenAI faccia training
sul loro archivio.

G.


On Tue, 3 Dec 2024 at 12:04, Stefano Quintarelli via nexa <
[email protected]> wrote:

> Ciao Carlo
>
> On 02/12/24 23:55, Carlo Blengino wrote:
> > Grazie!
> > Interessante leggere come da lontano vedano il GDPR e il diritto
> > all'oblio (o quello che è).
> > La cosa più certa, al di là del caso Mayer, è che, mi pare, il GDPR se
> > interpretato restrittivamente non è compatibile con la tecnologia degli
> > LLM. Punto. Si possono fare un po' di accrocchi, ma di fondo c'è un
>  > totale contrasto, su più principi di base. E questo è un problema per
>  > l'Europa.
>
> non mi pare.
> se non ricordo male c'e' un termine di 3 mesi, il che vorrebbe dire 4
> re-training del modello all'anno.
>
> per l'azienda si tratta di trovare il punto di equilibrio costi/benefici
> rispetto alle dimensioni del proprio modello (e per il sistema, fare un
> po' di ricerca su metodi di ottimizzazione)
>
> https://neuralmagic.com/blog/24-sparse-llama-smaller-models-for-efficient-gpu-inference/
>
> d'altronde, anche il consorzio obbligatorio degli olii usati è una
> maggiorazione di costi per i meccanici...
> :-)
>
>
>
> > Il caso GEDI https://www.ilsole24ore.com/art/nel-mirino-garante-l-
> > accordo-gedi-openai-AGJLoOTB <https://www.ilsole24ore.com/art/nel-
> > mirino-garante-l-accordo-gedi-openai-AGJLoOTB> ne è ulteriore riprova
> > (quell'accordo e tutti gli accordi in atto sono una pessima deriva, sia
> > chiaro, ma per altre ragioni)
> > Aggiungo a scanso di equivoci, che questa considerazione non vuol dire a
> > mio parere che vi sia incompatibilità tra queste tecnologie ed il
> > sacrosanto diritto fondamentale alla protezione dei dati personali.
> > CB
> >
> >
> >
> > Il giorno lun 2 dic 2024 alle ore 22:32 Daniela Tafani
> > <[email protected] <mailto:[email protected]>> ha scritto:
> >
> >     Dec 01, 2024 - Georg Zoeller (AILTI)
> >     The Curious Case of David Mayer, the man ChatGPT cannot name.
> >
> >     ChatGPT users have noticed a curious behavior: It refuses to talk
> >     about a 'David Mayer'. We have the explanation and point out less
> >     obvious implications.
> >
> >     TL;DR: While not a juicy conspiracy, OpenAI cut some corners on
> >     regulatory compliance and the implications are less benign than they
> >     seem. In fact, they can be weaponized with unexpected consequences.
> >
> >     ChatGPT is well known for not knowing when to stop talking - the
> >     underlying transformer architecture lends itself to hallucinations
> >     in situations when the model is asked to generate text beyond the
> >     context it was trained on. Even more curious, sometimes it starts
> >     giving a response, only to change its mind mid sentence, and
> >     terminating the conversation.
> >
> >     So naturally, when the software stops and refuses to answer, users
> >     take notice. In this case, ChatGPT users found that mention of the
> >     name “David Mayer”, whenever included in a message, would
> >     consistently cause the model to terminate the conversation.
> >
> >     It’s a conspiracy!
> >     Creating even more mystery, chatGPT rejection messages quickly move
> >     from unhelpful to ominously threatening when the user starts
> >     investigating the phenomenon.
> >
> >     Continua qui:
> >     <https://centreforaileadership.org/resources/
> >     analysis_the_curious_case_of_one_david_mayer/ <https://
> >     centreforaileadership.org/resources/
> >     analysis_the_curious_case_of_one_david_mayer/>>
> >
> >
> >
> > --
> > *
> > *
> > *Avv. Carlo Blengino*
> > *
> > *
> > /Via Duchessa Jolanda n. 19,/
> > /10138 Torino (TO) - Italy/
> > /tel. +39 011 4474035/
> > Penalistiassociati.it
> > //
>
> --
> You can reach me on Signal: @quinta.01 (no Whatsapp, no Telegram)
>
>

Reply via email to