Ciao Giacomo,

la farò breve perché il discorso sulla "AI" è talmente iperinflazionato
e ripetitivo da risultarmi quasi noioso (perdonatemi!)

tra l'altro dico cose banali e credo ampiamente condivise e
condivisibili da molti, se non addirittura già espresse, credo anche da
te Giacomo

Giacomo Tesio <[email protected]> writes:

[...]

>> Gran parte delle critiche riguardano appunto i chatbot
>> (allucinazioni, superficialità, ecc.).
>
> Perché costituiscono la base della narrazione allucinata che domina
> il dibattito informatico attuale, determinando scelte politiche,
> economiche ed educative altrettanto allucinate.

suvvia: il dibattito informatico è allucinato (e allucinante) da almeno
40 anni, anche per il software "normale", non sto scherzando

per esempio, è allucinante che pochi che dibattono di informatica
abbiano realmente compreso "Reflections on Trusting Trust" [1]... o
/almeno/ abbiano compreso la natura del software sorgente e di quello
binario e della relazione "a senso unico" tra i due (che significa anche
comprendere la complessità di un "grafo di dipendenze" di qualsiasi
software)

[...]

> Nella realtà, i LLM sono prodotti a partire da testi che sono
> culturalmente e storicamente situati.

anche il software "normale" è prodotto a partire dagli stessi testi,
compresi ovviamente quelli scientifici, solo che in quel caso il "bias"
introdotto è anche maggiore :-D (maggiore bias sulla selezione dei
testi, minore filtro dei risultati ottenuti)

inontre, anche il software "normale" è prodotto in un /regime/
legislativo ed economico che de-facto che ne DETERMINANO il
funzionamento, tanto che una percentuale importante del software
(binario) circolante è /potential malware/ [2]

> Già solo per questo semplice fatto, nessun LLM reale può essere
> "neutro".

esattamente come nessun software "normale" o qualsiasi altro /sistema/
moderatamente complesso può essere neutro, nella realtà

[...]

> Poi c'è l'attività di programmazione statistica che parte dalla scelta,
> fra tutti i testi disponibili, di quelli da utilizzare e di quelli da
> scartare.

così come nella programmazione "normale": quali testi/tesi scelgo
(studio, adotto, adatto) e quali /scarto/ per progettare l'algoritmo?

> A valle di un'accurata attività di selezione e rinforzo, i "modelli"
> producono output "politicamente corretto",
> quale che siano gli obiettivi politici dei programmatori, dal
> legittimare il proprio software agli occhi dei moralisti statunitensi,
> difendere il proprio modello di business o cancellare piazza Tiananmen
> dalla storia [2]

così come qualsiasi dato /cucinato/; intendiamoci sono TUTTI cucinati ma
molti sono adulterati al punto che ci vorrebbero i NAS dei dati

lascio al lettore l'esercizio di elencarsi mentalmente due argomenti a
caso per i quali i risultati ottenuti con sofisticatissimo modelli
software sono in realtà /farlocchissimi/ a causa dei dati taroccati ad
arte, con /tecniche/ sofisticatissima in alcuni casi

> E spero tu non creda davvero che i modelli di Google, Meta o Open AI
> siano in alcun modo "neutrali".

E spero che tu non creda davvero che i modelli di BEEEP siano in alcun
modo "neutrali" :-O

> Dunque anche se l'idea di LLM non fosse intrinsecamente orientata
> politicamente (e lo è), lo sono tutti gli LLM reali.

Così come tutto il resto del software sulla faccia della terra
programmato a partire dal 1960 ad oggi

[...]

Quindi, ricapitolando: quale sarebbe il problema INFORMATICO con gli LM
e/o gli LLM?!?

Io la butto lì: per avere fiducia del sofware che uso so che deve essere
libero, riproducibile e bootstrappable

....non è possibile con i LM o gli LLM?!?  Beh allora io sono SICURO che
i risultati di tali software DEVONO essere attentamente analizzati da
una persona con adeguate competenze prima di essere usati per qualsiasi
decisione.

Sarò banale, ma io non capisco proprio perché continua ad esserci tutta
'sta SOPRAVVALUTAZIONE, sia in positivo che in negativo, delle funzioni
dei LM, LLM, "sistemi generativi", SALAMI o qualsiasi altra etichetta si
voglia dare alla "narrow AI"

Ciao e grazie, Giovanni.


[1] 
https://www.cs.cmu.edu/~rdriley/487/papers/Thompson_1984_ReflectionsonTrustingTrust.pdf

[2] https://www.gnu.org/proprietary/potential-malware.html

-- 
380° (Giovanni Biscuolo public alter ego)

«Noi, incompetenti come siamo,
 non abbiamo alcun titolo per suggerire alcunché»

Disinformation flourishes because many people care deeply about injustice
but very few check the facts.  Ask me about <https://stallmansupport.org>.

Attachment: signature.asc
Description: PGP signature

Reply via email to