Ciao a tutti,

condivido un articolo di Data room:
https://www.corriere.it/dataroom-milena-gabanelli/non-usare-chatgpt-prima-di-leggere-questo-dove-ti-fa-sbagliare-l-ai-e-perche/6bdc95ec-a645-4cd2-bc04-28bdd5297xlk.shtml

Su questo possiamo concordare quasi tutti?
Un paio di frasi non sono corrette, ma il resto mi sembra ragionevole e
condivisibile.

Andrea


On Tue, Nov 18, 2025 at 7:51 PM Alfredo Bregni <[email protected]> wrote:

> Io sono molto più laico...:
> - Intanto sono "confezionatori (statistici) di testi (o altro)", non
> chissà cosa, non intelligenza; il misfatto principale è averli chiamati
> "IA" e averci scritto sopra di tutto, così da riempire lo spazio mediatico
> di "fuffa-e-desiderio" (che mi pare andazzo diffuso, peraltro, e comune
> mezzo di "pompaggio" di qualsivoglia gadget informatico, serio o demente
> che sia);
> - Poi, ognuno li usa (o li fa usare) come vuole e/o più gli conviene;
> tolto il marketing aggressivo-demenziale, con tutti i risvolti negativi che
> ha (soprattutto sulla psiche della audience, ...e io metterei il dito lì, e
> farei qualche legge sul millantato credito in informatica che scuoi sulla
> pubblica piazza i confezionatori di nomi), di male non so cosa resti, se
> non il "problema creduloni" (che peraltro ha fatto proseliti nelle
> religioni, in politica, ...e per la Terra piatta, cosicché il danno degli
> LLM mi sembra ridicolo al confronto);
> - Dopodiché, finiti la fuffa e il polverone, c'è chi si informa su come
> funziona questo o quello (e sono un po' meglio dei motori di ricerca,
> peraltro già "colonizzati"), con almeno l'indicazione che possono dire
> fregnacce.
>
> Voglio dire:
> - Metterei le cose in prospettiva, fra:
>   . Quello che è comune al "marketing" informatico;
>   . Quello che è comune alla normale predazione / manipolazione fatta
> anche con le zucchine.
> - Non vedrei del male nello strumento in sé, perché non è una pistola o
> una bomba, ma ...un "confezionatore di testi", perfetto per predisporre
> discorsi politici o pubblicitari, riassumere dati di fatto (veri o no è
> altro tema) in modo strutturato (mi hanno insegnato a fare così in
> consulenza, e mi diverte vedere che quasi ogni discorso struttuato sul web
> viene da un'IA: deve essere più facile per tenere le cose in ordine, a meno
> che non scrivano anche romanzi o favole per bambini, cosa in cui non mi
> sono finora imbattuto), ...e non saprei cos'altro.
>
> In sintesi, sono il risultato di un grande sforzo in una direzione
> fasulla, venduti per quel che non sono, utili a fare in fretta quando uno
> ha fretta, insomma un portato dei tempi, con i problemi che sono già lì ben
> prima che arrivino gli LLM a farcene parlare (probabilmente anche questo in
> direzioni fasulle).
> Ecco, sì: sono ottime armi di distrAzione di massa. Qui convengo.
>
>
>
> ----- Original Message -----
> *From:* Giacomo Tesio <[email protected]>
> *To:* [email protected]
> *Sent:* Tuesday, November 18, 2025 6:58 PM
> *Subject:* Re: [nexa] Roma e Sagunto (era Walter Quattrociocchi, post su
> facebook)
>
> Ciao Maurizio,
>
> On Tue, 18 Nov 2025 12:02:20 +0100 maurizio lana wrote:
>
> > si potrebbe concepire, pensare, scrivere qui, un [Manifesto per l'uso
> > consapevole dell'IA]?
>
> Anzitutto sotto il cappello della "IA" vengono fatte rientrare
> tecnologie diversissime, da Prolog a ChatGPT. Con la notevole
> differenza che il primo su può usare consapevolmente dopo 3-4
> settimane di studio, il secondo dopo 3-4 decenni di studio.
>
> Di quale delle centinaia di tecnologie che vengono finanziate inseguendo
> la fantasia (allucinazione?) di un'intelligenza artificiale, vorremmo
> proporre un uso consapevole?
>
>
>
>
> Suppongo (ma correggimi se sbaglio) che tu faccia riferimento agli LLM
> commerciali, i vari GitHub CopyALot, ChatGPT, Gemini etc...
>
> Si tratta di tecnologie che una persona consapevole del loro
> funzionamento può usare SOLO per ingannare uno o più esseri umani
> (incluso, eventualmente, sé stesso).
>
>
>
> Non saprei proprio come scriverlo in un manifesto, ma in un contesto
> universitario, potresti organizzare un corso sull'uso consapevole di
> questi strumenti, spiegando agli studenti come creare profili social
> fittizi, con foto fittizie, personalità fittizie e idee fittizie, e
> come farli interagire con persone ignare sulla piattaforma di interesse.
>
> Gli studenti, durante il corso dovrebbero provare a diffondere una
> credenza falsa (ma plausibile), usando anche tutti i dati raccolti
> dalle interazioni con gli altri utenti. Al termine del corso poi
> dovrebbero contattare gli utenti ignari, intervistarli e rivelargli
> l'inganno.
>
>
> Sono CERTO che sarebbe estremamente istruttivo. ;-)
>
> Gli studenti imparerebbero a cosa servono queste tecnologie, come
> vengono utilizzate per manipolarli e come utilizzarle nel modo più
> proficuo possibile, secondo gli scopi per cui sono progettati.
>
>
>
> Che ne pensi?
>
> Se serve una mano per gli aspetti tecnici, potrei persino vincere la
> repulsione che provo per le aziende che producono questi software e
> aiutarti a mettere su un minimo di infrastruttura per gli studenti.
>
>
> Giacomo
>
>

Reply via email to