Ciao Guido, trovo veramente affascinante (quanto inquietante) questo passaggio della tua email:
On Tue, 4 Apr 2023 06:52:24 +0200 Guido Vetere wrote: > Tutto questo è corretto, tranne il riferimento alle "stronzate" > (*bullshit*) di Frankfurt: queste infatti sono affermazioni capziose > pronunciate con intento manipolatorio, insomma dietro una "stronzata" > c'è sempre uno "stronzo", cioè un soggetto dotato di intenzionalità, > cosa di cui ChatGPT dichiara onestamente di essere privo. Come diversi informatici in lista ti possono confermare, lo "stronzo" dietro un software è sempre chi lo programma e ne controlla l'esecuzione. Un software infatti applica all'ambiente SEMPRE e ANZITUTTO la volontà di chi l'ha programmato (e nel caso di un SaaS, eseguito), riproducendola ed imponendola a tutti coloro che sono parte, volenti o nolenti, della organizzazione cibernetica in cui tale software opera. Nel caso di ChatGPT, lo "stronzo" (nel senso di Frankfurt) è Open AI. Nel caso di GitHub Copilot, lo "stronzo" è GitHub. Entrambi si leggono "Microsoft". Nel caso di Google Assistant, lo "stronzo" è Google/Alphabet. Nel caso dei risultati di ricerca o delle news "personalizzate" fornite dai servizi di Google, lo "stronzo" è Google/Alphabet. Nel caso della timeline Instagram o Facebook, lo "stronzo" è Facebook. Nel caso della timeline TikTok, lo "stronzo" è TikTok. Nel caso dell'amica virtuale "Replika", lo "stronzo" è Luka, Inc. Nel caso dell'osservatorio di Monitora PA, lo "stronzo" sono io. (e con me i molti che contribuiscono al suo sviluppo...) Il punto è: che si tratti di bug (come può essere un falso positivo prodotto dall'osservatorio di Monitora PA) o di scelte progettuali c'è sempre almeno un essere umano di cui il software riproduce pedissequamente la volontà. Questa volontà può essere impressa nel software in modo relativamente trasparente tramite la programmazione linguistica (ad esempio in Python o in C) oppure essere impressa nel software in modo opaco, attraverso la selezione dei dati da utilizzare per la programmazione statistica e la progettazione della topologia della vector reducing machine che verrà programmata statisticamente. Ora, tutti gli "stronzi" qui presenti che abbiano mai realizzato un software in prima persona, potranno confermarti di esistere. Alcuni saranno ben lieti di non dover rispondere delle proprie creazioni, mentre altri si sentiranno oltraggiati dall'idea che qualcuno possa ignorare la propria esistenza come autori di quelle creazioni. Ma tutti saranno consapevoli di aver LAVORATO per realizzare la sequenza di bit che le macchine elaborano automaticamente per produrre gli effetti che loro desiderano. Il contributo dell'utente alla produzione dell'output di un software è completamente determinato dal programmatore e può variare moltissimo a seconda del software. Nel caso di ChatGPT, è oggettivamente trascurabile. Per questa ragione, la responsabilità dell'output NON PUO' essere scaricata sull'utente con un banale disclaimer! Quando leggo che "ChatGPT dichiara ONESTAMENTE di essere privo" di intenzionalità mi chiedo sinceramente se ci sia una qualche forza all'opera dietro questa allucinazione collettiva, dietro questa cancellazione delle persone che realizzano la macchina dalla tua coscienza, a cui gli sviluppatori siano talmente immuni da non percepirla. No: chi ha scritto quel disclaimer NON è onesto. E non è stato Chat GPT a scrivere quel disclaimer. Noti come Open AI sta manipolando la tua percezione della realtà? Forse il semplice fatto di essere capaci a programmare statisticamente un software (e magari averlo programmato), rende naturalmente immuni a questa allucinazione. Eppure si deve trattare di un'allucinazione molto forte se, come osservo qui, persone intelligenti ed in buona fede continuano a sostenerla NONOSTANTE altre persone, autorevoli, intelligenti ed altrettanto in buona fede, ma con una maggiore consapevolezza tecnica della questione, continuano a ripetere che il software è sempre realizzato da esseri umani e ne riproduce valori e interessi. Ti prego di riflettere sulla questione: io esisto, Open AI esiste, Microsoft esiste, Google esiste etc... cosa ti costringe a cancellare la nostra esistenza dalla tua coscienza quando guardi un artefatto che realizza pedissequamente la nostra volontà? Certo, una volta realizzato, un software diventa un agente cibernetico automatico, che "si muove da sé". Ma non è mai autonomo. Anche quando varia il proprio stato interno in funzione dell'input, tale variazione è sempre meccanicamente determinata dalla sua programmazione (per quanto complessa e opaca sia essa sia). Anche quando tale stato interno viene utilizzato insieme ad ogni nuovo input per calcolare nuovi output e nuove variazioni dello stato interno, ogni output e ogni variazione dello stato interno è meccanicamente determinato da chi ha programmato il software. Dunque l'agente cibernetico automatico non è MAI autonomo. On Mon, 3 Apr 2023 20:18:55 +0200 Guido Vetere wrote: > La difficoltà qui risiede nel fatto di aver a che fare con oggetti > privi di intenzionalità che tuttavia producono locuzioni a cui, > antropologicamente, attribuiamo in effetti intenzionalità. Se gli > sviluppatori o gli esercenti di questi oggetti dovessero rispondere > di questa intenzionalità fittizia, farebbero bene a dedicarsi ad > altro. In assenza di tale autonomia, l'assenza di intenzionalità è irrilevante: il software riproduce le intenzioni di chi l'ha realizzato e ha deciso come deve essere usato. On Mon, 3 Apr 2023 20:18:55 +0200 Guido Vetere wrote: > Ma se passasse questa linea dovremmo spegnere tutti i generatori > basati (solo) su LLM: anche se addestrati sui dati più puri del > mondo, la probabilità che generino 'utterances' censurabili non > sarebbe mai nulla. Beh non è detto: è sufficiente che ciascuno usi i LLM che realizza. In tal modo, l'intenzionalità (e la responsabilità legale) è tutta perfettamente determinata. Giacomo _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa