Ciao Guido,

trovo veramente affascinante (quanto inquietante) questo passaggio
della tua email:

On Tue, 4 Apr 2023 06:52:24 +0200 Guido Vetere wrote:

> Tutto questo è corretto, tranne il riferimento alle "stronzate"
> (*bullshit*) di Frankfurt: queste infatti sono affermazioni capziose
> pronunciate con intento manipolatorio, insomma dietro una "stronzata"
> c'è sempre uno "stronzo", cioè un soggetto dotato di intenzionalità,
> cosa di cui ChatGPT dichiara onestamente di essere privo.

Come diversi informatici in lista ti possono confermare, lo "stronzo"
dietro un software è sempre chi lo programma e ne controlla
l'esecuzione.

Un software infatti applica all'ambiente SEMPRE e ANZITUTTO la volontà
di chi l'ha programmato (e nel caso di un SaaS, eseguito),
riproducendola ed imponendola a tutti coloro che sono parte, volenti o
nolenti, della organizzazione cibernetica in cui tale software opera.

Nel caso di ChatGPT, lo "stronzo" (nel senso di Frankfurt) è Open AI.
Nel caso di GitHub Copilot, lo "stronzo" è GitHub.
Entrambi si leggono "Microsoft".

Nel caso di Google Assistant, lo "stronzo" è Google/Alphabet.
Nel caso dei risultati di ricerca o delle news "personalizzate" fornite
dai servizi di Google, lo "stronzo" è Google/Alphabet.

Nel caso della timeline Instagram o Facebook, lo "stronzo" è Facebook.

Nel caso della timeline TikTok, lo "stronzo" è TikTok.

Nel caso dell'amica virtuale "Replika", lo "stronzo" è Luka, Inc.

Nel caso dell'osservatorio di Monitora PA, lo "stronzo" sono io.
(e con me i molti che contribuiscono al suo sviluppo...)


Il punto è: che si tratti di bug (come può essere un falso positivo
prodotto dall'osservatorio di Monitora PA) o di scelte progettuali
c'è sempre almeno un essere umano di cui il software riproduce
pedissequamente la volontà.


Questa volontà può essere impressa nel software in modo relativamente
trasparente tramite la programmazione linguistica (ad esempio in Python
o in C) oppure essere impressa nel software in modo opaco, attraverso
la selezione dei dati da utilizzare per la programmazione statistica
e la progettazione della topologia della vector reducing machine che
verrà programmata statisticamente.


Ora, tutti gli "stronzi" qui presenti che abbiano mai realizzato un
software in prima persona, potranno confermarti di esistere.


Alcuni saranno ben lieti di non dover rispondere delle proprie
creazioni, mentre altri si sentiranno oltraggiati dall'idea che
qualcuno possa ignorare la propria esistenza come autori di quelle
creazioni.


Ma tutti saranno consapevoli di aver LAVORATO per realizzare la
sequenza di bit che le macchine elaborano automaticamente per produrre
gli effetti che loro desiderano.


Il contributo dell'utente alla produzione dell'output di un software
è completamente determinato dal programmatore e può variare moltissimo
a seconda del software.
Nel caso di ChatGPT, è oggettivamente trascurabile.

Per questa ragione, la responsabilità dell'output NON PUO' essere
scaricata sull'utente con un banale disclaimer!



Quando leggo che "ChatGPT dichiara ONESTAMENTE di essere privo" di
intenzionalità mi chiedo sinceramente se ci sia una qualche forza
all'opera dietro questa allucinazione collettiva, dietro questa
cancellazione delle persone che realizzano la macchina dalla
tua coscienza, a cui gli sviluppatori siano talmente immuni
da non percepirla.

No: chi ha scritto quel disclaimer NON è onesto.
E non è stato Chat GPT a scrivere quel disclaimer.

Noti come Open AI sta manipolando la tua percezione della realtà?


Forse il semplice fatto di essere capaci a programmare
statisticamente un software (e magari averlo programmato),
rende naturalmente immuni a questa allucinazione.


Eppure si deve trattare di un'allucinazione molto forte se, come
osservo qui, persone intelligenti ed in buona fede continuano a
sostenerla NONOSTANTE altre persone, autorevoli, intelligenti ed
altrettanto in buona fede, ma con una maggiore consapevolezza tecnica
della questione, continuano a ripetere che il software è sempre
realizzato da esseri umani e ne riproduce valori e interessi.


Ti prego di riflettere sulla questione: io esisto, Open AI esiste,
Microsoft esiste, Google esiste etc... cosa ti costringe a cancellare
la nostra esistenza dalla tua coscienza quando guardi un artefatto che
realizza pedissequamente la nostra volontà?


Certo, una volta realizzato, un software diventa un agente cibernetico
automatico, che "si muove da sé". Ma non è mai autonomo.

Anche quando varia il proprio stato interno in funzione dell'input,
tale variazione è sempre meccanicamente determinata dalla sua
programmazione (per quanto complessa e opaca sia essa sia).

Anche quando tale stato interno viene utilizzato insieme ad ogni
nuovo input per calcolare nuovi output e nuove variazioni dello stato
interno, ogni output e ogni variazione dello stato interno è
meccanicamente determinato da chi ha programmato il software.


Dunque l'agente cibernetico automatico non è MAI autonomo.


On Mon, 3 Apr 2023 20:18:55 +0200 Guido Vetere wrote:

> La difficoltà qui risiede nel fatto di aver a che fare con oggetti
> privi di intenzionalità che tuttavia producono locuzioni a cui,
> antropologicamente, attribuiamo in effetti intenzionalità. Se gli
> sviluppatori o gli esercenti di questi oggetti dovessero rispondere
> di questa intenzionalità fittizia, farebbero bene a dedicarsi ad
> altro.

In assenza di tale autonomia, l'assenza di intenzionalità è
irrilevante: il software riproduce le intenzioni di chi l'ha
realizzato e ha deciso come deve essere usato.


On Mon, 3 Apr 2023 20:18:55 +0200 Guido Vetere wrote:

> Ma se passasse questa linea dovremmo spegnere tutti i generatori
> basati (solo) su LLM: anche se addestrati sui dati più puri del
> mondo, la probabilità che generino 'utterances' censurabili non
> sarebbe mai nulla.

Beh non è detto: è sufficiente che ciascuno usi i LLM che realizza.

In tal modo, l'intenzionalità (e la responsabilità legale) è tutta
perfettamente determinata.


Giacomo
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to