Perdonami la noiosa pedanteria, Daniela ma anche parlare di risposte "corrette" 
non è... corretto.

Propongo:
```
ChatGPT produce testo 'finito' combinando stringhe di testo del cui significato 
non sa nulla,
in modo statisticamente coerente con l'uso di queste stringhe nei testi con cui 
è stato programmato. 

Il testo prodotto non ha perciò alcun valore informativo o intento comunicativo.

ChatGPT non è programmato per produrre risposte corrette, ma sequenze di parole 
che siano statisticamente simili alle risposte scelte dai programmatori. 
```

Qualcuno obietterà che i programnatori in questione (pomposamente definiti 
"data scientists" per promuovere un framework interpretativo 
deresponsabilizzante nei
confronti delle aziende che li pagano) non "scelgono" i dati utilizzati durante 
la
 programmazione statistica ma al massimo li "selezionano" (da cui l'espressione 
"selection bias").


Balle.

Non c'è nulla di neutrale o scientifico nella scelta dei dati su cui basare un 
processo di 
programmazione statistica.
Persino la scelta di sbattersene e prendere qualsiasi testo disponibile, è una 
scelta politica.
La scelta di imporre meccanicamente il mantenimento dello status quo.


Anzi, si tratta di una scelta molto più politica rispetto alla selezione di un 
linguaggio 
di programmazione per un processo di programmazione intellettuale.

I linguaggi di programmazione turing complete sono intercambiabili: è sempre 
possibile 
(ancorché costoso) riscrivere un software in un altro linguaggio.

Lo stesso non si può mai affermare con i software programmati statisticamente.

La scelta dei dati da utilizzare è la modalità di questa forma di 
programmazione.

I dati sono infatti il codice sorgente dei software programmati statisticamente 
(impropriamente detti "modelli AI").

Tale software viene programmato (e spesso eseguito) tramite macchine virtuali a 
loro
volta programmate in un linguaggio di programmazione (tipicamente R o Python)
e dunque espresse in un diverso codice sorgente (questa volta intellegibile).

Ma si tratta semplicemente di due codici sorgenti diversi che non vanno confusi:

- quello della macchina virtuale programmabile statisticamente (scritto in 
Python o R o altro)
  ed eseguito su una architettura nota (x86_64, ARM, RISC, GPU etc...)

- quello del software eseguibile da tale macchina virtuale, "scritto" tramite 
la scelta
  dei dataset di partenza e compilato attraverso il processo di programmazione 
statistica
  per l'architettura della macchina virtuale precedentemente programmata.


Sempre programmazione è.
Sempre opera dell'uomo che deve rispondere di ogni output prodotto.



Giacomo



Il 21 Gennaio 2023 10:38:44 CET, Daniela Tafani <daniela.taf...@unipi.it> ha 
scritto:
>Scusate, anche "risposte" non è corretto, rispetto a ChatGPT:
>
>
>ChatGPT produce testo 'finito' combinando stringhe di testo del cui 
>significato non sa nulla,
>
>in modo statisticamente coerente con l'uso di queste stringhe nei testi con 
>cui è stato programmato.
>
>Il testo prodotto non ha perciò alcun valore informativo o intento 
>comunicativo.
>
>ChatGPT non è programmato per produrre risposte corrette, ma sequenze di 
>parole che siano statisticamente simili alle risposte corrette.
>
>
>(le due righe sono citazioni a memoria da tweet di Emily Bender e Jon Ayre)
>
>
>________________________________
>Da: nexa <nexa-boun...@server-nexa.polito.it> per conto di Daniela Tafani 
><daniela.taf...@unipi.it>
>Inviato: sabato 21 gennaio 2023 10:31
>A: Giacomo Tesio; maurizio lana
>Cc: nexa@server-nexa.polito.it
>Oggetto: Re: [nexa] ChatGpt e la scuola
>
>
>Grazie a entrambi della definizione.
>
>La utilizzerò senz'altro, aggiungendo una riga o due che sono scontate solo 
>per chi sappia di cosa si tratta
>(le persone sono abituate a considerare affidabile, ad esempio, un'operazione 
>matematica svolta da una macchina,
>sebbene questa non ne conosca il significato,
>e un sistema probabilistico darà invece allegramente1 risultati corretti e 
>scorretti inestricabilmente combinati):
>
>
>ChatGPT produce testo 'finito' combinando stringhe di testo del cui 
>significato non sa nulla,
>
>in modo statisticamente coerente con l'uso di queste stringhe nei testi con 
>cui è stato programmato.
>
>Il testo prodotto non ha perciò alcun valore informativo o intento 
>comunicativo.
>
>ChatGPT non è programmato per produrre risposte corrette, ma risposte che 
>siano statisticamente simili alle risposte corrette.
>
>
>L'automazione del lavoro ha luogo comunque, semplicemente perché costa meno, e 
>dunque genera maggior profitto, non perché funzioni;
>perciò, come prevede da tempo Frank Pasquale, avremo medici chatbot (e abbiamo 
>già  psicoterapeuti chatbot, a pagamento),
>a meno che non intervenga il diritto  (e qui si spiega l'utilità di una 
>cattura culturale, con le narrazioni magiche, per tenere alla larga la 
>regolazione giuridica):
>
><https://t.co/ESv9Z1IgKm<https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202301210931090922879&URLID=4&ESV=10.0.19.7431&IV=A1152DDB8306B275C6DD08D30AE22B05&TT=1674293470299&ESN=%2BgFLhMCmfkW1mkhJdBI%2Ff7rvchN0mrKv%2FIdhu5fLteA%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly90LmNvL0VTdjlaMUlnS20&HK=79421C664981C79536A9E1A7CFEC1A53BB7DCD7DD40F0304F8976F03F297C9B6>>
>
>Buon fine settimana,
>Daniela
>
>
>1 "Una locomotiva condurrà il treno attraverso un ponte levatoio aperto
>tanto allegramente quanto verso qualsiasi altra destinazione." (William James)
>
>
>
>
>________________________________
>Da: nexa <nexa-boun...@server-nexa.polito.it> per conto di Giacomo Tesio 
><giac...@tesio.it>
>Inviato: sabato 21 gennaio 2023 01:44
>A: maurizio lana
>Cc: nexa@server-nexa.polito.it
>Oggetto: Re: [nexa] ChatGpt e la scuola
>
>On Sat, 21 Jan 2023 01:34:31 +0100 Giacomo Tesio wrote:
>
>> > chatGPT produce testo 'finito' combinando chunks testuali del cui
>> > significato non sa nulla, in modo statisticamente coerente con l'uso
>> > di questi chunks nei testi da cui ha appreso.
>>
>> Credo che non avrei saputo dirlo meglio.
>
>Mi correggo: posso.
>
>```
>chatGPT produce testo 'finito' combinando chunks testuali del cui
>significato non sa nulla, in modo statisticamente coerente con l'uso
>di questi chunks nei testi con cui è stato programmato.
>```
>
>I software NON apprendono.
>
>La programmazione statistica NON è apprendimento.
>L'apprendimento è una esperienza umana.
>
>Non va proiettata sulle macchine, pena l'alienazione cibernetica,
>la riduzione ad ingranaggi nelle mani di chi controlla quelle macchine.
>
>
>L'informazione è un esperienza soggettiva di pensiero comunicabile,
>per cui il linguaggio utilizzato determina lo spazio delle
>interpretazioni possibili della realtà per ciascuna mente umana.
>
>Per questo le parole sono importanti...
>
>
>Giacomo
>_______________________________________________
>nexa mailing list
>nexa@server-nexa.polito.it
>https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202301210044230157396&URLID=1&ESV=10.0.18.7423&IV=8741B14798D38415CCE21ECE656D2E93&TT=1674261863923&ESN=wLDRUwreHYOuALhE5PSJEMJPf1zu%2FlDIeKsZGlZEhMQ%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly9zZXJ2ZXItbmV4YS5wb2xpdG8uaXQvY2dpLWJpbi9tYWlsbWFuL2xpc3RpbmZvL25leGE&HK=4F1D6A98255ACA2BE0B62F283BD030D8DAFB2B9616977CACB2AC99A512AABCF9
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to