Perdonami la noiosa pedanteria, Daniela ma anche parlare di risposte "corrette" non è... corretto.
Propongo: ``` ChatGPT produce testo 'finito' combinando stringhe di testo del cui significato non sa nulla, in modo statisticamente coerente con l'uso di queste stringhe nei testi con cui è stato programmato. Il testo prodotto non ha perciò alcun valore informativo o intento comunicativo. ChatGPT non è programmato per produrre risposte corrette, ma sequenze di parole che siano statisticamente simili alle risposte scelte dai programmatori. ``` Qualcuno obietterà che i programnatori in questione (pomposamente definiti "data scientists" per promuovere un framework interpretativo deresponsabilizzante nei confronti delle aziende che li pagano) non "scelgono" i dati utilizzati durante la programmazione statistica ma al massimo li "selezionano" (da cui l'espressione "selection bias"). Balle. Non c'è nulla di neutrale o scientifico nella scelta dei dati su cui basare un processo di programmazione statistica. Persino la scelta di sbattersene e prendere qualsiasi testo disponibile, è una scelta politica. La scelta di imporre meccanicamente il mantenimento dello status quo. Anzi, si tratta di una scelta molto più politica rispetto alla selezione di un linguaggio di programmazione per un processo di programmazione intellettuale. I linguaggi di programmazione turing complete sono intercambiabili: è sempre possibile (ancorché costoso) riscrivere un software in un altro linguaggio. Lo stesso non si può mai affermare con i software programmati statisticamente. La scelta dei dati da utilizzare è la modalità di questa forma di programmazione. I dati sono infatti il codice sorgente dei software programmati statisticamente (impropriamente detti "modelli AI"). Tale software viene programmato (e spesso eseguito) tramite macchine virtuali a loro volta programmate in un linguaggio di programmazione (tipicamente R o Python) e dunque espresse in un diverso codice sorgente (questa volta intellegibile). Ma si tratta semplicemente di due codici sorgenti diversi che non vanno confusi: - quello della macchina virtuale programmabile statisticamente (scritto in Python o R o altro) ed eseguito su una architettura nota (x86_64, ARM, RISC, GPU etc...) - quello del software eseguibile da tale macchina virtuale, "scritto" tramite la scelta dei dataset di partenza e compilato attraverso il processo di programmazione statistica per l'architettura della macchina virtuale precedentemente programmata. Sempre programmazione è. Sempre opera dell'uomo che deve rispondere di ogni output prodotto. Giacomo Il 21 Gennaio 2023 10:38:44 CET, Daniela Tafani <daniela.taf...@unipi.it> ha scritto: >Scusate, anche "risposte" non è corretto, rispetto a ChatGPT: > > >ChatGPT produce testo 'finito' combinando stringhe di testo del cui >significato non sa nulla, > >in modo statisticamente coerente con l'uso di queste stringhe nei testi con >cui è stato programmato. > >Il testo prodotto non ha perciò alcun valore informativo o intento >comunicativo. > >ChatGPT non è programmato per produrre risposte corrette, ma sequenze di >parole che siano statisticamente simili alle risposte corrette. > > >(le due righe sono citazioni a memoria da tweet di Emily Bender e Jon Ayre) > > >________________________________ >Da: nexa <nexa-boun...@server-nexa.polito.it> per conto di Daniela Tafani ><daniela.taf...@unipi.it> >Inviato: sabato 21 gennaio 2023 10:31 >A: Giacomo Tesio; maurizio lana >Cc: nexa@server-nexa.polito.it >Oggetto: Re: [nexa] ChatGpt e la scuola > > >Grazie a entrambi della definizione. > >La utilizzerò senz'altro, aggiungendo una riga o due che sono scontate solo >per chi sappia di cosa si tratta >(le persone sono abituate a considerare affidabile, ad esempio, un'operazione >matematica svolta da una macchina, >sebbene questa non ne conosca il significato, >e un sistema probabilistico darà invece allegramente1 risultati corretti e >scorretti inestricabilmente combinati): > > >ChatGPT produce testo 'finito' combinando stringhe di testo del cui >significato non sa nulla, > >in modo statisticamente coerente con l'uso di queste stringhe nei testi con >cui è stato programmato. > >Il testo prodotto non ha perciò alcun valore informativo o intento >comunicativo. > >ChatGPT non è programmato per produrre risposte corrette, ma risposte che >siano statisticamente simili alle risposte corrette. > > >L'automazione del lavoro ha luogo comunque, semplicemente perché costa meno, e >dunque genera maggior profitto, non perché funzioni; >perciò, come prevede da tempo Frank Pasquale, avremo medici chatbot (e abbiamo >già psicoterapeuti chatbot, a pagamento), >a meno che non intervenga il diritto (e qui si spiega l'utilità di una >cattura culturale, con le narrazioni magiche, per tenere alla larga la >regolazione giuridica): > ><https://t.co/ESv9Z1IgKm<https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202301210931090922879&URLID=4&ESV=10.0.19.7431&IV=A1152DDB8306B275C6DD08D30AE22B05&TT=1674293470299&ESN=%2BgFLhMCmfkW1mkhJdBI%2Ff7rvchN0mrKv%2FIdhu5fLteA%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly90LmNvL0VTdjlaMUlnS20&HK=79421C664981C79536A9E1A7CFEC1A53BB7DCD7DD40F0304F8976F03F297C9B6>> > >Buon fine settimana, >Daniela > > >1 "Una locomotiva condurrà il treno attraverso un ponte levatoio aperto >tanto allegramente quanto verso qualsiasi altra destinazione." (William James) > > > > >________________________________ >Da: nexa <nexa-boun...@server-nexa.polito.it> per conto di Giacomo Tesio ><giac...@tesio.it> >Inviato: sabato 21 gennaio 2023 01:44 >A: maurizio lana >Cc: nexa@server-nexa.polito.it >Oggetto: Re: [nexa] ChatGpt e la scuola > >On Sat, 21 Jan 2023 01:34:31 +0100 Giacomo Tesio wrote: > >> > chatGPT produce testo 'finito' combinando chunks testuali del cui >> > significato non sa nulla, in modo statisticamente coerente con l'uso >> > di questi chunks nei testi da cui ha appreso. >> >> Credo che non avrei saputo dirlo meglio. > >Mi correggo: posso. > >``` >chatGPT produce testo 'finito' combinando chunks testuali del cui >significato non sa nulla, in modo statisticamente coerente con l'uso >di questi chunks nei testi con cui è stato programmato. >``` > >I software NON apprendono. > >La programmazione statistica NON è apprendimento. >L'apprendimento è una esperienza umana. > >Non va proiettata sulle macchine, pena l'alienazione cibernetica, >la riduzione ad ingranaggi nelle mani di chi controlla quelle macchine. > > >L'informazione è un esperienza soggettiva di pensiero comunicabile, >per cui il linguaggio utilizzato determina lo spazio delle >interpretazioni possibili della realtà per ciascuna mente umana. > >Per questo le parole sono importanti... > > >Giacomo >_______________________________________________ >nexa mailing list >nexa@server-nexa.polito.it >https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202301210044230157396&URLID=1&ESV=10.0.18.7423&IV=8741B14798D38415CCE21ECE656D2E93&TT=1674261863923&ESN=wLDRUwreHYOuALhE5PSJEMJPf1zu%2FlDIeKsZGlZEhMQ%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly9zZXJ2ZXItbmV4YS5wb2xpdG8uaXQvY2dpLWJpbi9tYWlsbWFuL2xpc3RpbmZvL25leGE&HK=4F1D6A98255ACA2BE0B62F283BD030D8DAFB2B9616977CACB2AC99A512AABCF9
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa