I dataset usati nell'apprendimento automatico influenzano fortemente i
comportamenti dei servizi basati sugli LLM, anche se non li definiscono in
modo deterministico.
Un filone di ricerca portato avanti da Andrew Ng e altri ricercatori è
focalizzato proprio sulla Data centric AI: banalmente, se il
Andrea Bolioli via nexa writes:
[...]
> Questo tipo di errore non me l'aspettavo, perché non è molto difficile
> controllare la correttezza (o perlomeno l'esistenza) dei riferimenti
> bibliografici. Evidentemente non era tra le priorità di OpenAI finora, non
> avranno ancora integrato banche
Marco hai scritto:
"Non hai nessun motivo per pensare o pretendere che il dato esatto, se è stato
fornito, torni fuori. "
Ti ho risposto:
"Beh, non hai nemmeno alcun modo di escluderlo. "
Mi hai chiesto cosa centra e ho provato mostrartelo (violazione del copyright)
Hai erroneamente inteso
On lun, 2023-02-20 at 16:29 +0100, Giacomo Tesio wrote:
> On Mon, 20 Feb 2023 16:15:37 +0100 Marco A. Calamari wrote:
>
> > On lun, 2023-02-20 at 15:09 +0100, Giacomo Tesio wrote:
> > > On Mon, 20 Feb 2023 12:59:06 +0100 Marco A. Calamari wrote:
> > >
> > > > Non hai nessun motivo per pensare
Strano leggere sui social commenti del tipo: 'beh, in fondo anche
Socrate sapeva di non sapere'.
Mettiamola così, per un informatico è abbastanza chiaro che GPT-3.5, è
un /sistema/ nei cui "suoi 175miliardi di parametri sono rappresentate
le connessioni, relazioni sintattiche e semantiche,
On Mon, 20 Feb 2023 16:15:37 +0100 Marco A. Calamari wrote:
> On lun, 2023-02-20 at 15:09 +0100, Giacomo Tesio wrote:
> > On Mon, 20 Feb 2023 12:59:06 +0100 Marco A. Calamari wrote:
> >
> > > Non hai nessun motivo per pensare o pretendere che il dato
> > > esatto, se è stato fornito, torni
Interessante osservare quanto sia persistente la percezione che i sistemi
basati sui Large Language Model "sappiano" qualcosa, e come ci si
stupisca e ci si interroghi sugli strani errori che commettono, ad onta
della razionale consapevolezza che essi non "sappiano" far altro che
generare su
On lun, 2023-02-20 at 15:09 +0100, Giacomo Tesio wrote:
> On Mon, 20 Feb 2023 12:59:06 +0100 Marco A. Calamari wrote:
>
> > Non hai nessun motivo per pensare o pretendere che il dato esatto, se
> > è stato fornito, torni fuori.
>
> Beh, non hai nemmeno alcun modo di escluderlo.
Mi sembra una
On Mon, 20 Feb 2023 12:59:06 +0100 Marco A. Calamari wrote:
> Non hai nessun motivo per pensare o pretendere che il dato esatto, se
> è stato fornito, torni fuori.
Beh, non hai nemmeno alcun modo di escluderlo.
Giacomo
___
nexa mailing list
Ciao Giuseppe, permettimi di chiarire
On Mon, 20 Feb 2023 10:04:18 +0100 Giuseppe Attardi wrote:
> In fondo mi pare sia sterile criticare uno strumento perché non sa
> fare cose per cui non è stato previsto.
Io non sto criticando ChatGPT, un esperimento sociale decisamente
interessante
; questione di livelli.
>
> > On 18 Feb 2023, at 12:00, > requ...@server-nexa.polito.it> wrote:
> >
> > From: Giacomo Tesio
> > To: Andrea Bolioli
> > Cc: Andrea Bolioli via nexa , "M.
> > Fioretti"
> > Subject: Re: [nexa] l'output
Buongiorno.
Il 20/02/2023 10:04, Giuseppe Attardi ha scritto:
In fondo mi pare sia sterile criticare uno strumento perché non sa
fare cose per cui non è stato previsto.
Il problema (il gesto criminale) è che viene presentato
(non da un ignaro passante, ma dal CEO dell'azienda che lo
gt;>
To: Andrea Bolioli mailto:andrea.boli...@h-farm.com>>
Cc: Andrea Bolioli via nexa
mailto:nexa@server-nexa.polito.it>>, "M.
Fioretti" mailto:mfiore...@nexaima.net>>
Subject: Re: [nexa] l'output e le fonti [era Triste Annuncio (a
proposito di Chat GPT)]
Message-ID:
<2405
-farm.com>>
> Cc: Andrea Bolioli via nexa <mailto:nexa@server-nexa.polito.it>>, "M.
> Fioretti" mailto:mfiore...@nexaima.net>>
> Subject: Re: [nexa] l'output e le fonti [era Triste Annuncio (a
> proposito di Chat GPT)]
> Message-ID: <2405e17
Certamente, mi sono espresso male, conosco gli LLM, faccio NLP
Pensavo allo strato successivo a cui stanno lavorando OpenAI e altri, lo
strato di correzione o filtro sull’output o sull’ input dell’utente.
D’accordo sul fatto che il testing e la segnalazione di errori sia lavorare
gratis, una
On dom, 2023-02-19 at 19:51 +0100, Andrea Bolioli via nexa wrote:
> Oggi ho avuto un'altra brutta sorpresa da ChatGPT e GPT-3 che vi segnalo: ha
> inventato riferimenti bibliografici a libri e articoli inesistenti, combinando
> autori, titolo, anno, rivista, editore a caso non corretti, a volte
>
Non sono i riferimenti bibliografici non sono integrati, ma non sono
nemmeno integrabili, per lo meno all'interno del modello generativo di
testo che è probabilistico, e non basato su alcuna banca dati.
Aggiungerei che 'correggere' gli errori del modello vuol dire lavorare
gratis per
Oggi ho avuto un'altra brutta sorpresa da ChatGPT e GPT-3 che vi segnalo:
ha inventato riferimenti bibliografici a libri e articoli inesistenti,
combinando autori, titolo, anno, rivista, editore a caso non corretti, a
volte inesistenti.
Non riporto i dialoghi, che ho salvato.
All'inizio mi hanno
rom: Guido Vetere
To: Giacomo Tesio
Cc: Andrea Bolioli, Andrea Bolioli via
nexa
Subject: Re: [nexa] l'output e le fonti [era Triste Annuncio (a
proposito di Chat GPT)]
Assioma della conoscenza (logica epistemica): Kp -> p
a parole: sai che 'p' (es. 'oggi c'è il sole') solo se '
Grazie Guido per la chiarezza del tuo messaggio che esprime in una estrema
sintesi l'ardire dei LLM, ma anche i limiti umani che abbiamo e che ho in
prima persona nel maneggiare informazioni e ragionamenti.
Certo, io posso fare pochi danni mentre un sistema LLM su Internet è tutta
un'altra potenza
Il 18 Febbraio 2023 14:33:50 UTC, Giacomo Tesio ha scritto:
"Questa è una frase di senso compiuto."
[...]
"Questa non è una frase di senso compiuto."
[...]
Convincerti che la prima è falsa e la seconda è vera richiederebbe un enorme
violenza, tale
da privarti della tua intelligenza, da
"Questa è una frase di senso compiuto."
Tu SAI che tale predicato è vero.
Lo sai perché la tua mente interpreta i simboli che lo costutuiscono traendone
informazione
(il significato) che la tua mente comprende e riconosce come vera.
Lo può fare senza nemmeno comprendere pienamente la ricorsione
Assioma della conoscenza (logica epistemica): Kp -> p
a parole: sai che 'p' (es. 'oggi c'è il sole') solo se 'p' è vero: se non
hai modo di stabilirlo, allora la tua è solo credenza
ChatGPT non sa nulla (ovviamente) ma su moltissime proposizioni noi non
siamo messi molto meglio
Il punto importante
Non 'in senso stretto": chatgpt non sa nulla.
Per affermare che un LLM sappia qualcosa è necessario svuotare competamente il
verbo
"sapere" del proprio significato e sostituirlo con quello di "indicizzare".
ChatGPT non sa.
Giacomo
Il 17 Febbraio 2023 18:20:44 UTC, Andrea Bolioli ha
Ciao Giacomo,
purtroppo sono d'accordo con molte delle cose che scrivi, non tutte, ma
molte.
Sicuramente è bene diffondere la consapevolezza che gli LLM non sanno tutto
(in senso stretto non sanno nulla), scrivono cose false senza distinguere
tra vero e falso, vengono creati/utilizzati da aziende
Salve Andrea,
On Fri, 17 Feb 2023 14:05:41 +0100 Andrea Bolioli via nexa wrote:
> D'altra parte, anche i motori di ricerca sono stati usati da molte
> persone senza sapere come funzionavano e a volte in modo improprio,
l'esito di questo processo è... Google.
Ad oggi l'agente cibernetico più
Ciao Maurizio,
si generano automaticamente i testi e si vanno cercare
documenti/riferimenti che in qualche modo c'entrano con quello che è stato
scritto (scritto dall'LLM e dall'utente). Una sorta di ricerca
bibliografica ;-)
La situazione attuale non è la migliore possibile, indubbiamente ci
On Fri, Feb 17, 2023 11:34:47 AM +0100, maurizio lana wrote:
> e tutte le persone che non hanno le competenze digitali, culturali,
> politiche, informatiche, ecc., per cogliere il senso della
> complessità (della velenosità?) della pappetta che il chatbot gli
> ammannisce, e se la berranno beate
Il prossimo passaggio dopo la generazione di testi di fantasia è cercare di
associare delle "fonti" ai testi generati (è in corso l'integrazione con i
motori di ricerca), in modo che possiamo andare a vedere dei documenti che
ci possono servire come referenze per le informazioni espresse nel
29 matches
Mail list logo