Grazie don Luca per la segnalazione,

mi pare che non sia la prima segnalazione di questo articolo in lista,
ma vale la pena fare un passo di lato rispetto alle recenti discussioni
in merito a ChatGPT e a come funziona l'AI per analizzare come (alcuni)
dei _narratori_ raccontano la loro favola a quelli che se la bevo come
se fosse davvero un discorso serio e non un modo (redditizzio e molto
trendy) di tirare a campare finché il giochino funziona e porta finanze

"Follow the white rabbit..."

don Luca Peyron <[email protected]> writes:

> https://openai.com/blog/how-should-ai-systems-behave/

«How should AI systems behave, and who should decide?»
February 16, 2023

--8<---------------cut here---------------start------------->8---

OpenAI’s mission is to ensure that artificial general intelligence
(AGI) benefits all of humanity. We therefore think a lot about the
behavior of AI systems we build in the run-up to AGI, and the way in
which that behavior is determined.

[...] By AGI, we mean highly autonomous systems that outperform humans
at most economically valuable work.

--8<---------------cut here---------------end--------------->8---

Ah ma quindi è di AGI che siamo parlando?  Non di generazione
linguistica, riconoscimento vocale, OCR, riconoscimento scrittura fatta
mano...?

Daniela Tafani in altro thread [1] dice:

>> Aggiungo solo la citazione della loro definizione di "AGI" (già
>> commentata ampiamente e in anticipo da Weizenbaum):
>>
>> "By AGI, we mean highly autonomous systems that outperform humans at
>> most economically valuable work. "

Non mi viene in mente il pensiero/commento di Weizenbaum su questa
specifica definizione di AGI: un aiuto?

So solo che la definizione è talmente /mobile/ che anche le catene di
montaggio meccanizzate risultano essere AGI (se non fosse che anche per
le catene di montaggio 4.0 l'autonomia è una balla bella e buona)

Basterebbe questa definizione per bollare definitivamente di
cialtroneria l'intero progetto... e invece lo prendono (e si prendono)
dannatamente /troppo/ sul serio.

Per non parlare delle botte da orbi che si darebbero gli economisti per
tentare di far vincere la propria definizione di "economically valuable
work".

--8<---------------cut here---------------start------------->8---

Unlike ordinary software, our models are massive neural networks. Their
behaviors are learned from a broad range of data, not programmed
explicitly.

--8<---------------cut here---------------end--------------->8---

Le reti neurali diventeranno AGI?!?  Con quale "ingrediente magico"?

--8<---------------cut here---------------start------------->8---

Though not a perfect analogy, the process is more similar to
training a dog than to ordinary programming.

--8<---------------cut here---------------end--------------->8---

"Not perfect"... ROTFL Chiunque abbia mai partecipato anche solo a una
lezione di educazione di un cane (ma prendete qualsiasi altro animale
domestico) sa benissimo che l'unico a essere _addestrato_ è il
padrone, di solito sia dall'addestratore che dal cane :-D

Secondo me traspare che chi scrive certe cose lo fa facendosi
affascinare da una inconscia repulsione nei confronti degli esseri
viventi e attrazione verso l'inanimato: Eros contro Thanatos?!?

--8<---------------cut here---------------start------------->8---

This is followed by a second phase in which we “fine-tune” our models to
narrow down system behavior.

As of today, this process is imperfect. Sometimes the fine-tuning
process falls short of our intent (producing a safe and useful tool) and
the user’s intent (getting a helpful output in response to a given
input).  Improving our methods for aligning AI systems with human values
is a top priority for our company, particularly as AI systems become
more capable.

--8<---------------cut here---------------end--------------->8---

Ma lasciate che le vostre reti neurali si esprimano _liberamente_,
lasciate dir loro tutto quello che gli salta in /mente/, lasciatele
sperimentare, lasciate che imparino dai propri err... B-)

--8<---------------cut here---------------start------------->8---

* Then, we “fine-tune” these models on a more narrow dataset that we
 carefully generate with human reviewers who follow guidelines that we
 provide them. Since we cannot predict all the possible inputs that
 future users may put into our system, we do not write detailed
 instructions for every input that ChatGPT will encounter. Instead, we
 outline a few categories in the guidelines that our reviewers use to
 review and rate possible model outputs for a range of example
 inputs. Then, while they are in use, the models generalize from this
 reviewer feedback in order to respond to a wide array of specific
 inputs provided by a given user.

--8<---------------cut here---------------end--------------->8---

Quindi ci sono /persone/ che seguendo le linee guida fornite danno un
punteggio all'output del modello in funzione dell'input e questo
punteggio è dato come "feedback" al modello per "ritarare" la rete
neurale?

Ma le /persone/ non possono semplicemente spiegare alla rete neurale
_perché_ la risposta è inopportuna o errata? :-D

No, pare proprio che non funzioni così.

Da dove potrà mai saltare fuori una AGI da tutto 'sto processo?

--8<---------------cut here---------------start------------->8---

In some cases, we may give guidance to our reviewers on a certain kind
of output (for example, “do not complete requests for illegal content”).

--8<---------------cut here---------------end--------------->8---

Sì ma in quale giurisdizione?  In quale periodo storico?

Già che ci siamo, la rete neurale non può andarsi a leggere da sola il
codice penale e civile di tutte la nazioni del mondo e verificare /da
sola/ cos'è legale e illegale? :-O

--8<---------------cut here---------------start------------->8---

In other cases, the guidance we share with reviewers is more high-level
(for example, “avoid taking a position on controversial topics”).

--8<---------------cut here---------------end--------------->8---

Sì ma in quale cultura... ma **soprattutto** in quale epoca?!?

Sì insomma ci siamo capiti: che razza di modo è questo per stabilire
"linee guida"?

Sarà mica scienza questa roba qua, vero?

--8<---------------cut here---------------start------------->8---

A large part of the fine-tuning process is maintaining a strong feedback
loop with our reviewers, which involves weekly meetings to address
questions they may have, or provide clarifications on our guidance.
This iterative feedback process is how we train the model to be better
and better over time.

--8<---------------cut here---------------end--------------->8---

Spannometria applicata, enormi strutture (il)logiche tenute assieme col
fil di ferro e accomodate con qualche spessore all'abbisogna.

Leggere
https://cdn.openai.com/snapshot-of-chatgpt-model-behavior-guidelines.pdf
("a portion of our guidelines", tre paginette striminzite aggiornate a
Luglio 2022) è divertentissimo: la fiera dei concetti traballanti
espressi malissimo.

Ci vorrebbe un mediatore culturale...

A proposito di legalità: ChatGPT tratta legalmente i dati personali
degli utenti che si /confidano/ con quel sistema?

Saluti, 380°



[1] https://server-nexa.polito.it/pipermail/nexa/2023-February/024964.html


-- 
380° (Giovanni Biscuolo public alter ego)

«Noi, incompetenti come siamo,
 non abbiamo alcun titolo per suggerire alcunché»

Disinformation flourishes because many people care deeply about injustice
but very few check the facts.  Ask me about <https://stallmansupport.org>.

Attachment: signature.asc
Description: PGP signature

_______________________________________________
nexa mailing list
[email protected]
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to