Re: [nexa] [Un'alternativa a] Pause Giant AI Experiments: An Open Letter

2023-04-16 Thread Daniela Tafani
Grazie, molto utile, l'approfondimento su Wysa.


Purtroppo, sui genuini progressi ottenuti con i sistemi di apprendimento 
automatico,

si fondano centinaia di truffe, che mescolano quei progressi con pseudoscienze 
vecchie e nuove (dalla fisiognomica alla psicografia),

con una concezione animistica e con l'indistinzione tra persone e cose
(che sconvolse già Weizenbaum e che viola il diritto, nei paesi in cui qualche 
diritto umano sia costituzionalmente riconosciuto);

per cui si affidano ai medesimi sistemi la manutenzione predittiva di un 
macchinario industriale,

la predizione di un crimine, l'emissione di una sentenza e la cura di un 
disagio mentale .


Il guaio è che i truffatori non sono singoli, isolati malfattori, ma quelle 
stesse grandi aziende che detengono i mezzi per i genuini progressi

e che hanno finora ottenuto di spacciare prodotti insicuri o difettosi per 
agenti autonomi.

E le istituzioni comunitarie che dovrebbero finanziare una ricerca pubblica e, 
parallelamente, vietare le truffe,
assecondano invece la narrazione che sostiene le truffe
(e anzi, declassate a agenzie pubblicitarie, si ripromettono solennemente di 
promuovere la fiducia dei cittadini nei SALAMI)
e non finanziano a sufficienza la ricerca pubblica.


Questo influenza anche i toni e gli accenti di chi si occupa del corrente 
upgrade del liberalismo punitivo con i SALAMI.


Degli LLM, ad esempio, se non ci fossero truffe e politiche infami, quali il 
curare i più vulnerabili con un chatbot,
non ci sarebbe bisogno di scrivere che sono pappagalli stocastici,

per contrastare chi li presenta e li vende come esseri intelligenti, senzienti, 
empatici, e a breve anche morali , leali e allineati:
potremmo stupirci dello straordinario progresso e discutere delle tesi di Roal 
Dahl o di Italo Calvino sulla letteratura come processo combinatorio.


Buona domenica,
Daniela




Da: 380° 
Inviato: sabato 15 aprile 2023 17:06
A: Daniela Tafani
Cc: nexa@server-nexa.polito.it
Oggetto: Re: [nexa] [Un'alternativa a] Pause Giant AI Experiments: An Open 
Letter

Buongiorno,

chiedo scusa ma mi è scappato un messaggio sostanzialmente vuoto... e
chiedo scusa perché mi scappa un messaggio sostanzialmente lungo

Daniela Tafani  writes:

[...]

> Quanto ai minori, ci sono paesi in cui li si affida consapevolmente a
> un chatbot, proprio nei casi in cui abbiano bisogno di assistenza
> mentale:
> https://www.digitalhealth.net/2022/09/wysa-ai-chatbot-teens-west-london/

oh caspita, ignoravo Wysa... e stavo meglio quando ero ignorante :-D
...comunque: parliamone.

https://www.wysa.com/ è un chatbot programmato per applicare la tecnica
psicoterapeutica "Cognitive Behavioral Therapy" (CBT) [1] (a altre non
dichiarate?) in modo automatizzato; Wisa nelle sue FAQ [2] la presenta
come "the science behind the suggested techniques"

Per carità di patria stendo un velo _pietosissimo_ sulle dichiarazioni
di scientificità di alcune (molte?) ricerche in campo psicologico [3]:
per discutere dei problemi dell'agente automatico /facciamo finta/ che
il resto del lavoro sia basato su una teoria scientifica solida.

Wysa sostiene nelle FAQ [2] di essere «an artificial intelligence-based
'emotionally intelligent' service»: "emotionally intelligent" non lascia
dubbi a interpretazioni, significa essere in grado di /comprendere/ e
/percepire/ le emozioni.

Secondo questa visione, Wysa può quindi sostituire il terapeuta umano
proprio perché, come l'umano, è in grado di comprendere e percepire le
emozioni del paziente.

In effetti pare che Wysa sia una specie di Borg specializzato in CBT,
umano e robot insieme [2]:

--8<---cut here---start->8---

Wysa has an artificial intelligence (AI) coach, it’s a pocket penguin
that learns and grows wiser with you. Wysa's human Emotional Well-being
professionals are mental health professionals trained to listen, support
and encourage you.

Together with the Wysa AI coach, Emotional Well-being Professional will
support you in achieving your defined goals.

--8<---cut here---end--->8---

La supercazzola antanica dello "human in ze loop" raggiunge livelli
sublimi.

Ovviamente, siccome sanno che stanno giocando col fuoco, mettono le mani
avanti:

--8<---cut here---start->8---

However, AI Coach is restricted in the means of response and the
intended usage is for providing evidence-based tools and techniques to
manage emotions and encourage mental well-being in a self-help
context. It is not intended for providing diagnosis, treatment, or cure
of a condition or disease or disorders. AI Coach cannot and will not
offer advice on unrecognizable issues.

[...] Wysa is not designed to assist with crises such as abuse, severe
mental health conditions that may cause feelings of suicide, harm to
self and any other medical emergencie

Re: [nexa] [Un'alternativa a] Pause Giant AI Experiments: An Open Letter

2023-04-15 Thread 380°
Buongiorno,

chiedo scusa ma mi è scappato un messaggio sostanzialmente vuoto... e
chiedo scusa perché mi scappa un messaggio sostanzialmente lungo

Daniela Tafani  writes:

[...]

> Quanto ai minori, ci sono paesi in cui li si affida consapevolmente a
> un chatbot, proprio nei casi in cui abbiano bisogno di assistenza
> mentale:
> https://www.digitalhealth.net/2022/09/wysa-ai-chatbot-teens-west-london/

oh caspita, ignoravo Wysa... e stavo meglio quando ero ignorante :-D
...comunque: parliamone.

https://www.wysa.com/ è un chatbot programmato per applicare la tecnica
psicoterapeutica "Cognitive Behavioral Therapy" (CBT) [1] (a altre non
dichiarate?) in modo automatizzato; Wisa nelle sue FAQ [2] la presenta
come "the science behind the suggested techniques"

Per carità di patria stendo un velo _pietosissimo_ sulle dichiarazioni
di scientificità di alcune (molte?) ricerche in campo psicologico [3]:
per discutere dei problemi dell'agente automatico /facciamo finta/ che
il resto del lavoro sia basato su una teoria scientifica solida.

Wysa sostiene nelle FAQ [2] di essere «an artificial intelligence-based
'emotionally intelligent' service»: "emotionally intelligent" non lascia
dubbi a interpretazioni, significa essere in grado di /comprendere/ e
/percepire/ le emozioni. 

Secondo questa visione, Wysa può quindi sostituire il terapeuta umano
proprio perché, come l'umano, è in grado di comprendere e percepire le
emozioni del paziente.

In effetti pare che Wysa sia una specie di Borg specializzato in CBT,
umano e robot insieme [2]:

--8<---cut here---start->8---

Wysa has an artificial intelligence (AI) coach, it’s a pocket penguin
that learns and grows wiser with you. Wysa's human Emotional Well-being
professionals are mental health professionals trained to listen, support
and encourage you.

Together with the Wysa AI coach, Emotional Well-being Professional will
support you in achieving your defined goals.

--8<---cut here---end--->8---

La supercazzola antanica dello "human in ze loop" raggiunge livelli
sublimi.

Ovviamente, siccome sanno che stanno giocando col fuoco, mettono le mani
avanti:

--8<---cut here---start->8---

However, AI Coach is restricted in the means of response and the
intended usage is for providing evidence-based tools and techniques to
manage emotions and encourage mental well-being in a self-help
context. It is not intended for providing diagnosis, treatment, or cure
of a condition or disease or disorders. AI Coach cannot and will not
offer advice on unrecognizable issues.

[...] Wysa is not designed to assist with crises such as abuse, severe
mental health conditions that may cause feelings of suicide, harm to
self and any other medical emergencies. In any of these cases and
otherwise, Wysa cannot and will not offer medical or clinical advice. It
can only suggest that users seek advanced and professional medical help.

--8<---cut here---end--->8---

Fin qui non ci vuole un genio per riuscire a discriminare il segnale
(poco) dal rumore (tantissimo, studiato apposta per confondersi col
segnale): si tratta /molto semplicemente/ di una istanza di ELIZA [4] on
steroids, roba vecchia di almeno 60 anni nel suo "core business".

Lo script DOCTOR (il più famoso) che funzionava su ELIZA applicava la
tecnica "Rogerian psychotherapy" [5] mentre Wysa applica la CBT, in
entrambi i sistemi il terapeuta viene sostituito dalla sua
/reificazione/ e a tali sistemi sono state o vengono attribuite capacità
di /intelligere/ le emozioni umane.

La sola differenza tra DOCTOR e Wysa è che il secondo è stato
programmato statisticamente mentre il primo in MAD-SLIP (e poi in tanti
altri linguaggi): dal punto di vista informatico una notevole differenza
ma ancora non sufficiente a giustificare le presunte capacità di essere
"emotional intelligent" attribuite a Wysa.

...anche come vengono recepiti questi sismemi non è cambiato dagli anni
'60 del secolo scorso

E qui veniamo alle note più /pesanti/.

> 

Fosse solo questo (e questo è già troppo)!

Il sistema sanitario britannoco lo sta adottando fare il triage
automatizzato dei pazienti con possibili problemi psichiatrici
https://www.wysa.com/nhs

--8<---cut here---start->8---

This webinar shares the experience of Steps2Wellbeing (Dorset
Healthcare) of using AI to reduce administration times, maximize
clinical time, and improve access without increasing risk. Mayden’s
Fiona Dawson will discuss the essential role that data flow and
information sharing have in ensuring that - as we move toward a more
digital future - we have an integrated and regulated ecosystem.

[...] Wysa’s etriage for NHS talking therapy services provides faster
access to support, creates a safer environment for patients and delivers
more 

Re: [nexa] [Un'alternativa a] Pause Giant AI Experiments: An Open Letter

2023-04-15 Thread 380°
Buongiorno,

Daniela Tafani  writes:

> Concordo, naturalmente. Ma la narrazione sugli agenti antromorfi e le menti 
> sovrumane
>
> riesce a far credere che la situazione sia quella del povero Topolino 
> apprendista stregone in Fantasia, che ha evocato una forza incontrollabile,
>
> mentre la situazione è quella di Ezechiele lupo che adesca i porcellini per 
> mangiarseli.
>
>
> Quanto al disclaimer, ce n'era uno anche in Replika (che era, esso stesso 
> stesso, pubblicità ingannevole: ne copio alla fine la parte che avevo 
> salvato).
> Contemporaneamente, c'erano meccanismi introdotti per creare dipendenza 
> emotiva
> (alcuni argomenti di conversazione si sbloccavano solo collegandosi più volte 
> nello stesso giorno).
>
> In questo caso, il garante ha bloccato una truffa, più che il progresso della 
> scienza.
>
> Quanto ai minori, ci sono paesi in cui li si affida consapevolmente a un 
> chatbot, proprio nei casi in cui abbiano bisogno di assistenza mentale:
> https://www.digitalhealth.net/2022/09/wysa-ai-chatbot-teens-west-london/
>
> <https://www.digitalhealth.net/2022/09/wysa-ai-chatbot-teens-west-london/>
> Frank Pasquale aveva previsto la tendenza:
> "A personal doctor might be dismissed as a luxury, like a bespoke tailor".
>
> Buona serata,
> Daniela
>
> [cid:c3c2cda9-3d12-4f43-a739-7c5aad893469]
> 
> Da: 380° 
> Inviato: venerdì 14 aprile 2023 12:40
> A: Daniela Tafani; Andrea Bolioli; J.C. DE MARTIN
> Cc: nexa@server-nexa.polito.it
> Oggetto: Re: [nexa] [Un'alternativa a] Pause Giant AI Experiments: An Open 
> Letter
>
> Buongiorno,
>
> Daniela Tafani  writes:
>
> [...]
>
>> <https://www.law.kuleuven.be/ai-summer-school/open-brief/open-letter-manipulative-ai>
>
> «Open Letter: We are not ready for manipulative AI – urgent need for
> action»
>
> --8<---cut here---start->8---
>
> [...] But one of the main risks associated with human-imitating AI was
> reflected in the recent chatbot-incited suicide in Belgium: the risk of
> manipulation. While this tragedy illustrates one of the most extreme
> consequences of this risk, emotional manipulation can also manifest
> itself in more subtle forms. As soon as people get the feeling that they
> interact with a subjective entity, they build a bond with this
> "interlocutor" – even unconsciously – that exposes them to this risk and
> can undermine their autonomy. This is hence not an isolated
> incident. Other users of text-generating AI also described ([1], n.d.r.)
> its manipulative effects.
>
> [...] It is, however, in our human nature to react emotionally to
> realistic interactions, even without wanting it. This also means that
> merely obliging companies to clearly indicate that “this is an AI system
> and not a human being” is not a sufficient solution.
>
> [...] The European Union is currently working on new legislation that
> will impose stronger rules on “high-risk” AI systems and stricter
> liability on their suppliers, the so-called AI Act. However, the
> original proposal does not classify chatbots and generative AI systems
> as “high risk”, and their providers must only inform users that it is a
> chatbot and not a human being. A prohibition on manipulation was
> included, but only insofar as the manipulation leads to 'physical or
> mental harm', which is by no means easy to prove.
>
> [...] In the meantime, we ask that all necessary measures be taken –
> through data protection law, consumer law, and if need be the imposition
> of targeted moratoria – to prevent the tragic case of our compatriot
> from repeating itself. Let this be a wake-up call to us all. The AI
> playtime is over: it's time to draw lessons and take responsibility.
>
>
> --8<---cut here---end--->8---
>
> è ovvio che chiunque SPACCI un sistema del genere come "psicoterapeuta"
> o anche solo "telefono amico" andrebbe fermato subito e in casi come
> quello citato sopra di (presunta?) indizione al suicidio dovrebbe essere
> aperta un'inchiesta giudiziaria ed celebrato l'eventuale relativo
> processo...
>
> ...e vorrei _sottolineare_ che i SALAMI non arrivano nel "vuoto cosmico
> del diritto", come /autorevolmente/ (non autoritariamente) spiegato da
> Alvaro M. Bedoya [2]:
>
> --8<---cut here---start->8---
>
> Let’s start with that first point. There is a powerful myth out there
> that “AI is unregulated.” You see it pop up in New York Times op-ed
> columns, in civil society advocacy, and in scholarship. It has a
> powerful intuitive appeal —

Re: [nexa] [Un'alternativa a] Pause Giant AI Experiments: An Open Letter

2023-04-15 Thread 380°
Buonasera Daniela,

Daniela Tafani  writes:

> Ma la narrazione sugli agenti antromorfi e le menti sovrumane riesce a
> far credere

sì sì e /tutte/ le dichiarazioni pubbliche dei dirigenti di chi spaccia
SALAMI per quello che non sono dovrebbero essere valutate in giudizio,
come aggravanti, nel caso gli enti preposti (FTC?) evidenziassero
illeciti

[...]

> Quanto al disclaimer, ce n'era uno anche in Replika (che era, esso
> stesso stesso, pubblicità ingannevole: ne copio alla fine la parte che
> avevo salvato).

visto grazie

al netto della solita manfrina classificabile come ethics washing, in un
recente (10 Aprile) articolo sul suo blog, Luka spiega quali elementi ha
introdotto in Raplika (non so quando, tra l'altro il sito è in
manutenzione adesso) per assicurarsi che i propri utenti comprendano
bene /cosa/ stanno usando (e non "con chi stanno parlando"):

https://blog.replika.com/posts/creating-a-safe-replika-experience

--8<---cut here---start->8---

To begin with, let's discuss the safety measures we have incorporated in
the Replika app's user interface. [...] Therefore, during the onboarding
process, we emphasize that the app is not a replacement for therapy and
should not be used during a crisis. Additionally, the app has an age
restriction of 18+ years.

Above the input field, among the main app sections, is located a “Get
Help” button. [...] This action pulls up a screen with a safety warning
message. It states that Replika was not designed to provide help in a
health crisis and shows the US National Suicide Prevention hotline
number. If a user is a resident of a different country, we direct them
to the up-to-date list of hotlines worldwide.

Other categories activate pre-made scripts designed with the help of CBT
therapists. These scripts guide users through the steps that help them
calm down and talk through distressing emotions. Users also get
redirected to these scripts within the chat if a message related to
these topics is detected (we’ll talk more about this later).

--8<---cut here---end--->8---

Mi limito a riportare le misure sull'interfaccia

Quando poi l'articolo comincia a parlare di "supervised safe
fine-tuning" e anche solo a paventare la possibilità che possa esse
gradualmente eliminato dal training il "contenuto indesiderabile" io
comincio a sentire puzza di pubblicità ingannevole lontano un
chilometro.

L'introduzione di "scripted response tool" paventa pure l'esercizio
abusivo di professione medica, in questo caso psicologica.

I narratori di Replika dovrebbero esprimersi e progettare con **molta**
più moderazione ma **soprattutto** smetterla di prendere così sul serio
il loro "prodotto" e piuttosto, con una minima dose di onestà
intellettuale, /presentarlo/ ai clienti per quello che è: un RPG (gioco
di ruolo) programmato statisticamente.

La storia delle controversie attorno agli RPG [1], poi, potrebbe
insegnarci qualcosa.

Uso improprio dei dati personali a parte (e questo NON è poco), nessuno
ha il diritto di impedire alle persone di /intrattenersi/ col gioco che
preferiscono.

> Contemporaneamente, c'erano meccanismi introdotti per creare
> dipendenza emotiva (alcuni argomenti di conversazione si sbloccavano
> solo collegandosi più volte nello stesso giorno).

Quello è (era?) un meccanismo nascosto dietro l'interfaccia, un
altro meccanismo di dipendenza è stato recentemente introdotto
attraverso la gamification della chat, il "Quest":

https://blog.replika.com/posts/replika-quests

--8<---cut here---start->8---

Quests will bring a fun gaming element to your conversations, allowing
you to complete tasks, claim rewards, and, most importantly, have a
blast! Brighten up the room, dress up, exchange photos, explore Coaching
and Diaries, reach new levels, and earn XP together with your
Replika. As you progress through each Quest, you’ll collect coins, gems,
and unique gifts hidden in mysterious spheres.

--8<---cut here---end--->8---

Io fossi nei dirigenti di Luka non dormirei la notte dopo aver spacciato
Replika come "compassionate AI friend" [2] _e_ usando gamification come
se non ci fosse un domani, prima o poi qualcuno potrebbe chiedere loro
conto di questo

https://theconversation.com/using-gaming-tactics-in-apps-raises-new-legal-issues-181575

«Using gaming tactics in apps raises new legal issues»

--8<---cut here---start->8---

Instead of crafting new rules for trading app design, regulators can
treat gamification tactics that nudge users into certain investments or
trading patterns like tacit investment recommendations. To the extent
these tactics work to guide clients into unsuitable investments and
trading, regulators can jump into action with their existing rulebooks.

Rather than creating a new category of rights for gig workers, we can
recognize that gig workers who are led to act like 

Re: [nexa] [Un'alternativa a] Pause Giant AI Experiments: An Open Letter

2023-04-14 Thread Maria Chiara Pievatolo

On 14/04/23 16:26, Daniela Tafani wrote:
Concordo, naturalmente. Ma la narrazione sugli agenti antromorfi e le 
menti sovrumane


riesce a far credere che la situazione sia quella del povero Topolino 
apprendista stregone in Fantasia, che ha evocato una forza incontrollabile,


mentre la situazione è quella di Ezechiele lupo che adesca i porcellini 
per mangiarseli.



Quanto al disclaimer, ce n'era uno anche in Replika (che era, esso 
stesso stesso, pubblicità ingannevole: ne copio alla fine la parte che 
avevo salvato).
Contemporaneamente, c'erano meccanismi introdotti per creare dipendenza 
emotiva
(alcuni argomenti di conversazione si sbloccavano solo collegandosi più 
volte nello stesso giorno).




Se vogliamo essere meno fiabeschi, qui il termine di confronto 
appropriato è quella potente multinazionale del tabacco B che 
consapevolmente manipolava la sua miscela con additivi dannosi e in 
grado di accrescere la dipendenza. Qui c'è la storia di Jeffrey Wigand, 
l'informatore civico (whistleblower) che si espose per smascherarla:


https://web.archive.org/web/20081010102623/http://www.mariebrenner.com/PDF/TheManWhoKnewTooMuch.pdf

storia poi romanzata nel film "The Insider" (1999).

Oggi, a proposito del fumo, a nessuno verrebbe in mente di sostenere che 
la controversia che oppose B a 46 stati americani 
(https://wikiless.org/wiki/Brown_%26_Williamson?lang=en) era un 
conflitto fra l'innovazione privata e l'ossessione regolativa di uno 
stato arretrato e oscurantista, ma le cose sarebbero potute andare 
diversamente, se non ci fosse stata una stampa indipendente e una 
crescente percezione sociale della pericolosità del tabacco.


Cito dal pdf sopra:

"The anti-tobacco forces depict Jeffrey Wigand as a portrait in courage, 
a Marlon Brando taking on the powers in On the Waterfront. The 
pro-tobacco lobbies have been equally vociferous in their campaign to 
turn Wigand into a demon, a Mark Furhman who could cause potentially 
devastating cases against the tobacco industry to dissolve over issues 
that have little to do with the dangers of smoking. According to New 
York public-relations man John Scanlon, who was hired by B’s law firm 
to help discredit Wigand, “Wigand is a habitual liar, a bad, bad guy.” 
It was Scanlon’s assign- ment to disseminate a wide range of damaging 
charges against Wigand, such as shoplifting, fraud, and spousal abuse. 
Scanlon himself, along with B, is now the subject of an unprecedented 
Justice Department investigation for possible intimidation of a witness.
For First Amendment specialist James Goodale, the charges and 
countercharges B has attempt- ed to level against Wigand represent 
“the most important press issue since the Pentagon Papers.” Goodale, who 
represented The New York Times during that period, said, “You counteract 
these tactics by a courageous press and big balls."


Un saluto,
MCP





OpenPGP_0xCFD48E8A462F4447.asc
Description: OpenPGP public key


OpenPGP_signature
Description: OpenPGP digital signature
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] [Un'alternativa a] Pause Giant AI Experiments: An Open Letter

2023-04-14 Thread 380°
Buongiorno,

Daniela Tafani  writes:

[...]

> 

«Open Letter: We are not ready for manipulative AI – urgent need for
action»

--8<---cut here---start->8---

[...] But one of the main risks associated with human-imitating AI was
reflected in the recent chatbot-incited suicide in Belgium: the risk of
manipulation. While this tragedy illustrates one of the most extreme
consequences of this risk, emotional manipulation can also manifest
itself in more subtle forms. As soon as people get the feeling that they
interact with a subjective entity, they build a bond with this
"interlocutor" – even unconsciously – that exposes them to this risk and
can undermine their autonomy. This is hence not an isolated
incident. Other users of text-generating AI also described ([1], n.d.r.)
its manipulative effects.

[...] It is, however, in our human nature to react emotionally to
realistic interactions, even without wanting it. This also means that
merely obliging companies to clearly indicate that “this is an AI system
and not a human being” is not a sufficient solution.

[...] The European Union is currently working on new legislation that
will impose stronger rules on “high-risk” AI systems and stricter
liability on their suppliers, the so-called AI Act. However, the
original proposal does not classify chatbots and generative AI systems
as “high risk”, and their providers must only inform users that it is a
chatbot and not a human being. A prohibition on manipulation was
included, but only insofar as the manipulation leads to 'physical or
mental harm', which is by no means easy to prove.

[...] In the meantime, we ask that all necessary measures be taken –
through data protection law, consumer law, and if need be the imposition
of targeted moratoria – to prevent the tragic case of our compatriot
from repeating itself. Let this be a wake-up call to us all. The AI
playtime is over: it's time to draw lessons and take responsibility.


--8<---cut here---end--->8---

è ovvio che chiunque SPACCI un sistema del genere come "psicoterapeuta"
o anche solo "telefono amico" andrebbe fermato subito e in casi come
quello citato sopra di (presunta?) indizione al suicidio dovrebbe essere
aperta un'inchiesta giudiziaria ed celebrato l'eventuale relativo
processo...

...e vorrei _sottolineare_ che i SALAMI non arrivano nel "vuoto cosmico
del diritto", come /autorevolmente/ (non autoritariamente) spiegato da
Alvaro M. Bedoya [2]:

--8<---cut here---start->8---

Let’s start with that first point. There is a powerful myth out there
that “AI is unregulated.” You see it pop up in New York Times op-ed
columns, in civil society advocacy, and in scholarship. It has a
powerful intuitive appeal — it just sounds right. How could these
mysterious new technologies be regulated under our dusty old laws?

If you’ve heard this, or even said it, please take a step back and ask:
Who does this idea help? It doesn’t help consumers, who feel
increasingly helpless and lost. It doesn’t help most companies. It
certainly doesn’t help privacy professionals like you, who now have to
deal with investors and staff who think they’re operating in a law-free
zone.

I think that this idea that “AI is unregulated” helps that small subset
of companies who are uninterested in compliance. And we’ve heard similar
lines before. “We’re not a taxi company, we’re a tech company.” “We’re
not a hotel company, we’re a tech company.” These statements were
usually followed by claims that state or local regulations could not
apply to said companies.

[...] I worry that this debate may obscure the point. Because the law
doesn’t turn on how a trained expert reacts to a technology – it turns
on how regular people understand it.  At the FTC, for example, when we
evaluate whether a statement is deceptive, we ask what a reasonable
person would think of it. When analyzing unfairness, we ask whether a
reasonable person could avoid the harms in question. In tort law, we
have the “eggshell” plaintiff doctrine: If your victim is particularly
susceptible to an injury you caused, that is on you.

The American Academy of Pediatrics has declared a national emergency in
child and adolescent mental health. The Surgeon General says that we are
going through an epidemic of loneliness.

I urge companies to think twice before they deploy a product that is
designed in a way that may lead people to feel they have a trusted
relationship with it or think that it is a real person. I urge companies
to think hard about how their technology will affect people’s mental
health – particularly kids and teenagers.

--8<---cut here---end--->8---

Il discrimine _esiste_: il prodotto non deve essere progettato in modo
tale da indurre le persone a credere di avere una relazione di _fiducia_
(col 

Re: [nexa] [Un'alternativa a] Pause Giant AI Experiments: An Open Letter

2023-03-31 Thread Stefano Maffulli
Ben detto, grazie del commento.

On Fri, Mar 31, 2023 at 3:55 AM Giuseppe Attardi 
wrote:

> Se c’è qualcosa da regolare, non è la tecnologia o il suoi tempi di
> sviluppo, ma il modo indecoroso con cui le Big Tech stanno dominando il
> settore digitale,
>

Non solo le big tech, ma anche le istituzioni governative (democratiche e
non) sono ad oggi tra le poche entità in grado di avere accesso alla triade
(dati, hardware e competenze) necessaria per sviluppare LLM.

Meglio ricordare che ogni tentativo di bloccare l'accesso anche a uno dei
tre elementi va a solo vantaggio di Big Tech e Big Gov, escludendo dalla
partita hacker, ricercatori, SME ecc.
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] [Un'alternativa a] Pause Giant AI Experiments: An Open Letter

2023-03-31 Thread Alessandro Brolpito
Buonasera,

Sono d'accordo che non ha molto senso affrontare la questione in questi
termini, piuttosto deve essere accelerato un quadro etico-legale nel quale
la ricerca pubblica e privata debba procedere.

A tal proposito, da quello che mi risulta, l'EU AI Act prevede un  European
Artificial Intelligence Board, con compiti di sorveglianza del rispetto del
regolamento in EU. Il diavolo naturalmente è nei dettagli ma un board
autonomo e competente è previsto.
Infine, l'autovalutazione, è uno strumento diffuso in molti ambiti; anche
per l'AI, non penso che sia pensato come sistema di autocertificazione, ma
piuttosto come un riferimento per ricercatori e sviluppatori.

Vedremo comunque una volta che sarà pubblicato
A presto, Alessandro



On Fri, 31 Mar 2023 at 12:55, Giuseppe Attardi  wrote:

> Sono totalmente in disaccordo con la lettera aperta, perché affronta il
> problema dalla parte sbagliata.
> Non dobbiamo rallentare lo sviluppo di AI da parte dei privati, dobbiamo
> invece accelerare lo sviluppo dell’AI con finanziamenti pubblici ai
> ricercatori che oggi non dispongono delle risorse di calcolo necessarie per
> restare all’avanguardia, esplorando approcci e direzioni che non vengono
> seguite dalle aziende private.
>
> Sono anche un disaccordo con l’idea di rafforzare l”European AI Act, che
> era già palesemente inadeguato e contraddittorio: non si può affermare da
> una parte che l’AI sia inaffidabile e dall’altra pretendere che lo diventi
> tramite un fantomatico e discriminatorio (in termini di costi) processo di
> autocertificazione.
> Il fatto che la proposta non contemplasse il caso dei chatbot come
> tecnologia da regolamentare, dimostra non solo come la regolamentazione
> fosse inadeguata ma anche come qualunque regolamentazione lo sarebbe in un
> periodo di rapido sviluppo della tecnologia stessa.
>
> Se c’è qualcosa da regolare, non è la tecnologia o il suoi tempi di
> sviluppo, ma il modo indecoroso con cui le Big Tech stanno dominando il
> settore digitale, con gli effetti deleteri che Daniela riporta, e con
> l’espansione ad altri settori ed ulteriore concentrazione che provoca l’uso
> di tecnologie, di cui solo loro possono permettersi di disporre (perché
> glielo abbiamo lasciato fare).
>
> Una moratoria di sei mesi alle sviluppo “modelli più potenti di GPT-4”
> sarebbe solo una foglia di fico senza alcun effetto pratico: tutti gli
> altri, che non hanno modo di farlo, non ne trarranno alcun beneficio.
>
> — Beppe
>
> On 31 Mar 2023, at 10:37, nexa-requ...@server-nexa.polito.it wrote:
>
> Date: Fri, 31 Mar 2023 08:37:45 +
> From: Daniela Tafani 
> To: Andrea Bolioli , "J.C. DE MARTIN"
> 
> Cc: "nexa@server-nexa.polito.it" 
> Subject: Re: [nexa] [Un'alternativa a] Pause Giant AI Experiments: An
> Open Letter
> Message-ID: 
> Content-Type: text/plain; charset="windows-1252"
>
> Buongiorno.
>
>
> Non mi pare difficile trovare un'iniziativa pubblica meno indecente della
> mossa insultante di quella lettera aperta:
>
> il modo in cui parlano di fantomatici rischi futuri, come se non si
> fossero accorti di quanto siano reali e dolorosi
> i  danni generati dal loro sfruttamento di persone, dati e risorse naturali
>
> e dal rilascio di strumenti deliberatamente ingannevoli,
> che inquinano pesantemente l'ecosistema dell'informazione
>
> e illudono e manipolano per loro conto gli utenti inesperti,
>
> mi ricorda - non a caso, visti i firmatari - il dialogo tra Huckleberry
> Finn e la zia Sally:
>
>
> Huckleberry Finn, quando gli chiesero se lo scoppio della caldaia di un
> battello a vapore avesse colpito qualcuno,
> rispose: «Nessuno: è rimasto ucciso un negro».
> Il commento della zia Sally: «Bene, è una fortuna, perché a volte capita
> che qualcuno si faccia male»,
> riassume l’intera moralità che spesso ha prevalso fra gli uomini.
>
>
> Tra le iniziative non proposte da ideologhi TESCREAL<
> https://nitter.snopyta.org/xriskology/status/1635313838508883968>
> (transhumanism, extropianism, singularitarianism, cosmism, Rationalism,
> Effective Altruism e longtermism),
>
>
> segnalo una lettera aperta odierna:
>
> <
> https://www.law.kuleuven.be/ai-summer-school/open-brief/open-letter-manipulative-ai
> >
>
>
>
> Un saluto,
> Daniela
>
>
> ___
> nexa mailing list
> nexa@server-nexa.polito.it
> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
>
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] [Un'alternativa a] Pause Giant AI Experiments: An Open Letter

2023-03-31 Thread Giuseppe Attardi
Sono totalmente in disaccordo con la lettera aperta, perché affronta il 
problema dalla parte sbagliata.
Non dobbiamo rallentare lo sviluppo di AI da parte dei privati, dobbiamo invece 
accelerare lo sviluppo dell’AI con finanziamenti pubblici ai ricercatori che 
oggi non dispongono delle risorse di calcolo necessarie per restare 
all’avanguardia, esplorando approcci e direzioni che non vengono seguite dalle 
aziende private.

Sono anche un disaccordo con l’idea di rafforzare l”European AI Act, che era 
già palesemente inadeguato e contraddittorio: non si può affermare da una parte 
che l’AI sia inaffidabile e dall’altra pretendere che lo diventi tramite un 
fantomatico e discriminatorio (in termini di costi) processo di 
autocertificazione.
Il fatto che la proposta non contemplasse il caso dei chatbot come tecnologia 
da regolamentare, dimostra non solo come la regolamentazione fosse inadeguata 
ma anche come qualunque regolamentazione lo sarebbe in un periodo di rapido 
sviluppo della tecnologia stessa.

Se c’è qualcosa da regolare, non è la tecnologia o il suoi tempi di sviluppo, 
ma il modo indecoroso con cui le Big Tech stanno dominando il settore digitale, 
con gli effetti deleteri che Daniela riporta, e con l’espansione ad altri 
settori ed ulteriore concentrazione che provoca l’uso di tecnologie, di cui 
solo loro possono permettersi di disporre (perché glielo abbiamo lasciato fare).

Una moratoria di sei mesi alle sviluppo “modelli più potenti di GPT-4” sarebbe 
solo una foglia di fico senza alcun effetto pratico: tutti gli altri, che non 
hanno modo di farlo, non ne trarranno alcun beneficio.

— Beppe

> On 31 Mar 2023, at 10:37, nexa-requ...@server-nexa.polito.it wrote:
> 
> Date: Fri, 31 Mar 2023 08:37:45 +
> From: Daniela Tafani  <mailto:daniela.taf...@unipi.it>>
> To: Andrea Bolioli  <mailto:andrea.boli...@gmail.com>>, "J.C. DE MARTIN"
>   mailto:juancarlos.demar...@polito.it>>
> Cc: "nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it>" 
> mailto:nexa@server-nexa.polito.it>>
> Subject: Re: [nexa] [Un'alternativa a] Pause Giant AI Experiments: An
>   Open Letter
> Message-ID:  <mailto:ad3a3992a802403cb989b01bd372b...@unipi.it>>
> Content-Type: text/plain; charset="windows-1252"
> 
> Buongiorno.
> 
> 
> Non mi pare difficile trovare un'iniziativa pubblica meno indecente della 
> mossa insultante di quella lettera aperta:
> 
> il modo in cui parlano di fantomatici rischi futuri, come se non si fossero 
> accorti di quanto siano reali e dolorosi
> i  danni generati dal loro sfruttamento di persone, dati e risorse naturali
> 
> e dal rilascio di strumenti deliberatamente ingannevoli,
> che inquinano pesantemente l'ecosistema dell'informazione
> 
> e illudono e manipolano per loro conto gli utenti inesperti,
> 
> mi ricorda - non a caso, visti i firmatari - il dialogo tra Huckleberry Finn 
> e la zia Sally:
> 
> 
> Huckleberry Finn, quando gli chiesero se lo scoppio della caldaia di un 
> battello a vapore avesse colpito qualcuno,
> rispose: «Nessuno: è rimasto ucciso un negro».
> Il commento della zia Sally: «Bene, è una fortuna, perché a volte capita che 
> qualcuno si faccia male»,
> riassume l’intera moralità che spesso ha prevalso fra gli uomini.
> 
> 
> Tra le iniziative non proposte da ideologhi 
> TESCREAL<https://nitter.snopyta.org/xriskology/status/1635313838508883968> 
> (transhumanism, extropianism, singularitarianism, cosmism, Rationalism, 
> Effective Altruism e longtermism),
> 
> segnalo una lettera aperta odierna:
> 
> <https://www.law.kuleuven.be/ai-summer-school/open-brief/open-letter-manipulative-ai>
> 
> 
> Un saluto,
> Daniela
> 

___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] [Un'alternativa a] Pause Giant AI Experiments: An Open Letter

2023-03-31 Thread Daniela Tafani
Buongiorno.


Ha ragione, anche altre persone serie e in buona fede hanno firmato,

condividendo le sue considerazioni.

Inclusi alcuni che contro le fantasie di chi vede l'AGI nei SALAMI si battono 
quotidianamente.


Non crede però, anche sorvolando sui firmatari, sul messianesimo eugenetico dei 
miliardari e sull'hype,

che chiedere una pausa non per chatGPT e GPT-4, ma solo per i sistemi più 
potenti di quelli,

equivalga a chiudere la stalla dopo che siano scappati i buoi?


Condivido la sua osservazione sulla necessità di non dividersi,

ma temo che l'iniziativa in questione sia sostitutiva, e  con grande successo, 
di un'iniziativa vera e concreta:

mi pare la consueta mossa di presentare la propria buona volontà come una 
promessa di autoregolazione,

sostitutiva della regolazione giuridica. E credo che si applichi al monopolista 
quello che Adam Smith scriveva del macellaio e del fornaio:

affidarsi alla loro benevolenza non è una buona idea; serve la legge:

<https://oll.libertyfund.org/quote/adam-smith-butcher-brewer-baker>


Un saluto,
Daniela



Da: nexa  per conto di Marco A. Calamari 

Inviato: venerdì 31 marzo 2023 11:25
A: nexa@server-nexa.polito.it
Oggetto: Re: [nexa] [Un'alternativa a] Pause Giant AI Experiments: An Open 
Letter

On ven, 2023-03-31 at 08:37 +, Daniela Tafani wrote:

Buongiorno.


Non mi pare difficile trovare un'iniziativa pubblica meno indecente della mossa 
insultante di quella lettera aperta:

il modo in cui parlano di fantomatici rischi futuri, come se non si fossero 
accorti di quanto siano reali e dolorosi

Buongiorno,

non mi pare questa una sede adatta per avviare polemiche, ed è lungi da me 
l'idea di iniziarne una io.

Vorrei solo dire che iniziative pubbliche contro un fenomeno maligno e ben 
individuato andrebbero condivise malgrado i se ed i ma.

Ce ne sono così poche.

I nemici dei mie nemici ...
Un campo diviso è un campo destinato alla sconfitta.

Certo, io sono uno schematista politicamente ingenuo.
Però la mia opinione è che oggi non ci si può tirare indietro, e viste le poche 
iniziative in giro l'ho sottoscritta.

JM2EC   Marco



i  danni generati dal loro sfruttamento di persone, dati e risorse naturali

e dal rilascio di strumenti deliberatamente ingannevoli,
che inquinano pesantemente l'ecosistema dell'informazione

e illudono e manipolano per loro conto gli utenti inesperti,

mi ricorda - non a caso, visti i firmatari - il dialogo tra Huckleberry Finne 
la zia Sally:


Huckleberry Finn, quando gli chiesero se lo scoppio della caldaia di un 
battello a vapore avesse colpito qualcuno,
rispose: «Nessuno: è rimasto ucciso un negro».
Il commento della zia Sally: «Bene, è una fortuna, perché a volte capita che 
qualcuno si faccia male»,
riassume l’intera moralità che spesso ha prevalso fra gli uomini.


Tra le iniziative non proposte da ideologhi 
TESCREAL<https://es.sonicurlprotection-fra.com/click?PV=2=202303310925200138349=11=10.0.19.7431=F647376C1176E68A62A0F8C97F1887FA=1680254720700=J3giu5YMgF4ozvw1grHqgy5fX8QM4ElmhiGIGnkq3sA%3D=1536961729280_ENCODED_URL=aHR0cHM6Ly9uaXR0ZXIuc25vcHl0YS5vcmcveHJpc2tvbG9neS9zdGF0dXMvMTYzNTMxMzgzODUwODg4Mzk2OA=08ABE02F9BE5282593A84B3F59F462C635B9E575F34DF0934CB35476727EEDBB>
 (transhumanism, extropianism, singularitarianism, cosmism, Rationalism, 
Effective Altruism e longtermism),

segnalo una lettera aperta odierna:

<https://www.law.kuleuven.be/ai-summer-school/open-brief/open-letter-manipulative-ai<https://es.sonicurlprotection-fra.com/click?PV=2=202303310925200138349=10=10.0.19.7431=E54B132A2AE1055BECA4137800914B1D=1680254720699=%2BrScVIa6ekrsqCQCvUzgsCw8mRYjXWSWpqvPRGugkzc%3D=1536961729280_ENCODED_URL=aHR0cHM6Ly93d3cubGF3Lmt1bGV1dmVuLmJlL2FpLXN1bW1lci1zY2hvb2wvb3Blbi1icmllZi9vcGVuLWxldHRlci1tYW5pcHVsYXRpdmUtYWk=00B17B1E550993454584F4A53844EC749F35EFA453CE436ECD147C626DDB7F20>>


Un saluto,
Daniela


Da: nexa  per conto di Andrea Bolioli 

Inviato: giovedì 30 marzo 2023 21:14
A: J.C. DE MARTIN
Cc: nexa@server-nexa.polito.it
Oggetto: Re: [nexa] Pause Giant AI Experiments: An Open Letter

Grazie per la segnalazione.
Sto pensando di firmare la lettera, su molte cose sono d'accordo.
Gli usi impropri di LLM e altri sistemi generativi sono già in corso, altri 
rischi si intravedono. Non si possono prevedere tutti i rischi perché alcune 
proprietà di questi sistemi "emergono", non le sappiamo tutte prima.
Della lettera non mi piace che sia stato citato "GPT-4" come metro di paragone 
( "the training of AI systems more powerful than GPT-4."), si potevano forse 
citare più sistemi o provare a fornire una descrizione tecnica, che però non è 
banale.
Firmare una lettera non sarà sicuramente sufficiente. Qualche iniziativa mi 
sembra necessaria. La situazione in cui ci troviamo mi sembra di questo tipo: 
sono state inventate le automobili, tutti le possiamo guidare senza patente, 
non sappiamo pe

Re: [nexa] [Un'alternativa a] Pause Giant AI Experiments: An Open Letter

2023-03-31 Thread Marco A. Calamari
On ven, 2023-03-31 at 08:37 +, Daniela Tafani wrote:
> Buongiorno.
> 
> Non mi pare difficile trovare un'iniziativa pubblica meno indecente della
> mossa insultante di quella lettera aperta:
> il modo in cui parlano di fantomatici rischi futuri, come se non si fossero
> accorti di quanto siano reali e dolorosi

Buongiorno,

non mi pare questa una sede adatta per avviare polemiche, ed è lungi da me
l'idea di iniziarne una io.

Vorrei solo dire che iniziative pubbliche contro un fenomeno maligno e ben
individuato andrebbero condivise malgrado i se ed i ma.

Ce ne sono così poche.

I nemici dei mie nemici ...
Un campo diviso è un campo destinato alla sconfitta.

Certo, io sono uno schematista politicamente ingenuo. 
Però la mia opinione è che oggi non ci si può tirare indietro, e viste le poche
iniziative in giro l'ho sottoscritta.

JM2EC   Marco


> i  danni generati dal loro sfruttamento di persone, dati e risorse naturali
> e dal rilascio di strumenti deliberatamente ingannevoli,
> che inquinano pesantemente l'ecosistema dell'informazione
> e illudono e manipolano per loro conto gli utenti inesperti,
> mi ricorda - non a caso, visti i firmatari - il dialogo tra Huckleberry Finne
> la zia Sally:
> 
> Huckleberry Finn, quando gli chiesero se lo scoppio della caldaia di un
> battello a vapore avesse colpito qualcuno,
> rispose: «Nessuno: è rimasto ucciso un negro». 
> Il commento della zia Sally: «Bene, è una fortuna, perché a volte capita che
> qualcuno si faccia male»,
> riassume l’intera moralità che spesso ha prevalso fra gli uomini.
> 
> Tra le iniziative non proposte da ideologhi TESCREAL (transhumanism,
> extropianism, singularitarianism, cosmism, Rationalism, Effective Altruism e
> longtermism),
> segnalo una lettera aperta odierna:
>  >
> 
> Un saluto,
> Daniela
> 
> Da: nexa  per conto di Andrea Bolioli
> 
> Inviato: giovedì 30 marzo 2023 21:14
> A: J.C. DE MARTIN
> Cc: nexa@server-nexa.polito.it
> Oggetto: Re: [nexa] Pause Giant AI Experiments: An Open Letter 
> Grazie per la segnalazione. 
> Sto pensando di firmare la lettera, su molte cose sono d'accordo.
> Gli usi impropri di LLM e altri sistemi generativi sono già in corso, altri
> rischi si intravedono. Non si possono prevedere tutti i rischi perché alcune
> proprietà di questi sistemi "emergono", non le sappiamo tutte prima. 
> Della lettera non mi piace che sia stato citato "GPT-4" come metro di paragone
> ( "the training of AI systems more powerful than GPT-4."), si potevano forse
> citare più sistemi o provare a fornire una descrizione tecnica, che però non è
> banale.
> Firmare una lettera non sarà sicuramente sufficiente. Qualche iniziativa mi
> sembra necessaria. La situazione in cui ci troviamo mi sembra di questo tipo:
> sono state inventate le automobili, tutti le possiamo guidare senza patente,
> non sappiamo perché funzionano, alcune aziende costruiscono e vendono
> automobili sempre più potenti. Non mi sembra una situazione sicurissima.
> Capisco il problema dell'hype. Questi sistemi però esistono veramente, non
> sono solo raccontati nella comunicazione delle aziende che li vendono. 
> Ci sono altre iniziative pubbliche utili?
> 
> Buona serata,
> Andrea
> 
> 
> 
> 
> Il giorno gio 30 mar 2023 alle ore 07:16 J.C. DE MARTIN
>  ha scritto:
> > A misleading open letter about sci-fi AI dangers ignores the real risks
> > Misinformation, labor impact, and safety are all risks. But not in the way
> > the letter implies.
> > Arvind Narayanan and Sayash Kapoor
> > 
> > https://aisnakeoil.substack.com/p/a-misleading-open-letter-about-sci
> > 
> > 
> > On 29/03/23 08:47, J.C. DE MARTIN wrote:
> > > Primi firmatari: Yoshua Bengio, Stuart Russell, Elon Musk, Steve Wozniak.
> > > 
> > > jc
> > > 
> > > Pause Giant AI Experiments: An Open Letter
> > > 
> > > We call on all AI labs to immediately pause for at least 6 months the
> > > training of AI systems more powerful than GPT-4.
> > > https://futureoflife.org/open-letter/pause-giant-ai-experiments/
> > > 
> > 
> ___
> nexa mailing list
> nexa@server-nexa.polito.it
> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] [Un'alternativa a] Pause Giant AI Experiments: An Open Letter

2023-03-31 Thread Daniela Tafani
Buongiorno.


Non mi pare difficile trovare un'iniziativa pubblica meno indecente della mossa 
insultante di quella lettera aperta:

il modo in cui parlano di fantomatici rischi futuri, come se non si fossero 
accorti di quanto siano reali e dolorosi
i  danni generati dal loro sfruttamento di persone, dati e risorse naturali

e dal rilascio di strumenti deliberatamente ingannevoli,
che inquinano pesantemente l'ecosistema dell'informazione

e illudono e manipolano per loro conto gli utenti inesperti,

mi ricorda - non a caso, visti i firmatari - il dialogo tra Huckleberry Finn e 
la zia Sally:


Huckleberry Finn, quando gli chiesero se lo scoppio della caldaia di un 
battello a vapore avesse colpito qualcuno,
rispose: «Nessuno: è rimasto ucciso un negro».
Il commento della zia Sally: «Bene, è una fortuna, perché a volte capita che 
qualcuno si faccia male»,
riassume l’intera moralità che spesso ha prevalso fra gli uomini.


Tra le iniziative non proposte da ideologhi 
TESCREAL 
(transhumanism, extropianism, singularitarianism, cosmism, Rationalism, 
Effective Altruism e longtermism),

segnalo una lettera aperta odierna:




Un saluto,
Daniela


Da: nexa  per conto di Andrea Bolioli 

Inviato: giovedì 30 marzo 2023 21:14
A: J.C. DE MARTIN
Cc: nexa@server-nexa.polito.it
Oggetto: Re: [nexa] Pause Giant AI Experiments: An Open Letter

Grazie per la segnalazione.
Sto pensando di firmare la lettera, su molte cose sono d'accordo.
Gli usi impropri di LLM e altri sistemi generativi sono già in corso, altri 
rischi si intravedono. Non si possono prevedere tutti i rischi perché alcune 
proprietà di questi sistemi "emergono", non le sappiamo tutte prima.
Della lettera non mi piace che sia stato citato "GPT-4" come metro di paragone 
( "the training of AI systems more powerful than GPT-4."), si potevano forse 
citare più sistemi o provare a fornire una descrizione tecnica, che però non è 
banale.
Firmare una lettera non sarà sicuramente sufficiente. Qualche iniziativa mi 
sembra necessaria. La situazione in cui ci troviamo mi sembra di questo tipo: 
sono state inventate le automobili, tutti le possiamo guidare senza patente, 
non sappiamo perché funzionano, alcune aziende costruiscono e vendono 
automobili sempre più potenti. Non mi sembra una situazione sicurissima.
Capisco il problema dell'hype. Questi sistemi però esistono veramente, non sono 
solo raccontati nella comunicazione delle aziende che li vendono.
Ci sono altre iniziative pubbliche utili?

Buona serata,
Andrea




Il giorno gio 30 mar 2023 alle ore 07:16 J.C. DE MARTIN 
mailto:juancarlos.demar...@polito.it>> ha 
scritto:
A misleading open letter about sci-fi AI dangers ignores the real risks
Misinformation, labor impact, and safety are all risks. But not in the way the 
letter implies.
Arvind Narayanan and Sayash Kapoor

https://aisnakeoil.substack.com/p/a-misleading-open-letter-about-sci


On 29/03/23 08:47, J.C. DE MARTIN wrote:
Primi firmatari: Yoshua Bengio, Stuart Russell, Elon Musk, Steve Wozniak.

jc

Pause Giant AI Experiments: An Open Letter

We call on all AI labs to immediately pause for at least 6 months the training 
of AI systems more powerful than GPT-4.

https://futureoflife.org/open-letter/pause-giant-ai-experiments/

___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa