Ciao, Alberto.

Posso essere d'accordo con te al 98%.
Mancano, ...matematicamente, 2 punti:

1.
Che i coltelli "mirati", inadatti ad altri compiti, possono essere comunque utilizzati fuori del loro ambiti di applicazione, e che la responsabilità è sempre di chi li usa (o li porta in tasca), qualunque cosa ci faccia. Finché non si vieta di produrre coltelli da caccia o pistole (anche per rispondere a Giacomo) Mr. Beretta non andrà in galera;

2.
Che la frase "L'articolo di Daniela sostiene che un sistema di predictive policing è incompatible con i valori fondanti delle società liberali." a me dice poco o nulla, al di là della discussione "tecnica": se qualcuno l'ha commissionato in origine proprio per quello scopo, oppure l'ha eventualmente adattato e comunque usato con quell'obiettivo, anche se lo strumento era nato per essere embedded in una lavastoviglie (dico ironicamente per dire), di chi altro vuoi che sia la responsabilità? Come amo ripetere (in questo caso rivolto a te e non a Daniela), "i dettagli e i distinguo si fanno dopo che si è individuato il problema base."




Il 2025-01-20 12:40 Alberto Cammozzo via nexa ha scritto:
Salve Alfredo,

il mondo delle relazioni è più complesso sfumato di quanto i nomi
degli oggetti facciano pensare: a dispetto dal chiamarsi sempre
/coltello/ si parla di oggetti diversi per una lama da caccia, una da
cucina, una da tavola.

La funzione e il possibile impiego sono diversi: un coltello per
spalmare il burro è perfettamente inutile per spellare un cinghiale,
come un coltello da colpo da macellaio è inservibile e pericoloso per
imburrare la fetta biscottata.

Quello che si sta dicendo con la sensatissima 'Proposta per un
dibattito costruttivo sull'IA' è che non tutti gli strumenti sono
uguali, a dispetto del loro nome, e nel valutarli occorre distinguere
funzione e possibile impiego, da parte di chi e per quale scopo.

Cosa che si fa d'altra parte anche con i coltelli quando si deve
discernere la legittimità del loro uso, visto che la legge non parla
espressamente di "coltelli", ma prevede il divieto di porto di arma
impropria (tra cui strumenti da punta o da taglio atti ad offendere)
fuorché per giustificato motivo.

Per cui nessun divieto interessa il coltello da burro, mentre il
cacciatore può portare il coltello da caccia durante l’esercizio
dell’attività venatoria ma rischia la sanzione penale se se lo
porta allo stadio o a una manifestazione oppure la sola ammenda se se
lo dimentica in tasca quando va a fare la spesa dopo la caccia.

Non è tanto l'oggetto ad essere giudicato ma le relazioni tra chi lo
usa, il contesto, ed il possibile scopo.

La difficoltà nel valutare l'interazione di nuovi strumenti nel
nostro sistema sociale di valori e leggi è in questo caso amplificata
dal fatto che hanno profondo (e spesso non manifesto) effetto in
molteplici ambiti. Inoltre chi li progetta, mette a disposizione e
aziona davvero nella maggior parte dei casi non sono i
cittadini-utenti-consumatori ma soggetti economici o politici dotato
già di poteri asimmetrici.

L'articolo di Daniela sostiene che un sistema di _predictive policing_
è incompatible con i valori fondanti delle società liberali. Cioè
non ha possibili scopi legittimi in tale contesto, per cui usarlo è
perfettamente adatto solo ad una dittatura.

Per come la vedo io è come dire (senza voler "giudicare" i poveri
altri coltelli innocenti) che un coltello da macellaio deve restare in
macelleria e non può essere portato legittimamente in un seggio
elettorale.

A.

On 20/01/25 00:10, Alfredo Bregni wrote:


Buonasera.

Non è che riproponendo proprio l'articolo che critico -- NON nel
contenuto, MA in due diversi ambiti (politico e tecnico) fra loro
correlati -- si risponde efficacemente alla mia critica, _che è
quella di voler continuare a colpevolizzare il coltello_.

La predictive optimization può essere la panacea o il peggiore dei
mali, ma io contesto la condanna dei suoi impatti politici, poiché
qualunque proiezione del futuro ha comunque i medesimi difetti.
Il massimo che un prodotto marcato "AI" può fare di male, è che
gli utilizzatori "si fidino" troppo di esso e dei risultati che dà,
e lo utilizzino quindi in maniera "cieca" / superficiale, MA -- non
troppo "incidentalmente" -- questa è la medesima critica avanzata a
suo tempo per lo spredsheet.

E non critico il giudizio tecnico espresso sulla predictive
optimization -- della quale sinceramente mi interessa poco (...e
quindi mi interessa poco anche la difesa del relativo giudizio) --
ma il fatto che che si continui a discutere di strumenti, quando il
vero problema è SEMPRE altrove:
- Se si continua a perseguire l'AI ("vera" = AGI, o fasulla ...che
però serve) -- parlo di SCIENZA / TECNOLOGIA -- è probabile che
questo sia perché si cerca uno strumento che aiuti a risolvere
problemi; è quindi normale che appaiano nuovi strumenti, non sempre
subito perfettamente a punto;
- Se poi, al di là degli aspetti tecnici (e magari anche
indipendentemente da questi), saranno la scelta effettiva dei
problemi da risolvere e lo spirito con cui si intendono affrontare a
determinarne nei fatti risultato e utilizzo (invece delle
caratteristiche dello strumento), ...amen: E' SEMPRE COSI'. _Però
si insiste a dimenticarlo, ...volendo continuare a giudicare il
coltello_.

----- Original Message -----
From: Daniela Tafani
To: Alfredo Bregni
Cc: Antonio ; [email protected]
Sent: Sunday, January 19, 2025 10:49 PM
Subject: Re: [nexa] Proposta per un dibattito costruttivo sull'IA

Buonasera.

Trova qui la definizione di "Predictive Optimization" e l'elenco
delle ragioni
per cui non può essere assimilata ad altre forme di automazione dei
processi di decisione:

https://dl.acm.org/doi/full/10.1145/3636509

Anche il mio articolo è ad accesso aperto, su Zenodo
<https://zenodo.org/records/10866778>
o sul sito della rivista Ethics & Politics.

Un saluto,
Daniela

Il 19/01/2025 20:36, Alfredo Bregni ha scritto:

Ciao.

_Non capisco cosa si voglia dire._

QUALUNQUE decisione (ragionata) si basa su una (o più) proiezioni
dei possibili andamenti futuri; e uno stumento AI -- fatto bene, o
fatto male -- si aggiunge agli altri strumenti (dei quali i più
antichi e noti sono "il fiuto" dell'imprenditore e "l'ideologia" del
politico, ...ovvero nessuno strumento di reale supporto alle
decisioni).
A parte le informazioni privilegiate di borsa -- donde il reato di
insider trading quando ti beccano (...il più delle volte no) --
QUALUNQUE proiezione del futuro si basa su passato (e sul fiuto,
l'ideologia, il c.d. "sentiment" degli operatori, ...e consimili
amenità).

Quindi, SOLO PERCHE' ADESSO SI CHIAMA "AI", ci divertiamo a
criticare l'impatto politico di questi strumenti, ...altrimenti
nobili e irreprensibili [ironia]??

Grazie della precisazione, che attendo.

----- Original Message -----
From: Daniela Tafani
To: Antonio ; [email protected]
Sent: Sunday, January 19, 2025 4:24 PM
Subject: Re: [nexa] Proposta per un dibattito costruttivo sull'IA

Grazie, Antonio, concordo.
Delle proprietà politiche è opportuno discutere con riferimento a
singoli sistemi.

Ho fatto un tentativo, qualche tempo fa, con un sottoinsieme di uno
dei punti dell'elenco che riporti,
i sistemi di ottimizzazione predittiva,
sostenendo che abbiano proprietà politiche intrinseche (non
emendabili con scelte alternative di design)
che li rendono incompatibili con lo Stato di diritto:

<https://zenodo.org/records/10866778>

Un saluto,
Daniela

________________________________________
Da: nexa <[email protected]> per conto di Antonio
<[email protected]>
Inviato: domenica 19 gennaio 2025 16:05
A: [email protected]
Oggetto: [Junk released by Allowed List] [nexa] Proposta per un
dibattito costruttivo sull'IA

Fermo restando che un dibattito "distruttivo" è comunque utile,
vorrei avanzare una proposta per un diverso approccio verso la
tematica. La proposta è semplice, NON nominare il termine IA (o
AI), ma le SINGOLE tecnologie di intelligenza artificiale.
L'Annuario statistico italiano pubblicato dall'Istat lo scorso 19
dicembre, da pag.769 in poi riporta statistiche e sintesi in merito
a ricerca, innovazione e tecnologia dell'informazione.
"Nel 2023 il 5,0 per cento delle imprese con almeno 10 addetti
utilizza software o sistemi di intelligenza artificiale (IA)" e a
seguire indica le tecnologie più diffuse all'interno di esse:

1) Automatizzare i flussi di lavoro o supportare nel processo
decisionale (Robotic Process Automation, software robot che
utilizzano tecnologie di IA per automatizzare le attività umane)
(40,1%);
2) Estrarre conoscenza e informazione da un documento di testo (text
mining) (39,3%);
3) Convertire la lingua parlata in un formato leggibile dal
dispositivo informatico (riconoscimento vocale) (31%);
4) Identificare oggetti o persone sulla base di immagini
(riconoscimento, elaborazione delle immagini) (30,5%);
5) Analizzare dati attraverso l'apprendimento automatico (machine
learning, deep learning, reti neurali) (30%);
6) Generare linguaggio scritto o parlato (generazione del linguaggio
naturale) (29,4%);
7) Consentire il movimento fisico delle macchine tramite decisioni
autonome basate sull'osservazione dell'ambiente circostante
(robot o droni autonomi, veicoli a guida autonoma) (17,1%).

Forse in questo modo sarà più facile posizionarsi sulla diatriba
della neutralità e sull'uso (eventualmente) pro bono dell'IA.

A.

[1] https://www.istat.it/wp-content/uploads/2024/12/ASI_2024.pdf

Reply via email to