Buonasera.
Non è che riproponendo proprio l'articolo che critico -- NON nel
contenuto, MA in due diversi ambiti (politico e tecnico) fra loro
correlati -- si risponde efficacemente alla mia critica, _che è
quella di voler continuare a colpevolizzare il coltello_.
La predictive optimization può essere la panacea o il peggiore dei
mali, ma io contesto la condanna dei suoi impatti politici, poiché
qualunque proiezione del futuro ha comunque i medesimi difetti.
Il massimo che un prodotto marcato "AI" può fare di male, è che
gli utilizzatori "si fidino" troppo di esso e dei risultati che dà,
e lo utilizzino quindi in maniera "cieca" / superficiale, MA -- non
troppo "incidentalmente" -- questa è la medesima critica avanzata a
suo tempo per lo spredsheet.
E non critico il giudizio tecnico espresso sulla predictive
optimization -- della quale sinceramente mi interessa poco (...e
quindi mi interessa poco anche la difesa del relativo giudizio) --
ma il fatto che che si continui a discutere di strumenti, quando il
vero problema è SEMPRE altrove:
- Se si continua a perseguire l'AI ("vera" = AGI, o fasulla ...che
però serve) -- parlo di SCIENZA / TECNOLOGIA -- è probabile che
questo sia perché si cerca uno strumento che aiuti a risolvere
problemi; è quindi normale che appaiano nuovi strumenti, non sempre
subito perfettamente a punto;
- Se poi, al di là degli aspetti tecnici (e magari anche
indipendentemente da questi), saranno la scelta effettiva dei
problemi da risolvere e lo spirito con cui si intendono affrontare a
determinarne nei fatti risultato e utilizzo (invece delle
caratteristiche dello strumento), ...amen: E' SEMPRE COSI'. _Però
si insiste a dimenticarlo, ...volendo continuare a giudicare il
coltello_.
----- Original Message -----
From: Daniela Tafani
To: Alfredo Bregni
Cc: Antonio ; [email protected]
Sent: Sunday, January 19, 2025 10:49 PM
Subject: Re: [nexa] Proposta per un dibattito costruttivo sull'IA
Buonasera.
Trova qui la definizione di "Predictive Optimization" e l'elenco
delle ragioni
per cui non può essere assimilata ad altre forme di automazione dei
processi di decisione:
https://dl.acm.org/doi/full/10.1145/3636509
Anche il mio articolo è ad accesso aperto, su Zenodo
<https://zenodo.org/records/10866778>
o sul sito della rivista Ethics & Politics.
Un saluto,
Daniela
Il 19/01/2025 20:36, Alfredo Bregni ha scritto:
Ciao.
_Non capisco cosa si voglia dire._
QUALUNQUE decisione (ragionata) si basa su una (o più) proiezioni
dei possibili andamenti futuri; e uno stumento AI -- fatto bene, o
fatto male -- si aggiunge agli altri strumenti (dei quali i più
antichi e noti sono "il fiuto" dell'imprenditore e "l'ideologia" del
politico, ...ovvero nessuno strumento di reale supporto alle
decisioni).
A parte le informazioni privilegiate di borsa -- donde il reato di
insider trading quando ti beccano (...il più delle volte no) --
QUALUNQUE proiezione del futuro si basa su passato (e sul fiuto,
l'ideologia, il c.d. "sentiment" degli operatori, ...e consimili
amenità).
Quindi, SOLO PERCHE' ADESSO SI CHIAMA "AI", ci divertiamo a
criticare l'impatto politico di questi strumenti, ...altrimenti
nobili e irreprensibili [ironia]??
Grazie della precisazione, che attendo.
----- Original Message -----
From: Daniela Tafani
To: Antonio ; [email protected]
Sent: Sunday, January 19, 2025 4:24 PM
Subject: Re: [nexa] Proposta per un dibattito costruttivo sull'IA
Grazie, Antonio, concordo.
Delle proprietà politiche è opportuno discutere con riferimento a
singoli sistemi.
Ho fatto un tentativo, qualche tempo fa, con un sottoinsieme di uno
dei punti dell'elenco che riporti,
i sistemi di ottimizzazione predittiva,
sostenendo che abbiano proprietà politiche intrinseche (non
emendabili con scelte alternative di design)
che li rendono incompatibili con lo Stato di diritto:
<https://zenodo.org/records/10866778>
Un saluto,
Daniela
________________________________________
Da: nexa <[email protected]> per conto di Antonio
<[email protected]>
Inviato: domenica 19 gennaio 2025 16:05
A: [email protected]
Oggetto: [Junk released by Allowed List] [nexa] Proposta per un
dibattito costruttivo sull'IA
Fermo restando che un dibattito "distruttivo" è comunque utile,
vorrei avanzare una proposta per un diverso approccio verso la
tematica. La proposta è semplice, NON nominare il termine IA (o
AI), ma le SINGOLE tecnologie di intelligenza artificiale.
L'Annuario statistico italiano pubblicato dall'Istat lo scorso 19
dicembre, da pag.769 in poi riporta statistiche e sintesi in merito
a ricerca, innovazione e tecnologia dell'informazione.
"Nel 2023 il 5,0 per cento delle imprese con almeno 10 addetti
utilizza software o sistemi di intelligenza artificiale (IA)" e a
seguire indica le tecnologie più diffuse all'interno di esse:
1) Automatizzare i flussi di lavoro o supportare nel processo
decisionale (Robotic Process Automation, software robot che
utilizzano tecnologie di IA per automatizzare le attività umane)
(40,1%);
2) Estrarre conoscenza e informazione da un documento di testo (text
mining) (39,3%);
3) Convertire la lingua parlata in un formato leggibile dal
dispositivo informatico (riconoscimento vocale) (31%);
4) Identificare oggetti o persone sulla base di immagini
(riconoscimento, elaborazione delle immagini) (30,5%);
5) Analizzare dati attraverso l'apprendimento automatico (machine
learning, deep learning, reti neurali) (30%);
6) Generare linguaggio scritto o parlato (generazione del linguaggio
naturale) (29,4%);
7) Consentire il movimento fisico delle macchine tramite decisioni
autonome basate sull'osservazione dell'ambiente circostante
(robot o droni autonomi, veicoli a guida autonoma) (17,1%).
Forse in questo modo sarà più facile posizionarsi sulla diatriba
della neutralità e sull'uso (eventualmente) pro bono dell'IA.
A.
[1] https://www.istat.it/wp-content/uploads/2024/12/ASI_2024.pdf