Buonasera.
Non è che riproponendo proprio l'articolo che critico -- NON nel contenuto, MA
in due diversi ambiti (politico e tecnico) fra loro correlati -- si risponde
efficacemente alla mia critica, che è quella di voler continuare a
colpevolizzare il coltello.
La predictive optimization può essere la panacea o il peggiore dei mali, ma io
contesto la condanna dei suoi impatti politici, poiché qualunque proiezione del
futuro ha comunque i medesimi difetti.
Il massimo che un prodotto marcato "AI" può fare di male, è che gli
utilizzatori "si fidino" troppo di esso e dei risultati che dà, e lo utilizzino
quindi in maniera "cieca" / superficiale, MA -- non troppo "incidentalmente" --
questa è la medesima critica avanzata a suo tempo per lo spredsheet.
E non critico il giudizio tecnico espresso sulla predictive optimization --
della quale sinceramente mi interessa poco (...e quindi mi interessa poco anche
la difesa del relativo giudizio) -- ma il fatto che che si continui a discutere
di strumenti, quando il vero problema è SEMPRE altrove:
- Se si continua a perseguire l'AI ("vera" = AGI, o fasulla ...che però serve)
-- parlo di SCIENZA / TECNOLOGIA -- è probabile che questo sia perché si cerca
uno strumento che aiuti a risolvere problemi; è quindi normale che appaiano
nuovi strumenti, non sempre subito perfettamente a punto;
- Se poi, al di là degli aspetti tecnici (e magari anche indipendentemente da
questi), saranno la scelta effettiva dei problemi da risolvere e lo spirito con
cui si intendono affrontare a determinarne nei fatti risultato e utilizzo
(invece delle caratteristiche dello strumento), ...amen: E' SEMPRE COSI'. Però
si insiste a dimenticarlo, ...volendo continuare a giudicare il coltello.
----- Original Message -----
From: Daniela Tafani
To: Alfredo Bregni
Cc: Antonio ; [email protected]
Sent: Sunday, January 19, 2025 10:49 PM
Subject: Re: [nexa] Proposta per un dibattito costruttivo sull'IA
Buonasera.
Trova qui la definizione di "Predictive Optimization" e l'elenco delle
ragioni
per cui non può essere assimilata ad altre forme di automazione dei processi
di decisione:
https://dl.acm.org/doi/full/10.1145/3636509
Anche il mio articolo è ad accesso aperto, su Zenodo
<https://zenodo.org/records/10866778>
o sul sito della rivista Ethics & Politics.
Un saluto,
Daniela
Il 19/01/2025 20:36, Alfredo Bregni ha scritto:
Ciao.
Non capisco cosa si voglia dire.
QUALUNQUE decisione (ragionata) si basa su una (o più) proiezioni dei
possibili andamenti futuri; e uno stumento AI -- fatto bene, o fatto male -- si
aggiunge agli altri strumenti (dei quali i più antichi e noti sono "il fiuto"
dell'imprenditore e "l'ideologia" del politico, ...ovvero nessuno strumento di
reale supporto alle decisioni).
A parte le informazioni privilegiate di borsa -- donde il reato di insider
trading quando ti beccano (...il più delle volte no) -- QUALUNQUE proiezione
del futuro si basa su passato (e sul fiuto, l'ideologia, il c.d. "sentiment"
degli operatori, ...e consimili amenità).
Quindi, SOLO PERCHE' ADESSO SI CHIAMA "AI", ci divertiamo a criticare
l'impatto politico di questi strumenti, ...altrimenti nobili e irreprensibili
[ironia]??
Grazie della precisazione, che attendo.
----- Original Message -----
From: Daniela Tafani
To: Antonio ; [email protected]
Sent: Sunday, January 19, 2025 4:24 PM
Subject: Re: [nexa] Proposta per un dibattito costruttivo sull'IA
Grazie, Antonio, concordo.
Delle proprietà politiche è opportuno discutere con riferimento a singoli
sistemi.
Ho fatto un tentativo, qualche tempo fa, con un sottoinsieme di uno dei
punti dell'elenco che riporti,
i sistemi di ottimizzazione predittiva,
sostenendo che abbiano proprietà politiche intrinseche (non emendabili
con scelte alternative di design)
che li rendono incompatibili con lo Stato di diritto:
<https://zenodo.org/records/10866778>
Un saluto,
Daniela
________________________________________
Da: nexa <[email protected]> per conto di Antonio
<[email protected]>
Inviato: domenica 19 gennaio 2025 16:05
A: [email protected]
Oggetto: [Junk released by Allowed List] [nexa] Proposta per un dibattito
costruttivo sull'IA
Fermo restando che un dibattito "distruttivo" è comunque utile, vorrei
avanzare una proposta per un diverso approccio verso la tematica. La proposta è
semplice, NON nominare il termine IA (o AI), ma le SINGOLE tecnologie di
intelligenza artificiale.
L'Annuario statistico italiano pubblicato dall'Istat lo scorso 19
dicembre, da pag.769 in poi riporta statistiche e sintesi in merito a ricerca,
innovazione e tecnologia dell'informazione.
"Nel 2023 il 5,0 per cento delle imprese con almeno 10 addetti utilizza
software o sistemi di intelligenza artificiale (IA)" e a seguire indica le
tecnologie più diffuse all'interno di esse:
1) Automatizzare i flussi di lavoro o supportare nel processo decisionale
(Robotic Process Automation, software robot che utilizzano tecnologie di IA per
automatizzare le attività umane) (40,1%);
2) Estrarre conoscenza e informazione da un documento di testo (text
mining) (39,3%);
3) Convertire la lingua parlata in un formato leggibile dal dispositivo
informatico (riconoscimento vocale) (31%);
4) Identificare oggetti o persone sulla base di immagini (riconoscimento,
elaborazione delle immagini) (30,5%);
5) Analizzare dati attraverso l'apprendimento automatico (machine
learning, deep learning, reti neurali) (30%);
6) Generare linguaggio scritto o parlato (generazione del linguaggio
naturale) (29,4%);
7) Consentire il movimento fisico delle macchine tramite decisioni
autonome basate sull'osservazione dell'ambiente circostante
(robot o droni autonomi, veicoli a guida autonoma) (17,1%).
Forse in questo modo sarà più facile posizionarsi sulla diatriba della
neutralità e sull'uso (eventualmente) pro bono dell'IA.
A.
[1] https://www.istat.it/wp-content/uploads/2024/12/ASI_2024.pdf