Per cortestia, eviti _tassativamente_ gli insulti.
Si può essere incisivi, anzi, radicali, senza mai dare dello scemo a
nessuno, men che meno a Michele Kettmaier.
Grazie.
juan carlos
On 04/08/25 19:24, abregni wrote:
Sorry, ma continuare a parlar di coltelli, di come sono affilati, di
quanto possono fare un taglio ad altri mentre ci facciamo la barba
noi, INVECE di guardare bene in faccia chi il coltello lo brandisce (e
cominciare con lo sputargli in un occhio), ...alla fine mi pare SCEMO.
Nel '68 -- nel bene e nel male (lo riconosco) -- si faceva come dico
io. Non si davano -- direttamente o di sponda -- colpe a chi non le
ha. Anche perché è un modo parecchio stupido di nascondere il vero
colpevole dalla luce; sapevatelo.
Il 2025-08-04 19:03 J.C. DE MARTIN ha scritto:
La bambina che è morta a Gaza anche per colpa nostra
Come l’Europa ha trasformato i nostri dati in armi
3 Agosto 2025
Michele Kettmaier
https://michelekettmaier.nova100.ilsole24ore.com/2025/08/03/la-bambina-che-e-morta-a-gaza-anche-per-colpa-nostra/
Non serve essere attivista. Non serve nemmeno sapere cosa succede
esattamente a Gaza per essere parte del problema. Basta vivere in
Europa, avere un telefono, cercare un indirizzo. Ma anche caricare un
documento su un cloud o inviare un bonifico. Scrivere un commento di
solidarietà sotto un post. Fare una call con qualcuno che lavora sul
campo. Tutto normale, tutto innocuo.
E invece no. Perché quei dati, posizione, cronologia, immagini,
contatti, non restano lì. Vengono raccolti, elaborati, assorbiti in
silenzio da infrastrutture digitali che operano sotto giurisdizione
israeliana. Lo permettono le leggi, lo garantisce un accordo con
l’Unione Europea. È legale.
E poi succede che una bambina, migliaia di bambine e bambini, di
sette anni, a Shujaiya, quartiere a est di Gaza City, venga uccisa da
un drone una notte di giugno del 2025. Nessuna sirena, nessun avviso.
Un’esplosione chirurgica, certo il bersaglio non era lei. Forse un
uomo, qualcuno che aveva scambiato dei messaggi oppure una casa con
troppo traffico dati.
L’intelligenza artificiale ha fatto il suo mestiere: ha calcolato, ha
classificato, ha preso una decisione automatica. L’ha presa con
dentro anche me non perché ho fatto qualcosa ma perché i miei dati,
da qualche parte, ci sono arrivati. E questo basta.
È in quel momento che ho smesso di distinguere tra “dato personale” e
“conseguenza politica”. Il sistema che ha autorizzato il colpo,
Lavender, un algoritmo dell’IDF, non si chiede chi sei. Si chiede
però quanto sei vicino a un sospetto, insomma quanto sei parte di un
errore. E quando dico errore, parlo di esseri umani e di chi stava
troppo vicino, troppo connesso, troppo dentro una rete.
Lavender, Gospel, Red Wolf. “Lavender” processa liste di SIM e decide
sulla base di metriche automatizzate. “Gospel” è un motore di
raccomandazione che suggerisce target da colpire. “Red Wolf”
sorveglia i checkpoint e assegna punteggi biometrici. Sistemi
automatici di targeting militare che si alimentano di dati, non di
bombe, di dati. Anche europei e anche miei, anche nostri. Perché
l’Unione Europea non ha mai sospeso la decisione di adeguatezza che
consente il trasferimento di informazioni personali verso aziende
israeliane. Nonostante i moniti di cinquanta organizzazioni digitali,
nonostante le inchieste, nonostante Gaza.
Non è un bug del sistema. È il sistema. La decisione di adeguatezza è
il cuore giuridico di questa ingegneria della complicità: autorizza
legalmente aziende israeliane a trattare dati di cittadini europei
come se fossero sotto garanzia GDPR. Ma non lo sono. Perché in
Israele, dal 2023, l’autorità garante della privacy è stata
subordinata al potere esecutivo. Perché l’accesso dell’intelligence
ai database civili non prevede controllo giurisdizionale. Nessun
mandato, ne notifica, ne ricorso. L’Unione Europea sa tutto; ha
ricevuto lettere firmate da decine di associazioni per i diritti
digitali, ha letto i rapporti delle Nazioni Unite, le inchieste di
+972, The Guardian, Haaretz. Ha avuto tempo, strumenti, giuristi,
esperti e ha scelto comunque di non sospendere l’accordo di
adeguatezza con Israele. Ha scelto di definire “sostanzialmente
equivalente” un sistema legale che consente ai servizi segreti di
accedere ai dati dei cittadini europei senza garanzie, senza limiti,
senza controllo giurisdizionale. Ha ignorato volutamente le riforme
che, nel 2023, hanno subordinato l’autorità israeliana per la privacy
al potere esecutivo, violando i requisiti fondamentali del GDPR
stesso. Ha accettato che il tracciamento, la profilazione e il
targeting algoritmico potessero essere alimentati da dati europei,
anche quando quegli stessi dati venivano impiegati in tecnologie di
guerra. Non si tratta di distrazione, è una scelta politica, una
complicità attiva, mascherata da neutralità normativa. La verità è
che la UE ha bisogno di Israele come partner tecnologico e militare e
per questo permette i suoi abusi. Per interesse, geopolitico.
E allora succede questo: io uso un’app, invio una mail, partecipo a
un meeting. I miei dati passano in server controllati, direttamente o
indirettamente, da soggetti sottoposti a quelle leggi. E se per caso
ho avuto contatti con un attivista palestinese, o con un operatore
umanitario, o anche solo con un nodo debole della rete, i miei dati
diventano un segnale. Un elemento dentro un grafo relazionale. Se io
parlo con X, e X ha parlato con Y, e Y vive a Rafah, la casa di Y può
essere colpita.
Non serve dimostrare l’intenzione. Basta affermare che il bersaglio
era plausibile. Che il contesto era coerente. E che i dati lo
dicevano. Tutto questo non è un’ipotesi. È documentato. L’88% delle
indagini militari israeliane su attacchi con vittime civili viene
archiviato senza esito. La protezione dei dati europei finisce nel
momento esatto in cui quei dati atterrano in una giurisdizione che
opera secondo logiche di guerra.
E io, in tutto questo, ci sono. Non come autore ma come sorgente,
come uno dei tanti nodi Come complice senza saperlo, non ho premuto
un pulsante, ma non l’ho nemmeno disattivato. Posso giustificarmi?
Forse no. Posso capirmi? Forse sì ma sono lacerato. Perché tutto
questo non si regge sulla mia cattiva coscienza, ma sulla mia assenza
di coscienza. Sul fatto che il sistema digitale in cui vivo è
costruito per funzionare in background, per nascondere la soglia tra
ciò che è mio e ciò che contribuisce ad altro. Per farmi credere che
l’infrastruttura è neutra, e che la responsabilità è solo di chi
uccide. Ma non è così. Perché ogni infrastruttura è una scelta. E
ogni scelta, anche non fatta, ha un impatto.
Allora sì, posso ancora fare qualcosa. Non per cancellare ciò che è
già accaduto, ma per non contribuire ancora. Posso smettere di
considerare normale l’uso di strumenti che espongono i miei dati.
Posso pretendere che l’Unione Europea revochi la decisione di
adeguatezza con Israele. Posso denunciare, pubblicamente, ciò che è
legalmente possibile ma umanamente inaccettabile. Posso disertare,
dalle app, dalle deleghe cieche, dalla zona grigia della
responsabilità digitale. Non si tratta di salvare Gaza con un gesto.
Ma di uscire dal tracciato invisibile che passa anche da me. Di
smettere di alimentare il modello. Se tutto oggi è codice, allora io
voglio interrompere la linea. Anche se è troppo tardi. Non esistono
dati neutri. Esistono solo dati che non sono ancora stati usati
contro qualcuno. E questo tempo, temo, è già finito.