Buongiorno,

segnalo questo ottimo articolo apparso ieri su Diritto.it firmato
dall'Avv. Luisa Di Giacomo.

Cose già note e già dette, specialmente in questa lista.

Le cose più importanti l'autrice le scrive nell'ultimo capitolo, è per
questo che io parto a citarlo dalla _fine_.

Anche io vi chiedo: quanto siete disposti a sacrificare, in termini di
libertà e diritti, in nome della sicurezza... anzi no: della
_promessa_ di protezione dal /male/?!?

«Chat control: sicurezza o sorveglianza? Anatomia critica di un
regolamento europeo»
https://www.diritto.it/chat-control-sicurezza-sorveglianza-anatomia-regola/

--8<---------------cut here---------------start------------->8---

[...]

[questa è la conclusione]

Riflessione personale: la posta in gioco non è tecnica: è politica, culturale, 
esistenziale
────────────────────────────────────────────────────────────────────────────────────────────

Le discussioni su Chat Control non riguardano soltanto algoritmi,
crittografia, interoperabilità o compliance normativa. Dietro il
dibattito tecnico-giuridico si cela una questione molto più ampia:
*che tipo di società vogliamo costruire*? A quale idea di cittadinanza
digitale vogliamo aderire? E soprattutto: quanto siamo disposti a
sacrificare, in termini di libertà e diritti, nel nome della
sicurezza?

Chi lavora da anni nella protezione dei dati sa bene che il rischio
non è solo quello di un errore tecnico o di una norma
sproporzionata. Il vero pericolo è la *normalizzazione del controllo*:
l'abitudine a essere osservati, scansionati, valutati. È il lento
scivolamento verso un paradigma in cui la privacy non è più il
default, ma un privilegio da conquistarsi; in cui la trasparenza è
richiesta solo al cittadino, mentre le decisioni automatizzate restano
opache e inaccessibili.

Proposte come il regolamento CSAR ci mettono davanti a un bivio
culturale. Da una parte, la promessa rassicurante di un mondo più
sicuro, protetto, monitorato. Dall'altra, la consapevolezza scomoda
che *la libertà, come la fiducia, non si costruisce con il sospetto
sistematico*, né con la scansione automatica della vita quotidiana.

Come giuristi, abbiamo il dovere di analizzare le norme, ma anche di
*porci domande scomode*:

• È accettabile che ogni cittadino venga trattato come potenziale
  criminale, a prescindere da qualunque indizio?
• Possiamo davvero affidarci alla tecnologia per giudicare cosa sia
  lecito o illecito, senza margine per il contesto, l'ambiguità,
  l'errore umano?
• Siamo certi che strumenti progettati per un fine nobile non
  verranno, domani, estesi ad altri scopi meno legittimi?

La storia del diritto è fatta anche di battaglie preventive,
combattute prima che una norma entri in vigore, prima che diventi la
prassi. Non dobbiamo aspettare che il sistema degeneri per riconoscere
che l'equilibrio si è spezzato.

Io non voglio vivere in un'Unione europea in cui i miei messaggi —
anche quelli cifrati — devono passare attraverso il filtro di
un'intelligenza artificiale prima di raggiungere chi amo. Non voglio
un mondo in cui la sicurezza dei bambini viene usata come grimaldello
per introdurre meccanismi di sorveglianza di massa. E non perché non
mi importi dei bambini — al contrario. Ma perché *la protezione dei
più vulnerabili richiede strumenti seri, mirati, intelligenti*, non
scorciatoie tecnologiche che colpiscono tutti.

Le vittime reali di abusi hanno bisogno di giustizia, non di algoritmi
confusi. Hanno bisogno di indagini efficaci, supporto psicologico,
cooperazione internazionale, risorse per le forze dell'ordine, non di
un sistema che scansiona milioni di foto di compleanni per trovare un
ago nel pagliaio.

In questo momento storico, è necessario scegliere: vogliamo una
civiltà digitale fondata sul rispetto, sulla fiducia,
sull'autodeterminazione? O vogliamo scivolare, senza accorgercene, in
una tecnocrazia del sospetto?

Io scelgo la prima. Con convinzione, con fatica, con spirito
critico. E con la consapevolezza che ogni norma va giudicata *non solo
per ciò che promette oggi, ma per ciò che può diventare domani*.

[ora riporto i capitoli precedenti]

[...]

Il cuore del problema: la scansione preventiva delle comunicazioni in chat
───────────────────────────────────────────────────────────────────────────

[...]

Tecnicamente: un controllo su ogni messaggio prima che diventi
privato. Giuridicamente: una sorveglianza preventiva e indiscriminata
che assomiglia più a un regime autoritario che a uno stato di
diritto. Eppure, proprio questo meccanismo è al centro della *proposta*,
nonostante le molteplici obiezioni sollevate da esperti, giuristi,
autorità indipendenti e attivisti digitali.

Un attacco alla crittografia: l'effetto backdoor
────────────────────────────────────────────────

Uno degli aspetti più critici della proposta è la sua incompatibilità
con i principi della *crittografia end-to-end*. [...]

Se però si introduce uno strumento di scansione sul dispositivo *prima
della cifratura*, questa garanzia viene infranta. Si crea una
*backdoor tecnica* e concettuale, che mina l'integrità della
crittografia, rendendo l'intero sistema più vulnerabile ad abusi,
violazioni, attacchi informatici. Quindi da un lato ci sarebbe ilo
controllo preventivo, che aprirebbe le porte ad una sorveglianza
generalizzata, dall'altro l'apertura di una porta prima della
cifratura renderebbe tutti i nostri dati più vulnerabili.

[...]

Sorveglianza generalizzata: il paradosso della presunzione
───────────────────────────────────────────────────────────

La Corte di giustizia dell'Unione europea ha diverse volte stabilito
con chiarezza che *la sorveglianza indiscriminata delle comunicazioni
è incompatibile con la Carta dei diritti fondamentali*. Solo misure
mirate, proporzionate, basate su sospetti concreti e soggette a
controllo giudiziario sono ammissibili.

La proposta CSAR, al contrario, *propone uno scanning generalizzato* a
tutti i cittadini europei, indipendentemente da ogni indizio o
contesto. Il principio è ribaltato: non sei più innocente fino a prova
contraria, ma potenzialmente sospetto fino a verifica algoritmica. E
se l'algoritmo sbaglia — come spesso accade — potresti finire
segnalato ingiustamente, senza neppure saperlo.

[...]

Falsi positivi, costi tecnici e sostenibilità
──────────────────────────────────────────────

Dal punto di vista tecnico, la proposta si affida a sistemi di
intelligenza artificiale, riconoscimento immagini e modelli
linguistici per identificare contenuti illeciti. Ma questi strumenti,
per quanto evoluti, *non sono infallibili*. Anzi, producono falsi
positivi in misura significativa (nel mio piccolo, ricordo che una
volta un mio contenuto su un social è stato segnalato come
“sessualmente esplicito”: parlavo di privacy e avevo una maglietta
senza maniche a collo alto nera, credo la combinazione meno
sessualmente esplicita che si possa immaginare).

Lo dimostra il caso di alcuni software già in uso da piattaforme
americane, come PhotoDNA o Thorn: immagini lecite di bambini (es. al
mare, in contesti familiari) sono state etichettate come sospette. In
assenza di un controllo umano tempestivo, il danno può essere
significativo: blocco degli account, segnalazioni penali,
stigmatizzazione sociale.

[...]

Il principio della proporzionalità (che manca)
──────────────────────────────────────────────

Come ogni regolamento europeo, anche il CSAR deve *rispettare il
principio di proporzionalità sancito dall'art. 5, par. 4, TUE:* le
misure di sicurezza adottate devono essere adeguate, necessarie e
proporzionate rispetto agli obiettivi.

[...]

La Corte Europea dei Diritti dell'Uomo, nella giurisprudenza su
privacy e sorveglianza, ha più volte ribadito che il controllo
preventivo indiscriminato *non può essere giustificato* neppure per
finalità di sicurezza nazionale. Figurarsi per la prevenzione di
reati, per quanto gravi.

[...]

--8<---------------cut here---------------end--------------->8---

Saluti, 380°

-- 
380° (lost in /traslation/)

«Welcome to the chaos of the times
If you go left and I go right
Pray we make it out alive
This is Karmageddon»

Attachment: signature.asc
Description: PGP signature

Reply via email to