top of page

PIANETA SICUREZZA. Il nostro telefono sa dove siamo e non è il solo

Come la sorveglianza digitale è diventata un'infrastruttura invisibile che traccia ogni passo, e perché quasi nessuno ne parla abbastanza


di Nicola Rossiello



Ogni mattina, quando sblocchiamo il telefono, cominciamo a lasciare tracce. Non in senso metaforico: tracce reali, misurabili, conservate. L'ora in cui l'abbiamo acceso. La rete Wi-Fi a cui si è connesso automaticamente. Il percorso che abbiamo fatto verso la fermata del bus, ricostruito dai dati GPS. Le app che abbiamo aperto. Le ricerche che abbiamo fatto. I messaggi che abbiamo mandato, o anche solo abbozzato e poi cancellato.

Tutto questo genera quello che gli esperti chiamano un "profilo comportamentale". Un'ombra digitale che ti assomiglia molto più di quanto pensiamo, e che non abbiamo mai scelto deliberatamente di costruire.


Cellulari-spia

Non è fantascienza, e non è paranoia. È la struttura ordinaria del mondo digitale in cui viviamo. Negli ultimi anni è diventato sempre più chiaro, attraverso inchieste giornalistiche, documenti giudiziari, ricerche accademiche, che le tecnologie di sorveglianza hanno raggiunto un livello di sofisticazione che rende obsolete le rassicurazioni standard. Non basta più "non ho niente da nascondere". Non basta disattivare il GPS. Non basta nemmeno spegnere il telefono, in certi casi.

I dati vengono raccolti da fonti multiple e poi incrociati: metadati delle telefonate (chi chiami, quando, per quanto tempo, da dove), dati di geolocalizzazione ceduti da app apparentemente innocue, meteo, giochi, coupon, reti Wi-Fi che registrano i dispositivi nelle vicinanze anche senza connessione, telecamere con riconoscimento facciale in spazi pubblici, database commerciali che aggregano informazioni da decine di fonti diverse. Il risultato è qualcosa che assomiglia molto a una radiografia della nostra vita quotidiana.


La storia di Ahmad Turmus e gli obiettivi di chi ci spia

Quando si parla di sorveglianza digitale, il pensiero va immediatamente agli stati autoritari, ai regimi, ai servizi segreti. E certo, quei rischi esistono e sono documentati. Ma ridurre il problema a questo significa perderne la dimensione più pervasiva.

La sorveglianza di massa funziona anche attraverso attori privati, spesso legali, che operano in un'area grigia normativa. Esistono aziende il cui modello di business consiste nell'acquistare dati di geolocalizzazione da broker specializzati e rivenderli, a inserzionisti, a ricercatori, a governi, a chiunque li voglia acquistare. Esistono database commerciali che contengono profili dettagliatissimi di centinaia di milioni di persone: abitudini, interessi, probabilità di acquisto, orientamenti politici inferiti algoritmicamente.

E poi ci sono le applicazioni militari e di sicurezza, che in certi contesti di conflitto trasformano questi strumenti in qualcosa di radicalmente diverso: non più marketing targettizzato, ma selezione di obiettivi.

A raccontare fino a dove può arrivare questa logica è una storia che ha fatto il giro dei media internazionali nei primi mesi del 2026, riportata dal Los Angeles Times e ripresa da numerose testate europee. Lui era Ahmad Turmus, 62 anni e viveva nel villaggio di Talloosah, nel sud del Libano, a pochi chilometri dal confine israeliano. Era un uomo che conoscevano tutti: ex combattente di Hezbollah, negli ultimi anni si occupava di questioni civili, faceva da tramite tra il movimento e gli abitanti del villaggio. Un ruolo ambiguo, certo, in una zona dove i confini tra militare e civile si confondono da decenni. Il 16 febbraio 2026, secondo quanto ricostruito dai giornalisti del Los Angeles Times sulla base delle testimonianze dei familiari, Ahmad Turmus ricevette una telefonata. Una voce che parlava arabo con accento israeliano. La domanda era diretta, quasi burocratica nella sua crudeltà: "Ahmad, vuoi morire con chi ti sta intorno o da solo?"

Turmus non scappò, non si travestì, non cercò vie di fuga. Ai parenti che lo imploravano di fare qualcosa rispose con una rassegnazione che fa tremare: "Conoscono il mio volto. Non possiamo fare nulla contro questo." Poi uscì di casa, salì in macchina, forse per allontanarsi dai suoi cari, forse solo perché non sapeva più cosa fare, e rispose all'ufficiale israeliano con una parola sola: "Da solo." Pochi minuti dopo, due missili lo colpirono.


"Conoscono il mio volto"

Quella storia è diventata, suo malgrado, una delle illustrazioni più agghiaccianti di che cosa significhi essere completamente trasparenti a un sistema di sorveglianza. L'intelligence israeliana sapeva dove si trovava in tempo reale. Sapeva quando aveva spento il telefono e quando lo aveva riacceso. Sapeva il percorso che aveva fatto quella mattina. Secondo quanto riferito dalla testata americana, il sistema combinava metadati telefonici, geolocalizzazione, droni, telecamere, database di contatti, alimentato da algoritmi di intelligenza artificiale capaci di costruire un profilo di rischio che non lasciava margine. Ahmad Turmus non aveva più un'ombra digitale: aveva una condanna scritta in codice binario.

La cosa più straziante, forse, non è la morte in sé, in una zona di guerra, la morte è una presenza costante. È quella frase: "Conoscono il mio volto." Un uomo che ha capito, prima di chiunque altro intorno a lui, che non esiste più un posto dove nascondersi quando il sistema che ti cerca sa già tutto di te. Che la sorveglianza non è uno strumento tra gli altri, ma una rete che, una volta calata, non lascia spazio.

L'infrastruttura è condivisa. I dati che oggi servono a venderti un paio di scarpe domani possono finire in mani che li useranno per altri scopi, scopi che non hai mai immaginato quando hai accettato i termini di servizio di quell'app.

C'è un aspetto della sorveglianza digitale contemporanea che preoccupa gli esperti forse più di tutti gli altri: l'automazione dei processi decisionali.

Un algoritmo può analizzare enormi quantità di dati in pochi secondi. Può identificare pattern che nessun investigatore umano riuscirebbe a scorgere. Può costruire correlazioni statistiche sofisticate. Ma non può capire il contesto. Non può distinguere tra una coincidenza e un indizio. Non sa che due persone si chiamano spesso perché sono parenti, non perché cospirino. Non sa che qualcuno si trovava in un certo posto perché ci abita, non perché avesse un appuntamento sospetto.


L'illusione della certezza

Questo genera quello che alcuni ricercatori chiamano "l'illusione della certezza": la macchina produce un punteggio di rischio, una classificazione, una raccomandazione, e chi riceve quell'output tende a trattarlo come un fatto oggettivo, non come un'inferenza statistica con un margine di errore.

Gli errori di questo tipo hanno conseguenze concrete. Persone finite su liste di controllo per ragioni che non capivano. Persone cui sono stati negati visti o servizi sulla base di profilazioni opache. Persone associate a reti pericolose solo perché avevano relazioni personali o professionali con qualcuno che era già nel database. Il problema non è solo tecnico. È epistemologico: quando una macchina dice che qualcosa è probabile, chi decide cosa fare di quella probabilità? E chi risponde degli errori?

In Europa, il Regolamento Generale sulla Protezione dei Dati, entrato in vigore nel 2018, ha introdotto tutele importanti. Il diritto di sapere quali dati vengono raccolti su di noi. Il diritto di chiederne la cancellazione. Il divieto di trattare certe categorie di dati sensibili senza consenso esplicito. Obblighi di trasparenza per le aziende.

Ma ci sono aree in cui la protezione rimane insufficiente, o difficile da applicare nella pratica. Il primo problema è il consenso. In teoria, accettiamo il trattamento dei tuoi dati solo se lo vogliamo. In pratica, il consenso viene raccolto attraverso interfacce progettate per farci cliccare "accetta" in modo automatico, con testi lunghi decine di pagine che nessuno legge. Questo non è consenso informato: è compliance formale che svuota la sostanza della tutela.

Il secondo problema è la catena dei dati. Il GDPR si applica alle aziende che raccolgono i dati, ma il mercato dei dati è frammentato in decine di intermediari, broker, sub-processori. Sapere dove finiscono concretamente i tuoi dati è spesso impossibile anche per chi vorrebbe farlo.

Il terzo problema sono le eccezioni. La sicurezza nazionale, la difesa, l'ordine pubblico: sono aree in cui le tutele del GDPR si applicano in modo ridotto o non si applicano affatto. Ed è proprio lì che i sistemi di sorveglianza più invasivi tendono a operare.


Il corpo come dato

C'è una frontiera della sorveglianza digitale che è ancora poco discussa nel dibattito pubblico, ma che avanza rapidamente: la raccolta di dati biometrici. Il riconoscimento facciale è già realtà in molti spazi pubblici di diversi paesi, anche europei, nonostante le riserve del GDPR. Ma non si tratta solo di volti. La voce è un dato biometrico. L'andatura è un dato biometrico. Il ritmo cardiaco, se indossi uno smartwatch, è un dato biometrico. Anche le abitudini di digitazione sulla tastiera possono servire a identificare una persona con buona precisione. Questi dati hanno caratteristiche diverse dagli altri: non possiamo cambiarli. Se la nostra password viene violata, ne scegliamo un'altra. Se i nostri dati biometrici vengono compromessi, non possiamo scegliere un nuovo volto. Che cosa possiamo fare e che cosa non basta? Esistono strumenti di protezione individuale: reti VPN, browser con blocco dei tracker, messaggistica cifrata, gestione attenta dei permessi delle app. Sono utili, e vale la pena usarli. Ma non risolvono il problema strutturale.

La sorveglianza digitale è diventata un'infrastruttura sistemica. Proteggerci individualmente equivale a mettere una mascherina in una stanza senza ventilazione: qualcosa fa, ma non è sufficiente. Quello che serve è una discussione pubblica più matura e informata, che non si fermi ai casi estremi e spettacolari, ma affronti la dimensione ordinaria del problema. Quanti dati cediamo ogni giorno senza saperlo. Quante decisioni che ci riguardano vengono già prese da algoritmi alimentati con quei dati. Quanto sia difficile, nella pratica, esercitare i diritti che la legge in teoria ci garantisce. E serve anche una pressione politica: su come vengono applicate le norme esistenti, su quali nuovi standard sono necessari, su dove vanno posti i limiti all'uso commerciale e governativo dei dati personali.


Domande scomode

Vale la pena chiudere con una riflessione scomoda. Ogni volta che si parla di sorveglianza digitale, una parte dell'opinione pubblica risponde con qualche variante di "se non hai niente da nascondere, non hai niente da temere". È una risposta comprensibile, ma sbagliata, per almeno due ragioni.

La prima: tutti hanno qualcosa che preferiscono tenere privato. Non perché sia illegale o immorale, ma perché la privacy è una condizione necessaria per l'autonomia personale, per la costruzione dell'identità, per la libertà di pensiero. Una persona che sa di essere osservata si comporta diversamente. Una società sorvegliata è una società che tende ad autocensurarsi.

La seconda: il problema non è solo che cosa facciamo noi, ma che cosa può fare di noi un sistema che ci osserva a nostra insaputa, senza che possiamo contestare le sue conclusioni, senza che abbiamo alcun controllo su come quei dati vengono usati, oggi, domani, tra dieci anni, in circostanze che non possiamo prevedere. Il nostro telefono sa dove siamo. E non è il solo. La domanda è: chi altro lo sa, e cosa ne fa.

Questo articolo è basato su fonti pubbliche, ricerche accademiche e inchieste giornalistiche riguardanti i sistemi di sorveglianza digitale e la protezione dei dati personali.

Commenti


L'associazione

Montagne

Approfondisci la 

nostra storia

#laportadivetro

Posts Archive

ISCRIVITI
ALLA
NEWSLETTER

Thanks for submitting!

Nel rispetto dell'obbligo di informativa per enti senza scopo di lucro e imprese, relativo ai contributi pubblici di valore complessivo pari o superiore a 10.000,00, l'Associazione la Porta di Vetro APS dichiara di avere ricevuto nell’anno 2024 dal Consiglio Regionale del Piemonte un'erogazione-contributo pari a 13mila euro per la realizzazione della Mostra Fotografica "Ivo Saglietti - Lo sguardo nomade", ospitata presso il Museo del Risorgimento.

© 2022 by La Porta di Vetro

Proudly created by Steeme Comunication snc

LOGO STEEME COMUNICATION.PNG
bottom of page