Immagine in evidenza: Runa Sandvik (Wikipedia)
“Una delle sfide di sviluppare diversi prodotti tech è come realizzarne uno che sia usabile ma anche sicuro, e come tenere conto di diversi casi d’uso, inclusi quelli che ancora non conosci”, quelli che cioè potrebbero verificarsi in uno scenario diverso. Sono le parole di Runa Sandvik, pronunciate qualche tempo fa in un keynote sul “progettare tecnologia che abiliti la libertà d’espressione” tenuto al Web Expo 2022. Parole che suonano particolarmente significative dopo la decisione della Corte Suprema statunitense di cancellare il diritto all’aborto a livello federale (che dal 1973 era invece garantito dalla sentenza “Roe v. Wade”), per cui ora ogni singolo Stato potrà legiferare come vuole, anche in senso molto restrittivo.
Sandvik è una ricercatrice di sicurezza e privacy molto nota a livello internazionale. Ha lavorato nel progetto Tor, alla Freedom of the Press Foundation, e al New York Times, dove è stata la direttrice della sicurezza informatica (e ha messo in piedi su Tor il servizio onion del Times). Ora ha fondato una attività, Granitt, dedicata alla sicurezza di giornalisti e persone a rischio. Guerre di Rete ha raggiunto Sandvik in una video-chiamata per intervistarla sulle ricadute di privacy e sicurezza della decisione della Corte Suprema.
CF: La decisione ha suscitato una serie di preoccupazioni anche rispetto alla tracce digitali lasciate dalle persone, a se, come, quanto possano essere usate per intimidire o perseguire le donne che intendano abortire, ora che la situazione legale negli Stati Uniti è particolarmente incerta e complessa. Le app per il monitoraggio delle mestruazioni e simili sono diventate improvvisamente un simbolo di tutti i rischi, anche quelli oggi più aleatori, che sono collegati alla nostra sfera digitale (ne abbiamo scritto in quest’articolo uscito in contemporanea a questa intervista). Ma al di là dell’elemento simbolico, quali sono gli scenari malevoli che potrebbero derivare dai dati raccolti da queste app?
RS: Indubbiamente dopo la decisione si è parlato molto anche di questo genere di app. C’era chi diceva che si dovesse cancellare queste app o addirittura c’era chi proponeva di riempirle di informazioni errate. Ma cancellarle resta comunque solo una parte della risposta, la domanda è: cosa fai dopo? Quale tipo di informazioni hanno su di te per il semplice fatto di aver usato il servizio? Tutto ciò ripropone la questione di quanto poco sappiamo di come sono usati i nostri dati, ed è la ragione per cui, anche nel mio recente discorso al Web Expo, ho sottolineato l’importanza di progettare delle tecnologie che mettano in primo piano la sicurezza. E che dunque, in questi casi, non raccolgano i dati in primis. Ad esempio, poco tempo fa il fornitore di VPN Mullvad ha deciso di rimuovere la possibilità di abbonarsi (e di lasciare solo i pagamenti una tantum, ndr) proprio per evitare di conservare i dati degli utenti più dello stretto necessario.
Meta, sia durante la crisi in Afghanistan sia con la guerra in Ucraina, ha introdotto delle funzioni per rendere più sicuri gli account e le comunicazioni degli utenti nelle aree interessate. Questo per dire che le aziende possono fare molto in realtà, se lo vogliono. Il problema è che allo stato attuale come società non sappiamo in generale come i dati sono usati o dove possono finire.
CF: Quindi nel caso di una app del ciclo, come la stessa potrebbe mitigare il rischio di essere abusata da soggetti terzi per violare la privacy delle sue utenti?
RS: Queste app dovrebbero essere trasparenti sui dati che raccolgono, su come li usano e su quando sarebbero disposte a darli alle autorità, se richiesti. Poi dovrebbero prendere misure per anonimizzare i dati che raccolgono, anche se in realtà è una cosa molto difficile da fare.
CF: Ovviamente il problema non si limita affatto a queste app, che sono semmai la punta di un iceberg.
RS: Sì, il punto è che molti dei dati che possono suggerire che stiamo cercando una interruzione di gravidanza o che stiamo valutando varie opzioni, esistono molto più probabilmente nella nostra cronologia browser, nel nostro Isp e fornitore telefonico. Ed esistono in un formato molto più facile da utilizzare nel caso le autorità fossero interessate.
CF: Da questo punto di vista è stata interessante la recentissima decisione di Google di cancellare automaticamente i dati di localizzazione dei suoi utenti dalla Location History subito dopo che questi abbiano visitato luoghi molto privati, incluse le cliniche per l’interruzione di gravidanza, consultori, centri per la fertilità ecc. Che ne pensi? D’altra parte è anche vero che Google non è l’unico soggetto ad avere dati sulla localizzazione delle persone (e per altro non sono gli unici dati rilevanti al riguardo raccolti da Google).
RS: Pensiamo al fatto che Planned Parenthood (una delle più importanti organizzazioni americane che forniscono servizi sanitari e accesso all’interruzione di gravidanza alle donne, ndr) fino a poco tempo fa aveva marketing trackers sulle sue pagine relative all’aborto. Quindi sì, penso che sia tecnicamente possibile per le autorità ottenere delle ingiunzioni per verificare se il mio device sia stato presso una clinica dove vengono praticate interruzioni di gravidanza, ma penso anche che sia molto più facile per loro recarsi presso qualsiasi clinica del genere presente in una certa area e chiedere informazioni su di me, informazioni che probabilmente le cliniche avevano raccolto o perché obbligate o perché il rischio non era stato considerato.
CF: Infatti questo è forse uno dei dubbi principali: che ne sarà dei dati raccolti da strutture sanitarie, da cliniche, da servizi collegati? Cosa sappiamo di questo rischio e non è forse quello più rilevante e ovvio? Cioè vai a prenderti i dati direttamente lì.
RS: Esattamente. Non so che tipo di informazioni siano raccolte e come siano conservate. Ma immagina anche di essere un dottore o un’infermiera in una di queste cliniche, come gestisci i dati? Come queste aziende (dato che molte sono aziende, alla fine) usano i dati, come li conservano, o a quali obblighi devono sottostare per legge? Questa è una questione fondamentale.
CF: E tra l’altro su questo metterei anche il carico della possibilità di data breach, leaks, cyberattacchi. Alcune di queste organizzazioni ne hanno già subiti in passato. Ma ora che la posta in gioco è più alta, potrebbero intensificarsi? Non ci sono solo le autorità di uno Stato, ci sono anche i soggetti privati, criminali, attivisti… e questi dati potrebbero essere usati come arma per minacce legali, ma anche per fare doxxing (esporre le informazioni private di qualcuno), attaccare a livello personale e via dicendo.
RS: Sì, penso che sia certamente uno scenario.
CF: Anche se sappiamo che la fonte principale di informazioni potrebbero essere le strutture sanitarie, penso però che siano molto significativi l’interesse e la preoccupazione che si sono sviluppati attorno alle conseguenze legate alle nostre tracce digitali. C’è forse alla base la percezione non solo dell’importanza di questa sfera, ma anche che la stessa incertezza provata al riguardo, cioè la difficoltà di prevedere come certi dati possano essere usati contro di noi, sia di per sé un rischio.
Se tu dovessi mettere a punto una opsec (operations security, in questo frangente si riferisce a un insieme di pratiche con cui proteggere la propria attività e identità online, ndr) da cosa inizieresti?
RS: Sicuramente conosci questa storia del 2012, quando il New York Times pubblicò un articolo su come una teenager avesse ricevuto da Target dei coupon per prodotti da neomamma, allertando i genitori ignari della gravidanza della figlia. Ci sono ora molte altre storie simili, globalmente, che riferiscono di come le aziende raccolgano i nostri dati e di come tutto ciò introduca problemi e questioni che non avevamo neanche immaginato. Quindi quando accade qualcosa come la decisione della Corte Suprema, si scatenano una serie di reazioni, dall’indignazione al desiderio di fare qualcosa. Certo è difficile capire cosa fare di preciso, ma sicuramente ha senso chiedere ora alle aziende molta più trasparenza sui dati.
Riguardo alle pratiche di sicurezza direi due cose. Per le donne che cercano informazioni, ricordo che ci sono modi per navigare il web in modo anonimo, usando il Tor Browser (e in questo modo non c’è nemmeno cronologia di navigazione). Penso che questo sia almeno un buon punto di partenza. Per le cliniche, pensare di più a come usano le tecnologie e a come operano dal punto di vista tecnico: il loro sito traccia i visitatori, logga gli indirizzi IP, cosa avviene quando qualcuno visita la clinica, immagino tengano delle informazioni, quali, per quanto tempo?
CF: Cosa possiamo imparare da questo evento e come pensi che si stia sviluppando la discussione nella comunità infosec / privacy al riguardo?
RS: Dobbiamo trovare modi di educare diversi gruppi di persone, che si tratti delle cliniche, di chi cerca informazioni per sé, di chi fornisce supporto a queste persone. Penso che questa vicenda serva anche a ribadire che quando sviluppi un prodotto che raccoglie informazioni sugli utenti, devi pensare anche a come queste informazioni possano essere abusate nel futuro. Il fatto che tu possa raccogliere dei dati non significa che tu debba farlo. In molti casi, come business, puoi continuare le tue attività senza dover raccogliere ogni singolo dato. Sono sicura che al momento ci sono discussioni interne a Google, Meta e altre maggiori piattaforme su questa sfida, e decisamente vorrei più trasparenza delle aziende tech al riguardo.
[ Leggi anche: La battaglia sulla privacy riparte dalle donne di Laura Carrer ]