Non riguarda un singolo iPhone

Un riassunto per capire meglio la vicenda FBI/Apple. Prima di iniziare, però, una citazione di Bruche Schneier:

In generale, la privacy è qualcosa che le persone tendono a sottovalutare finché non ce l’hanno più. Argomenti come “io non ho nulla da nascondere” sono comuni, ma non sono davvero validi. Chi vive in un regime di costante sorveglianza sa che la privacy non è avere qualcosa da nascondere. Riguarda la propria individualità e la propria autonomia personale. Riguarda l’essere in grado di decidere cosa rivelare di se stessi e in quali termini. Riguarda l’essere liberi come individuo, senza essere costretti a giustificarsi continuamente a qualcuno che ci osserva.


L’FBI vuole accedere a dei dati contenuti dentro l’iPhone 5c di Syed Rizwan Farouk, uno degli attentatori di San Bernardino. Questi dati — messaggi, foto, etc.; cifrati — non sono stati salvati su iCloud ma si trovano dentro l’iPhone. Apple ha già dato accesso all’FBI ai dati che si trovavano su iCloud ma l’FBI ha avuto problemi a bypassare le misure di sicurezza dell’iPhone e, di conseguenza, ad accedere ai dati che risiedono solo sul device in questione.

Per accedere ai dati di un iPhone 5c sono necessari “solo” due ingredienti: il passcode dell’utente e il codice del device. A complicare le cose sono le misure di sicurezza adottate da Apple: il fatto che i dati vengano cancellati dopo 10 tentativi, o che fra un tentativo e l’altro sia necessario aspettare 5 secondi. Ci vorrebbero dunque anni per l’FBI a indovinare il codice tramite brute force (provando ogni possibile combinazione del codice).

L’iPhone in questione è un 5c, quindi senza Secure Enclave. Come spiega Ben Thompson, la Secure Enclave è un chip A7 che agisce come computer indipendente, con un proprio sistema operativo, che renderebbe molto più complesso l’accesso ai dati. Nel caso di un iPhone 6s, dotato di Secure Enclave, sarebbero necessari tre ingredienti per decrittografare i dati: la chiave del device, il passcode dell’utente e una chiave casuale, generata dalla Secure Enclave, sconosciuta a Apple stessa. Se l’attentatore avesse avuto un iPhone 6s o uno qualsiasi degli iPhone più recenti, sarebbe stato impossibile per Apple cooperare con l’FBI — anche se avesse voluto — se non inserendo una backdoor ancora più insicura e terrificante nel sistema operativo: una chiave fissa e unica. Si può fare, però, e il pericolo principale è che l’FBI sfrutti questo caso come precedente — per chiedere un qualcosa di ancora più insicuro.


L’FBI, dunque, come spiega Fabio Chiusi, vuole tre cose da Apple:

  1. Rimuovere o disabilitare la funzione di auto-distruzione dei contenuti.
  2. Consentire all’FBI di provare a inserire la password corretta (in sostanza, abilitare tentativi infiniti di trovarla, una tecnica detta “brute force”).
  3. Garantire che non ci siano le attese (delay) tra un tentativo e l’altro attualmente previste da iOS, a meno di quelle necessarie al funzionamento dell’hardware.

L’FBI chiede a Apple di disabilitare la funzione che elimina tutti i dati di un iPhone dopo dieci tentativi di accesso falliti — in modo da poter provare tutte le combinazioni possibili e accedere al device tramite brute force. Apple non può semplicemente disabilitare la funzionalità: solo l’utente (che l’ha attivata) può farlo. Affinché questa misura di sicurezza possa essere bypassata, è necessario che Apple scriva un software che sia in grado di disabilitare una delle funzionalità di sicurezza di iOS.

Il che significa — punto e basta, senza sfumature — creare una backdoor. La Casa Bianca si è difesa spiegando che in realtà vuole l’accesso a un solo, singolo, device — l’iPhone 5c in questione — ma Cook è stato ben chiaro: non è così semplice.

Il governo suggerisce che questo strumento potrebbe essere usato solo una volta, su unico telefono. Ma è semplicemente falso. Una volta creata, la stessa tecnica potrebbe essere usata ancora e ancora, su un qualunque numero di device. Nel mondo fisico, sarebbe l’equivalente di un passe-partout, in grado di aprire centinaia di milioni di lucchetti – di ristorante e banche, negozi e case. Nessuna persona ragionevole lo accetterebbe.

Una volta che Apple sviluppa questo software, crea un precedente e lo rende disponibile a qualsiasi soggetto e situazione. Rende tutti gli iPhone — di tutti i cittadini — insicuri. Potenzialmente un qualsiasi hacker potrebbe sfruttare questa falla per ottenere i dati di un qualsiasi altro utente. Non solo: un governo meno democratico potrebbe a sua volta sfruttare questa porta ai dati dei cittadini. Quando si trattano questi temi bisogna sempre ricordarsi che le misure che prendiamo dalle nostre parti hanno ripercussioni in luoghi meno liberi del pianeta.


La Electronic Frontier Foundation (nota a margine: è il momento di fare una donazione a loro se non l’avete mai fatto — io ho impostato a inizio anno una donazione ricorrente di $10. Vi mandano pure a casa una bellissima maglietta, per ringraziarvi) è intervenuta a sostegno di Apple:

Supportiamo Apple perché il governo sta chiedendo più di un semplice aiuto da parte di Apple. Per la prima volta, il governo sta chiedendo a Apple di scrivere un nuovo codice che elimina le funzioni di base di sicurezza dell’iPhone — funzioni che proteggono tutti noi. Essenzialmente, il governo sta chiedendo a Apple di creare una master key così che possa accedere a un singolo telefono. Una volta che questa chiave esiste, siamo certi che il governo chiederà di farne uso ancora e ancora, per altri telefoni, e utilizzerà questo precedente contro qualsiasi altro software o device che decida di offrire una protezione maggiore.


(Nota a margine numero due: quello che scrive Beppe Severgnigni questa mattina sul Corriere è uno schifo. Non ha senso, e dimostra che non ne capisce nulla di come funziona tecnicamente la crittografia. È approssimativo — crea disinformazione e danni attorno a un argomento già poco chiaro e complesso per il cittadino comune, spesso affrontato con disinteresse perché liquidato con un “ma io non ho nulla da nascondere”.)


Tutto ciò non ha a che fare con l’iPhone 5c in questione. Come la vicenda dell’NSA e di Snowden dovrebbe aver insegnato, l’FBI sta utilizzando il terrorismo come scusa per potere accedere ai dati di chiunque quando gli pare e piace, quando ritengono necessario.

Apple si trova in una posizione unica rispetto alle altre aziende tecnologiche di simili dimensioni: il suo business model non dipende minimamente dai dati degli utenti e per questo può lottare per lasciarli a chi appartengono. La risposta del CEO di Google è — in confronto — debole: piena di could (e fornita via twitter…???).


La crittografia va difesa anche se a farne uso sono anche i terroristi. L’anche, in quella frase, è importante: perché la crittografia giova innanzitutto noi, i cittadini.

Anche se Apple venisse costretta a inserire una backdoor nell’iPhone un’organizzazione terroristica troverebbe (o potrebbe sviluppare) alternative per comunicare in sicurezza. Così facendo, il cittadino normale ci rimetterebbe senza alcun vantaggio per la sicurezza generale.

Come spiega Dan Gillmor:

Un giorno si potrebbe venire a sapere che un terrorista ha usato sistemi potenti di criptaggio, e la risposta giusta sarebbe: “Sì, lo ha fatto, ma dobbiamo comunque proteggere questi sistemi di criptaggio, perché indebolirli peggiorerebbe soltanto le cose.” Perché? Perché il criptaggio è davvero una questione semplice, non importa quanto funzionari legislativi desiderosi di diffondere la paura o politici codardi e ostinatamente ignoranti vadano sbandierando sul bisogno di backdoor nelle comunicazioni protette. La scelta è fondamentalmente binaria per molti esperti in materia. Non si possono alterare i sistemi di criptaggio in maniera significativa senza renderci tutti meno sicuri, perché i cattivi poi sfrutteranno le vulnerabilità introdotte nel processo. Non è una questione di sicurezza verso privacy, come gli esperti hanno spiegato ormai innumerevoli volte, è una questione di sicurezza contro sicurezza.