
Poche persone hanno notato
il post apparso sul blog ufficiale
di Google il 4 dicembre
2009. Non cercava di
attirare l’attenzione: nessuna
dichiarazione sconvolgente
né annunci roboanti da Silicon valley,
solo pochi paragrafi infilati tra la lista delle
parole più cercate e un aggiornamento sul
software finanziario di Google.
Ma non è sfuggito a tutti. Il blogger Danny
Sullivan analizza sempre con cura i post
di Google per cercare di capire quali sono i
prossimi progetti dell’azienda californiana,
e lo ha trovato molto interessante. Più tardi,
quel giorno, ha scritto che si trattava del
“più grande cambiamento mai avvenuto
nei motori di ricerca”. Bastava il titolo per
capirlo: “Ricerche personalizzate per tutti”.
Oggi Google usa 57 indicatori – dal luogo
in cui siamo al browser che stiamo usando
al tipo di ricerche che abbiamo fatto in precedenza
– per cercare di capire chi siamo e
che genere di siti ci piacerebbe visitare. Una ha trovato
informazioni sugli investimenti legati
alla Bp. L’altra le notizie. In un caso, la prima
pagina dei risultati di Google conteneva
i link sull’incidente nel golfo, nell’altro non
c’era niente del genere, solo una pubblicità
della compagnia petrolifera. Perfino il numero
dei risultati era diverso: 180 milioni
per una e 139 milioni per l’altra. Se le differenze
tra due donne di sinistra della costa
est erano così grandi, immaginate quanto
possono esserlo, per esempio, rispetto a
quelle di un vecchio repubblicano del Texas
o di un uomo d’affari giapponese.
Ora che Google è personalizzato, la ricerca
di “cellule staminali” probabilmente
dà risultati diametralmente opposti agli
scienziati che sono favorevoli alla ricerca
sulle staminali e a quelli che sono contrari.
Scrivendo “prove del cambiamento climatico”
un ambientalista e il dirigente di una
compagnia petrolifera troveranno risposte
contrastanti.
La maggioranza di noi crede che i motori
di ricerca siano neutrali. Ma probabilmente
lo pensiamo perché sono impostati
che quando non siamo collegati, continua a
personalizzare i risultati e a mostrarci le pagine
sulle quali probabilmente cliccheremo.
Di solito si pensa che facendo una ricerca
su Google tutti ottengano gli stessi risultati:
quelli che secondo il famoso algoritmo
dell’azienda, PageRank, hanno maggiore
rilevanza in relazione ai termini cercati. Ma
dal dicembre 2009 non è più così. Oggi vediamo
i risultati che secondo PageRank
sono più adatti a noi, mentre altre persone
vedono cose completamente diverse. In
poche parole, Google non è più uguale per
tutti.
Accorgersi della dfiferenza non è difficile.
Nella primavera del 2010, mentre la piattaforma
Deepwater Horizon vomitava petrolio
nel golfo del Messico, ho chiesto a due
mie amiche di fare la stessa ricerca su Google.
Entrambe vivono nel nordest degli Stati
Uniti e sono bianche, colte e di sinistra:
insomma, due persone abbastanza simili.
Entrambe hanno cercato “Bp”. Ma hanno
ottenuto risultati molto diversi. Una ha tro-
in modo da assecondare le nostre idee. Lo
schermo del computer rispetta sempre più
i nostri interessi mentre gli analisti degli algoritmi
osservano tutto quello che clicchiamo.
L’annuncio di Google ha segnato il
punto di svolta di una rivoluzione importante
ma quasi invisibile del nostro modo di
consumare le informazioni. Potremmo dire
che il 4 dicembre 2009 è cominciata l’era
della personalizzazione.
Dimmi cosa voglio
Il mondo digitale sta cambiando, discretamente
e senza fare troppo chiasso. Quello
che un tempo era un mezzo anonimo in cui
tutti potevano essere chiunque – in cui nessuno
sa che sei un cane, come diceva una
famosa vignetta del New Yorker – ora è un
modo per raccogliere e analizzare i nostri
dati personali. Secondo uno studio del Wall
Street Journal, i cinquanta siti più popolari
del mondo, dalla Cnn a Yahoo! a Msn, installano
in media 64 cookie e beacon carichi
di dati su di noi. Se cerchiamo una parola
come “depressione” su un dizionario
online, il sito installa nel nostro computer
fino a 223 cookie e beacon che
permettono ad altri siti di inviarci
pubblicità di antidepressivi. Se
facciamo una ricerca sulla possibilità
che nostra moglie ci tradisca,
saremo tempestati di annunci
sui test del dna per accertare la paternità
dei igli. Oggi la rete non solo sa che sei un
cane, ma anche di che razza sei, e vuole
venderti una ciotola di cibo.
La gara per sapere il più possibile su di
noi è ormai al centro della battaglia del secolo
tra colossi come Google, Facebook,
Apple e Microsoft. Come mi ha spiegato
Chris Palmer dell’Electronic frontier
foundation, “il servizio sembra gratuito,
ma lo paghiamo con le informazioni su di
noi. Informazioni che Google e Facebook
sono pronti a trasformare in denaro”. Anche
se sono strumenti utili e gratuiti, Gmail
e Facebook sono anche eicienti e voracissime
macchine per estrarre informazioni,
in cui noi riversiamo i dettagli più intimi
della nostra vita. Il nostro iPhone sa esattamente
dove andiamo, chi chiamiamo, cosa
leggiamo. Con il suo microfono incorporato,
il giroscopio e il gps, è in grado di capire
se stiamo camminando, siamo in macchina
o a una festa.
Anche se (inora) Google ha promesso
di non divulgare i nostri dati personali, altri
siti e applicazioni molto popolari non garantiscono
nulla del genere. Dietro le pagine
che visitiamo, si annida un enorme mercato
di informazioni su quello che facciamo
online. Lo controllano società per la raccolta
dei dati poco conosciute ma molto redditizie,
come BlueKai e Acxiom. La sola Acxiom
ha accumulato una media di 1.500
informazioni – dalla capacità di credito ai
farmaci comprati online – su ogni persona
nel suo database, che comprende il 96 per
cento degli americani. E qualsiasi sito web,
non solo Google e Facebook, ora può partecipare
al banchetto.
Secondo i piazzisti del “mercato dei
comportamenti”, ogni clic è una merce e
ogni movimento del nostro mouse può essere
venduto, in pochi microsecondi, al miglior
offerente. Come strategia di mercato,
la formula dei colossi di internet è semplice:
più informazioni personali sono in grado di
offrire, più spazi pubblicitari possono vendere,
e più probabilità ci sono che compriamo
i prodotti che ci vengono mostrati. È
una formula che funziona. Amazon vende
miliardi di dollari di merce provando a prevedere
quello che può interessare a ogni
consumatore e mettendo i risultati in evidenza
nel suo negozio virtuale. Più del 60
per cento dei film scaricati o dei dvd aittati
su Netlix dipende dalle ipotesi
che il sito fa sulle preferenze di
ciascun cliente.
Secondo la direttrice operativa
di Facebook, Sheryl Sandberg,
nel giro di tre, al massimo cinque
anni l’idea di un sito non personalizzato
sembrerà assurda. Uno dei vicepresidenti
di Yahoo!, Tapan Bhat, è d’accordo: “Il futuro
del web è la personalizzazione. Ormai il
web parla con ‘me’. La rete deve essere intelligente
e fatta su misura per ogni utente”.
L’ex amministratore delegato di Google,
Eric Schmidt, dichiara con entusiasmo: “Il
prodotto che ho sempre voluto creare” è un
codice che “indovina quello che sto per
scrivere”. Google instant, che anticipa quello
che vogliamo cercare mentre scriviamo,
è uscito nell’autunno del 2010, ed è solo
l’inizio. Secondo Schmidt gli utenti vogliono
che Google “dica cosa devono fare dopo”.
Se fosse solo un modo per vendere pubblicità
mirata, non sarebbe tanto grave. Ma
la personalizzazione non condiziona solo
quello che compriamo. Per una percentuale
sempre maggiore di utenti, i siti di notizie
personalizzate come Face book stanno diventando
fonti di informazione fondamentali:
il 36 per cento degli americani sotto i
trent’anni legge le notizie sui social network.
Come dice il suo fondatore, Mark
Zuckerberg, Facebook è forse la più grande
fonte di notizie del mondo (almeno per
quanto riguarda una certa idea di “notizie”).
Ma la personalizzazione non sta condizionando
il lusso delle informazioni solo
su Facebook: ormai servizi come Yahoo
News e News.me, lanciato dal New York
Times, adattano i titoli ai nostri particolari
interessi e desideri. La personalizzazione
interviene anche nella scelta dei video che
guardiamo su YouTube e sui blog. Inluisce
sulle email che riceviamo, sui potenziali
partner che incontriamo su OkCupid, e sui
ristoranti che ci consiglia Yelp: la personalizzazione
può stabilire non solo con chi
usciamo, ma anche dove andiamo e di cosa
parleremo. Gli algoritmi che gestiscono le
pubblicità mirate stanno cominciando a gestire
la nostra vita. Come ha spiegato Eric
Schmidt, “sarà molto difficile guardare o
comprare qualcosa che in un certo senso
non sia stato creato su misura per noi”.
Il codice della nuova rete è piuttosto
semplice. I filtri di nuova generazione guardano
le cose che ci piacciano – basandosi su
quello che abbiamo fatto o che piace alle
persone simili a noi – e poi estrapolano le
informazioni. Sono in grado di fare previsioni,
di creare e raffinare continuamente
una teoria su chi siamo, cosa faremo e cosa
vorremo. Insieme, filtrano un universo di
informazioni specifico per ciascuno di noi,
una “bolla dei filtri”, che altera il modo in
cui entriamo in contatto con le idee e le informazioni.
In un modo o nell’altro tutti
abbiamo sempre scelto cose che ci interessano
e ignorato quasi tutto il resto. Ma la
bolla dei filtri introduce tre nuove dinamiche.
Prima di tutto, al suo interno siamo soli.
Un canale via cavo dedicato a chi ha un interesse
speciico (per esempio il golf ), ha
altri telespettatori che hanno qualcosa in
comune tra loro. Nella bolla invece siamo
soli. In un’epoca in cui le informazioni condivise
sono alla base di esperienze condivise,
la bolla dei filtri è una forza centrifuga
che ci divide.
In secondo luogo, la bolla è invisibile. La
maggior parte delle persone che consultano
fonti di notizie di destra o di sinistra sa
che quelle informazioni si rivolgono a chi
ha un particolare orientamento politico. Ma
Google non è così trasparente. Non ci dice
chi pensa che siamo o perché ci mostra i risultati
che vediamo. Non sappiamo se sta
facendo ipotesi giuste o sbagliate su di noi,
non sappiamo neanche se le sta facendo. La
mia amica che cercava notizie sulla Bp non
ha idea del perché abbia trovato informazioni
sugli investimenti, non è un’agente di
borsa. Dato che non abbiamo scelto i criteri
con cui i siti filtrano le informazioni in entrata
e in uscita, è facile immaginare che
quelle che ci arrivano attraverso la bolla siano
obiettive e neutrali. Ma non è così. In realtà,
dall’interno della bolla è quasi impossibile
accorgersi di quanto quelle informazioni
siano mirate. Non decidiamo noi
quello che ci arriva. E, soprattutto, non vediamo
quello che esce.
Inine, non scegliamo noi di entrare nella
bolla. Quando guardiamo Fox News o
leggiamo The New Statesman, abbiamo già
deciso che filtro usare per interpretare il
mondo. È un processo attivo, e come se inforcassimo
volontariamente un paio di lenti
colorate, sappiamo benissimo che le opinioni
dei giornalisti condizionano la nostra
percezione del mondo. Ma nel caso dei filtri
personalizzati non facciamo lo stesso tipo
di scelta. Sono loro a venire da noi, e dato
che si arricchiscono, sarà sempre più difficile
sfuggirgli.
La fine dello spazio pubblico
La personalizzazione si basa su un accordo
economico. In cambio del servizio che offrono
i filtri, regaliamo alle grandi aziende
un’enorme quantità di dati sulla nostra vita
privata. E queste aziende diventano ogni
giorno più brave a usarli per prendere decisioni.
Ma non abbiamo nessuna garanzia
che li trattino con cura, e quando sulla base
di questi dati vengono prese decisioni che
inluiscono negativamente su di noi, di solito
nessuno ce lo dice.
La bolla dei filtri può influire sulla nostra
capacità di scegliere come vogliamo vivere.
Secondo Yochai Benkler, professore di legge
ad Harvard e studioso della nuova economia
della rete, per essere artefici della
nostra vita dobbiamo essere consapevoli di
una serie di modi di vivere alternativi.
Quando entriamo in una bolla dei filtri, permettiamo
alle aziende che la costruiscono
di scegliere quali alternative possiamo
prendere in considerazione. Ci illudiamo di
essere padroni del nostro destino, ma la
personalizzazione può produrre una sorta
di determinismo dell’informazione, in cui
quello che abbiamo cliccato in passato determina
quello che vedremo in futuro, una
storia destinata a ripetersi all’infinito. Rischiamo
di restare bloccati in una versione
statica e sempre più ridotta di noi stessi, una
specie di circolo vizioso.
Ci sono anche conseguenze più ampie.
Nel suo Capitale sociale e individualismo (Il
Mulino 2004), il libro sul declino del senso
civico in America, Robert Putnam affronta
il problema dell’assottigliamento del “capitale
sociale”, cioè di quei legami di fiducia e
lealtà reciproca che spingono le persone a
scambiarsi favori e a collaborare per risolvere
problemi comuni. Putnam individua
due tipi di capitale sociale: “Lo spirito di
gruppo”, che per esempio si crea tra gli ex
studenti della stessa università, e il “senso
della comunità”, che per esempio si crea
quando persone diverse si incontrano in
un’assemblea pubblica. Questo secondo
tipo di capitale è molto potente: se lo accumuliamo,
abbiamo più probabilità di trovare
un posto di lavoro o qualcuno disposto a
investire nella nostra impresa, perché ci
consente di attingere a tante reti diverse.
Tutti si aspettavano che internet sarebbe
stata una grande fonte di capitale del
secondo tipo. Al culmine della bolla tecnologica
di dieci anni fa, Thomas L. Friedman
scriveva che internet ci avrebbe resi “tutti
vicini di casa”. Questa idea era alla base del
suo libro Le radici del futuro (Mondadori
2001): “Internet diventerà una grande morsa
che prenderà il sistema della globalizzazione
e continuerà a stringerlo intorno a
tutti fino a rendere il mondo ogni giorno più
piccolo e veloce”.
Friedman aveva in mente una sorta di
villaggio globale in cui i bambini africani e i
dirigenti d’azienda di New York avrebbero
formato un’unica comunità. Ma non è quello
che sta succedendo. I nostri vicini virtuali
somigliano sempre più a quelli reali, e i
nostri vicini reali somigliano sempre più a
noi. Abbiamo sempre più “spirito di gruppo”
ma pochissimo “senso della comunità”.
E questo è importante perché dal senso della
comunità nasce la nostra idea di uno
“spazio pubblico” in cui cerchiamo di risolvere
i problemi che vanno oltre i nostri interessi
personali.
Di solito tendiamo a reagire a una gamma
di stimoli molto limitata: leggiamo per
prima una notizia che riguarda il sesso, il
potere, la violenza, una persona famosa,
oppure che ci fa ridere. Questo è il tipo di
contenuti che entra più facilmente nella
bolla dei filtri. È facile cliccare su “mi piace”
e aumentare la visibilità del post di un amico
che ha partecipato a una maratona o di
una ricetta della zuppa di cipolle. È molto
più difficile cliccare “mi piace” su un articolo
intitolato “In Darfur è stato il mese più
sanguinoso degli ultimi due anni”. In un
mondo personalizzato, ci sono poche probabilità
che questioni importanti, ma complesse
o sgradevoli, arrivino alla nostra attenzione.
Tutto questo non è particolarmente preoccupante
se le informazioni che entrano
ed escono nel nostro universo personale
riguardano solo prodotti di consumo. Ma
quando la personalizzazione riguarda anche
i nostri pensieri, oltre che i nostri acquisti,
nascono altri problemi. La democrazia
dipende dalla capacità dei cittadini di confrontarsi
con punti di vista diversi. Quando
ci ofre solo informazioni che riflettono le
nostre opinioni, internet limita questo confronto.
Anche se a volte ci fa comodo vedere
quello che vogliamo, in altri momenti è importante
che non sia così.
Come i vecchi guardiani delle porte della
città, i tecnici che scrivono i nuovi codici
hanno l’enorme potere di determinare
quello che sappiamo del mondo. Ma diversamente
da quei guardiani, quelli di oggi
non si sentono i difensori del bene pubblico.
Non esiste l’algoritmo dell’etica giornalistica.
Una volta Mark Zuckerberg, il fondatore
di Facebook, ha detto ai suoi colleghi che
per un utente “uno scoiattolo che
muore nel suo giardino può essere
più rilevante di tutte le persone
che muoiono in Africa”. Su Facebook
la “rilevanza” è praticamente
l’unico criterio che determina
quello che vedono gli utenti. Concentrarsi
sulle notizie più rilevanti sul piano personale,
come lo scoiattolo che muore, è una
grande strategia di mercato. Ma ci lascia
vedere solo il nostro giardino e non le persone
che altrove soffrono, muoiono o lottano
per la libertà.
Non è possibile tornare al vecchio sistema
dei guardiani, e non sarebbe neanche
giusto. Ma se adesso sono gli algoritmi a
prendere le decisioni e a stabilire quello che
vediamo, dobbiamo essere sicuri che le variabili
di cui tengono conto vadano oltre la
stretta “rilevanza” personale. Devono farci
vedere l’Afghanistan e la Libia, non solo Apple
e il nostro cantante preferito.
Come consumatori, non è difficile stabilire
quello che per noi è irrilevante o poco
interessante. Ma quello che va bene per un
consumatore non va bene necessariamente
anche per un cittadino. Non è detto che
quello che apparentemente mi piace sia
quello che voglio veramente, e tantomeno
che sia quello che devo sapere per essere un
cittadino informato di una comunità o di un
paese. “È nostro dovere di cittadini essere
informati anche su cose che sembrano essere
al di fuori dei nostri interessi”, mi ha
detto l’esperto di tecnologia Clive Thompson.
Il critico Lee Siegel la mette in un altro
modo: “I clienti hanno sempre ragione, le
persone no”.
Lobotomia globale
L’era della personalizzazione sta ribaltando
tutte le nostre previsioni su internet. I creatori
della rete avevano immaginato qualcosa
di più grande e di più importante di un
sistema globale per condividere le foto del
nostro gatto. Il manifesto dell’Electronic
frontier foundation all’inizio degli anni novanta
parlava di una “civiltà della mente nel
ciberspazio”, una sorta di metacervello globale.
Ma i filtri personalizzati troncano le
sinapsi di quel cervello. Senza saperlo, ci
stiamo facendo una lobotomia globale.
I primi entusiasti di internet, come il
creatore del web Tim BernersLee,
speravano che la rete sarebbe stata una nuova
piattaforma da cui affrontare insieme i problemi
del mondo. Io penso che possa ancora
esserlo, ma prima dobbiamo guardare
dietro le quinte, capire quali forze stanno
spingendo nella direzione attuale. Dobbiamo
smascherare il codice e i suoi creatori,
quelli che ci hanno dato la personalizzazione.
Se “il codice è legge”, come
ha dichiarato il fondatore di Creative
commons Larry Lessig, è
importante capire quello che
stanno cercando di fare i nuovi legislatori.
Dobbiamo sapere in cosa credono i programmatori
di Google e Face book. Dobbiamo
capire quali forze economiche e sociali
sono dietro alla personalizzazione, che in
parte sono inevitabili e in parte no. E dobbiamo
capire cosa significa tutto questo per
la politica, la cultura e il nostro futuro. Le
aziende che usano gli algoritmi devono assumersi
questa responsabilità. Devono lasciarci
il controllo di quello che vediamo,
dicendoci chiaramente quando stanno personalizzando
e permettendoci di modificare
i nostri filtri. Ma anche noi cittadini dobbiamo
fare la nostra parte, imparare a “conoscere
i filtri” per usarli bene e chiedere
contenuti che allarghino i nostri orizzonti
anche quando sono sgradevoli.
È nel nostro interesse collettivo assicurarci
che internet esprima tutto il suo potenziale
di mezzo di connessione rivoluzionario.
Ma non potrà farlo se resteremo
chiusi nel nostro mondo online personalizzato.