Questo sito contribuisce all'audience di

Quello che internet ci nasconde

di Posted on
Condivisioni

Poche persone hanno notato

il post apparso sul blog ufficiale

di Google il 4 dicembre

2009. Non cercava di

attirare l’attenzione: nessuna

dichiarazione sconvolgente

né annunci roboanti da Silicon valley,

solo pochi paragrafi infilati tra la lista delle

parole più cercate e un aggiornamento sul

software finanziario di Google.

Ma non è sfuggito a tutti. Il blogger Danny

Sullivan analizza sempre con cura i post

di Google per cercare di capire quali sono i

prossimi progetti dell’azienda californiana,

e lo ha trovato molto interessante. Più tardi,

quel giorno, ha scritto che si trattava del

“più grande cambiamento mai avvenuto

nei motori di ricerca”. Bastava il titolo per

capirlo: “Ricerche personalizzate per tutti”.

Oggi Google usa 57 indicatori – dal luogo

in cui siamo al browser che stiamo usando

al tipo di ricerche che abbiamo fatto in precedenza

– per cercare di capire chi siamo e

che genere di siti ci piacerebbe visitare. Una ha trovato

informazioni sugli investimenti legati

alla Bp. L’altra le notizie. In un caso, la prima

pagina dei risultati di Google conteneva

i link sull’incidente nel golfo, nell’altro non

c’era niente del genere, solo una pubblicità

della compagnia petrolifera. Perfino il numero

dei risultati era diverso: 180 milioni

per una e 139 milioni per l’altra. Se le differenze

tra due donne di sinistra della costa

est erano così grandi, immaginate quanto

possono esserlo, per esempio, rispetto a

quelle di un vecchio repubblicano del Texas

o di un uomo d’affari giapponese.

Ora che Google è personalizzato, la ricerca

di “cellule staminali” probabilmente

dà risultati diametralmente opposti agli

scienziati che sono favorevoli alla ricerca

sulle staminali e a quelli che sono contrari.

Scrivendo “prove del cambiamento climatico”

un ambientalista e il dirigente di una

compagnia petrolifera troveranno risposte

contrastanti.

La maggioranza di noi crede che i motori

di ricerca siano neutrali. Ma probabilmente

lo pensiamo perché sono impostati

che quando non siamo collegati, continua a

personalizzare i risultati e a mostrarci le pagine

sulle quali probabilmente cliccheremo.

Di solito si pensa che facendo una ricerca

su Google tutti ottengano gli stessi risultati:

quelli che secondo il famoso algoritmo

dell’azienda, PageRank, hanno maggiore

rilevanza in relazione ai termini cercati. Ma

dal dicembre 2009 non è più così. Oggi vediamo

i risultati che secondo PageRank

sono più adatti a noi, mentre altre persone

vedono cose completamente diverse. In

poche parole, Google non è più uguale per

tutti.

Accorgersi della dfiferenza non è difficile.

Nella primavera del 2010, mentre la piattaforma

Deepwater Horizon vomitava petrolio

nel golfo del Messico, ho chiesto a due

mie amiche di fare la stessa ricerca su Google.

Entrambe vivono nel nordest degli Stati

Uniti e sono bianche, colte e di sinistra:

insomma, due persone abbastanza simili.

Entrambe hanno cercato “Bp”. Ma hanno

ottenuto risultati molto diversi. Una ha tro-

in modo da assecondare le nostre idee. Lo

schermo del computer rispetta sempre più

i nostri interessi mentre gli analisti degli algoritmi

osservano tutto quello che clicchiamo.

L’annuncio di Google ha segnato il

punto di svolta di una rivoluzione importante

ma quasi invisibile del nostro modo di

consumare le informazioni. Potremmo dire

che il 4 dicembre 2009 è cominciata l’era

della personalizzazione.

Dimmi cosa voglio

Il mondo digitale sta cambiando, discretamente

e senza fare troppo chiasso. Quello

che un tempo era un mezzo anonimo in cui

tutti potevano essere chiunque – in cui nessuno

sa che sei un cane, come diceva una

famosa vignetta del New Yorker – ora è un

modo per raccogliere e analizzare i nostri

dati personali. Secondo uno studio del Wall

Street Journal, i cinquanta siti più popolari

del mondo, dalla Cnn a Yahoo! a Msn, installano

in media 64 cookie e beacon carichi

di dati su di noi. Se cerchiamo una parola

come “depressione” su un dizionario

online, il sito installa nel nostro computer

fino a 223 cookie e beacon che

permettono ad altri siti di inviarci

pubblicità di antidepressivi. Se

facciamo una ricerca sulla possibilità

che nostra moglie ci tradisca,

saremo tempestati di annunci

sui test del dna per accertare la paternità

dei igli. Oggi la rete non solo sa che sei un

cane, ma anche di che razza sei, e vuole

venderti una ciotola di cibo.

La gara per sapere il più possibile su di

noi è ormai al centro della battaglia del secolo

tra colossi come Google, Facebook,

Apple e Microsoft. Come mi ha spiegato

Chris Palmer dell’Electronic frontier

foundation, “il servizio sembra gratuito,

ma lo paghiamo con le informazioni su di

noi. Informazioni che Google e Facebook

sono pronti a trasformare in denaro”. Anche

se sono strumenti utili e gratuiti, Gmail

e Facebook sono anche eicienti e voracissime

macchine per estrarre informazioni,

in cui noi riversiamo i dettagli più intimi

della nostra vita. Il nostro iPhone sa esattamente

dove andiamo, chi chiamiamo, cosa

leggiamo. Con il suo microfono incorporato,

il giroscopio e il gps, è in grado di capire

se stiamo camminando, siamo in macchina

o a una festa.

Anche se (inora) Google ha promesso

di non divulgare i nostri dati personali, altri

siti e applicazioni molto popolari non garantiscono

nulla del genere. Dietro le pagine

che visitiamo, si annida un enorme mercato

di informazioni su quello che facciamo

online. Lo controllano società per la raccolta

dei dati poco conosciute ma molto redditizie,

come BlueKai e Acxiom. La sola Acxiom

ha accumulato una media di 1.500

informazioni – dalla capacità di credito ai

farmaci comprati online – su ogni persona

nel suo database, che comprende il 96 per

cento degli americani. E qualsiasi sito web,

non solo Google e Facebook, ora può partecipare

al banchetto.

Secondo i piazzisti del “mercato dei

comportamenti”, ogni clic è una merce e

ogni movimento del nostro mouse può essere

venduto, in pochi microsecondi, al miglior

offerente. Come strategia di mercato,

la formula dei colossi di internet è semplice:

più informazioni personali sono in grado di

offrire, più spazi pubblicitari possono vendere,

e più probabilità ci sono che compriamo

i prodotti che ci vengono mostrati. È

una formula che funziona. Amazon vende

miliardi di dollari di merce provando a prevedere

quello che può interessare a ogni

consumatore e mettendo i risultati in evidenza

nel suo negozio virtuale. Più del 60

per cento dei film scaricati o dei dvd aittati

su Netlix dipende dalle ipotesi

che il sito fa sulle preferenze di

ciascun cliente.

Secondo la direttrice operativa

di Facebook, Sheryl Sandberg,

nel giro di tre, al massimo cinque

anni l’idea di un sito non personalizzato

sembrerà assurda. Uno dei vicepresidenti

di Yahoo!, Tapan Bhat, è d’accordo: “Il futuro

del web è la personalizzazione. Ormai il

web parla con ‘me’. La rete deve essere intelligente

e fatta su misura per ogni utente”.

L’ex amministratore delegato di Google,

Eric Schmidt, dichiara con entusiasmo: “Il

prodotto che ho sempre voluto creare” è un

codice che “indovina quello che sto per

scrivere”. Google instant, che anticipa quello

che vogliamo cercare mentre scriviamo,

è uscito nell’autunno del 2010, ed è solo

l’inizio. Secondo Schmidt gli utenti vogliono

che Google “dica cosa devono fare dopo”.

Se fosse solo un modo per vendere pubblicità

mirata, non sarebbe tanto grave. Ma

la personalizzazione non condiziona solo

quello che compriamo. Per una percentuale

sempre maggiore di utenti, i siti di notizie

personalizzate come Face book stanno diventando

fonti di informazione fondamentali:

il 36 per cento degli americani sotto i

trent’anni legge le notizie sui social network.

Come dice il suo fondatore, Mark

Zuckerberg, Facebook è forse la più grande

fonte di notizie del mondo (almeno per

quanto riguarda una certa idea di “notizie”).

Ma la personalizzazione non sta condizionando

il lusso delle informazioni solo

su Facebook: ormai servizi come Yahoo

News e News.me, lanciato dal New York

Times, adattano i titoli ai nostri particolari

interessi e desideri. La personalizzazione

interviene anche nella scelta dei video che

guardiamo su YouTube e sui blog. Inluisce

sulle email che riceviamo, sui potenziali

partner che incontriamo su OkCupid, e sui

ristoranti che ci consiglia Yelp: la personalizzazione

può stabilire non solo con chi

usciamo, ma anche dove andiamo e di cosa

parleremo. Gli algoritmi che gestiscono le

pubblicità mirate stanno cominciando a gestire

la nostra vita. Come ha spiegato Eric

Schmidt, “sarà molto difficile guardare o

comprare qualcosa che in un certo senso

non sia stato creato su misura per noi”.

Il codice della nuova rete è piuttosto

semplice. I filtri di nuova generazione guardano

le cose che ci piacciano – basandosi su

quello che abbiamo fatto o che piace alle

persone simili a noi – e poi estrapolano le

informazioni. Sono in grado di fare previsioni,

di creare e raffinare continuamente

una teoria su chi siamo, cosa faremo e cosa

vorremo. Insieme, filtrano un universo di

informazioni specifico per ciascuno di noi,

una “bolla dei filtri”, che altera il modo in

cui entriamo in contatto con le idee e le informazioni.

In un modo o nell’altro tutti

abbiamo sempre scelto cose che ci interessano

e ignorato quasi tutto il resto. Ma la

bolla dei filtri introduce tre nuove dinamiche.

Prima di tutto, al suo interno siamo soli.

Un canale via cavo dedicato a chi ha un interesse

speciico (per esempio il golf ), ha

altri telespettatori che hanno qualcosa in

comune tra loro. Nella bolla invece siamo

soli. In un’epoca in cui le informazioni condivise

sono alla base di esperienze condivise,

la bolla dei filtri è una forza centrifuga

che ci divide.

In secondo luogo, la bolla è invisibile. La

maggior parte delle persone che consultano

fonti di notizie di destra o di sinistra sa

che quelle informazioni si rivolgono a chi

ha un particolare orientamento politico. Ma

Google non è così trasparente. Non ci dice

chi pensa che siamo o perché ci mostra i risultati

che vediamo. Non sappiamo se sta

facendo ipotesi giuste o sbagliate su di noi,

non sappiamo neanche se le sta facendo. La

mia amica che cercava notizie sulla Bp non

ha idea del perché abbia trovato informazioni

sugli investimenti, non è un’agente di

borsa. Dato che non abbiamo scelto i criteri

con cui i siti filtrano le informazioni in entrata

e in uscita, è facile immaginare che

quelle che ci arrivano attraverso la bolla siano

obiettive e neutrali. Ma non è così. In realtà,

dall’interno della bolla è quasi impossibile

accorgersi di quanto quelle informazioni

siano mirate. Non decidiamo noi

quello che ci arriva. E, soprattutto, non vediamo

quello che esce.

Inine, non scegliamo noi di entrare nella

bolla. Quando guardiamo Fox News o

leggiamo The New Statesman, abbiamo già

deciso che filtro usare per interpretare il

mondo. È un processo attivo, e come se inforcassimo

volontariamente un paio di lenti

colorate, sappiamo benissimo che le opinioni

dei giornalisti condizionano la nostra

percezione del mondo. Ma nel caso dei filtri

personalizzati non facciamo lo stesso tipo

di scelta. Sono loro a venire da noi, e dato

che si arricchiscono, sarà sempre più difficile

sfuggirgli.

La fine dello spazio pubblico

La personalizzazione si basa su un accordo

economico. In cambio del servizio che offrono

i filtri, regaliamo alle grandi aziende

un’enorme quantità di dati sulla nostra vita

privata. E queste aziende diventano ogni

giorno più brave a usarli per prendere decisioni.

Ma non abbiamo nessuna garanzia

che li trattino con cura, e quando sulla base

di questi dati vengono prese decisioni che

inluiscono negativamente su di noi, di solito

nessuno ce lo dice.

La bolla dei filtri può influire sulla nostra

capacità di scegliere come vogliamo vivere.

Secondo Yochai Benkler, professore di legge

ad Harvard e studioso della nuova economia

della rete, per essere artefici della

nostra vita dobbiamo essere consapevoli di

una serie di modi di vivere alternativi.

Quando entriamo in una bolla dei filtri, permettiamo

alle aziende che la costruiscono

di scegliere quali alternative possiamo

prendere in considerazione. Ci illudiamo di

essere padroni del nostro destino, ma la

personalizzazione può produrre una sorta

di determinismo dell’informazione, in cui

quello che abbiamo cliccato in passato determina

quello che vedremo in futuro, una

storia destinata a ripetersi all’infinito. Rischiamo

di restare bloccati in una versione

statica e sempre più ridotta di noi stessi, una

specie di circolo vizioso.

Ci sono anche conseguenze più ampie.

Nel suo Capitale sociale e individualismo (Il

Mulino 2004), il libro sul declino del senso

civico in America, Robert Putnam affronta

il problema dell’assottigliamento del “capitale

sociale”, cioè di quei legami di fiducia e

lealtà reciproca che spingono le persone a

scambiarsi favori e a collaborare per risolvere

problemi comuni. Putnam individua

due tipi di capitale sociale: “Lo spirito di

gruppo”, che per esempio si crea tra gli ex

studenti della stessa università, e il “senso

della comunità”, che per esempio si crea

quando persone diverse si incontrano in

un’assemblea pubblica. Questo secondo

tipo di capitale è molto potente: se lo accumuliamo,

abbiamo più probabilità di trovare

un posto di lavoro o qualcuno disposto a

investire nella nostra impresa, perché ci

consente di attingere a tante reti diverse.

Tutti si aspettavano che internet sarebbe

stata una grande fonte di capitale del

secondo tipo. Al culmine della bolla tecnologica

di dieci anni fa, Thomas L. Friedman

scriveva che internet ci avrebbe resi “tutti

vicini di casa”. Questa idea era alla base del

suo libro Le radici del futuro (Mondadori

2001): “Internet diventerà una grande morsa

che prenderà il sistema della globalizzazione

e continuerà a stringerlo intorno a

tutti fino a rendere il mondo ogni giorno più

piccolo e veloce”.

Friedman aveva in mente una sorta di

villaggio globale in cui i bambini africani e i

dirigenti d’azienda di New York avrebbero

formato un’unica comunità. Ma non è quello

che sta succedendo. I nostri vicini virtuali

somigliano sempre più a quelli reali, e i

nostri vicini reali somigliano sempre più a

noi. Abbiamo sempre più “spirito di gruppo”

ma pochissimo “senso della comunità”.

E questo è importante perché dal senso della

comunità nasce la nostra idea di uno

“spazio pubblico” in cui cerchiamo di risolvere

i problemi che vanno oltre i nostri interessi

personali.

Di solito tendiamo a reagire a una gamma

di stimoli molto limitata: leggiamo per

prima una notizia che riguarda il sesso, il

potere, la violenza, una persona famosa,

oppure che ci fa ridere. Questo è il tipo di

contenuti che entra più facilmente nella

bolla dei filtri. È facile cliccare su “mi piace”

e aumentare la visibilità del post di un amico

che ha partecipato a una maratona o di

una ricetta della zuppa di cipolle. È molto

più difficile cliccare “mi piace” su un articolo

intitolato “In Darfur è stato il mese più

sanguinoso degli ultimi due anni”. In un

mondo personalizzato, ci sono poche probabilità

che questioni importanti, ma complesse

o sgradevoli, arrivino alla nostra attenzione.

Tutto questo non è particolarmente preoccupante

se le informazioni che entrano

ed escono nel nostro universo personale

riguardano solo prodotti di consumo. Ma

quando la personalizzazione riguarda anche

i nostri pensieri, oltre che i nostri acquisti,

nascono altri problemi. La democrazia

dipende dalla capacità dei cittadini di confrontarsi

con punti di vista diversi. Quando

ci ofre solo informazioni che riflettono le

nostre opinioni, internet limita questo confronto.

Anche se a volte ci fa comodo vedere

quello che vogliamo, in altri momenti è importante

che non sia così.

Come i vecchi guardiani delle porte della

città, i tecnici che scrivono i nuovi codici

hanno l’enorme potere di determinare

quello che sappiamo del mondo. Ma diversamente

da quei guardiani, quelli di oggi

non si sentono i difensori del bene pubblico.

Non esiste l’algoritmo dell’etica giornalistica.

Una volta Mark Zuckerberg, il fondatore

di Facebook, ha detto ai suoi colleghi che

per un utente “uno scoiattolo che

muore nel suo giardino può essere

più rilevante di tutte le persone

che muoiono in Africa”. Su Facebook

la “rilevanza” è praticamente

l’unico criterio che determina

quello che vedono gli utenti. Concentrarsi

sulle notizie più rilevanti sul piano personale,

come lo scoiattolo che muore, è una

grande strategia di mercato. Ma ci lascia

vedere solo il nostro giardino e non le persone

che altrove soffrono, muoiono o lottano

per la libertà.

Non è possibile tornare al vecchio sistema

dei guardiani, e non sarebbe neanche

giusto. Ma se adesso sono gli algoritmi a

prendere le decisioni e a stabilire quello che

vediamo, dobbiamo essere sicuri che le variabili

di cui tengono conto vadano oltre la

stretta “rilevanza” personale. Devono farci

vedere l’Afghanistan e la Libia, non solo Apple

e il nostro cantante preferito.

Come consumatori, non è difficile stabilire

quello che per noi è irrilevante o poco

interessante. Ma quello che va bene per un

consumatore non va bene necessariamente

anche per un cittadino. Non è detto che

quello che apparentemente mi piace sia

quello che voglio veramente, e tantomeno

che sia quello che devo sapere per essere un

cittadino informato di una comunità o di un

paese. “È nostro dovere di cittadini essere

informati anche su cose che sembrano essere

al di fuori dei nostri interessi”, mi ha

detto l’esperto di tecnologia Clive Thompson.

Il critico Lee Siegel la mette in un altro

modo: “I clienti hanno sempre ragione, le

persone no”.

Lobotomia globale

L’era della personalizzazione sta ribaltando

tutte le nostre previsioni su internet. I creatori

della rete avevano immaginato qualcosa

di più grande e di più importante di un

sistema globale per condividere le foto del

nostro gatto. Il manifesto dell’Electronic

frontier foundation all’inizio degli anni novanta

parlava di una “civiltà della mente nel

ciberspazio”, una sorta di metacervello globale.

Ma i filtri personalizzati troncano le

sinapsi di quel cervello. Senza saperlo, ci

stiamo facendo una lobotomia globale.

I primi entusiasti di internet, come il

creatore del web Tim BernersLee,

speravano che la rete sarebbe stata una nuova

piattaforma da cui affrontare insieme i problemi

del mondo. Io penso che possa ancora

esserlo, ma prima dobbiamo guardare

dietro le quinte, capire quali forze stanno

spingendo nella direzione attuale. Dobbiamo

smascherare il codice e i suoi creatori,

quelli che ci hanno dato la personalizzazione.

Se “il codice è legge”, come

ha dichiarato il fondatore di Creative

commons Larry Lessig, è

importante capire quello che

stanno cercando di fare i nuovi legislatori.

Dobbiamo sapere in cosa credono i programmatori

di Google e Face book. Dobbiamo

capire quali forze economiche e sociali

sono dietro alla personalizzazione, che in

parte sono inevitabili e in parte no. E dobbiamo

capire cosa significa tutto questo per

la politica, la cultura e il nostro futuro. Le

aziende che usano gli algoritmi devono assumersi

questa responsabilità. Devono lasciarci

il controllo di quello che vediamo,

dicendoci chiaramente quando stanno personalizzando

e permettendoci di modificare

i nostri filtri. Ma anche noi cittadini dobbiamo

fare la nostra parte, imparare a “conoscere

i filtri” per usarli bene e chiedere

contenuti che allarghino i nostri orizzonti

anche quando sono sgradevoli.

È nel nostro interesse collettivo assicurarci

che internet esprima tutto il suo potenziale

di mezzo di connessione rivoluzionario.

Ma non potrà farlo se resteremo

chiusi nel nostro mondo online personalizzato.