Il web sono io

Uno smartphone con Facebook

Provate fare una ricerca a caso su Google: diciamo, voli Roma-Madrid. Date un'occhiata ai siti delle varie compagnie, confrontate le offerte, magari alla fine nemmeno prenotate il volo. Ora aprite il vostro account Facebook, se ne avete uno; oppure andate su un qualsiasi sito dove compaiano dei banner pubblicitari forniti da Google. Come per magia, negli spazi riservati alle pubblicità compariranno quelle degli hotel della capitale spagnola, o dei locali nei pressi di Puerta del Sol. E fin qui, si dirà, non è una novità: da tempo Google ha elaborato un algoritmo che «sceglie» – passatemi il termine – gli annunci pubblicitari da mostrare in base alle ricerche precedenti dell'utente, e fornisce il servizio anche a terzi; e comunque, in fin dei conti, può pure farmi comodo sapere che quel tal hotel offre stanze a prezzi stracciati proprio nel weekend in cui io ho prenotato il volo. La questione diventa però più complicata se la riferiamo ai social network, come ha recentemente fatto osservare una ricerca pubblicata su Science a cui hanno collaborato i ricercatori dello stesso Facebook.

 

Il più diffuso dei social network, infatti, utilizza un algoritmo simile non solo per i banner pubblicitari, ma anche per «scegliere» quali post mostrare sulla nostra bacheca – per i non adepti, la propria pagina personale: detto in soldoni, se io clicco spesso sulle notizie che i miei amici diffondono a proposito di cani e gatti, il signor Facebook mi farà vedere tutti i post relativi agli amici a quattro zampe, mentre tralascerà – nel nobile intento di non intasarmi la bacheca – quelli su pesci rossi e volatili. Il problema, osservano i ricercatori, è che «la conoscenza delle notizie e il dibattito su temi rilevanti per la società civile sono sempre più mediati dai social network»: che sceglieranno appunto quali informazioni mostrarmi secondo lo stesso criterio, impedendomi di confrontarmi con opinioni diverse dalla mia. Fino a che punto, dunque, un utente di opinioni conservatrici riceverà soltanto informazioni di tono altrettanto conservatore? O, viceversa, un liberale si farà la convinzione che tutto il resto del mondo sia liberale quanto lui?

 

I ricercatori hanno così monitorato 10 milioni di utenti negli Stati Uniti, chiedendo loro di dichiarare preventivamente il loro orientamento politico. Secondo la ricerca, circa il 70 per cento degli utenti scambia informazioni con persone dello stesso orientamento, e solo il 20 per cento con persone di orientamento opposto. Connessioni che, unite all'algoritmo di cui sopra, fanno sì che solo il 17 per cento degli utenti che si dichiarano conservatori e il 6 per cento di quelli che si dichiarano liberali clicchino su notizie o articoli che non riflettono il loro pensiero. Risultato: se sono convinto che gli asini volano e scelgo solo i post che ne parlano, uscirò sempre più convinto che il mondo sia popolato da volatili con quattro zampe e lunghe orecchie perché non comparirà nessun altro post a smentirlo. Bisogna andarci piano, tuttavia, nel dare tutta la colpa all'algoritmo: secondo i ricercatori, infatti, «sono le scelte individuali a contare di più», in quanto sulle bacheche degli utenti nel periodo considerato – circa un anno – era comunque comparso un buon 40 per cento di link di senso politico opposto: una percentuale sensibilmente maggiore, quindi, rispetto a quella dei post effettivamente cliccati. Insomma, l'algoritmo fa il suo, ma noi ne amplifichiamo gli effetti con la «miopia» delle nostre scelte, restringendo ancor di più il campo di opinione .

 

La ricerca non ha mancato di stimolare il dibattito: c'è chi è arrivato a definire i social network addirittura un pericolo per la democrazia, in quanto gli utenti finiscono per non confrontarsi mai con idee diverse dalle proprie – o addirittura per non conoscerle affatto. Per questo David Lazer, uno dei ricercatori, pur definendo «lodevole il fatto che Facebook stessa abbia promosso questa ricerca», ritiene auspicabile che in futuro siano enti indipendenti a proseguire questi studi, così da chiarire le «implicazioni etiche dei sistemi di informazione e comunicazione che costruiamo».

I più letti della settimana

Il sorriso di Chiara

Abbiamo a cuore la democrazia

Edicola Digitale Città Nuova - Reader Scarica l'app
Simple Share Buttons