Matthew Hindman, La trappola di Internet

Come l’economia digitale costruisce monopoli e mina la democrazia

Dopo il libro di Shoshana Zuboff sul capitalismo della sorveglianza che dimostrava come il business principale connesso alla rete fosse quello dei dati necessari a profilare tutti gli utenti in vista di pubblicità più mirate, ecco quello di Matthew Hindman (vincitore del Goldsmith Book Prize, 2019) che dimostra come la rete abbia favorito i monopoli della informazione a discapito non soltanto del cartaceo, ma di tutta l’informazione, in particolare di quella locale, monopolizzando anche il pensiero e condizionando il senso comune.

Internet doveva essere lo strumento attraverso il quale si semplificava l’accesso alla libertà e che avrebbe allargato gli spazi democratici. Certo, come ogni altra tecnologia, avrebbe messo in crisi le produzioni che si affidavano a tecnologie precedenti rese obsolete dal suo avvento, ma questo -si diceva – avrebbe comportato anche dei vantaggi. Prendiamo l’informazione, che è l’ambito del quale più si è occupato Hindman. Quello che si pensava è che la facilità di accesso alla rete e la gratuità di questo accesso avrebbero permesso anche a progetti a basso budget di rendersi concorrenziali. L’idea, per esempio, era che ne avrebbe sicuramente beneficiato l’informazione locale che, riferendosi a un target ovviamente più limitato, non si poteva permettere di accedere alle economie di scala fondamentali nell’era analogica. Le cose non stanno andando così e Hindman ci spiega il perché.

Internet non ha ridotto i costi per raggiungere il pubblico, ha semplicemente cambiato chi paga e come paga. La stessa neutralità della rete (ne avevamo già parlato qui, punto 8) non è riuscita a garantire un accesso paritario ai media informatici; neutralità che poi è stata messa in pericolo, se non completamente messa da parte (vedi qui e qui). Il mito di compagnie che sono arrivate ai vertici partendo dal garage di casa, è un mito da sfatare o, perlomeno da rivedere in funzione delle attuali condizioni.

Attraverso una ricerca minuziosa e ben documentata Hindman dimostra che i siti di piccole dimensioni non hanno le risorse per competere con le grandi produzioni. Il comparto che prende in considerazione è quello dell’informazione giornalistica che, al contrario di quello che si pensava (e che si continua ad affermare) è’ stato sempre più snaturato dall’avvento della rete, concentrando l’audience intorno a pochi siti alcuni dei quali sono semplicemente piattaforme di aggregazione di contenuti che stanno facendo una concorrenza letale nei confronti di quelli dei produttori di notizie veri e propri.

Hindman dichiara che il suo testo è un saggio sull’economia dell’attenzione, nel senso che quello che più si ricerca in un ambiente saturo di informazioni, è l’attenzione dell’utente. La sua cattura. Chi ha più utenti vince e prende tutto o almeno molto. Il libro sfata così un altro mito legato al web, quello che l’attenzione digitale non si possa acquistare, mito che agiva di rincalzo a quelli sulla democrazia e le opportunità aperte. Su questo campo le politiche pubbliche, come abbiamo visto a proposito della neutralità della rete, aiutano a determinare chi vince e chi perde in questo scontro concorrenziale, ma succede anche che questa economia dell’attenzione influenzi sempre di più la vita pubblica determinando quali forme di informazione vedano i cittadini.

L’analisi usa dei criteri e delle metodologie che l’autore ben documenta e giustifica, ma quello che poi al lettore comune e non addetto ai lavori interessa sono i risultati e non sono assolutamente quelli che alcune idee preconfezionate hanno diffuso. Internet è un concentratore dell’attenzione, un concentratore del mercato. Internet crea più monopoli di qualsiasi economia precedente con concentrazione della ricchezza e quindi della capacità di investimento mai esperita in precedenza. Con l’aggravante che l’ambito in oggetto è quello dell’informazione e, a cascata, dell’opinione, della politica, della libertà. «Va messo in dubbio persino l’assunto più importante sull’era digitale: la convinzione che internet renda quasi gratuita la distribuzione dei contenuti» (p. 16), dice specificatamente Hindman. Il che, a ben ragionarci non è poi così strano.

Certo puoi aprirti gratuitamente un sito e farlo essere minimamente leggibile anche con risorse limitate. Ci puoi pubblicare le cose più belle del mondo, ma che probabilmente non leggerà nessuno, perché nessuno ti ci porta. Perché o scrivi le cose che tutti si aspettano di poter leggere oppure i motori di ricerca non ti segnalano. E se si sommano i meccanismi editoriali e quelli comportamentali il quadro e le prospettive che emergono da questa situazione sono deprimenti per coloro che cercano di esercitare forme di ragionamento leggermente più complesso e di pensiero critico. Diceva un amico che, ormai in rete, non si fatica più per trovare fonti “buone”, ma si sta dentro una rete di relazioni e quel che capita nella bolla capita e diventa mainstream nella nostra formazione culturale politica ecc. È l’effetto cerchia, la ghettizzazione dell’opposizione al sistema. Potete dire ciò che vi pare tanto quello che direte lo ascolterete soltanto voi.

Comunque certi passaggi dello studio sono indispensabili per l’analisi del funzionamento dell’informazione in rete e dell’efficacia di una strategia sulla possibilità di far passare un qualche messaggio. La maggioranza di queste mosse sono – come dimostrano i risultati della ricerca – possibili soltanto per le grandi aziende che hanno capitale e possono comprare competenze per poterle applicare, ma, alcune di esse, tenutone conto anche su una scala più piccola, possono essere sempre di aiuto. Una per tutte la stickiness “l’appiccicosità”, il fatto che un utente, prima di perdere tempo altrove, torna sugli stessi siti nei quali ha trovato le informazioni che cercava, ma se il sito di riferimento non si aggiorna continuamente rinnovando il contenuto e mantenendo una buona qualità dello stesso, questo allontanerà l’utente (il lettore/consumatore). Questo è tipico delle economie di scala perché i siti con tanti visitatori saranno quelli più redditizi e quelli che avranno perciò più risorse da investire per il mantenimento della posizione. Questa è infatti una delle motivazioni che porta alla concentrazione e ai monopoli, ma che è anche un monito e un invito a fare attenzione all’aggiornamento del sito e a fare uno sforzo per mantenere il livello di qualità.

Altro elemento da tenere presente è la velocità di caricamento del sito. I grandi gruppi si possono permettere larghezze di banda proibitive per gli altri. Si è infatti scoperto che se un sito esita ad apparire sullo schermo o ha una risposta non immediata alle scelte fatte al suo interno, questo scoraggia l’utenza che preferirà un sito più veloce. Ora se rendiamo molto scarno il contenuto di ogni pagina la velocità di caricamento aumenta, ma avremo perso in termini di  qualità estetica della pagina. Coniugare le due esigenze opposte è ad appannaggio soltanto dei siti più ricchi in capitale e risorse. Questo rimanda al fatto che trovare un buon compromesso tra i due aspetti resta una delle strategie indispensabili alle quali fare riferimento. La lentezza è poi malvista anche dai motori di ricerca, non certo perché attenti alle strette preferenze degli utenti, ma perché Google vuole che le persone “navighino” il più possibile e preferisce non indirizzare il traffico versi siti lenti, che occupano più tempo e/o scoraggino il navigante a proseguire.

La velocità e la semplicità sono caratteristiche che la rete richiede e che quindi promuove. L’alfabetizzazione degli utenti, oltremodo disomogenea, anche per i nativi digitali, porta gli utenti ad affidarsi a ciò che è già noto, con conseguenze immaginabili sia dal punto di vista formale sia da quello contenutistico, il che favorisce ancora di più i siti che hanno più risorse che così riescono anche a uniformare l’aspetto del sito rendendolo di più facile accesso. C’è poi un costo commutazionale che misura la fatica di passare da un sito a un altro (comprende la ricerca, ma anche la fatica cognitiva che occorre per cambiare attività). Per questo Bezos (Amazon) ha deciso di fare notevoli sforzi per la riduzione delle «spese cognitive aggiuntive» (p. 91).

La ricerca dell’appetibilità di un sito è legata anche al sistema delle raccomandazioni. La pubblicità mirata, il prodotto raccomandato proprio per te, aumentano l’effetto “filtro” creando quelle che si chiamano le “camere dell’eco” partigiane portando gli utenti a rendere più difficile andare a cercare opinioni diverse e lontane anche per coloro che sarebbero inclini a farlo. «I sistemi di suggerimenti ovviamente favoriscono organizzazioni grandi e con ampie risorse» (p. 62). Costruire algoritmi efficaci prevede un processo iterativo con aggiustamenti e verifiche non certamente a disposizione dei piccoli siti che non possono nemmeno semplicemente accedere all’advertising, ma anche dei medi. Situazione in sé aggravata dal fatto esperito che poi ridimensiona gli algoritmi stessi in favore dei dati. Per avere dell’indicazioni sulle preferenze dei consumatori che abbiamo una buona pertinenza occorre accedere a grandissime quantità di dati.

Prendere atto di questi risultati, è prendere atto che l’attenzione è una risorsa scarsa e coglierla non è per niente gratuito. E la concentrazione sempre più stretta: «il solo duopolio Google-Facebook controlla più del 70% (e la percentuale è in aumento) delle entrate pubblicitarie digitali statunitensi» (p. 86). È prendere atto che le preferenze relative ai media in realtà influenzano la politica più che nel recente passato, e le preferenze dicono che la gente preferisce l’intrattenimento ai notiziari e che è dai primi che ricava anche le informazioni che formano le loro convinzioni politiche.

La concentrazione nell’informazione ha effetti anche “logistici”: se nel 2004 solo il 12% dei giornalisti statunitensi viveva a New York, Washington o Los Angeles, nel 2014 era salita al 20% ed era in aumento. Ecco un’altra splendida perversione che emerge dall’indagine di Hindman: «I contenuti di bassa qualità su un sito di grandi dimensioni possono far guadagnare più che quelli di alta qualità su un sito di piccole dimensioni» (p,101 i corsivi sono originali).

E non pensate di poter essere persone così poco scontate da poter eludere i modelli predittivi: una ricerca ha dimostrato che il modello interpretativo costruito soltanto con i “mi piace” di FB e senza alcuna informazione demografica, deduceva la razza con un’accuratezza del 95% e il sesso con l’83%. Distingueva anche con un’accuratezza dell’88% gli uomini omosessuali dagli etero e nell’85% i democratici dai repubblicani.

La probabilità che i piccoli creatori online batteranno le grandi società di media producendo varietà di contenuti di nicchia è un altro mito da sfatare; in realtà «i siti web massimizzano i profitti quando i consumatori leggono una grande quantità di contenuti mediocri e poco costosi» (p. 93). Ogni click sul web segna un’interruzione della concentrazione ed è nell’interesse di Google che noi facciamo molti click. L’ultima cosa che l’azienda vuole incoraggiare è la lettura fatta con calma o il pensiero lento e concentrato (ad esempio quello critico e fuori del coro). «Google è, in senso piuttosto letterale, nel business della distrazione», diceva Nicholas Carr (punto 2), acutizzando il fatto che un sito con contenuti più originali, in rete, sarà penalizzato rispetto a un sito con contenuti mediocri, ma meno “originali”.

Una cosa che non ti aspetti è la struttura stabile della domanda del web e del suo uso, nel senso che se i siti più visti si accaparrano un tot di percentuale di utenti, questi dati rimangono costanti, quello che può cambiare sono i siti che occupano quelle posizioni ma non il traffico pertinente alle stesse.  Quello che non ci meraviglia è la percentuale di usufrutto della rete tramite dispositivi mobili che è in crescita esponenziale con una tendenza alla saturazione dell’uso. Altro elemento che tende ad aggravare la situazione prospettata: concentrazione dei contenuti, distrazione e penalizzazione del pensiero critico. E i grandi attori sono gli stessi. Google e Facebook controllano i due terzi della pubblicità su tablet e dispositivi mobili. «Se la concorrenza per l’attenzione ostacola i gruppi politici, è particolarmente scoraggiante per la produzione paritaria di contenuti civici» (p.209). Ma ci sono delle eccezioni? Certo: «Wikipedia è l’equivalente digitale del dodo: una soluzione evolutiva fantastica che funziona solo quando è isolata dalla competizione» (p. 210).

Altra cosa che non ti aspetti (e invece sì che te l’aspetti) è che i siti di informazione (e non i grandi aggregatori) sono poca cosa, il tre per cento dell’intero traffico web. Non è vero che la gente si informa in rete, la gente non si informa, subisce l’informazione.

Avevamo ricordato all’inizio di questo articolo la complementarità di questo testo a quello di Zuboff. Qui si parla dei problemi di diffusione in rete per certi tipi di contenuti, lì si parlava di sorveglianza e condizionamento. L’ultimo capitolo del libro di Hindman affronta in maniera meno estesa le stesse problematiche. Qualche citazione a riguardo: «La Russia impiega migliaia di “troll” professionisti, ognuno dei quali controlla in genere numerosi account falsi. Otto dei dieci articoli più popolari su Facebook nei mesi precedenti alle elezioni presidenziali del 2016 erano interamente inventati. Nelle settimane precedenti alle elezioni, negli stati chiave dello scontro, come il Michigan, su Twitter le notizie false erano condivise più spesso di quelle reali» (p. 218). E lo dice non certo un complottista, ma un docente della George Washington University e prosegue: «Le grandi aziende digitali sono diventate un punto debole non solo per le reti di comunicazione, ma potenzialmente per la democrazia stessa» (p. 219).

Matthew Hindman, La trappola di Internet – Come l’economia digitale costruisce monopoli e mina la democrazia, Einaudi, Torino 2019, pagine 286, € 22.00

*Gilberto Pierazzuoli