Ep. 05

La colla dei social network

I social network ci tengono incollati a sé. Ma come fanno? E perché?

Slow News. Il primo progetto italiano di slow journalism.
Dalle nostre serie Serie Giornalistiche
Black Box Society

Che fare quando gli algoritmi che ci circondano sono opachi? Che fare se non ci viene detto chi userà i nostri dati, né come? Quali sono le alternative?

Slow News. Il primo progetto italiano di slow journalism.

I social network ci tengono incollati a sé. Ma come fanno? E perché?

Esiste un’app, si chiama Wombo Dream, capace di tenerti incollato allo schermo le mezz’ore intere. È uscita di recente, e probabilmente ne avrai già sentito parlare, anche solo trasversalmente. In pratica, ti consente di inserire una parola, una frase, una citazione, selezionare uno stile artistico, e, utilizzando un’intelligenza artificiale, ti “sputa” fuori un quadretto ispirato al prompt scelto da te.

Il funzionamento non è chiarissimo, ma probabilmente viene utilizzata la rete neurale VQGAN+CLIP. Abbiamo già parlato di quelle che possono essere le applicazioni dell’AI nell’arte, e questa è particolarmente interessante, come è interessante guardare i risultati che ne escono.

Più di qualcuno ci si è già divertito.

Oggi però, a proposito di cose che ci tengono incollati allo schermo, tocca affrontare l’elefante nella stanza. Tocca parlare dei social network, e di come gli algoritmi si stanno specializzando sempre di più nel farci passare più tempo possibile all’interno delle loro app. Non è un caso se qualche tempo fa ha fatto particolarmente scalpore la notizia che vorrebbe Instagram tornare (almeno parzialmente) al feed in ordine cronologico.

Slow News. Il primo progetto italiano di slow journalism.

Chi ha utilizzato i social network dagli albori, infatti, si sarà forse accorto della differenza nel corso degli anni: sempre più, i social hanno smesso di mostrarci quello che postano i nostri contatti in ordine di apparizione, preferendo piuttosto scegliere per noi cosa farci guardare. Il come ciò venga deciso non è chiaro al 100% – gli algoritmi utilizzati dalla gran parte delle grosse piattaforme sono, in gran parte, tenuti riservati -, tuttavia abbiamo dei punti fermi piuttosto sicuri.

In primis, i grandi social network ci profilano.

Tale profilazione viene effettuata raccogliendo tutta una serie di dati su di noi: cosa guardiamo e per quanto tempo lo guardiamo, cosa ignoriamo, su cosa clicchiamo, cosa decidiamo di nascondere, a cosa mettiamo mi piace – Facebook, con l’aggiunta delle reaction, può perfino imparare (se noi glielo consentiamo, ovviamente) quale tipo di post o notizia ci susciti una determinata emozione.

Una volta creato il nostro profilo, e compresi i nostri gusti, il social può scegliere cosa mostrarci e cosa nasconderci, sua sponte. Avendo “imparato” cosa ci piace, cosa ci è indifferente, cosa o meno ci suscita emozioni forti o ci spinge a commentare.

Tieni conto che l’utente medio spende circa due ore e mezzo al giorno sui social network. Si tratta di un serpente che si morde la coda. Più tempo passiamo su una piattaforma, più essa impara cose su di noi. Più impara cose su di noi, più potrà proporci contenuti di nostro “gusto”, spingendoci a passarci altro tempo, e così via.

Non si tratta sempre e solo di profilazione, ma anche di meccanismi ben meno sofisticati e, se vogliamo, più banali. Ad esempio, Facebook taglia pesantemente la visibilità ai post che contengono un link reindirizzante ad un sito web esterno (a meno che non si paghi la piattaforma per fare in modo di raggiungere più persone). Se possiedi un profilo, o ancora meglio una pagina con un discreto numero di contatti, puoi fare una prova accedendo alle statistiche dei vari post e vedendo che, inserendo un link, raggiungono molte meno persone rispetto alla media.

Tenendo questi concetti ben presenti, capirai anche come mai abbia fatto tanto scalpore, pochi mesi fa, la notizia che Facebook, per propria stessa ammissione, avrebbe dato la priorità nel mostrare, nei feed dei propri utenti, contenuti che suscitano emozioni negative e forti, come la rabbia e l’indignazione. Altrettanto, a suscitare rabbia e indignazione, spesso e volentieri sono… disinformazione e fake-news, che dunque, invece di essere “fermati” dall’algoritmo, vengono spinti sempre più prepotentemente all’interno delle bacheche degli utenti, che a loro volta li commentano e ricondividono.

Ora: spendiamo tantissimo tempo sui social network, questi ultimi sanno (quasi) perfettamente chi siamo, cosa ci piace, cosa non ci piace, dove viviamo, se abbiamo una relazione, figli, nipoti… ti renderai conto che queste informazioni, così dettagliate, sono estremamente preziose.

Soprattutto se qualcuno vuole venderci qualcosa.

Infatti, avrai notato come le pubblicità e le cosiddette sponsorizzate che appaiono sui social network siano, spesso e volentieri, molto vicine, se non estremamente aderenti ai tuoi gusti – al punto che a volte ci si chiede se smartphone e dispositivi connessi a Internet ci ascoltino, o meno.

I social, infatti, vendono degli spazi pubblicitari a inserzionisti e attività in generale – anche noi, se possediamo una pagina, possiamo acquistarli. In soldoni, possiamo creare un post, o un link alla nostra attività, pagare il social e dirgli “vorrei che questo contenuto venisse visto da persone di questo sesso, di questa fascia d’età, con queste caratteristiche e con questi interessi”. A quel punto, è la piattaforma a farlo apparire sulle bacheche dei potenziali interessati.

Slow News. Il primo progetto italiano di slow journalism.

Più tempo spendiamo su di esse, più pubblicità guardiamo. Più pubblicità guardiamo, più saremo incentivati ad acquistare qualcosa. Più acquistiamo, più sono gli spazi pubblicitari acquistati dalle aziende. Ancora una volta: un serpente che si morde la coda.

Questi meccanismi non vengono utilizzati solamente nel marketing, ma anche nella politica.

Forse ricorderai della campagna elettorale di Donald Trump, svoltasi in gran parte proprio su Facebook tramite contenuti sponsorizzati e una targettizzazione estremamente precisa, e di come, secondo molti studiosi, tutto questo abbia avuto un grosso peso sui risultati delle elezioni presidenziali americane del 2016.

Come sempre, lo scopo di questa serie non è demonizzare algoritmi, intelligenza artificiale, tecnologia in generale. Però, occorre avere consapevolezza, questo sì.

Di certo, se pensiamo alla grossa (molto grossa, per alcuni di noi) quantità di tempo che spendiamo sulle piattaforme social, tenere presente che in qualche modo le nostre emozioni possano essere “manipolate”, anche solo in parte, da stringhe di codice di cui non conosciamo l’esatto funzionamento, dà da pensare.

Negli ultimi anni si sta prendendo sempre maggiore consapevolezza – anche grazie al lavoro dei whistleblower – di quanto i social network impattino, talvolta in modo negativo, sulle vite dei singoli e sulla società in maniera consapevole.

Dire che “la colpa” di un uso negativo delle piattaforme sia solo ed esclusivamente da imputare all’uso che ne fanno i singoli non regge più.

Continua a seguirci
Slow News ti arriva anche via email, da leggere quando e come vuoi...
Iscriviti gratis e scegli quali newsletter vuoi ricevere!
Stai leggendo
Black Box Society

Che fare quando gli algoritmi che ci circondano sono opachi? Che fare se non ci viene detto chi userà i nostri dati, né come? Quali sono le alternative?

Slow News. Il primo progetto italiano di slow journalism.

Tutti gli episodi

01
02
03
04
05
Altri articoli Tecnologia