rotate-mobile
Sabato, 27 Aprile 2024

Che cos’ha che non va l’algoritmo di Threads

Prima l’imbarazzo, quel momento in cui non si sa bene cosa pubblicare, per quale pubblico, in che lingua. Poi l’entusiasmo per un nuovo spazio digitale, magari finalmente al riparo dalle dinamiche degli altri social network. Infine, la delusione, la disillusione, per una serie di dinamiche che continuano a ripetersi.

È un po’ un ciclo, un continuo ripetersi della stessa esperienza, che ha accomunato, negli ultimi anni, gli utenti di qualunque nuova piattaforma sociale. È successo anche con Threads, il nuovo nato in casa Meta. Lanciato a luglio per contrastare l’X (già Twitter) targato Elon Musk, è sbarcato in Europa a dicembre, accolto da una parte di utenti come un possibile spazio sicuro, al riparo dalle dinamiche di odio e polarizzazione del dibattito ormai comuni a buona parte dei social network.

La luna di miele, a dir la verità, non è durata molto. Anche Threads ha iniziato piuttosto presto a proporre contenuti polarizzanti, di bassa qualità. Come buona parte delle piattaforme sociali oggi, il nuovo nato di Meta ha una homepage in cui compaiono i contenuti ‘Per te’. Ovvero, per farla semplice, post pubblicati sia dai profili che l’utente ha scelto di seguire, sia da altri che non appartengono alla sua rete. Questi ultimi vengono selezionati, da un lato, sulla base degli interessi; dall’altro sulla base del successo che quei contenuti hanno riscosso sulla piattaforma.

Ecco, a peggiorare piuttosto presto è stata la qualità di queste raccomandazioni. Che, spesso, hanno proposto post di basso spessore o, addirittura, lontani dagli interessi degli utenti. Tanto che è dovuto intervenire il numero uno di Instagram (a cui Threads è legato) Adam Mosseri, per rassicurare sul fatto che ci stanno lavorando, che miglioreranno presto.

 5 domande (e risposte) dopo una settimana su Threads, nuovo social di Meta

"Vogliamo – ha detto Mosseri - che le persone abbiano un'esperienza positiva su Threads e nelle ultime settimane abbiamo avuto alcuni problemi con raccomandazioni di bassa qualità. Si tratta di contenuti che non violano del tutto le nostre Linee guida della community, ma che spesso sono al limite. Stiamo lavorando per migliorare la qualità dei suggerimenti”.

Come migliorare l’algoritmo di Threads

Il punto è: sicuri si possa migliorare un sistema di intelligenza artificiale pensato per prevedere quali sono i post con cui interagiremo?

Quando parliamo di algoritmo, infatti, parliamo di un’AI programmata per indovinare, in maniera piuttosto autonoma, quali sono i post migliori per raggiungere questo obiettivo. Un sistema che lavora a partire dalle interazioni, dai like, dalle risposte, dalle condivisioni: ognuna di queste azioni è un segnale positivo per l’algoritmo. Questo, soprattutto su una piattaforma ancora agli inizi come Threads, ha due conseguenze.

  • All’inizio, anche se alcuni dati li ha importati da Instagram, il sistema non conosce gli utenti. Non li ha ancora individuati, categorizzati in classi di interesse precise. E quindi è molto suscettibile a qualunque interazione. Ad esempio, se un profilo risponde a qualcuno, anche se solo per contestarne le idee, il sistema continuerà a mostrare a quel profilo post di quel genere. E a favorire quello che si chiama collasso dei contesti, ovvero quel momento in cui un post esce dalla cornice di senso in cui è stato concepito, per finire a pubblici e utenti che possono percepirlo con sensibilità differenti.
  • Su un social network all’inizio, tante persone vedono uno spazio bianco, un orizzonte dove costruirsi un pubblico, una notorietà, una carriera magari. E in questo contesto, ci sono tanti profili che – legittimamente - considerano Threads un’occasione per emergere e puntano all’engagement anche un po’ artificioso, sfruttando l’algoritmo. E quindi scrivendo contenuti volutamente provocatori, prevedendo e auspicando un numero molto alto di reazioni. Al netto degli interventi tecnici che Mosseri ha promesso, per gli utenti oggi c’è solo da prestare maggiore attenzione al modo in cui utilizzano Threads. E quindi, per dirne una, a non rispondere a post evidentemente provocatori, oppure a silenziare o bloccare i profili che pubblicano contenuti che trovano offensivi.

Non è facile, per un social network di testo, replicare il modello TikTok, in cui i video continuano a scorrere uno dopo l’altro, scelti apparentemente da un sistema che ci conosce come nessuno. A fare la differenza è il design: i contenuti a tutto schermo costringono gli utenti a dare, in qualunque modo, indicazioni chiare all'algoritmo, dal tempo di visione all’aumentare il volume. Questo fornisce indizi che rendono molto più agevole la personalizzazione.

Chiara Ferragni, Threads e la ricerca dell’autenticità (che sui social non esiste) 

E se fosse proprio il feed il problema?

I problemi di Threads hanno spinto alcuni analisti ad andare un po’ oltre, rispetto al tema dei suggerimenti algoritmici: se fossero proprio i social media basati su feed il problema? E cioè quel modello inaugurato da Facebook in cui la homepage è una collezione dei post di altri utenti, selezionati da un algoritmo tra i profili che l’utente segue r/o sulla base degli interessi.

Il giornalista Robinson Meyer, proprio su Threads, ha scritto che il problema potrebbe essere proprio che queste piattaforme “inducono le persone a identificarsi troppo fortemente con le proprie convinzioni e quindi ad aggrapparsi a quelle false anche di fronte a nuove prove”.

Allo stimolo, ha risposto il fondatore di Vox, oggi al New York Times, Ezra Klein, che ha spiegato come le piattaforme ci costringano a ridurre la complessità di ogni pensiero, a trasformarlo in format. E, a causa del design e delle potenzialità di diffusione, ben fuori dalla nostra cerchia sociale, sono quei pensieri a rappresentarci, sono quelle semplificazioni a cui ci attacchiamo, che difendiamo, che finiscono con il definirci.

Si parla di

Che cos’ha che non va l’algoritmo di Threads

Today è in caricamento