Oltre 600mila profili messi sotto la lente da una monumentale indagine del Data science team di Menlo Park, insieme alla University of California e alla Cornell: riducendo artificialmente termini e post positivi o negativi gli amici reagiscono nello stesso modo. Adattandosi ai sentimenti prevalenti nella propria cerchia. Ma è polemica sul metodo usato
di Simone Cosimi
"I dati di Facebook rappresentano il più ampio studio sul campo nella storia del mondo". Forse con un pizzico di esagerazione, ma in fondo cogliendo nel segno, Adam Kramer - membro del Data science team del social network - aveva spiegato anni fa la scelta di entrare nel gruppo californiano. Lo studio appena pubblicato su Proceedings of the national academy of sciences e condotto insieme ad altri scienziati della University of California e della Cornell gli dà ragione. È infatti attraverso quella sterminata arena sociale planetaria che ha potuto dare sostanza a ciò che in molti sospettavano: ciò che gli altri postano su Facebook, e che noi visualizziamo in bacheca, ci influenza emotivamente. Tanto da spingerci, nel periodo successivo, a pubblicare a nostra volta contenuti sulla stessa lunghezza d'onda. O meglio, ad allinearci al clima che si respira sulla nostra newsfeed.
L'obiettivo era esattamente quello: capire se l'esposizione a manifestazioni verbali affettive possa condurre "a espressioni verbali simili". In altre parole, se ciò che leggiamo sulla piattaforma di Menlo Park - frutto di un certosino lavoro di algoritmi e non del caso, bisogna ricordarlo - possa contagiarci emotivamente.
Due i test condotti nel gennaio 2012. Nel primo i ricercatori guidati da Kramer hanno ridotto l'esposizione degli utenti inclusi nel gruppo sperimentale ai contenuti positivi degli amici. Nel secondo hanno proceduto allo stesso tipo di schermatura ma con post e frasi contenenti elementi di negatività. Decidendo quali dei tre milioni di aggiornamenti di stato lasciar passare attraverso un software di analisi testuale, il Linguistic inquiry and word count, e analizzando poi le pubblicazioni per una settimana.
In effetti dai 689mila account inclusi nel monumentale esperimento è uscito quanto già intuiamo - altrimenti perché faremmo fuori hater di professione, rompiscatole o frustrati incalliti? - ma in precedenza poche indagini avevano provato in modo così significativo. Veicolare certi tipi di contenuti, escludendo termini e parole positivi o negativi, ha condotto a una conseguente riduzione dello stesso tenore nei post delle varie cerchie prese in esame. In particolare quando sono state artificialmente ridotte le positività.
La ricerca è stata realizzata in base alle autorizzazioni fornite dagli utenti nella Data use policy al momento dell'iscrizione e senza dunque sottoporre a ricercatori in carne e ossa alcun contenuto effettivo. Almeno così assicura il team che ci ha lavorato. Il dato interessante sta tuttavia, oltre che nel merito - già sondato per esempio da un'indagine da Ke Xu, professore di computer science all'università di Pechino, sui social cinesi - anche e soprattutto nel metodo. Inquietante quanto, appunto, in fondo già ampiamente noto.
Dimostra infatti gli effetti che si possono ottenere manipolando gli algoritmi che scelgono cosa mostrarci quando accediamo a Facebook. Non solo, dunque, atteggiamenti, scelte e profilazione per indirizzare acquisti e preferenze: lo studio uscito su Pnas prova come anche le emozioni siano non solo contagiose - non serve la scienza, basta uscire la sera con un amico giù di corda o un altro particolarmente brillante per capirlo - ma di fatto manipolabili. Almeno in quell'universo parallelo ma sempre più intrecciato delle piattaforme sociali. Siamo troppo suggestionabili, cantava Paolo Benvegnù qualche anno fa, per riuscire a sottrarci alla dittatura degli algoritmi. Che ci ritagliano il mondo a loro uso e consumo.
Non mancano le polemiche su questo esperimento fatto sul social network più popolare. In passato erano stati fatti altri studi comportamentali ma i ricercatori avevano lavorato sulla semplice analisi del flusso naturale. Questa volta è stato diverso: per la prima volta sono stati alterati i dati per registrare le reazioni. Facebook ribadisce che lo studio è assolutamente legale. Ma alla domanda su quanto sia etico una risposta ancora non c'è.
L'obiettivo era esattamente quello: capire se l'esposizione a manifestazioni verbali affettive possa condurre "a espressioni verbali simili". In altre parole, se ciò che leggiamo sulla piattaforma di Menlo Park - frutto di un certosino lavoro di algoritmi e non del caso, bisogna ricordarlo - possa contagiarci emotivamente.
Due i test condotti nel gennaio 2012. Nel primo i ricercatori guidati da Kramer hanno ridotto l'esposizione degli utenti inclusi nel gruppo sperimentale ai contenuti positivi degli amici. Nel secondo hanno proceduto allo stesso tipo di schermatura ma con post e frasi contenenti elementi di negatività. Decidendo quali dei tre milioni di aggiornamenti di stato lasciar passare attraverso un software di analisi testuale, il Linguistic inquiry and word count, e analizzando poi le pubblicazioni per una settimana.
In effetti dai 689mila account inclusi nel monumentale esperimento è uscito quanto già intuiamo - altrimenti perché faremmo fuori hater di professione, rompiscatole o frustrati incalliti? - ma in precedenza poche indagini avevano provato in modo così significativo. Veicolare certi tipi di contenuti, escludendo termini e parole positivi o negativi, ha condotto a una conseguente riduzione dello stesso tenore nei post delle varie cerchie prese in esame. In particolare quando sono state artificialmente ridotte le positività.
La ricerca è stata realizzata in base alle autorizzazioni fornite dagli utenti nella Data use policy al momento dell'iscrizione e senza dunque sottoporre a ricercatori in carne e ossa alcun contenuto effettivo. Almeno così assicura il team che ci ha lavorato. Il dato interessante sta tuttavia, oltre che nel merito - già sondato per esempio da un'indagine da Ke Xu, professore di computer science all'università di Pechino, sui social cinesi - anche e soprattutto nel metodo. Inquietante quanto, appunto, in fondo già ampiamente noto.
Dimostra infatti gli effetti che si possono ottenere manipolando gli algoritmi che scelgono cosa mostrarci quando accediamo a Facebook. Non solo, dunque, atteggiamenti, scelte e profilazione per indirizzare acquisti e preferenze: lo studio uscito su Pnas prova come anche le emozioni siano non solo contagiose - non serve la scienza, basta uscire la sera con un amico giù di corda o un altro particolarmente brillante per capirlo - ma di fatto manipolabili. Almeno in quell'universo parallelo ma sempre più intrecciato delle piattaforme sociali. Siamo troppo suggestionabili, cantava Paolo Benvegnù qualche anno fa, per riuscire a sottrarci alla dittatura degli algoritmi. Che ci ritagliano il mondo a loro uso e consumo.
Non mancano le polemiche su questo esperimento fatto sul social network più popolare. In passato erano stati fatti altri studi comportamentali ma i ricercatori avevano lavorato sulla semplice analisi del flusso naturale. Questa volta è stato diverso: per la prima volta sono stati alterati i dati per registrare le reazioni. Facebook ribadisce che lo studio è assolutamente legale. Ma alla domanda su quanto sia etico una risposta ancora non c'è.
«La Repubblica» del 29 giugno 2014
Nessun commento:
Posta un commento