
Abbiamo selezionato da Tech Economy la notizia riferita al fatto che Facebook abbia sperimentato (e stia sperimentando) sulle emozioni dei suoi utenti.

Foto di Gioia Barea
Uno studio della Proceedings of Natural Academy of Science, prestigiosa rivista scientifica statunitense, ha rivelato che Facebook ha manipolato il flusso di notizie di quasi 700 mila utenti con l’obiettivo di studiare “il contagio emotivo attraverso i social network”. Il team di ricercatori, sia di casa Facebook sia provenienti dalla Cornell University e dalla University of California-San Francisco, hanno condotto un test per capire se riducendo il numero di aggiornamenti “positivi” nel flusso dei feed pubblicati sulle bacheche le persone che li avessero letti avrebbero ridotto la produzione o la condivisione di contenuti positivi.
Per mettere in pratica l’idea alla base dello studio i ricercatori hanno modificato per un’intera settimana, dall’11 al 18 gennaio 2012, l’algoritmo sul quale Facebook seleziona i post in modo da classificare gli aggiornamenti con parole positive o negative.
Il campione era formato da 689.003 persone che sono state divise in due gruppi, per un totale di oltre tre milioni di aggiornamenti. Ad alcuni utenti sono stati forniti aggiornamenti dal neutrale al positivo mentre ad altri sono stati dati aggiornamenti dal neutrale al negativo: in uno venivano mostrati post positivi, con parole come “amore”, “bello”, “dolce”; all’altro invece apparivano post negativi, con parole come “antipatico”, “dolore”, “brutto”. Concluso questo passaggio preliminare sono stati poi analizzati i post di queste persone.
L’operazione ha confermato l’ipotesi iniziale: il “contagio emotivo” si verifica anche a distanza. “Gli stati emotivi”, infatti, “si possono trasmettere per un fenomeno di contagio, inducendo altre persone a provare le stesse emozioni senza che ne siano coscienti”.
Ma sulle modalità della ricerca piovono ora polemiche. È etico condurre una ricerca senza il consenso esplicito dei diretti interessati? È giusto alterare i dati forniti agli utenti per confermare un’ipotesi? È corretto rendere “tristi” intenzionalmente i propri utenti?
Dal punto di vista legale, Facebook è tutelata: la sottoscrizione delle norme e dei vincoli al momento dell’adesione al social network consente agli amministratori di condurre operazioni interne, compresa la ricerca e la soluzione di problemi, l’esame di dati, test, ricerche e miglioramenti volte al miglioramento del servizio. Ma le critiche sul fronte dell’etica permangono, soprattutto se prendiamo per buona una definizione “sociologica” di consenso informato.
In seguito alla bufera che ha coinvolto l’esperimento, uno degli autori dello studio, Adam D. I. Kramer, ha pubblicato attraverso il suo account fb alcune informazioni per chiarire alcuni aspetti dell’operazione.
Kramer, che è anche membro del Data Science team del social network, ha riconosciuto che le motivazioni della ricerca non erano chiaramente esposte nello studio, e ha comunque specificato che l’esperimento ha riguardato soltanto una piccola percentuale dei contenuti del newsfeed di poche persone, per poco tempo: lo 0,04% degli utenti, per una settimana, nel 2012. Nessun aggiornamento degli amici è stato tecnicamente “nascosto”: continuava a essere visibile sul loro diario, e poteva in ogni caso comparire nel caso in cui l’utente avesse ricaricato il newsfeed.
Ha spiegato inoltre che all’origine dello studio c’era l’impegno a migliorare il prodotto, ossia Facebook, cercando di capire il reale impatto emotivo sugli utenti.
A prescindere dalle giustificazioni e dalle ragioni, la notizia dovrebbe farci riflettere. E voi cosa ne pensate?
Da Tech Economy: Facebook sperimenta sulle emozioni degli utenti http://t.co/X6XiRk6Sx7
Da Tech Economy: Facebook sperimenta sulle emozioni degli utenti http://t.co/tyj8jWHNro
[Girl Geek Life] Da Tech Economy: Facebook sperimenta sulle emozioni degli utenti http://t.co/nKU2ibrmQv
RT @girlgeeklife: Da Tech Economy: Facebook sperimenta sulle emozioni degli utenti http://t.co/X6XiRk6Sx7
RT @girlgeeklife: Da Tech Economy: Facebook sperimenta sulle emozioni degli utenti http://t.co/X6XiRk6Sx7