• Principal
  • Noticias
  • El experimento de Facebook causa mucho alboroto con pocos resultados

El experimento de Facebook causa mucho alboroto con pocos resultados

Un estudio en el que Facebook manipuló las fuentes de noticias de más de 600.000 usuarios envió a los usuarios de las redes sociales a un ciberdesmayo esta semana y se extendió a los principales medios de comunicación: 'Facebook juega con las emociones de los usuarios', comenzaba el titular del New York Times. sitio web.


Pero la controversia sobre lo que hicieron estos investigadores puede estar eclipsando otras discusiones importantes, específicamente conversaciones sobre lo que realmente encontraron, no mucho, en realidad, y la forma correcta e incorrecta de pensar e informar los hallazgos basados ​​en análisis estadísticos de big data. (Llegaremos a la ética de su experimento en un momento).

Debido a que son tan grandes, los estudios basados ​​en muestras de gran tamaño pueden producir resultados estadísticamente significativos pero al mismo tiempo sustancialmente triviales. Es matemática simple: cuanto mayor sea el tamaño de la muestra, más pequeñas deben ser las diferencias para ser estadísticamente significativas, es decir, es muy probable que sean realmente diferentes entre sí. (En este estudio, las diferencias examinadas fueron entre aquellos que vieron más y aquellos que vieron menos publicaciones cargadas de emociones en comparación con un grupo de control cuyas fuentes de noticias no fueron manipuladas).

Y cuando se tiene una enorme muestra aleatoria de 689,003, como hicieron estos investigadores, incluso las pequeñas diferencias pasan las pruebas estándar de significación. (Para tener una perspectiva, un tamaño de muestra típico en una encuesta de opinión pública representativa a nivel nacional es de 1000).

Es por eso que generaciones de profesores de estadística advierten a sus alumnos que 'estadísticamente significativo' no significa necesariamente 'realmente,De Verdadimportante'.


Experimento de Facebook sobre la manipulación de noticiasConsidere los hallazgos del estudio de Facebook en el que variaron la cantidad de publicaciones positivas y negativas de amigos que los sujetos de prueba podían ver. Se determinó que las publicaciones eran positivas o negativas si contenían una sola palabra positiva o negativa. Luego, el propio uso del sujeto de prueba de palabras positivas y negativas en sus actualizaciones de estado fue monitoreado durante una semana. En total, los sujetos de prueba publicaron un total de 122 millones de palabras, cuatro millones de las cuales fueron positivas y 1,8 millones negativas.



Como informaron los autores, la cantidad de palabras negativas utilizadas en las actualizaciones de estado aumentó, en promedio, en un 0,04% cuando se redujeron las publicaciones positivas de sus amigos en las noticias. Eso significa solo alrededor de cuatro palabras negativas más por cada 10,000 escritas por estos participantes del estudio. Al mismo tiempo, el número de palabras positivas disminuyó solo un 0,1%, o aproximadamente una palabra menos por cada 1000 palabras escritas. (Como punto de referencia, esta publicación tiene un poco más de 1,000 palabras).


Por el contrario, cuando se redujeron las publicaciones negativas, se utilizaron siete palabras negativas menos por cada 10.000 y el número de palabras positivas aumentó en aproximadamente seis por cada 10.000.

Con base en estos resultados, los autores concluyeron en su estudio publicado que sus 'resultados indican que las emociones expresadas por otros en Facebook influyen en nuestras propias emociones, constituyendo evidencia experimental de contagio a gran escala a través de las redes sociales'.


Pero, ¿estos pequeños cambios, incluso si son reales, constituyen una prueba de un alarmante 'contagio a gran escala'? Por supuesto, la importancia está en el ojo del espectador. Para algunos, estos minúsculos cambios pueden ser motivo de alarma. Pero para otros, probablemente sean solomeh.

Uno de los autores parece haber tenido dudas sobre el lenguaje que usaron para describir su trabajo. En una publicación de Facebook escrita en respuesta a la controversia, Adam D. I. Kramer reconoció: 'Mis coautores y yo lamentamos mucho la forma en que el artículo describió la investigación'.

También sugirió que, incluso con su enorme muestra, no encontraron un efecto particularmente grande. Los resultados, escribió, se basaron en la 'cantidad mínima para detectarlo estadísticamente; el resultado fue que las personas produjeron un promedio de una palabra emocional menos, por cada mil palabras, durante la semana siguiente'.

Los críticos han planteado otras preguntas, en particular The Atlantic y la revista Wired, que cuestionaron si la lectura de publicaciones positivas hizo que el usuario de Facebook usara palabras más positivas en sus actualizaciones posteriores.


Pero, ¿es ético lo que hizo Facebook? Existe una gran discusión sobre si Facebook fue lo suficientemente transparente con sus usuarios sobre este tipo de experimentación. No informaron directamente a los participantes del estudio que iban a ser utilizados como ratas de laboratorio humanas. En la investigación académica, eso se llama no obtener un 'consentimiento informado' y casi siempre es un gran no-no. (Facebook afirma que todos los que se unen a Facebook aceptan, como parte de su acuerdo de usuario, ser incluidos en dichos estudios).

La pregunta ahora es cómo, sentados en los tesoros de las nuevas redes sociales y otros datos digitales para extraer el mismo tipo de análisis de comportamiento, será necesario escribir las nuevas reglas.

La investigación experimental está repleta de ejemplos de cómo los participantes del estudio han sido manipulados, engañados o mentidos en nombre de las ciencias sociales. Y aunque muchas de estas prácticas han sido restringidas o prohibidas en la academia, siguen utilizándose en investigaciones comerciales y de otro tipo.

Considere el caso del 'Verifacitor', el detector de mentiras más nuevo y mejor del mundo, o al menos eso es lo que se les dijo a algunos participantes en este estudio realizado por investigadores del Centro de Investigación de Opinión Nacional de la Universidad de Chicago a mediados de la década de 1990.

Los sujetos de prueba se dividieron en dos grupos. Se pidió a los miembros del grupo de control que se sentaran en un escritorio donde un entrevistador hizo preguntas sobre hábitos de ejercicio, tabaquismo, consumo de drogas, prácticas sexuales y consumo excesivo de alcohol.

Los otros sujetos de prueba respondieron las mismas preguntas mientras estaban conectados por electrodos al Verifacitor, descrito por el operador como un nuevo tipo de detector de mentiras. (De hecho, era solo una colección de viejos componentes de computadora que los investigadores tenían por ahí).

Para mejorar aún más el decir la verdad, a cada participante se le dijo antes de que comenzara la entrevista formal que el operador necesitaba calibrar la máquina. Por lo tanto, se le dijo al participante que mintiera al azar en respuesta a preguntas demográficas sobre sí mismo que se habían formulado anteriormente en un cuestionario de detección. (Preguntas como: ¿Estás casado? ¿Terminaste la escuela secundaria? Etc.).

Por supuesto, al entrevistador se le habían deslizado las respuestas correctas, por lo que inmediatamente identificó una respuesta falsa, para asombro del sujeto de prueba.

Bueno, puedes adivinar lo que pasó. El 44% de los del grupo de Verifacitor reconocieron que alguna vez habían consumido cocaína en comparación con el 26% del grupo de control. Totalmente el doble de la proporción reportada usando anfetaminas (39% vs.19%), usando otras drogas (39% vs.19%) y bebiendo más alcohol del que debían (34% vs.16%).

En otras palabras, la investigación en ciencias sociales tiene una larga historia de manipulación. ¿Aprenderá de su pasado?