Otro clavo para Facebook: Frances Haugen, ex-empleada de la red social, revela la cara más oculta de la compañía

Publicado por: Adrián Ruiz
Facebook

Hace apenas una semana el Wall Street Journal empezó a revelar varias polémicas relacionadas con Facebook. Ahora, podemos poner rostro y nombre a la fuente de estas revelaciones, Frances Haugen, ex-empleada de la popular red social, que este domingo concedió una entrevista en 60 Minutes para hablar largo y tendido sobre todo lo que está mal en la compañía y de su toxicidad.

En pocas palabras, Haugen describió una empresa tan comprometida con la optimización de sus servicios que los algoritmos de Facebook están intencionadamente diseñados para fomentar el discurso de odio. «Están obteniendo sus beneficios a costa de nuestra seguridad», dijo Haugen.

Facebook al descubierto

Frances Haugen ocupaba un puesto como gerente de productos en Facebook, un puesto asignado a un grupo sobre la integridad cívica, grupo que este mismo año fue disuelto y acabó propiciando su marcha de la compañía. El motivo, en palabras de ellas, «no confiaba en que estuvieran dispuestos a invertir lo necesario para evitar que Facebook sea peligroso«, dice Haugen.

Frank Haugen en 60 Minutes
Frances Haugen en 60 Minutes

Consecuencia de ello Haugen acabó filtrando documentos de la empresa ante la Comisión de la Bolsa y Valores con la esperanza de poder cambiar algo. Entre otras cosas matizó que ha trabajado en empresas como Google y Pinterest, pero que «Facebook es sustancialmente peor». La razón, según ella, se debe al empeño de Facebook de poner el beneficio por encima del bienestar de los usuarios. Haugen señala que en Facebook ha habido conflictos entre lo que es bueno «para el público y para Facebook», pero que finalmente Facebook acaba eligiendo lo mejor para ellos, es decir, ganar más dinero.

Facebook ha reiterado en más de una ocasión que hacen lo posible para detener los discursos de odio, pero ahora gracias a los documentos filtrados por Haugen se sabe que, basándose en estimaciones de la propia compañía, solo tienen capacidad para actuar sobre entre el 3% y el 5% del odio que prolifera en sus redes. En otro documento se revela que existen evidencias de distintas fuentes de que los discursos de odio, la desinformación y la división política están afectando a sociedades enteras de todo el mundo.

Haugen cree que la raíz del problema se encuentra en el algoritmo que se implementó en 2018. Dicho algoritmo estaría diseñado para impulsar contenidos que infunden miedo y odio entre los usuarios debido a que es más fácil inspirar ira en las personas, en lugar de otras emociones distintas. Por aquel entonces el propio Mark Zuckerberg presentó la actualización del algoritmo como un cambio positivo, alegando al bienestar de los usuarios.

A lo largo del pasado mes de septiembre el Wall Street Journal ha ido revelando documentos de la compañía conocidos como «Los archivos de Facebook»: en uno de ellos aseguran que Facebook tiene conocimiento de que Instagram perjudica a las niñas y adolescentes, algo que ha terminado en manos de una audiencia del Congreso. En varias ocasiones la compañía ha intentado desviar la atención de desmarcándose de su discurso original o catalogando las acusaciones de «ridículas», en palabras de Nick Clegg, vicepresidente de Asuntos Globales de Facebook.

Imagen: Unsplash
Publicado en:
¡Síguenos!

Si te ha gustado el artículo síguenos para no perderte nuestras publicaciones:

Deja un comentario:

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *