REGIONES:

SUBSCRIBE:

Sign up for weekly updates

Confrontando a Facebook

¿Y si estamos subestimando el poder de la mayor red de medios sociales del planeta?

REUTERS/Dado Ruvic/Ilustración/Foto de archivo
REUTERS/Dado Ruvic/Ilustración/Foto de archivo

REUTERS/Dado Ruvic/Illustration/File Photo

En el último año, la cuestión del control de Facebook sobre lo que sus usuarios ven y publican ha sido claramente evidente. Aunque siempre ha quedado claro que Facebook está a cargo, una reciente serie de prohibiciones a ciertos usuarios y publicaciones hace que la gente se pregunte acerca de hasta qué punto Facebook debería tener permiso de controlar lo que se comparte en su plataforma. Las preocupaciones han surgido sobre cómo y qué es lo que Facebook decide que cada usuario verá, y qué responsabilidad tiene Facebook, si tiene alguna, en esta área. Después de las acusaciones de que las noticias falsas en Facebook pueden haber influenciado a los votantes durante las recientes elecciones en Estados Unidos y las estadísticas que indican que el 88% de la Generación del Milenio está recibiendo al menos algunas de sus noticias desde Facebook, entender qué es lo que los usuarios están viendo es cada vez más importante.


Algoritmos y sesgo de confirmación

Cuando alguien se registra en Facebook y se desplaza a través de su feed de noticias, ¿qué es lo que realmente está viendo? A lo largo de la historia de Facebook la respuesta a esa pregunta ha cambiado muchas veces. El goliath de los medios sociales emplea un conjunto siempre cambiante de algoritmos que utilizan datos basados en la actividad pasada de cada usuario para predecir lo que considerará más interesante y útil entre todos los elementos que sus amigos, grupos y páginas han publicado. Estos algoritmos tienen una profunda influencia en lo que aparece en el feed de un usuario, y el código detrás de ellos es un secreto comercial de Facebook.

En 2015, muchas organizaciones sin fines de lucro descubrieron que el alcance de sus publicaciones se estaba reduciendo y que menos personas veían su contenido. Incluso las personas que habían indicado que les gustaba la página de Facebook de una ONG no veían todos sus mensajes. Parte de esto es producto de los crecientes niveles de contenido competitivo en Facebook, pero otro factor es un cambio en el algoritmo de noticias del feed que bloqueó lo que Facebook determinó ser publicaciones "demasiado promocionales" de los feed de las personas.

Eso está bien si significa que la gente ve menos publicidad que considera molesta, pero también significa que, para mantenerse competitivas, las organizaciones sin fines de lucro deben recurrir a publicaciones pagas en Facebook para aumentar el alance de las mismas.

Es frustrante para los usuarios no saber lo que está controlando su acceso a publicaciones específicas, y esto les produce un rechazo. Sin embargo, sus propias acciones - sus opciones en términos de amigos y lo que "les gusta" - son parte de cómo los algoritmos seleccionan lo que aparecerá en sus feeds de noticias

La combinación de la elección personal y los algoritmos crea una situación en la que los usuarios veremos cada vez más únicamente el contenido que sea consistente con lo que previamente nos haya gustado en Facebook. Esto se debe a que los algoritmos están diseñados para mostrar a las personas lo que determinan que será el contenido más atractivo para ellas, y si nosotros, como usuarios, seguimos indicando que "nos gusta" lo que anteriormente ya nos ha gustado, existe un peligro de sesgo de confirmación. Los usuarios terminan en una burbuja donde cada vez tienen menos probabilidades de estar expuestos a diferentes puntos de vista.

Según Mark Zuckerberg, director general del gigante de los medios sociales, las redes sociales son más diversas que cualquier otra fuente de medios y niega que Facebook cree burbujas de filtro. Sin embargo, muchas voces, incluidas las de medios de comunicación prominentes y los propios investigadores de Facebook están yendo en contra de la afirmación de Zuckerberg. Las burbujas se han descrito de diversas maneras como "un laberinto de jardines amurallados" y "cámaras de eco en línea" que conducen a la visión de túnel de los usuarios y una falta de interés en buscar puntos de vista opuestos. Una revisión de la propia investigación de Facebook declaró: "Estás viendo menos noticias compartidas por tus amigos con las que no estás de acuerdo, porque el algoritmo no te las muestra".


Políticas de contenido

Las famosas Normas Comunitarias de Facebook describen el tipo de contenido que los usuarios pueden y no pueden publicar y describen cómo se puede informar el contenido ofensivo a Facebook. Por ejemplo, ciertas imágenes de desnudos e imágenes que glorifican la violencia no están permitidas.

A principios de este año hubo una prohibición temporal del Horror de la Guerra, la famosa foto llamada "niña del napalm" y, más recientemente, se retiró un video "ofensivo" de sensibilización sobre el cáncer de mama.

La portada de Aftenposten de Noruega con una carta abierta a Mark Zuckerberg, acusándolo de amenazar la libertad de expresión y abusar del poder
La portada de Aftenposten de Noruega con una carta abierta a Mark Zuckerberg, acusándolo de amenazar la libertad de expresión y abusar del poder

NTB Scanpix/Cornelius Poppe/via REUTERS

Facebook afirma que sus políticas "a veces pueden ser más contundentes de lo que nos gustaría y restringir el contenido compartido con fines legítimos". En el último año ha habido muchos casos de contenido restringido y luego reintegrado después de que se considerara que había sido publicado con "fines legítimos".

Si hay un mecanismo correctivo funcional - si Facebook está controlando contenido ofensivo y corrigiendo errores cuando ocurren, ¿hay realmente un problema? Podría existir uno cuando, por ejemplo, el factor tiempo es importante para el contenido publicado. Cuando la novia de Philando Castile - un hombre afroamericano disparado por la policía - transmitió en directo un video gráfico para mostrarle al mundo la verdad mientras ocurría, el video fue eliminado brevemente debido a una "falla técnica". Facebook también fue acusado de censurar el video.

Pero hay otro problema. La responsabilidad de los usuarios de entender las políticas de Faceboook es, en primer lugar, enorme. ¿Cuántos usuarios realmente las leen? ¿Y cuántos pueden encontrarlas en su propio idioma? Aunque la interfaz de Facebook está disponible en muchos idiomas, los estándares comunitarios y la configuración de privacidad no lo están. Por ejemplo, si decide cambiar la configuración del estándar de la comunidad para leerla en kinyarwanda (una lengua hablada en Ruanda) el contenido permanece en inglés. Además, los controles de privacidad en particular han sido terriblemente difíciles de navegar, incluso en nuestra propia lengua materna.

A un nivel más alto, hay preocupaciones acerca de las motivaciones ocultas detrás de ciertas eliminaciones de contenido, así como las responsabilidades que tiene Facebook - hacia sus usuarios y la comunidad global.

Después de reinstalar perfiles y páginas, las razones dadas por los voceros de Facebook ya son cada vez más familiares, normalmente no dan ninguna explicación: "las páginas se eliminaron por error", "una de nuestras políticas automatizadas se aplicó incorrectamente" o "fue una falla técnica". Se ofrecieron variaciones de estas no-respuestas para una variedad de casos en que páginas fueron eliminadas: desde grupos pro-Bernie Sanders que fueron eliminados en abril, momentos antes de que él hiciera un anuncio formal sobre su candidatura para la nominación Demócrata; el retiro del video de Philando Castile; la eliminación de dos páginas libertarias de Facebook sobre publicaciones no especificadas que violaban las normas; y la inhabilitación de las cuentas de varios periodistas palestinos. En el último caso, varios editores de al menos tres medios diferentes encontraron que sus cuentas se habían desactivado cuando intentaron iniciar sesión. Esto había sucedido tras el anuncio de un acuerdo entre Facebook y el gobierno israelí para abordar el tema de la "incitación", lo que llevó a algunos de los periodistas palestinos a pensar que habían sido blanco como parte de ese acuerdo.

Todos estos ejemplos tienen el elemento en común del discurso político. Buzzfeed informó que Facebook no respondió a las preguntas acerca de si se revisaría la tendencia que tiene el gigante de los medios sociales de silenciar equivocadamente el discurso político significativo.


Desinformación

Luego está la cuestión de la incorrecta e intencionalmente engañosa información que se promueve erróneamente a los usuarios de Facebook. En agosto, después de que Facebook se enfrentara a críticas que afirmaban que la intervención humana había desempeñado un papel importante en los temas que fueron tendencia (o tópicos populares) - que los mismos no habían sido elegidos exclusivamente por el algoritmo, como se pensaba anteriormente - se acabó con el elemento humano. Pocos días después, la desinformación comenzó a abrirse camino en los feeds de los usuarios. Los usuarios que colocaban su cursor sobre el nombre de la periodista de Fox News, Megyn Kelly, encontraron un titular incorrecto que sugería que había sido despedida por Fox, entre otros desagradables y ofensivos titulares que eran tendencia en la red social.

Pero el escándalo de los tópicos populares no es la única manera en que las noticias falsas han estado abriéndose camino en los feeds de los usuarios. El algoritmo exacto de Facebook puede ser un misterio, pero sabemos que además de mostrarnos historias similares a las que ya nos gustaron, también nos muestra historias que le gustaron a muchas otras personas, independientemente de si el contenido es verdadero o no. El algoritmo no toma en cuenta si una historia es exacta o no lo es. Mientras esté siendo leída y se le dé un clic, se moverá a la parte superior de la pila. Aquellos que verifican los datos en Facebook no pueden escanear todo lo que publican sus más de mil millones de usuarios en todo el mundo.



(Este tópico popular de Facebook es 100% inventado. Nada en él es verdad. Esta única publicación se ha compartido 10 mil veces en las últimas seis horas.)

Pero ¿tiene Facebook la responsabilidad de asegurarse de que todo lo que se publica sea cierto? Mientras que más de la mitad de los estadounidenses se informan a través de Facebook, y que ha saltado a la luz que altos ejecutivos han dirigido la política de contenido y tomado decisiones editoriales basadas en su juicio personal, Facebook niega que se trate de una empresa de medios. Mark Zuckerberg sostiene que Facebook es una empresa de tecnología que ofrece a los medios la plataforma y las herramientas para compartir sus historias, pero como Facebook no crea su propio contenido, no es una compañía de medios.

Sin embargo, alberga, distribuye y saca provecho del contenido tal como lo hacen otros medios de comunicación.

Esta semana, Facebook anunció que bloquearía anuncios que mostraran noticias falsas, una decisión que busca que sea menos lucrativo anunciar historias falsas. Esto fue, en parte, una respuesta a las acusaciones de que las noticias falsas en Facebook durante la campaña presidencial de Estados Unidos terminaron por influir en los votantes y en lo que sabían acerca de los candidatos.

Sin embargo, en términos de verificar y eliminar las noticias falsas que los usuarios individuales comparten, Facebook no tiene ningún incentivo para hacerlo. En este mundo post-verdad, el modelo de negocio de Facebook se basa en hacer clic, compartir y seducir con el contenido, no en la credibilidad del mismo.

Que se cuide el comprador.

Esté atento a la segunda parte de nuestra investigación sobre Facebook, donde nos enfocaremos en el Free Basics y el objetivo de Facebook de un Internet gratis para todos. ¿Cuál es el costo real y cuáles son las implicaciones para el libre flujo de tráfico en línea y el acceso al mismo?

Último tweet:

#Tonga wrongful dismissal case will clarify role of public broadcaster - IFEX https://t.co/RNpcWlaAOE @article19org @globalfreemedia