null: nullpx

Sin metodología o transparencia, Facebook y Twitter se vuelven 'árbitros de la verdad'

"Un artículo publicado por el New York Post se viralizó en las redes sociales al supuestamente mostrar una conexión del candidato demócrata a la Casa Blanca, Joe Biden, con la empresa ucraniana de energía Burisma y sus intereses comerciales. Ante el creciente número de interacciones y la posibilidad de estar divulgando desinformación, las dos empresas decidieron tomar medidas para parar su distribución, ambas polémicas y cuestionables".
Opinión
Directora adjunta de la International Fact-Checking Network y fundadora de la Agência Lupa.
2020-10-15T11:23:04-04:00
Comparte
Default image alt
Captura de pantalla del tuit: "Tu tuit no pudo ser enviado porque este enlace ha sido identificado por Twitter o nuestros socios como potencialmente perjudicial. Visita nuestro Centro de Ayuda para conocer más".

Según parece, Facebook y Twitter han decidido asumir el puesto de árbitros de la verdad, posición que rechazaron por muchísimo tiempo. E ingenuos son aquellos que creen que esto no es peligroso o que no tiene conexión con las elecciones en Estados Unidos.

Durante todo el día de ayer, un artículo publicado por el New York Post se viralizó en las redes sociales al supuestamente mostrar una conexión del candidato demócrata a la Casa Blanca, Joe Biden, con la empresa ucraniana de energía Burisma y sus intereses comerciales. Ante el creciente número de interacciones y la posibilidad de estar divulgando desinformación, las dos empresas decidieron tomar medidas para parar su distribución, ambas polémicas y cuestionables.

Un vocero de Facebook tuiteó a las 11h que su empresa reduciría la distribución del contenido del periódico antes de que algún verificador de datos en Estados Unidos clasificara el reportaje del New York Post como falso.

Desde 2016, varias organizaciones que se dedican a la verificación de datos trabajan con Facebook para reducir el volumen de falsedades que circula en la plataforma. (Disclaimer: Facebook exige de esas organizaciones que sean miembros de la International Fact-Checking Network y sigan el Código de Ética de la entidad).

Cuando identifican un contenido como engañoso, los fact-checkers escriben artículos y los envían a Facebook. La plataforma entonces conecta el chequeo con el post original y emite alertas tanto para los que produjeron la desinformación como para los que la compartieron. Como parte del programa, Facebook también dice que reduce la distribución del post clasificado como "falso" en hasta un 80%, lo que bajaría la probabilidad de que otras personas lo vean o compartan.

Todo este trabajo está fundamentalmente apoyado en los cinco principios de la IFCN. Todos los verificadores profesionales deben ser transparentes con relación a su metodología de trabajo, sus fuentes y la forma de financiación de su organización. También deben seguir una política de corrección pública y practicar el apartidismo.

Ayer, al reconocer públicamente que también rebaja la distribución de contenidos desinformativos usando otros métodos, Facebook sorprendió no solo a sus usuarios sino también a la comunidad de IFCN.

¿Qué metodología usan los funcionarios de Facebook en esas situaciones? ¿Cómo las identifican? ¿En qué fuentes se apoyan para decidir previamente que algo puede ser falso? ¿En esas decisiones, son realmente apartidistas?

Mientras la comunidad de verificadores todavía digería la posición de Facebook y Baybars Orsek, director de IFCN, tuiteaba sobre el tema, pidiendo más explicaciones a la empresa, otra noticia preocupante surgió.

Usuarios de Twitter informaron que, al intentar compartir el enlace con el reportaje del New York Post en esta plataforma, recibían un mensaje prohibiendo la acción.

"Tu tweet no ha sido enviado porque Twitter o sus socios han identificado que él contiene contenido potencialmente peligroso".

Angie Holan, editora jefe de PolitiFact, cuestionó la información en sus redes sociales: "¿Quiénes son estos socios de los que habla Twitter? ¿Será que Twitter ha contratado algún fact-checker sin contarle esta novedad a nadie? Sería una gran noticia para mí".

Y Orsek la siguió: "Parece que ahora, en la recta final de las elecciones, se ha vuelto más interesante asumir el puesto de 'árbitros de la verdad'. También parece que todos están muy conscientes sobre los éxitos de esas decisiones".

Al intentar explicar sus decisiones, las dos compañías generaron aún más dudas. Facebook dijo que la política de reducir la distribución de contenidos posiblemente falsos siempre existió y que sólo la estaba aplicando una vez más. Los fact-checkers, sin embargo, comentaron entre sí que la desconocían.

Twitter, por su parte, dijo a Motherboard que no acepta contenidos hackeados. Los verificadores se rieron un poco, recordando el éxito de Wikileaks y del escándalo con Snowden.

Es importante recordar que, al verificar la veracidad de contenidos online, los fact-checkers siguen metodologías preestablecidas y usan bases de datos públicas. Suelen trabajar por horas y horas, para no ser injustos ni tendenciosos.

La transparencia es un punto clave. La decisión de reducir o impedir la distribución de contenidos online basándose en criterios que parecen misteriosos y en metodologías desconocidas representa un grave error, un paso que acerca esas empresas a la temida censura.

Comparte