Facebook abre un centro de control contra noticias falsas de cara a las elecciones – Télam

A falta de menos de un mes para las elecciones legislativas en Estados Unidos, la red social Facebook abri en su sede de Menlo Park (California) una unidad de control que centraliza su lucha contra la propagacin de noticias falsas, como ocurri en las presidenciales de 2016.

Facebook instal este «cuarto de guerra» en una oficina en la que trabajan a diario entre 20 y 30 personas responsables de coordinar a 20.000 empleados en todo el mundo, entre ellos los que comenzaron a trabajar en Brasil antes de las elecciones presidenciales del 7 de octubre en ese pas.

«Durante los tres das previos a las elecciones legislativas, en esta sala se trabajar 24 horas seguidas», explic un vocero de la compaa en una visita organizada para un grupo de medios, apunt la agencia Efe.

Los encargados de impedir que se propaguen noticias falsas trabajan «codo con codo, dadas las reducidas dimensiones» de la oficina, algo hecho a propsito «para fomentar la comunicacin continua e inmediata» entre ellos, destac.

«Tener a todas estas personas juntas en una habitacin nos ayuda a responder rpidamente a nuevas amenazas», asegur la directora de la empresa para Poltica Global y Dilogo con los Gobiernos, Katie Harbath.

Desde la misma oficina tambin se controlan contenidos de Instagram y WhatsApp, ambas propiedad de Facebook.

Con esta unidad, Facebook espera poder evitar lo sucedido en 2016 -ao en que Donald Trump gan la Presidencia de Estados Unidos-, cuando la eclosin de noticias falsas en la plataforma la situ en el centro de duras crticas.

El centro de control de Menlo Park cuenta con numerosas pantallas en las paredes y monitores que muestran en tiempo real grficos de tendencias sobre lo que se dice y se hace en la red social en todo el mundo.

Tambin se ven aquellos contenidos que han sido identificados como susceptibles de estar manipulados o incitar al odio.

La identificacin de noticias falsas o «fake news» y de contenidos que incitan al odio se lleva a cabo de forma automatizada, mediante un programa de inteligencia artificial para el caso de spam o contenidos virales, entre otros de manipulacin sencilla.

Los expertos se ocupan personalmente de aquellos contenidos que son ms sofisticados, comentaron los voceros de Facebook.

Cada uno de los trabajadores en la sala de control representa a un equipo distinto de la compaa y entre todos ellos son responsables de coordinar a miles de empleados que se dedican a cuestiones relacionadas con la seguridad para la empresa en todo el planeta.

«Hace un ao, tenamos a 10.000 personas que trabajaban en temas de seguridad. Ahora tenemos a 20.000», afirm el responsable de Compromiso Cvico de la firma, Samidh Chakrabarti.

Por el momento, el «cuarto de guerra» de la red social ya ha detectado un incremento de intentos de influir de forma ilegtima en las elecciones de «medio trmino», como se llama a las de mitad de mandato presidencial.

Se trata de contenidos falsos o tendenciosos que provienen tanto de Estados Unidos como de otros pases, sobre todo de Irn y Rusia, algo que estaba «dentro de lo esperado».

«De momento no hemos detectado nada anmalo», destac el jefe de Ciberseguridad, Nathaniel Gleicher, quien asegur que un repunte como ese a menos de un mes de los comicios era previsible.

La funcin ms visible del centro de control de Menlo Park es la eliminacin de cuentas falsas, las de personas que se hacen pasar por quien no son para influir en otros.

Segn Facebook, estas cuentas son en muchos casos el origen de informaciones manipuladas con el fin de influir en los electores que se vuelven virales y llegan a infinidad de usuarios.

La semana pasada, la red social retir 559 pginas y 251 cuentas que trataban de influir en los prximos comicios legislativos estadounidenses.

La segunda misin es identificar y reducir la distribucin de noticias falsas en la red, algo que se hace mediante la colaboracin con entidades independientes responsables de determinar la veracidad de los contenidos.

Si un usuario trata de compartir una informacin que ha sido clasificada como potencialmente falsa, la red social le dar un aviso sobre ello.

Desde el centro de control californiano se identifica y suspende a aquellos usuarios considerados «actores malignos», que contribuyen a manipular el debate y confundir a los usuarios sobre, por ejemplo, los requisitos para poder votar.

Fuente: https://www.telam.com.ar/notas/201810/299166-facebook-abre-un-centro-de-control-contra-noticias-falsas-de-cara-a-las-elecciones-en-eeuu.html

Facebook abre un centro de control contra noticias falsas de cara a las elecciones – Télam