Anunciaron que lucharían hace justo un mes, pero este jueves, Facebook ha precisado finalmente cómo va a ser y funcionar la herramienta para detectar noticias falsas.
Lo ha anunciado el fundador de la compañía Mark Zuckerberg en su perfil de la red social: “Cuando mucha gente nos avise de que una historia es un bulo, vamos a hacer que la estudien organizaciones externas dedicadas a comprobar los hechos. Si estas están de acuerdo en que la historia es falsa, veréis una bandera al lado de la historia señalando que ha sido puesta en entredicho”. Además, este tipo de publicaciones también tendrá menos posibilidades de mostrarse en el News Feed (la página principal de noticias) de los usuarios.
Con esta medida, que forma parte del plan de siete puntos que anunció a finales de noviembre, Facebook se aleja de la función de árbitro y deja abierta la posibilidad de leer y compartir la historia. Pero con condiciones. “Queremos que a partir de ahora tengáis más información sobre lo que estas organizaciones expertas en fact cheking (comprobación de hechos) piensan que es riguroso. Así nadie más podrá poner un anuncio en una historia a la que le falta veracidad ni podrá promoverla en nuestra plataforma”, ha afirmado Zuckerberg.
“Estos son los primeros pasos para lograr que difundir información errónea no sea rentable y para que los spammers (personas que envían correos basura) no ganen dinero cuando la gente visita sus páginas web. Vamos a reprimir a estos spammers que se disfrazan como organizaciones de noticias famosas”, ha asegurado.
Esta decisión llega después del papel que han jugado las redes sociales en las elecciones de Estados Unidos. Se ha tratado de una de las campañas electorales en la que han circulado más mentiras de la historia reciente, bulos que han encontrado un canal privilegiado en los buscadores y redes sociales. Un análisis reciente de BuzzFeed News señalaba como en los últimos tres meses de la campaña las noticias falsas que tuvieron mayor eco en las redes superaron con creces a las noticias más compartidas de los medios tradicionales. Otro realizado por la empresa Ipsos Public Affairs reveló que los titulares de noticias falsas engañan a los adultos estadounidenses el 75% de las veces. El republicano Donald Trump, vencedor el 8 de noviembre, fue el candidato que más faltó a la verdad, según estudios de comprobación de datos, como Politifact.
“Veo a Facebook como una compañía tecnológica, pero reconozco que tenemos más responsabilidad que la de solo construir la tecnología por donde fluye la información. Aunque nosotros no escribimos las noticias que vosotros leéis y compartís, reconocemos que somos más que un simple distribuidor de noticias”, ha asegurado el fundador de la red social.
Siete puntos contra los bulos
Siete puntos contra los bulos
Además, de esta señal de identificación, la compañía ha esbozado ya otros seis puntos en los que se va a centrar para luchar contra los bulos. Estos pasan por detectar de forma más rápida las informaciones erróneas (mejorando el sistema técnico de Facebook y haciendo más fácil la forma en la que los usuarios pueden avisar de los bulos); por contactar con organizaciones de prestigio que puedan verificar hechos (no se ha hecho público el nombre de cuáles podrían ser); por subir la calidad de las historias que se muestran debajo de los artículos; por escuchar a periodistas y expertos en medios para entender de sus sistemas de verificación, y por acabar con el beneficio que generan las noticias falsas.
El último objetivo, asfixiar económicamente a las webs que generan este tipo de contenidos falsos, también es compartido por la otra gran compañía tecnológica: Google. El buscador anunció hace un mes que impedirá a los sitios que propagan noticias falsas el uso de su servicio online de publicidad (AdSense). “A partir de ahora, vamos a restringir la publicación de anuncios en páginas cuyo objetivo principal del editor y o del propietario de la web sea tergiversar o difundir información falsa”, dijo la compañía en una nota. AdSense, su principal fuente de ingresos, utiliza una combinación de humanos y herramientas informáticas para decidir qué contenidos o webs incluye en el saco de páginas maliciosas, ilegales o mentirosas.
Comentarios
Publicar un comentario