Para los periodistas financieros de Associated Press (AP), la temporada de ganancias ya no es tan aburrida como alguna vez lo fue. La agencia de noticias ahora utiliza un software para producir más de 3,500 informes, esencialmente cubriendo todo el mercado bursátil estadounidense y liberando el tiempo de sus escritores para concentrarse en tareas más importantes.
[contextly_sidebar id=”hybv5DRF4Hf4IXAxyMPORbeL4SIaC4mc”]El llamado periodismo robot, o “producción automática de noticias”, no es la fantasía de los futuristas; ya llegó. Pero por el momento al menos, los periodistas pueden estar tranquilos. AP, por ejemplo, no ha corrido a ninguno de sus empleados por culpa de la tecnología. Al contrario, la utiliza como un complemento.
Los beneficios de dejarle a los robots el trabajo pesado de datos son obvios. No sólo las organizaciones de noticias aumentan el volumen y la velocidad de su producción en áreas tales como informes financieros y deportivos analizando extensas cantidades de números, claro, suponiendo que los autómatas estén configurados correctamente, eliminan el margen de error humano. Con eso, por supuesto, también eliminan de los datos el escrutinio humano, aunque el aprendizaje automático puede filtrar valores anormales cada día va mejorando más y más.
Detrás de cada robot hay una persona con motivos e intenciones. Antes de que AP pueda extraer infinidad de informes financieros, alguien debe crear una serie de plantillas para que el software llene los espacios en blanco y “escriba” una historia apropiada. Y alguien tiene que decidir qué informes de la empresa se cubrirán en primer lugar. Todos estos son aportes humanos.
Es muy fácil que la automatización caiga en las manos equivocadas y pueda ser perjudicial. Digamos que podrían lanzar estadísticas de delincuencia falsas o cifras de desempleo erróneas e inundar el Internet con propaganda. Y, al hacerlo, podrían influir en la agenda pública.
“Si vas a forzar los datos, ya sean historias, utilizar gráficos interactivos o utilizar la automatización para transmitir un mensaje de esos datos, para nosotros eso es muy difícil de controlar, de la misma manera que Microsoft no puede controlar a las personas que ponen datos incorrectos en Excel “, dice. “Lo que ofrecemos es sólo una herramienta.”
Si bien los que hacen la propaganda todavía no emplean a los periodistas robots per se, la automatización ya se está utilizando para difundir la desinformación. Investigaciones recientes sugieren que hasta el 15 por ciento de las cuentas de Twitter son robots de software, con millones de personas que comparten enlaces de artículos de noticias falsos escritos por personas. Pero seguramente el público está discerniendo lo suficiente como para separar la confiabilidad de la información reportada en los medios tradicionales de noticias como la BBC en comparación con las afirmaciones de los blogs.
Gillian Bolsover, del Oxford Internet Institute, que estudia la “propaganda computacional”, dice que puede ser difícil saber qué fuentes son confiables, incluso para los investigadores. “Hay varios problemas”, dice. “¿Dónde se establece el límite entre el escándalo y la opinión? ¿Cómo saber qué es una fuente de noticias confiable cuando estas fuentes pueden editar sus propias páginas de Wikipedia? El problema es que, desde hace años, el Internet y las redes sociales ha ayudado a crear un eco donde la gente está más expuesta a la información que coincide con sus opiniones y sus prejuicios. Ahora estamos viendo como esos ecos se fortifican y se hacen sólidos”.
No ayuda que los algoritmos de Google sean deficientes. Este mes el buscador tuvo que eliminar los resultados de su herramienta Feature Snippet que sugirió que Obama había planeado un golpe de Estado comunista. El problema es que, sin la supervisión humana, los algoritmos de búsqueda dan precedencia indebida a fuentes falsas con altos rankings.
Al trazar un mapa del ecosistema de los sitios de noticias falsas de derecha, Albright descubrió que alrededor de una cuarta parte del tráfico que llegaba a un ejemplo de estos sitios era directa, con un 50 por ciento llegando desde Facebook. En otras palabras, millones de visitas provienen de personas que buscan información falsa que apoya su cosmovisión, antes de que estos mensajes sean amplificados en las redes sociales.
La programación y la remodelación de la opinión pública en los medios de comunicación no son nada nuevo. Cada año, las organizaciones gastan miles de millones de dólares en intentar hacer hacks, influir en la opinión e incluso en las políticas públicas. Will Moy, el fundador de Full Fact, creó la organización caritativa después de trabajar en el parlamento, donde vio falsas afirmaciones hechas en comunicados de prensa e informes no verificados, e incluso influyó en el proceso legislativo. Mevan Babakar, gerente de productos digitales de la organización sin fines de lucro, afirma que las mentiras se propagan en los medios de comunicación a todas horas, pero que durante períodos de cambio político, como el proceso del Brexit en curso y las recientes elecciones presidenciales de Estados Unidos, esto se intensifica…