Facebook se saltó sus propias normas en un proyecto piloto para "desradicalizar" extremistas a través de Messenger, su plataforma de mensajería.
Decenas de personas que publicaron contenido extremista islámico y de extrema derecha en Reino Unido fueron identificadas y contactadas mediante perfiles falsos.
El objetivo: intentar hacerles cambiar de opinión usando los mismos métodos de reclutamiento que usan los extremistas.
De las 569 personas contactadas, 76 intercambiaron una conversación de cinco o más mensajes. Y ocho de ellas mostraron señales de impacto positivo, según investigadores del Instituto para el Diálogo Estratégico (ISD, por sus siglas en inglés), una organización con sede en Londres que busca combatir el extremismo violento y que está detrás de este proyecto financiado en su totalidad por Facebook.
La polémica reside en que algunos activistas que apoyan la privacidad consideran que este sistema supone una vigilancia injustificada por parte de la red social hacia sus usuarios.
Instituciones de todo el mundo llevan meses (y años) instando a las empresas tecnológicas a tomar más medidas para combatir el extremismo, después de varios casos de personas que fueron radicalizadas en internet.
Investigadores del ISD le dijeron a la BBC que usaron un software para escanear las páginas de Facebook de grupos radicales islamistas y de extrema derecha.
Una vez terminada esa fase, buscaron manualmente en esos perfiles diferentes ejemplos de lenguaje violento, deshumanizante y que incitara al odio.
Pero, ¿quién estaba detrás de esas cuentas falsas?
Participaron un total de 11 "proveedores de intervención" —extremistas arrepentidos, sobrevivientes de terrorismo o terapeutas formados— a quienes pagaron unos US$34 la hora en una jornada de trabajo de ocho horas semanales.
Uno de ellos es Colin Bidwell, quien sobrevivió al ataque de Túnez en 2015 en el que murieron al menos 38 personas cuando un hombre armado irrumpió en dos hoteles de Susa.
A través de un perfil falso, habló con usuarios de la red social que mostraban apoyo al extremismo islámico —incluidos quienes pudieran apoyar al atacante de Túnez— y desafió sus puntos de vista a través de preguntas y conversaciones.
"Creo que tengo derecho a hacer esas preguntas después de lo que pasé", le contó a la BBC. "Si existe la menor posibilidad de que yo pueda marcar la diferencia o hacerles tomar conciencia, lo haré".
Muchos de ellos no respondieron, pero algunos terminaron implicándose en largas conversaciones.
Bidwell habló con ellos un poco sobre religión, sobre el efecto que el ataque tuvo en su mujer y sobre lo que le preocupa para el futuro de sus hijos "en un mundo tan violento".
"Una de las cosas que dije fue: ‘Puedes tener tus ideas extremistas, pero lo que yo no comprendo es la violencia extremista’".
Otros "interventores" usaron técnicas distintas, en función de su contexto y situación.
Por ejemplo, una exextremista se dirigió a mujeres jóvenes y les explicó que solía pensar como ellas, pero que un día se había dado cuenta de que la violencia no es la solución.
En torno a la mitad de las personas que eligieron para entablar conversaciones habían mostrado apoyo al extremismo islámico. La otra mitad, eran simpatizantes de extrema derecha. El grupo también se dividió entre hombres y mujeres.
La idea era "hacerles salir del pozo, de la violencia", le dijo a la BBC Sasha Havlicek, directora ejecutiva de ISD.
"Tratamos de llenar la brecha de respuesta al reclutamiento en internet y la radicalización, y la clave de esa brecha está en los mensajes directos".
"Se está haciendo mucho trabajo para contrarrestar la propaganda con discursos y la eliminación de contenido, pero sabemos que los extremistas son muy efectivos a la hora de hacer llegar sus mensajes", explicó la especialista.
"Y todavía no hay un trabajo sistemático que se esté haciendo para lograr esa intervención directa con las personas que son atraídas hacia esos grupos".
Pero a algunos activistas les preocupa este proyecto por el hecho de que Facebook haya roto sus propias normas para crear perfiles falsos.
Millie Graham Wood trabaja como abogada en la ONG Privacy International basada en Londres, Reino Unido, que trabaja en cuestiones sobre nuevas tecnologías y los derechos de los usuarios.
"Si identifican contenido que no debería estar ahí, Facebook tendría que eliminarlo", afirmó Graham.
"Incluso si la propia organización (ISD) está implicada en investigaciones de años, eso no significa que estén habilitados para llevar a cabo ese tipo de función de vigilancia", añadió.
Facebook financió la iniciativa, pero no quiso desvelar cuánto dinero gastó en ella.
También declaró que no le otorgó a ISD un acceso especial a los perfiles de sus usuarios.
El encargado de las políticas públicas de Facebook en Reino Unido, Karim Palant, le confirmó a la BBC que la red social no permite la creación de perfiles falsos —como en los que se fundamentaba el proyecto— y que la investigación se hizo sin interferencia por parte de Facebook.
"Las técnicas de investigación y lo que hicieron es un asunto de ellos", explicó.
Durante las conversaciones, los "interventores" no explicaron que trabajaban para ISD, a no ser que se lo preguntaran directamente. Eso ocurrió hasta en siete ocasiones. La conversación terminó con una pelea.
De las 569 personas contactadas, los investigadores dicen que ocho mostraron signos de replantearse sus opiniones.
A pesar del escaso número de personas implicadas en el proyecto, ISD sostiene que las conversaciones en internet pueden marcar la diferencia a la hora de frenar el extremismo.
Ahora, la organización quiere explorar cómo expandir este proyecto fuera de las fronteras británicas, y cómo usar métodos similares en otras plataformas como Instagram, Reddit y Twitter.
Ahora puedes recibir notificaciones de BBC Mundo. Descarga la nueva versión de nuestra app y actívalas para no perderte nuestro mejor contenido.