"Cuando me fui, no estreché la mano a nadie durante tres años. Vi lo que la gente es capaz de hacer y lo repugnante que es. No quería tocar a nadie. Aborrecía a la humanidad".
Roz Bowden habla sobre la época en la que trabajó como moderadora de contenido en MySpace, viendo lo peor de internet para que otros no tuvieran que hacerlo.
El trabajo que ella hacía se ha vuelto más importante con el auge de las redes sociales y a medida que el contenido generado por internautas se ha convertido en una parte crucial de la red.
Facebook tiene ahora 7.500 moderadores de contenido que trabajan en todo el mundo 24 horas al día. Estas personas suelen ver imágenes y videos con contenido violento y perturbador, desde abusos sexuales a niños hasta decapitaciones, torturas, violaciones o asesinatos.
Uno de ellos acaba de demandar a la red social por el trauma psicológico que sufrió tras ver miles de horas de contenido tóxico y molesto.
Selena Scola dice que Facebook y Pro Unlimited, la firma que le contrató para trabajar en la red social, fallaron a la hora de garantizar su salud emocional.
Asegura que tiene trastorno de estrés postraumático como resultado de las cosas que ha visto en línea.
Es probable que el caso arroje una luz sobre el oscuro mundo de la moderación de contenido en internet y plantee interrogantes sobre si la gente debería hacer ese tipo de trabajo.
Sarah Roberts, una profesora de la Universidad de California que ha estudiado la moderación de contenido durante los últimos ocho años, cree que las redes sociales pueden desencadenar una crisis de salud mental.
"No hay informes publicados que observen las repercusiones a largo plazo de ese trabajo", le contó a la BBC.
"Estamos hablando de un gran número de personas -que está creciendo exponencialmente- y debería preocuparnos lo que pueda pasar en el futuro".
"No hay un plan de apoyo a largo plazo que ayude a esos moderadores de contenido cuando dejan el trabajo. Se espera que se reincorporen sin más al tejido social".
Bowden trabajó en finanzas antes de aceptar el empleo en MySpace entre 2005 y 2008. Le agradó volver a su anterior sector laboral cuando el trabajo en la red social se convirtió en una carga excesiva para ella.
"Ahora solo analizo números", dijo el año pasado durante una conferencia.
Pero a menudo se pregunta qué pasó con el equipo al que ella ayudó a formar y supervisar durante los primeros días de la red social.
"¿Qué les sucedió a todas esas personas que miraban cabezas explotando en mitad de la noche? Es importante saberlo".
Cuando Bowden comenzó en MySpace había poca información sobre cómo hacer el trabajo.
"Tuvimos que establecer unas normas. ¿Ver pornografía y preguntarle a una chica si usa un bikini de tiras de espagueti era adecuado? ¿Cuánto sexo era demasiado para una plataforma como MySpace? Nos hacíamos esas preguntas a medida que avanzábamos".
"¿Deberíamos permitir un video de una persona decapitando a otra? No. Pero, ¿y si se trata de dibujos animados? ¿Está bien si lo hacen Tom y Jerry?"
Tampoco había nada de apoyo moral. Ella le decía a su equipo lo siguiente: "Está bien que se vayan. Está bien que lloren. Pero no vomiten en el piso".
Y en lo que se refería a mirar el contenido, este era su consejo: "Desenfoquen la mirada para no verlo del todo".
En un post publicado en su blog el año pasado, Facebook describió a sus moderadores de contenido como "los héroes no reconocidos que mantienen Facebook a salvo para el resto de nosotros".
Sin embargo, admitió que ese trabajo "no es para todo el mundo" y que solo contrata a gente "que sea capaz de manejar los retos inevitables que presenta ese rol".
Pero, a pesar de su promesa de prestar atención a esta cuestión, subcontrata a gran parte de las personas que quienes lo hacen.
Roberts cree que es una forma de quitarse su parte de culpa: "Ese trabajo a menudo suele subcontratarse en la industria tecnológica. Así ahorran gastos, pero además les permite distanciarse de casos inevitables como el de Scola".
Facebook quiere que sus moderadores sean más fuertes.
La red social les ofrece una capacitación previa en la que se les explica lo que se espera de ellos en el trabajo y pasan al menos 80 horas con un instructor antes de que se lancen al mundo real.
También contrata a psicólogos clínicos: todos los que revisan contenido tienen acceso a recursos de salud mental.
Peter Friedman es el director de LiveWorld, una firma que ha proporcionado moderadores de contenido a empresas como AOL, eBay y Apple en los últimos 20 años.
El especialista le dijo a la BBC que sus empleados raramente -o tal vez nunca- han usado las terapias que les ofrecen.
A Roberts no le sorprende.
"Es una condición del trabajo el que puedan manejar eso y no quieren que su jefe sepa que no pueden", explica.
"Los trabajadores sienten que pueden ser estigmatizados si hacen uso de esos servicios".
LiveWorld ha acumulado más de un millón de horas de moderación. Estos son sus consejos para que la tarea salga bien:
Facebook admite que revisar el contenido a la escala que lo hace ahora es un "territorio inexplorado".
"Hasta cierto punto, tenemos que resolverlo a medida que avanzados", dijeron los responsables de la red social en su blog.
Ahora puedes recibir notificaciones de BBC Mundo. Descarga la nueva versión de nuestra app y actívalas para no perderte nuestro mejor contenido.