Por Abby Ohlheiser
Steve Stephens se filmó mientras asesinaba a un peatón en Cleveland y luego confesó el crimen, en Facebook Live. Un hombre en Tailandia transmitió mientras mataba a su hijita en Facebook Live, antes de suicidarse. Hubo otras transmisiones en vivo de suicidios y violaciones, muchas de las cuales permanecieron en la popular plataforma durante horas.
Ante la inquietud de que no se esté moviendo con rapidez suficiente para contener la violencia que se transmite en su plataforma, incluidos los suicidios, Facebook anunció que prácticamente duplicará el número de moderadores para monitorear sus contenidos. Un equipo de 7.500 personas, 3.000 de ellos recién contratados, vigilarán ahora las posibles infracciones al reglamento.
El debate sobre el tema suele girar en torno a cómo las plataformas como Facebook y Twitter pueden mantener lo peor de internet lejos de los usuarios. Pero hay otro punto que merece considerarse: ¿qué efecto tiene lo peor de internet en la gente que trabaja para frenarlo?
Es fácil de imaginar que mirar imágenes de sexo y violencia en rápida sucesión, día tras día, cause algo en la mente de los moderadores.
“Algunas personas me han informado que sufren pocos efectos negativos, pero luego la siguiente frase es ‘He estado bebiendo mucho’“, ilustró Sarah Roberts, profesora de Estudios de la Información en la Universidad de California en Los Angeles (UCLA). También ha escuchado a ex moderadores decir que “cierto tipo de material los perturba”.
Otros, señaló, parecen llevarlo mejor. Pero de todas formas, se han investigado relativamente poco los efectos de este trabajo en una persona con el transcurso del tiempo.
En sólo una jornada laboral los moderadores pueden ver imágenes de violencia y muerte, violaciones y explotación infantil. Al final, suele suceder una de dos cosas, dijo Roberts. “O la gente se abruma por el trauma [de las situaciones], la naturaleza perturbadora [de lo que ven], o se vuelve insensible”.
¿Por qué todo esto no se puede hacer simplemente con computadoras? Aunque Facebook ha sugerido que le gustaría que la tecnología desempeñe un papel más importante en la moderación de su contenido, Roberts señaló que el hecho de que la empresa casi duplicó su personal de moderación humana indica que todavía no es factible una solución automatizada.
Moderar Internet, argumentó Roberts, “necesita de seres humanos.” La labor de detectar y extirpar el contenido más inhumano de internet parece demandar una comprensión exclusivamente humana de factores como la complejidad, los matices y el contexto.
***¿Que piensas sobre el suicidio, y cuales crees que son las formas para prevenirlo?*** ¡Deja tu comentario!