MADRID, 20 Jun. (Portaltic/EP) – Discord ha presentado AutoMod, una nueva herramienta de moderación automática diseñada para descargar tareas a los usuarios de una comunidad que normalmente ejercen la revisión de las conversaciones y los contenidos.
Los moderadores de las comunidades tienen entre sus tareas revisar los mensajes de los chats y eliminar los contenidos compartidos que sean dañinos, un trabajo que realizan de forma manual y que puede generar estrés en comunidades crecientes, que requieren más atención.
Discord ha introducido AutoMod con la finalidad de “quitar parte de la carga de trabajo de los hombros” de los moderadores, ya que se trata de una herramienta que funciona las 24 horas del día, pero sobre todo, está diseñada para reforzar la vigilancia en el tiempo que los moderadores no están presentes.
AutoMod puede detectar de forma automática los mensajes dañinos antes de que se publiquen a partir de filtros establecidos por palabras clave, así como bloquearlos y alertar sobre ellos, para que los moderadores posteriormente puedan decidir qué hacer.
Esta herramienta también bloquea de forma temporal a los usuarios que persisten en la publicación de contenidos dañinos, “para que no sean capaces de seguir publicando hasta que [el moderador] esté de vuelta”, como recoge en un comunicado en su blog.
Los responsables de la plataforma de comunicación han señalado que son los moderadores quienes establecen lo que consideran dañino para su comunidad, a partir de los filtros por palabras clave, algunos de ellos preestablecidos y otros, hasta tres, configurables. También encontrarán un filtro para las palabras “comúnmente marcadas”.
Discord ha destacado, además, que AutoMod está construido directamente en el servidor, y por ellos los moderadores pueden encontrarlo en los ajustes de servidor, en la moderación de contenido.
AutoMod está disponible para la aplicación web, en Android e iOS así como en ordenadores con Windows, MacOS y Linux.