Riot Games confirma algunos cambios para mejorar la experiencia de los jugadores, con sanciones más duras para insultos, acoso y amenazas. "Si bien es cierto que nunca podremos evitar que ciertos individuos opten por comportarse así, sí que podemos intentar disuadiros de amenazar, acosar o insultar a otros a través de nuestros sistemas del juego. También nos parece que podemos promover el comportamiento responsable", "Algunos de los sistemas de detección y sanción de toxicidad eran algo más 'conservadores' de lo que nos gustaría inicialmente, para que pudiéramos recopilar datos sin tener miedo de cometer errores de detección. Ahora confiamos mucho más en nuestro sistema de detección, así que comenzaremos a aumentar gradualmente la gravedad y la progresión de dichas sanciones. Esto debería resultar en una gestión más ágil de las personas problemáticas" "A día de hoy, dependemos de acumular informes de jugadores para determinar si un jugador o una jugadora ha tenido un comportamiento inapropiado en el chat de voz. Es mucho más difícil detectar la toxicidad en el chat de voz (y suele requerir un proceso más manual), pero hemos estado tomando medidas para mejorar" "En lugar de guardarnos los avances hasta que contemos con un sistema de moderación de voz que nos parezca "perfecto" (que no va a pasar nunca), vamos a ir publicando actualizaciones sobre las mejoras que implementamos al sistema con regularidad. La próxima actualización sobre el tema llegará a mediados de este año". "Nuestro equipo turco ha puesto en marcha recientemente un programa local que pretende reducir la toxicidad de la región. Consiste, básicamente, en crear una línea operativa con agentes de asistencia al jugador que revisan los informes entrantes relacionados con el comportamiento de los jugadores y toman medidas siguiendo una guía preestablecida. Está en fase de beta temprana pero, si vemos que promete, es posible que una versión de ese sistema acabe llegando al resto de regiones"