El 16 de noviembre, Ubisoft y Riot Games anunciaron que las dos partes habían acordado una asociación en un esfuerzo por reducir los comentarios tóxicos en los chats de juegos. Ubisoft y Riot desarrollarán una base de datos que recopilará datos del juego para entrenar mejor una herramienta de moderación basada en inteligencia artificial que pueda detectar y mitigar de manera proactiva el comportamiento destructivo en los videojuegos. Todo esto forma parte del proyecto conjunto denominado Zero Harm in Comms, que se ha dividido en dos fases principales. En la primera fase, Ubisoft y Riot crearán un marco que les permita compartir, recopilar y etiquetar datos de forma segura. Esto garantiza que las empresas no retengan datos de identificación personal de las personas. Una vez que el marco esté implementado, Ubisoft y Riot comenzarán la fase dos. Esto hará que ambas partes del desafío entrenen la IA para aliviar los «comportamientos disruptivos» dentro del espacio de juego. «Hacer que las comunidades en línea sean más inclusivas es una misión continua que nunca se completará por completo», dijo Riot en un comunicado de prensa. «Dicho esto, trabajando juntos, podemos lograr mejoras significativas». Ubisoft y Riot ya han anunciado planes para compartir lo que han aprendido de este proyecto el próximo año. Lo harán «independientemente del resultado» de la iniciativa. (Toda la información proporcionada por Riot Games y The Verge) Me gusta: Me gusta Cargando…
Check Also
Fortnite Aim Assist recibe una actualización importante
Existe una disparidad entre los jugadores con teclado, mouse y controlador en Fortnite, razón por …