Español
Gamereactor
noticias

Las nuevas herramientas de IA de Xbox han bloqueado más de 19 millones de publicaciones tóxicas en línea en solo seis meses

Está claro que la inteligencia artificial no es del todo mala.

HQ

Por desgracia, todos somos (o deberíamos ser) conscientes de que el abuso en línea, a menudo con elementos racistas y sexistas, es demasiado frecuente. Hace relativamente poco, Microsoft lanzó nuevas herramientas de IA para ayudar a remediarlo.

La idea es que se utilicen para "detectar y prevenir comportamientos no deseados en la plataforma y, en última instancia, garantizar que seguimos equilibrando y satisfaciendo las necesidades de nuestra creciente comunidad de jugadores".

Y parece que es necesario. Microsoft ha publicado ahora (a través de Xbox Wire) su quinto Informe de Transparencia, y escribe que solo en los seis primeros meses, "se impidió que un total de 19 millones de contenidos que infringían las Normas de la Comunidad Xbox llegaran a los jugadores a través de texto, imagen y/o vídeo", gracias a las herramientas de IA.

El informe también revela otros datos bastante inquietantes que muestran lo mal que están las cosas en Internet en muchos ámbitos, como amenazas, insultos, estafas y spam. No obstante, Microsoft afirma que la IA no lo resuelve todo, y "la denuncia de los jugadores sigue siendo un componente fundamental de nuestro enfoque de seguridad", así que sigue denunciando cuando veas o escuches infracciones de personas que obviamente carecen de decencia humana.

Las nuevas herramientas de IA de Xbox han bloqueado más de 19 millones de publicaciones tóxicas en línea en solo seis meses