Xbox sigue mejorando sus servicios y ahora usa la IA para proteger a su comunidad y así tener experiencias seguras en todos los niveles.
Xbox comparte los resultados de su quinto Informe sobre Transparencia, donde destacan algunas de las formas en que combinan soluciones centradas en el jugador con la aplicación responsable de IA para continuar amplificando su experiencia humana en la detección y prevención de comportamientos no deseados en la plataforma.
Con ello, se garantiza que sigan equilibrando y satisfaciendo las necesidades de la creciente comunidad de juegos.
Durante el período de enero a junio de 2024, Xbox centra sus esfuerzos en bloquear el contenido de mensajería disruptiva de personas que no son amigos y en la detección de spam y publicidad con el lanzamiento de dos herramientas habilitadas con IA que reflejan nuestro enfoque multifacético para proteger a los jugadores.
Puntos clave para proteger a la gran comunidad de Xbox
Equilibrar la seguridad y la autenticidad en la mensajería
Un nuevo enfoque para detectar e interceptar mensajes dañinos entre personas que no son amigos, lo que contribuyó a un aumento significativo en el contenido disruptivo evitado.
De enero a junio, se impidió que un total de 19 millones de piezas de contenido que violaban los Estándares de la comunidad de Xbox llegaran a los jugadores a través de texto, imágenes y videos.
Este nuevo enfoque equilibra dos objetivos: proteger a los jugadores del contenido dañino enviado por personas que no son amigos, al mismo tiempo que se preservan las experiencias de juego en línea auténticas que disfruta nuestra comunidad. Xbox alenta a los jugadores a usar la nueva Experiencia de amigos y seguidores de Xbox, que brinda más control y flexibilidad al conectarse con otras personas.
Seguridad mejorada por los informes de los jugadores
Los informes de los jugadores siguen siendo un componente fundamental en el enfoque de seguridad. Durante este período, los jugadores ayudaron a identificar un aumento en el spam y la publicidad en la plataforma.
Xbox está constantemente evolucionando su estrategia para evitar la creación de cuentas no auténticas en la fuente, limitando su impacto tanto en los jugadores como en el equipo de moderación.
En abril, se tomaron medidas ante un aumento repentino de cuentas no auténticas (1.7 millones de casos, en comparación con los 320,000 de enero) que afectaban a los jugadores en forma de spam y publicidad.
Los jugadores ayudan a identificar este aumento y patrón al proporcionar informes en los mensajes de Buscando grupo (LFG). Los informes de los jugadores se duplicaron a 2 millones para los mensajes LFG y aumentaron 8% a 30 millones en todos los tipos de contenido en comparación con el último período del informe de transparencia.
Nuestro enfoque de IA dual para proteger a todos
Xbox presentó dos nuevas herramientas de IA diseñadas para respaldar a los equipos de moderación. Estas innovaciones no solo evitan la exposición de material disruptivo a los jugadores, sino que también permiten que los moderadores humanos a que prioricen sus esfuerzos en problemas más complejos y matizados.
La primera de estas nuevas soluciones es Xbox AutoMod, un sistema que se lanzó en febrero y ayuda con la moderación del contenido denunciado. Hasta ahora, maneja 1.2 millones de casos y permite al equipo eliminar contenido que afecta a los jugadores un 88 % más rápido.
La segunda solución de IA se lanzó en julio y trabaja de manera proactiva para prevenir comunicaciones no deseadas. Han dirigido estas soluciones para detectar spam y publicidad y se ampliará para prevenir más tipos de daños en el futuro.