Roblox Emplea Inteligencia Artificial para Estimar Tu Edad
Roblox está introduciendo un conjunto de funciones de seguridad mejoradas específicamente diseñadas para adolescentes de 13 a 17 años. Esto incluye una nueva tecnología de estimación de edad impulsada por IA, que analiza una autofoto en video enviada por el usuario para verificar su grupo de edad.
Las nuevas actualizaciones tienen como objetivo fortalecer los protocolos de seguridad para adolescentes y niños más pequeños dentro de la plataforma Roblox. Un componente central se enfoca en otorgar a los usuarios de 13 a 17 años más autonomía que a los jugadores más jóvenes, manteniendo al mismo tiempo más salvaguardas que las aplicadas a usuarios adultos. Notablemente, los adolescentes ahora tendrán la capacidad de establecer "conexiones de confianza" con otros usuarios. Las conversaciones con estos contactos de confianza estarán exentas de los filtros de chat estándar. Según Roblox, esta iniciativa tiene la intención de fomentar una comunicación más segura y monitoreada dentro de la propia plataforma, disuadiendo a los usuarios de trasladar las conversaciones a aplicaciones de terceros no moderadas donde los riesgos son mayores.
Las conexiones de confianza están destinadas a individuos que se conocen en la vida real. Si un adolescente desea designar a alguien mayor de 18 años como contacto de confianza, el proceso requiere una verificación adicional mediante un escaneo de código QR o una herramienta importadora de contactos.
Anteriormente, Roblox utilizaba principalmente la presentación de una identificación gubernamental para verificar que un usuario tenía 13 años o más, o 18 años o más, para desbloquear ciertas funciones de chat. La plataforma ahora ofrece un método de verificación alternativo. Los usuarios pueden optar por enviar una autofoto en video, que un sistema de IA luego analiza comparándola con un conjunto de datos amplio y diverso para estimar si la persona tiene más de 13 años. Funciones similares de verificación de edad han sido probadas por compañías como Google y Meta en los últimos años.
Junto con estas funciones, Roblox está implementando controles de usuario adicionales, incluyendo opciones para gestionar el estado en línea, un modo "No molestar" y controles parentales ampliados para cuentas vinculadas a adolescentes.
Roblox ha enfrentado un escrutinio significativo sobre la seguridad infantil en su plataforma durante años. En 2018, surgieron informes sobre el avatar de un niño de siete años siendo agredido sexualmente en el juego y de un niño de seis años siendo atraído a una "habitación de sexo" virtual. Una investigación de 2021 por People Make Games alegó que el modelo de negocio de la plataforma explota el trabajo infantil. La compañía fue demandada en San Francisco en 2022 por acusaciones de que posibilitó la explotación financiera y sexual de una niña de 10 años. Más demandas en 2023 alegaron que la plataforma facilitaba un ecosistema de apuestas ilegales y tenía medidas de seguridad inadecuadas que llevaban a los niños a estar expuestos a contenido para adultos. Una investigación de Bloomberg en 2023 también destacó una preocupante prevalencia de depredadores infantiles en Roblox. Ese mismo año, la plataforma reportó más de 13,000 casos de sospecha de explotación infantil a las autoridades, lo que resultó en 24 arrestos.
"La seguridad es la base de todo lo que hacemos en Roblox", declaró el Director de Seguridad Matt Kaufman en un anuncio sobre las nuevas funciones. "Nuestro objetivo es establecer el estándar global para la seguridad y la civilidad en los juegos en línea. Nuestro compromiso es ofrecer experiencias profundamente atractivas y empoderadoras para todas las edades, mientras innovamos continuamente en cómo nuestra comunidad se conecta e interactúa".
Últimos artículos