Roblox utilise l'intelligence artificielle des selfies pour estimer votre âge.
Roblox introduit une suite de fonctionnalités de sécurité renforcées, spécialement conçues pour les adolescents âgés de 13 à 17 ans. Elles comprennent une nouvelle technologie d'estimation d'âge alimentée par l'IA, qui analyse une vidéo selfie soumise par l'utilisateur pour vérifier son groupe d'âge.
Les nouvelles mises à jour visent à renforcer les protocoles de sécurité pour les adolescents et les jeunes enfants sur la plateforme Roblox. Un élément central consiste à accorder aux utilisateurs âgés de 13 à 17 ans plus d'autonomie que les joueurs plus jeunes, tout en maintenant plus de protections que pour les utilisateurs adultes. Il est à noter que les adolescents auront désormais la possibilité d'établir des "connexions de confiance" avec d'autres utilisateurs. Les conversations avec ces contacts de confiance seront exemptées des filtres de discussion standard. Selon Roblox, cette initiative vise à favoriser une communication plus sûre et surveillée au sein de la plateforme elle-même, décourageant les utilisateurs de transférer leurs conversations vers des applications tierces non modérées où les risques sont plus élevés.
Les connexions de confiance sont destinées aux personnes qui se connaissent dans la vie réelle. Si un adolescent souhaite désigner une personne de plus de 18 ans comme contact de confiance, le processus nécessite une vérification supplémentaire par scan de code QR ou via un outil d'importation de contacts.
Auparavant, Roblox utilisait principalement la soumission d'une pièce d'identité officielle pour vérifier qu'un utilisateur avait 13 ans ou plus, ou 18 ans ou plus, afin de débloquer certaines fonctionnalités de discussion. La plateforme propose désormais une méthode de vérification alternative. Les utilisateurs peuvent choisir de soumettre une vidéo selfie, qu'un système d'IA analyse ensuite par rapport à un ensemble de données vaste et diversifié pour estimer si la personne a plus de 13 ans. Des fonctionnalités similaires de vérification d'âge ont été testées par des entreprises comme Google et Meta ces dernières années.
Parallèlement à ces fonctionnalités, Roblox déploie des contrôles utilisateur supplémentaires, notamment des options pour gérer le statut en ligne, un mode "Ne pas déranger", et des contrôles parentaux étendus pour les comptes liés aux adolescents.
Roblox fait face à un examen minutieux significatif concernant la sécurité des enfants sur sa plateforme depuis des années. En 2018, des rapports ont fait état de l'agression sexuelle de l'avatar d'un enfant de sept ans en jeu et d'un enfant de six ans attiré dans une "chambre sexuelle" virtuelle. Une enquête de 2021 par People Make Games a affirmé que le modèle économique de la plateforme exploite le travail des enfants. L'entreprise a été poursuivie à San Francisco en 2022 pour des accusations selon lesquelles elle a permis l'exploitation financière et sexuelle d'une fillette de 10 ans. D'autres poursuites en 2023 ont allégué que la plateforme facilitait un écosystème de jeux d'argent illégal et avait des mesures de sécurité inadéquates conduisant les enfants à être exposés à du contenu pour adultes. Une enquête de Bloomberg en 2023 a également mis en lumière une prévalence inquiétante de prédateurs d'enfants sur Roblox. La même année, la plateforme a signalé plus de 13 000 cas d'exploitation d'enfants suspectée aux autorités, conduisant à 24 arrestations.
"La sécurité est le fondement de tout ce que nous faisons chez Roblox", a déclaré le directeur de la sécurité Matt Kaufman dans une annonce concernant les nouvelles fonctionnalités. "Notre objectif est d'établir la norme mondiale en matière de sécurité et de civilité dans le jeu en ligne. Notre engagement est de fournir des expériences profondément engageantes et responsabilisantes pour tous les âges, tout en innovant continuellement dans la façon dont notre communauté se connecte et interagit."
Derniers articles