Heim Nachricht Roblox setzt auf Selfie-KI zur Altersschätzung

Roblox setzt auf Selfie-KI zur Altersschätzung

Autor : Gabriella Aktualisieren : Dec 26,2025

Roblox führt eine Reihe erweiterter Sicherheitsfunktionen ein, die speziell für Teenager im Alter von 13 bis 17 Jahren entwickelt wurden. Dazu gehört eine neue KI-gestützte Technologie zur Altersschätzung, die ein vom Nutzer eingereichtes Video-Selfie analysiert, um seine Altersgruppe zu verifizieren.

Die neuen Updates zielen darauf ab, die Sicherheitsprotokolle für Teenager und jüngere Kinder innerhalb der Roblox-Plattform zu verstärken. Ein zentraler Bestandteil konzentriert sich darauf, Nutzern im Alter von 13-17 Jahren mehr Autonomie als jüngeren Spielern zu gewähren, während dennoch mehr Schutzmaßnahmen als für erwachsene Nutzer aufrechterhalten werden. Bemerkenswerterweise werden Teenager nun die Möglichkeit haben, "vertrauenswürdige Verbindungen" mit anderen Nutzern einzugehen. Gespräche mit diesen vertrauenswürdigen Kontakten werden von den standardmäßigen Chatfiltern ausgenommen. Laut Roblox ist diese Initiative dazu gedacht, sicherere, überwachte Kommunikation innerhalb der Plattform selbst zu fördern und Nutzer davon abzuhalten, Gespräche in unmoderierte Drittanbieter-Apps zu verlagern, wo die Risiken höher sind.

Vertrauenswürdige Verbindungen sind für Personen gedacht, die sich im realen Leben kennen. Wenn ein Teenager jemanden über 18 als vertrauenswürdigen Kontakt benennen möchte, erfordert der Prozess eine zusätzliche Verifizierung durch einen QR-Code-Scan oder ein Kontaktimport-Tool.

Zuvor setzte Roblox hauptsächlich auf die Vorlage eines staatlichen Ausweises, um zu verifizieren, ob ein Nutzer 13+ oder 18+ ist, um bestimmte Chatfunktionen freizuschalten. Die Plattform bietet nun eine alternative Verifizierungsmethode an. Nutzer können sich dafür entscheiden, ein Video-Selfie einzureichen, das ein KI-System dann gegen einen breiten und vielfältigen Datensatz analysiert, um abzuschätzen, ob die Person über 13 ist. Ähnliche Altersüberprüfungsfunktionen wurden in den letzten Jahren von Unternehmen wie Google und Meta getestet.

Neben diesen Funktionen führt Roblox zusätzliche Nutzerkontrollen ein, darunter Optionen zur Verwaltung des Online-Status, einen "Nicht stören"-Modus und erweiterte elterliche Kontrollen für mit Teenagern verknüpfte Konten.

Roblox stand jahrelang wegen der Kindersicherheit auf seiner Plattform erheblich in der Kritik. 2018 gab es Berichte darüber, dass der Avatar eines Siebenjährigen im Spiel sexuell angegriffen wurde und ein Sechsjähriger in einen virtuellen "Sexraum" gelockt wurde. Eine Untersuchung von People Make Games aus dem Jahr 2021 behauptete, das Geschäftsmodell der Plattform nutze Kinderarbeit aus. Das Unternehmen wurde 2022 in San Francisco verklagt, weil es angeblich die finanzielle und sexuelle Ausbeutung eines zehnjährigen Mädchens ermöglichte. Weitere Klagen im Jahr 2023 behaupteten, die Plattform erleichtere ein illegales Glücksspiel-Ökosystem und habe unzureichende Sicherheitsmaßnahmen, die dazu führen, dass Kinder Erwachseneninhalten ausgesetzt werden. Eine Bloomberg-Untersuchung aus dem Jahr 2023 wies ebenfalls auf eine beunruhigende Verbreitung von Kinderschändern auf Roblox hin. Im selben Jahr meldete die Plattform über 13.000 Fälle von mutmaßlicher Kindesausbeutung an die Behörden, was zu 24 Festnahmen führte.

"Sicherheit ist die Grundlage für alles, was wir bei Roblox tun", erklärte der Chief Safety Officer Matt Kaufman in einer Ankündigung zu den neuen Funktionen. "Wir streben danach, den globalen Standard für Sicherheit und Höflichkeit im Online-Gaming zu setzen. Unser Engagement ist es, tiefgreifend fesselnde und befähigende Erlebnisse für alle Altersgruppen zu bieten, während wir kontinuierlich innovieren, wie sich unsere Community verbindet und interagiert."