로블록스, 셀피 AI로 나이 추정 기술 도입
로블록스는 만 13세에서 17세 사이의 청소년을 위해 특별히 설계된 강화된 안전 기능 세트를 도입하고 있습니다. 여기에는 사용자가 제출한 비디오 셀피를 분석하여 연령대를 확인하는 새로운 AI 기반 연령 추정 기술이 포함됩니다.
이 새로운 업데이트는 로블록스 플랫폼 내에서 청소년 및 어린 이용자들에 대한 안전 프로토콜을 강화하는 것을 목표로 합니다. 핵심 요소는 만 13-17세 이용자에게 더 어린 플레이어보다 더 많은 자율성을 부여하면서도, 성인 이용자들보다는 더 많은 안전장치를 유지하는 데 초점을 맞추고 있습니다. 특히, 청소년들은 이제 다른 이용자와 '신뢰할 수 있는 연결 관계'를 설정할 수 있는 능력을 갖게 될 것입니다. 이러한 신뢰할 수 있는 연결 관계에 있는 이용자와의 대화는 표준 채팅 필터를 적용받지 않습니다. 로블록스에 따르면, 이 조치는 플랫폼 내에서 더 안전하고 관리되는 커뮤니케이션을 조성하고, 이용자들이 위험이 더 높은 중재되지 않는 제3자 앱으로 대화를 옮기는 것을 방지하기 위한 것이라고 합니다.
신뢰할 수 있는 연결 관계는 실생활에서 서로를 아는 개인을 위한 것입니다. 만약 청소년이 만 18세 이상인 사람을 신뢰할 수 있는 연결 관계로 지정하려면, QR 코드 스캔이나 연락처 가져오기 도구를 통한 추가 검증 과정이 필요합니다.
이전에는 로블록스가 주로 특정 채팅 기능을 잠금 해제하기 위해 이용자가 13세 이상 또는 18세 이상임을 확인하기 위해 관공서 발급 신분증 제출을 사용했습니다. 해당 플랫폼은 이제 대체 검증 방법을 제공하고 있습니다. 이용자는 비디오 셀피를 제출할 것을 선택할 수 있으며, AI 시스템이 이를 광범위하고 다양한 데이터 세트와 비교 분석하여 해당 인물이 13세 이상인지 추정합니다. 구글과 메타와 같은 회사들도 최근 몇 년간 이와 유사한 연령 확인 기능을 테스트해 왔습니다.
이러한 기능과 함께, 로블록스는 온라인 상태 관리 옵션, '방해 금지 모드', 그리고 청소년과 연결된 계정을 위한 확장된 부모 통제를 포함한 추가적인 이용자 제어 기능도 출시하고 있습니다.
로블록스는 수년간 플랫폼 내 아동 안전에 대한 심각한 검증에 직면해 왔습니다. 2018년에는 7세 아바타가 게임 내에서 성폭행을 당하고 6세 아동이 가상 '성적 행위 방'으로 유인당한 사례가 보도된 바 있습니다. 2021년 '피플 메이크 게임즈'의 조사는 이 플랫폼의 비즈니스 모델이 아동 노동을 착취한다고 주장했습니다. 회사는 2022년 샌프란시스코에서 10세 소녀에 대한 경제적 및 성적 착취를 가능하게 했다는 혐의로 소송을 당했습니다. 2023년의 추가 소송은 플랫폼이 불법 도박 생태계를 용이하게 했고, 아동들이 성인 콘텐츠에 노출되도록 하는 부적절한 안전 조치를 갖추고 있다고 주장했습니다. 2023년 블룸버그의 조사는 또한 로블록스에서 아동 성범죄자들의 우려할 만한 만연을 강조했습니다. 같은 해, 플랫폼은 당국에 아동 착용 의심 사례 13,000건 이상을 신고했으며, 이로 인해 24명이 체포되었습니다.
"안전은 로블록스에서 우리가 하는 모든 일의 토대입니다,"라고 새로운 기능을 발표하면서 수석 안전 책임자 매트 카우프만은 말했습니다. "우리는 온라인 게임에서 안전과 예의에 관한 글로벌 표준을 정하는 것을 목표로 합니다. 우리의 약속은 모든 연령대에게 깊이 몰입시키고 능력을 부여하는 경험을 제공하면서, 커뮤니티가 연결되고 상호작용하는 방식을 지속적으로 혁신하는 것입니다."