Robloxが「自撮りAI」で年齢推定を開始
Robloxは、13歳から17歳のティーンエイジャー向けに特別に設計された強化された安全機能のスイートを導入します。これには、ユーザーが提出したビデオ自撮りを分析して年齢層を確認する、新しいAI搭載の年齢推定技術が含まれます。
今回の新しいアップデートは、Robloxプラットフォーム内のティーンエイジャーやより幼い子ども向けの安全プロトコルを強化することを目的としています。中心的な要素は、13歳から17歳のユーザーに、より幼いプレイヤーよりも多くの自律性を与えつつ、成人ユーザー向けよりも多くの保護を維持することに焦点を当てています。特に注目すべきは、ティーンエイジャーが他のユーザーと「信頼できる接続」を確立できるようになる点です。これらの信頼できる連絡先との会話は、標準のチャットフィルターの適用対象外となります。Robloxによれば、この取り組みは、よりリスクの高いモデレーションされていないサードパーティ製アプリに会話の場を移すことをユーザーに思いとどまらせ、プラットフォーム自体の中でより安全で監視されたコミュニケーションを促進することを意図しています。
信頼できる接続は、現実の生活で互いを知っている個人を対象としています。もしティーンエイジャーが18歳以上の人を信頼できる連絡先として指定したい場合、そのプロセスにはQRコードスキャンまたは連絡先インポーター・ツールを通じた追加の確認が必要となります。
以前は、Robloxは主に政府発行の身分証明書の提出を使用して、ユーザーが13歳以上または18歳以上であることを確認し、特定のチャット機能のロックを解除していました。同プラットフォームは現在、別の確認方法を提供しています。ユーザーはビデオ自撮りの提出を選択することができ、その後AIシステムがそれを広範で多様なデータセットと照合・分析して、その人物が13歳以上であるかどうかを推定します。同様の年齢確認機能は、ここ数年GoogleやMetaなどの企業によってテストされてきました。
これらの機能に加えて、Robloxは追加のユーザーコントロールを展開しています。これには、オンラインステータスの管理オプション、「取り込み中」モード、そしてティーンエイジャーにリンクされたアカウント向けの拡張された保護者によるコントロールが含まれます。
Robloxは、長年にわたり自社プラットフォーム上の子どもの安全について重大な監視に直面してきました。2018年には、7歳児のアバターがゲーム内で性的暴行を受けたり、6歳児が仮想の「性行為部屋」へ誘い込まれたりしたとの報告がありました。2021年のPeople Make Gamesによる調査は、同プラットフォームのビジネスモデルが児童労働を搾取していると主張しました。同社は2022年、10歳の少女の経済的および性的搾取を可能にしたという告発をめぐり、サンフランシスコで訴訟を起こされました。2023年のさらなる訴訟は、同プラットフォームが違法なギャンブル・エコシステムを容易にし、子どもが成人向けコンテンツにさらされることに繋がる不十分な安全対策を講じていると主張しました。2023年のブルームバーグの調査は、Roblox上で子どもを狙う捕食者の憂慮すべき蔓延も浮き彫りにしました。同年、同プラットフォームは当局に13,000件以上の児童搾取の疑い事例を報告し、24件の逮捕に至りました。
「安全は、Robloxで私たちが行うあらゆることの礎です」と、チーフ・セーフティ・オフィサーのマット・カウフマンが新機能に関する発表で述べました。「私たちは、オンラインゲームにおける安全と礼儀正しさの国際的な基準を設定することを目指しています。私たちのコミットメントは、コミュニティがどのようにつながり、交流するかについて絶えず革新しつつ、全年齢層に深く魅力的でエンパワーメントを与える体験を提供することです。」