YouTube、安全なコンテンツを人がキュレーションする子供向けアプリをリリース予定か

SHARE:
Image Credit: Christian Wiediger via Unsplash

YouTubeは、これまで度々、子供向けアプリのコンテンツに不適切なものが含まれていることについて批判を浴びてきたが、BuzzFeedの報道によると、今後数ヶ月以内にアルゴリズムに依らない、人が安全なコンテンツをキュレーションする形の子供向けアプリがリリースされる予定であるという。

つい先月にも、既存の子供向けアプリYouTube Kids上で、不適切なコンテンツは除外するという方針にも関わらず、陰謀論の動画が含まれているという報道が注目を集めていた。そうした動画には、「地球は平坦である、人類による月面着陸はなかった、地球は異星人によって支配されている」というような内容が含まれている。

こうした報道に対して、子供向けのコンテンツのみが表示されるようなアルゴリズムを組んでいるものの、「時に看過ごしてしまうこともあります」とYouTubeも取材で語っていた。

「エルサゲート」で浮き彫りになったプラットフォームの問題

批判は最近始まったことではない。「エルサゲート」という言葉とともに、YouTube上の子供向け動画に不適切なコンテンツが含まれている実態が浮き彫りになったとは昨年のことだ。

人気ディズニー映画の『アナと雪の女王』のエルサと不祥事を指すゲートを組み合わせた造語「エルサゲート」は、ディズニーのキャラクターなどを、アニメの登場人物を使って「純真さ、無害さ」を装いながら、実際には過激な性的描写、小児性愛や暴力が含まれるコンテンツがYouTube上で拡散されている現象を指している。

これまでYouTubeは、子供にとって有害な内容をプラットフォーム上から除外するべく、様々な措置をとってきた。不適切な動画に対して広告を禁止したり、アルゴリズムではなく人による監視を取り入れてきた。昨年11月の段階で、YouTubeは270のアカウントと15万件以上の動画を削除したという。広告主側の企業もまた、この問題が浮上してから、YouTube上から広告を引き上げるという措置を取っていた。

昨年12月には、不適切な動画を削除するために1万人のスタッフを雇用する計画をYouTubeは発表している。また、先月には人気の陰謀論動画に対しては、Wikipediaの情報を追加することで、別の視点を提供するといった対応もスタートさせた。

こうした対策を取る一方で、今度はコンテンツをチェックするスタッフのメンタルヘルスをいかにケアするか、という新たな問題も出ており、先月にはチェックするスタッフが動画を視聴する時間を1日4時間までに制限するというルールをスタートしたと、同社のスーザン・ウォシッキーCEOは発表した

今回報道された新たなアプリのリリースについてはYouTube側の正式発表はまだないが、問題の解決までにはまだ時間がかかりそうだ。

参照:YouTube will reportedly release a kids’ app curated by humans(The Verge)

----------[AD]----------