韓国では、Google Koreaの検索において、有害情報のフィルタリング措置が取られることになった。

成人認証とSafe Searchの2段階で保護

Google Koreaはハングル検索サービスへの青少年保護対策を発表した。

今回Google Koreaが青少年保護対策を用意することに至ったのは、Google Koreaと韓国政府の情報通信部が、青少年による有害情報への接近制限や、これに対する措置のための対策を協議してきた結果によるものだという。

この協議によりGoogle Koreaでは、同社が独自開発したフィルタリング技術「SafeSearch」および成人認証制度を同時に導入することで、2段階にわたる青少年保護を行うことを決定した。

韓国の検索ポータルには通常「禁則語」が設けられている。たとえば「ポルノ動画」といったわいせつなキーワードによる検索を行おうとすれば、成人認証を行わなければならない。この際、すべての韓国国民に与えられる住民登録番号と名前を入力することで本人確認を行い、19歳以上であることが証明できれば引き続き通常の検索を行うことが可能だ。逆に19歳未満の場合、検索結果に有害情報が表示されないこととなる。

Google Koreaの場合もこれと同様、ユーザーが禁止語を検索した場合には成人認証が要求されることとなる。ユーザーが19歳未満の場合はSafeSearchによりフィルタリングされた検索結果が出てくるというわけだ。

Google KoreaによるとSafeSearchでは「特定のキーワードだけでなく、文章やURL、ディレクトリ検索など、全範囲におけるチェックが行われる」という。またSafeSearchによるフィルタリング体系は随時アップデートされるのだが、この際、ユーザーからの通報なども大いに反映されるとのことだ。

Google Koreaでは現在、このSafeSearchと成人認証制度の開発を行っている途中で、8月末ごろには検索サービスへの適用が可能だという。

わいせつURL遮断、専門責任者の任命も

さらにSafe Search、成人認証制度とともに導入予定であるのが、わいせつなコンテンツを含んでいるWebサイトのURL遮断だ。

わいせつなWebサイトのURLについては、韓国情報通信倫理委員会がこのリストを提供することとなっており「リストを受け取りさえすればすぐにでも実施に踏み切る」(Google Korea)とのことだ。

また社内には「青少年保護責任者」という役員クラスの責任者を設け、有害情報からの青少年保護問題に本格的に取り組んでいく。

禁則語の設定や成人認証、わいせつURL遮断などは、いずれも韓国の検索ポータルでは以前から実施されている制度で、韓国で検索サービスを提供するにあたっては避けられない部分であるといえる。

有害情報の遮断に関してこれまで無策のままだったGoogle Koreaに対し、これを指摘する韓国メディアなどもあったが、今回対策を用意したことで、青少年保護分野においても韓国ポータルと対等の位置に立ったといえる。