コンテンツにスキップする

アップル、性的に露骨な子供の写真を検出し通報-年内に新機能導入

  • 子供がメッセージアプリで送受信する露骨な写真を精査へ
  • 虐待的内容を検索するとデジタル音声アシスタントが介入する機能も

アップルは5日、ユーザーの「iCloud(アイクラウド)フォト」アカウントに保存された写真を分析し、性的に露骨な児童の画像が検出された場合に関係当局に通報する新しい機能を年内に導入することを明らかにした。

  子供を保護する新たな手段として、同社はメッセージアプリで子供が送受信する写真を分析し、露骨かどうかを確認する機能も発表した。また、ユーザーが虐待的内容を検索するとデジタル音声アシスタントの「Siri」が介入する機能も加える。同社は5日に披露したこれら3つの新機能を年内に実用化すると表明した。

  ユーザーのアカウントで性的に露骨な子供の写真の基準に触れる内容が検出された場合、その事例は同社と、法執行機関と連携する全米行方不明・被搾取児童センター(NCMEC)によって手作業で検証される。同社は米国でユーザーの「iPhone(アイフォーン)」や「iPad(アイパッド)」にある画像がクラウドにアップロードされる前に分析されると説明した。

relates to アップル、性的に露骨な子供の写真を検出し通報-年内に新機能導入

ユーザーの端末にある画像の分析に関するアップルの説明

  アップルはNCMECが提供する児童性的虐待のコンテンツ(CSAM)のデータベースと写真を比較し、虐待的画像を検出する。同社は、画像を分析してハッシュキーなどに変換する「ニューラルハッシュ」と称される技術を利用。ハッシュキーは暗号化技術を使ってデータベースと比較される。

  システムのエラー率は年間「1兆分の1未満」で、ユーザーのプライバシーが保護されると同社は説明した。

relates to アップル、性的に露骨な子供の写真を検出し通報-年内に新機能導入

露骨な画像を分析するメッセージの新機能

原題:Apple to Detect Sexually Explicit Child Photos on IPhone (1) (抜粋)

    最新の情報は、ブルームバーグ端末にて提供中 LEARN MORE