なぜ今、データ最小化のセーフガードが必要なのか(そしてその方法とは)

Categories
< Back
You are here:
Print

なぜ今、データ最小化のセーフガードが必要なのか(そしてその方法とは)

以下は、ACCESSNOWのブログから。


20 May 2021 | 6:00 AM

オンライン事業者は、それらの慣行について透明性がある限り、あらゆる人について好きなデータを収集し、あらゆる目的のために使用することがほぼ認められている。しかし、このような行為は、データに基づく差別など、人々に大きな損害を与える可能性がある。アクセス・ナウの新しいレポート「データの最小化Data minimization: Key to protecting privacy and reducing harm 」は、企業がオンラインで収集する情報の量を制限することで、このような悪用に対抗する方法を探っている。

「データの最小化」とは、企業は自社の製品やサービスを提供するために必要なデータのみを収集し、それ以上は収集しないという考え方だ。しかし、残念ながら、実際にはそうなっていない。ストレージが安価になり、インターネットが普及したことで、データマイニングが一般的になった。保護措置を講じなければ、組織は必要以上のデータを収集し、人々に実害を及ぼす可能性が高まる。データ最小化要求は、この問題を根本的に解決しようとするものだ。つまり、収集されていないデータを使って人に危害を加えることはできないということである。

アクセス・ナウの米国ポリシーマネージャー、エリック・ニュルは次のように述べている。「データの最小化は、プライバシー権の基本です。特に、行動ターゲティング広告や機械学習システムのトレーニングに関しては、オンライン事業者は基本的に、人権保護をほとんど考慮することなく、やりたい放題のことをしています。今こそ、連邦のプライバシー法で強力なデータ最小化要件を可決することで、この乱用に対処すべきです。」

本報告書には、議員、ソフトウェア開発者、およびデータ最小化政策に携わる人々に対する以下の提言が含まれている。

強力なデータ保護の枠組みの中で、組織が市民的権利の監査の目的で保護された集団(Protected Classes訳注)のデータを収集することや、代表性の低い集団に利益をもたらすことを認める。
行動ターゲティング広告を禁止していない規制当局は、少なくとも、この目的で収集したデータの制限を求めるべきです。
機械学習(ML)の開発者は、MLモデルのデータ最小化を行う際に、モデルの性能への影響を最小限に抑え、かつプライバシー権を保護する方法を採用すべきである。
“アクセス・ナウの米国政策アナリストであるウィルマリー・エスコートは、「人種に基づくデータは、米国における黒人の健康、性格、機会均等の権利を損なうために利用されてきました。搾取的なデータ収集から人々を守る包括的な法律がなければ、周縁化されたコミュニティはアルゴリズムによる人種差別の結果に苦しみ続けることになります。保護された集団に関するデータは、保護されている集団に利益をもたらすため、または人種的な偏りがないかシステムを監査するために使用される限定された状況でのみ収集されるべきです」と述べている。

報告書の全文を読む

訳注 保護された集団 Protected Class とは差別禁止法でつかわれる言葉で、差別、ハラスメントから守られているグループ(人種、年齢など)のことです。これらを理由に差別することはできません。差別というと誤解をまねきそうですが、これには雇用、解雇における差別もふくまれます。(http://atsukomyblog.blog115.fc2.com)

出典:https://www.accessnow.org/data-minimization-guide/

Table of Contents