Howdy! How can we help you?
-
気候変動1
-
ブラウザ72
-
戦争36
-
ヘイトスピーチ10
-
偽情報、誤情報7
-
ジェンダー3
-
国家安全保障10
-
fediverse20
-
alternative_app18
-
デジタルセキュリティツール15
-
国内の監視社会化と反監視運動6
-
VPN10
-
GIFCT2
-
政府・国際機関の動向166
-
スパイウェア20
-
OS関係20
-
教育・学校9
-
監視カメラ16
-
労働現場の監視9
-
プライバシー159
-
デジタルID(マイナンバーなど)12
-
GPS1
-
AI78
-
オリンピックと監視社会7
-
文化12
-
労働運動17
-
リンク集12
-
金融監視3
-
COVID-19と監視社会18
-
検閲105
-
海外動向412
-
オンライン会議システム14
-
暗号化69
-
アクティビストとセキュリティ32
-
ビッグテック、大量監視262
-
SNSのセキュリティ20
-
共謀罪1
-
メールのセキュリティ43
-
Articles1
(Accessnow)生成AIと人権について知っておくべきこと
公開日:2023年5月24日最終更新日:2023年5月24日 2023年5月26日
毎日、新聞のコラムやソーシャルメディアのフィードは、「生成AI」が世界をどう変えるかという大げさな楽観論と、AIが人類を滅ぼすというSF的な悲観論で埋め尽くされています。このような騒ぎの中で、コメンテーターも企業も、新しく普及したAIアプリケーションがすでに人々の生活や基本的人権に影響を与えているという現実を見落としています。この解説記事では、誇大広告を切り抜けて、生成AIに何ができるのか(できないのか)、そしてなぜそれが世界中の人権にとって重要なのか、その真実に迫ります。
生成AI」とは何なのか、なぜ今頃になって耳にするようになったのか?
Open AIのChatGPTツールが主流に躍り出た2022年後半から、誰もが生成AIについて語るようになっています。しかし、多くの人々にとっては目新しいものであるにもかかわらず、その基礎となるテクノロジーは、主に2つの形態で何年も前から存在していたのです:
- ChatGPTを支える大規模言語モデル(LLM)は、リクエスト(例えば「シェイクスピア風にAIのリスクについてソネットを書け」)の形での人間のプロンプトに応答して、もっともらしく聞こえるテキストを生成するものがあります。しかし、現在多くの人々が試している使いやすい会話型のChatGPTインターフェースは、GPT-3のような過去の同じテクノロジーのと同じものを改良したものに過ぎず、根本的に新しいもの、前例のないものではありません。
- 他方で、Stable DiffusionやMidjourney、OpenAIのDALL-E 2などのマルチモーダルモデルは、テキストプロンプト(例えば「サングラスをかけた紫のペンギン」)を受けて、出力として画像を生成するのが一般的です。また、GPT-4のように、画像を入力として受け取り(例:冷蔵庫の中身の写真)、テキストを出力として生成できるモデルもあります(例:持っている食材を使ったレシピなど)。また、音声や映像を出力できるマルチモーダルモデルも開発中です。
昨年は、マルチモーダルモデルの目覚ましい進化によって、一般の人々の意識に急速に浸透しました。ソーシャルメディアには、AIが生成した風変わりな画像やアバターが溢れ、クールでキュートな印象を与えましたが、それが人間のアーティストの仕事を、彼らの同意なく、正当な対価なしに学習データとして使用したシステムによって生成されたものであることに、人々は気づきました。
生成AIはどのような働きをするのか?
人工知能には一般的に合意された定義がなく、時代とともに異なる意味を持つようになりました。しかし現在、多くの人々がこの言葉を使うとき、「機械学習」として知られるコンピューティングへのアプローチを指しています。機械学習は、人間が膨大な量のデータを「学習アルゴリズム」に送り込み、そのデータからパターンやルールを抽出し、そのルールを使って予測を行うものです。1950年代に構想された機械学習ですが、本格的に普及したのは2012年頃です。強力なコンピュータの登場と、ソーシャルメディアやその他のオンライン活動から生成される大量のデータが新たに利用可能になったことで、機械学習天国のような状況になりました。
機械学習は一般的に、膨大な顔のデータセットを使って顔認識システムを訓練するために使用されます。この学習データにより、システムは画像内の顔を識別し、2つの顔が一致するかどうかを予測することを「学習」する。一方、生成AIシステムは、テキスト、画像、その他のメディアの膨大なデータセットで学習させ、類似しているが合成されたコンテンツを生成することができます。このシステムは、与えられたプロンプトに続くテキストを予測することもできますが、出力としてコンテンツを生成するため、「生成AI」と呼ばれます。このようなシステムは、学習データに含まれる有名な作家やアーティストの仕事を模倣することができますが、人種差別的な言葉や性差別的なイメージなど、学習させたコンテンツのバイアスも模倣してしまうのです。
生成AIシステムの限界は?
機械学習システムは、前述の通り、学習データからパターンを再現し、過去に見たものをもとにコンテンツを生成します。しかし、人間とは異なり、入力・出力されたデータを実際に理解することができないため、人種差別や性差別を含む危害を加えるバイアスを再現してしまう可能性があります。ソーシャルメディアプラットフォームのコンテンツを調整するためにフィルタリングを使用できるのと同じように、生成AIシステムの上に同様のフィルタを追加して、有害な出力につながりそうなプロンプトを捕捉しようとしたり、有害な出力自体を捕捉したりすることができます。
しかし、ソーシャルメディアプラットフォーム上の自動モデレーションと同様に、ヘイトスピーチや違法コンテンツのようなものを自動的に検出するのには重大な限界があります。また、これらのシステムを「jailbreak[改造]」し、あらゆるフィルターを回避して有害なコンテンツを生成させることも容易です。さらに、このようなコンテンツを認識し、そのようなラベルを付けるためにシステムを訓練する人間は、(恐るべきコンテンツに毎日毎日さらされているにもかかわらず)低賃金で、福利厚生のサポートも限られていることが多いことも分かっています。生成AIは、このような人々の搾取の上に成り立っており、彼らの多くは現在、正当な評価と救済を求めるために団結しています。
一般的な生成AIのトレーニングデータセットを調べてみると、女性嫌悪、ポルノ、悪意のあるステレオタイプに満ちていることがわかります。また、これらのシステムは他のアプリケーションやサービスの「基盤モデル」として機能することが多いため、それらと同じ偏見が他のシステムやアプリに入り込んでしまいます。例えば、自撮り写真を強調してアバターを生成するアプリ「Lensa」は、構築したシステムの偏見によって、黒人、アジア人、ラテン系の女性の同意のない性的画像、さらにはヌード画像を生成しました。
LLMはまた、プロンプトに応答して完全に誤った情報を定期的に生成するという事実によって、危険なほどまでに限界づけられています。この現象は、「捏造」、「混同」、あるいは「幻覚」(ただし後者はテクノロジーを擬人化しているため問題があります)とさまざまに呼ばれてきたものです。少なくとも今のところ、LLMはプロンプトに対して言語的にもっともらしい回答を提供できるだけで、その正確性や真実性については保証されていません(OpenAIなどの企業は、これを解決できる問題だと主張していますが)。
例えば、ChatGPTに「Access NowのAIに関する最も関連性の高い著作物は何ですか」と尋ねると、タイトル、スタイル、語調から、私たちが書いたと思われる非常に素晴らしい論文のリストが生成されました。ただし、私たちがこれらを書いてはいなかった、ということを除けば、です。ChatGPTが提案した5つのアイテムのうち、Access Nowのチームメンバーが書いた実際の出版物は1つだけだったのです。偽のAccess Nowブログ以外にも、新聞社や図書館は、ChatGPTが提案した存在しない記事や書籍を見つけようとする人々の洪水に直面しています。
生成AIの本当のリスクは、神話と比較してどうなのでしょうか?
誇大広告にもかかわらず、GPT-4やGoogleのBardのような生成AIシステムは、「超知的」ではありません。彼らは意識を持っていませんし、権力を掌握して人類を抹殺する危険性もありません。スマートフォンがテキストメッセージを自動生成するのと同じように、これらのシステムは、洗練された、もっともらしい応答を生成することによって、プロンプトに応答するだけです。シェイクスピア風のソネットや、とてもかっこいいペンギンを作ることができるからといって、事実の正確さ、信頼性、理解、専門性、共感などを必要とする役割や責任を自動化するために使用できるわけではありません。
多くの人々、特にテクノロジーに金銭的な投資をしている人々が、生成AIがあらゆる仕事を代替すると執拗に楽観視している一方で、私たちは過大な約束には懐疑的であり、観察可能な効果に注目すべきです。現在のメディアの多くは、強力なAIがもたらすいわゆる実存的リスク、すなわち、AIシステムが強力になりすぎて、意図的に、あるいは偶然に人類を絶滅させてしまうのではないかという考えに注目しています。しかし、Joy Buolamwini、Safiya Noble、Timnit Gebru、Emily Bender、Melanie Mitchellなどの研究者は、そうしたSF的な憶測をいち早く否定しています。その代わりに、世界はAIがすでに犯している非常に現実的で悲痛な危害に注意を払うべきだと彼らは指摘しています。その例として、次のようなものがあります:
- 職場で使用されるAIシステムは、生産性を向上させるためと言われているが、労働者の監視を可能にするものである
- 社会福祉の不正を検出するためのAIシステムが、無実の弱者である市民を誤って詐欺師とレッテルを貼ってしまう
- 翻訳サービスの手抜きに使われるAIシステムは、難民をリスクにさらしている
- 有色人種の人々に対する暴力的で差別的な取り締まりを強化し、悪化させるAIシステム
残念ながら、生成AIはこのような危害のカタログをさらに増やすことになりそうです。私たちは、例えば、偽情報キャンペーンをより安価に、より説得力のあるものにするために、最先端の生成AIシステムが使用されているのをすでに目にしています。
また、膨大なデータ、計算能力、そしてこうしたシステムを最大限に活用するために必要な技術的専門知識を持つ大企業は、AIシステムが大企業の力を強化するのに役立つだけというリスクも大きい。社会サービスの提供から就職活動の評価まで、あらゆる分野にAIを導入しようとする動きが加速していることを考えると、これは深刻な懸念材料となります。私たちは、不透明でプロプライエタリなAIシステムが私たちの生活のあらゆる側面に入り込むことを本当に望んでいるのでしょうか?
どうすればAIを安全に使えるのか?
人権に許容できないリスクをもたらす特定のAIアプリケーションを禁止することには、強い説得力がある。しかし、さまざまな法域の法律家が、例えば、生成AIが学習するデータの透明性を義務付ける、生成AIの仕事をするための隠された搾取的労働、環境に与える影響など、生成AIシステムの危害を抑制する方法を議論していますが、今のところ、今のところ、生成AIモデルの禁止を強く求める声はありません。
Stable Diffusionを開発したStability AIは現在、モデルのトレーニングに著作権保護されたデータを使用したことを理由に法的措置を受けていますし、OpenAIは、イタリアのデータ保護当局がChatGPTがEUの一般データ保護規則(GDPR)に準拠しているか調査中に一時的にアクセスを停止したことで大問題になっています。
はっきりしているのは、生成AIを開発する企業は、そのようなテクノロジーが既存の規制だけでなく、人権基準に沿って開発・展開されるように作業しなければならないということです。もしこれらのテクノロジーやその具体的な実装が人権を侵害するのであれば、この新しいテクノロジーの現実に適応することは人々の責任になるべきではありません。むしろ、全人類のために明るい未来を作ると主張するAI開発者は、自分たちのテクノロジーが実際には多くの人々を置き去りにしているという事実と向き合わなければならないのです。
Deborah RajiとAbeba Birhaneは次のように言います。「もしこれらの強力な企業が、それによって危害を受ける可能性が最も高い人々の期待に応えるシステムをリリースできないなら、彼らの製品はこれらのコミュニティに奉仕する準備ができておらず、広くリリースするに値しない」
生成AIと人権についてもっと知りたいが、どこで学ぶことができるか?
このトピックに関するAccess Nowの継続的な政策提言活動に加え、European Digital Rights、AlgorithmWatch、European Center for Not-for-Profit Law、AI Now Institute、Distributed AI Research Instituteなどのパートナー団体の活動を確認することをお勧めします。
また、生成AIの最新ニュースについては、メリッサ・ハイキラのニュースレター「The Algorithm」、Melanie Mitchellのニュースレター「AI: A Guide for Thinking Humans」を購読してください。
また、AIを取り巻く神話や誤解を論破する常設のリソースをお探しなら、Access NowのDaniel Leuferが開発したamyths.orgにアクセスしてください。
出典:https://www.accessnow.org/what-you-need-to-know-about-generative-ai-and-human-rights/