(noema)人工知能の背後に隠される搾取される労働

Categories
< Back
You are here:
Print

(noema)人工知能の背後に隠される搾取される労働

国境を越えた労働者の組織化を支援することは、”倫理的なAI “を求める闘いの中心に据えられるべきだ。
Nash Weerasekera(ナッシュ・ウィーラセケラ) Noema Magazine
エッセイ テクノロジーと人間
Adrienne Williams、Milagros Miceli、Timnit Gebru 著 2022年10月13日

Adrienne WilliamsとMilagros Miceliは、Distributed AI Research (DAIR) Instituteの研究者である。Timnit Gebruは、この研究所の創設者であり、エグゼクティブディレクターである。以前はGoogleではEthical AI研究チームの共同リーダーを務めていた。

人工知能(AI)に対する一般の人々の理解は、ポップカルチャーによって形成されている。「ターミネーター」のような大ヒット映画や、機械が暴走して人類を滅ぼすという破滅的なシナリオがそうだ。Googleのエンジニアが自社のチャットボットは知覚があると主張したことは、ここ数カ月で最も話題になったAI関連のニュースの一つであり、Stephen Colbertの数百万人の視聴者にまで配信された。しかし、超知的な機械が独自のエージェンシーと意思決定力を持つという考えは、現実離れしているだけでなく、AIシステムの開発と配備を取り巻く人命への現実的なリスクから私たちの目を逸らせる。世間がありもしない知覚を持つ機械の幻影に気を取られている間に、人工知能システムが今日成し遂げたとされる成果の裏で、あらかじめ動員された労働者の一群が控えている。

これらのシステムの多くは、シリコンバレーにある多国籍企業によって開発されたもので、ジャーナリストのGideon Lewis-Krausは、人類史上前例のないほどの規模で影響力を持つようになってきたと指摘する。彼らは、いつの日か、人間を雇うために必要な給与や福利厚生などのコストをかけずに、人間ができるすべての仕事とさらに多くの仕事をこなす自律型システムを作り出そうと努力している。この企業経営者のユートピアは現実にはほど遠いが、その実現を試みようとする動きは、人類学者Mary L. Grayと計算社会科学者Siddharth Suriがゴーストワークと呼ぶ、「AI」を動かす上で必要だが軽視された人間労働を行うグローバルアンダークラスを生み出してきた。

自らを「AIファースト」を謳うテック企業は、データラベラー、配送ドライバー、コンテンツモデレーターなど、厳しく監視されたギグワーカーに依存している。スタートアップ企業では、いわゆるAIを自社製品に組み込むようにというベンチャーキャピタルからの圧力により、チャットボットのようなAIシステムを人になりすますために雇っているところもある。実際、ロンドンを拠点とするベンチャーキャピタル、MMCベンチャーズは、EUのAIスタートアップ2,830社を調査し、その40%がAIを有意義に利用していないことを明らかにした。

メディアやポップカルチャーで描かれる洗練された感覚のある機械とは程遠く、いわゆるAIシステムは、不安定な労働条件の下で反復的な作業をこなしている世界中の何百万人もの低賃金労働者によって機能している。そして、シリコンバレーの企業で6桁の給料をもらっている「AI研究者」とは異なり、これらの搾取される労働者は、しばしば貧困層から採用され、税引き後の時給は1.46ドルと低い。しかし、それにもかかわらず、労働搾取は、AIシステムの開発・展開をめぐる倫理的な言説の中心にはなっていない。この記事では、いわゆるAIシステムを動かしている労働搾取の例を挙げ、国境を越えた労働者の組織化を支援することが、AI倫理に関わる議論において優先されるべきだと主張する。

私たちは、AIに関連する仕事に密接に関わる者としてこれを書いている。アドリアンは元アマゾンの配送ドライバーで、自動化されたシステムによって設定された監視や非現実的なノルマの害を体験したオーガナイザーである。ミラグロスは、シリア、ブルガリア、アルゼンチンでデータワーカー、特にデータアノテーター[注釈を追加する作業者]と密接に協力してきた研究者である。そしてティムニットは、AIシステムの弊害を暴き、伝えることで報復に遭ってきた研究者である。

労働者を機械のように扱う

現在AIと言われているものの多くは、統計的な機械学習、より具体的には人工ニューラルネットワークによるディープラーニングに基づくシステムであり、「学習」するためには膨大な量のデータを必要とする手法である。しかし、15年ほど前、まだギグワークが広まる前、ディープラーニングシステムは、一部の興味ある研究者に限定された、単なる学術的好奇心の対象であると考えられていた。

しかし、2009年、Jia Dengとその共同研究者は、インターネットからかき集めた画像にラベルを付けた当時最大の画像データセット「ImageNetデータセット」を公開[訳注]し、Amazonが新たに導入したMechanical Turkプラットフォームを通じてラベルを付けた。Amazon Mechanical Turkは、「人工的な人工知能」をモットーに、「クラウドワークcrowd work」というやり方を広めた。たとえば、時間のかかる大量の仕事を、世界中の何百万人もの人々がすぐに完了できるような小さな仕事に分解して行うという、といったやり方だ。つまり、Mechanical Turkの導入によって、手に負えない作業が突然可能になったのだ。例えば、100万枚の画像に手作業でラベルを貼る作業を、1000人の匿名の人々が並行して、それぞれ1000枚の画像にラベルを貼るだけで自動的に実行することが可能になった。しかも、クラウドワーカーの報酬は1件あたりわずか数セントと、大学にも導入しやすい価格であった。

「いわゆるAIシステムは、世界中の何百万人もの低賃金労働者が、不安定な労働条件のもとで繰り返しの作業を行うことによって支えられているのだ」

ImageNetデータセットに続いて、ImageNet Large Scale Visual Recognition Challengeが開催され、研究者はこのデータセットを使って、画像認識のような様々なタスク(木や猫など、画像内のオブジェクトの種類を画像にアノテーション[注釈]する)を行うモデルを訓練・テストした。当時は非ディープラーニングベースのモデルが最も高い精度でこれらのタスクを実行したが、2012年、内輪ではAlexNetと呼ばれるディープラーニングベースのアーキテクチャが、他のモデルを大きく引き離して高いスコアを出した。これにより、ディープラーニングを用いたモデルが主流となり、世界中の低賃金のギグワーカーによってラベル付けされた大量のデータを必要とするモデルが、多国籍企業によって普及する今日へと至ったのである。インターネットから拾ってきたデータをラベリングするだけでなく、自撮り写真や友人や家族の写真、身の回りの物の画像などをアップロードしてもらい、データそのものを提供する仕事もある。

クラウドワーキングの主なプラットフォームがAmazonのMechanical Turkだった2009年とは異なり、現在、データラベリング会社が爆発的に増えている。これらの企業はベンチャーキャピタルから数千万から数億の資金を調達する一方、データラベラーの1タスクあたりの平均収入は1.77ドルと試算されている。データラベリングインターフェースは、クラウドワーカーを機械のように扱い、しばしば高度に反復的なタスクを処方し、彼らの動きを監視し、自動ツールによって逸脱を罰するように進化してきた。今日、学術的な課題とは程遠く、「AIファースト」を謳う大企業は、データ労働者、コンテンツモデレーター、倉庫労働者、配送ドライバーなど、この低賃金ギグワーカーの軍団に後押しされている。

例えば、コンテンツモデレーターは、特定のプラットフォームに不適切と判断されたコンテンツを発見し、フラグを立てる役割を担っている。彼らがいなければ、ソーシャルメディアプラットフォームはまったく使えなくなるような重要な仕事であるだけでなく、さまざまなタイプのコンテンツにフラグを立てる彼らの仕事は、ヘイトスピーチ、フェイクニュース、暴力など、プラットフォームのポリシーに違反するコンテンツを含むテキストや画像をフラグ立てるための自動システムの訓練にも利用されている。コンテンツモデレーターは、オンラインコミュニティの安全性を保ち、AIシステムを訓練するという重要な役割を担っているにもかかわらず、ハイテク企業で働く一方で、しばしば悲惨な賃金を支払わされ、厳しく監視されながらトラウマになるような仕事を強いられている。

プラットフォームに載らない殺人、自殺、性的虐待、子どもの虐待の動画はすべて、コンテンツモデレーターか、コンテンツモデレーターが提供した可能性が高いデータで訓練された自動システムによって閲覧され、フラグが立てられている。これらの作業を行う従業員は、このような恐ろしいコンテンツに常にさらされているため、不安、うつ、心的外傷後ストレス障害に悩まされている。

メンタルヘルスのサポートが存在しないか不十分で、トラウマになるような動作環境を経験することに加え、これらの労働者は監視され、定められた反復作業から逸脱した場合は罰される。例えば、ケニアのMetaと契約しているSamaのコンテンツ・モデレーターは、監視ソフトで監視され、動画の長さやどれほど不穏な内容であるかにかかわらず、50秒以内に動画の暴力について判断するよう徹底されている。コンテンツモデレーターの中には、これを怠ると数回の違反で解雇されることを恐れる者もいる。「スピードと効率を何よりも優先することを通して、このポリシーは、エチオピアのFacebookのプラットフォームにヘイトスピーチと暴力の扇動を含む動画が残っている理由を示しているかもしれない 」とタイム誌は報告している。

コンテンツモデレーターがいなければ機能しないソーシャルメディアプラットフォームと同様に、Amazonのような電子商取引コングロマリットも、倉庫作業員や配送ドライバーなどの軍団によって運営されている。コンテンツモデレーターのように、これらの労働者は、プラットフォームの機能を維持すると同時に、Amazonがいつか彼らの代わりに使うかもしれないAIシステム(倉庫に荷物をストックするロボットや、顧客に荷物を届ける自動運転車)にデータを提供する。その一方で、これらの労働者は、常に監視されているというプレッシャーの中で反復作業を行わなければならない。この作業は、時には彼らの命を危険にさらし、しばしば深刻な筋骨格系の怪我につながる

「データラベリングインターフェースは、クラウドワーカーを機械のように扱い、しばしば高度に反復的な作業を処方し、その動きを監視し、自動化されたツールによって逸脱を罰するよう進化してきた」

Amazonの倉庫の従業員は、カメラと在庫スキャナーで追跡され、彼らのパフォーマンスは、同じ施設で働く全員の集約データに基づいて、管理者が決定したすべての仕事にかかるべき時間に対して測定される。割り当てられた作業から離れた時間は追跡され、労働者を懲罰するために使用される。

倉庫作業員と同様、Amazonの配送ドライバーも自動監視システムで監視されている。「Mentor」と呼ばれるアプリは、いわゆる違反行為に基づくスコアを集計する。Amazonの非現実的な配達時間への期待は、多くのドライバーを、その日に割り当てられた荷物の数を確実に配達するために、危険な手段に走らせる。例えば、1日に90~300回ほどシートベルトを締めたり外したりする時間は、ルート上のスケジュールから遅れるのに十分な時間である。アドリアンと彼女の同僚の多くは、シートベルトを背中の後ろで締めることで、監視システムが彼らがベルトを付けて運転している、と登録し、実際にベルトを外して運転していても、スピードを落とさずに済むようにしている。

2020年、アメリカのAmazonのドライバーは、United Parcel Serviceのドライバーよりも50%近く高い割合で怪我をした。2021年には、Amazonのドライバーは100人あたり18.3人の割合で負傷し、前年から40%近く増加した。このような状況は、配送ドライバーにとって危険なだけでなく、アマゾンの配送ドライバーが関わる事故では、歩行者車の乗客が死傷している。日本では最近、Amazonのソフトウェアが “不可能なルート “を案内し、”不当な要求と長時間労働 “につながったとして、抗議のために辞めたドライバーもいる。しかし、こうした明らかな危害があるにもかかわらず、Amazonは労働者を機械のように扱い続けている。

スキャナーやカメラで労働者を追跡することに加え、昨年、同社は米国内の配送ドライバーにAmazonがAI搭載のカメラを使ってドライバーの動きを監視することを認める「生体認証同意書」に署名するよう求めた-。これは、注意散漫な運転やスピード違反を減らし、シートベルトの着用を徹底するためだという口実による。顔認識やその他の生体情報が、労働者監視ツールを完璧なものにし、いつか自分たちに取って代わるかもしれないAIのさらなる訓練に使われることを恐れるのは、労働者にとって当然と言える。同意書の表現が曖昧なため、正確な目的については解釈の余地があり、労働者は以前から自分のデータの望ましくない利用への疑いを抱いていた(Amazonはそれを否定していたが)。

「AI」産業は、こうした低賃金労働者の背中を見て動いている。彼らは不安定な立場に置かれており、組合がない以上、失うことのできない仕事を失うことを恐れて、非倫理的な慣行に反発したり、労働条件の改善を求めたりすることは難しい。企業は、難民獄中の人々など、貧しい人々や十分なサービスを受けていないコミュニティから、仕事の選択肢が少ない人々を雇う傾向があり、正社員としてではなく、契約社員として第三者企業を通して雇うことが多い。より多くの雇用主がこれらのような脆弱なグループから雇用するべきだが、保護もなく、略奪的な方法でそれを行うことは容認されない。

「AI倫理研究者は、業界における不当な労働条件の原因と結果の両方として、危害を及ぼすAIシステムを分析すべきである」

データラベル貼りの仕事は、自動運転車の画像認識システムのデータラベルを貼る労働者のいるベネズエラから、シリア難民が人種、性別、年齢のカテゴリー別にラベルを貼った自撮りで顔認識システムを助長しているブルガリアまで、「AIファースト」を掲げる多国籍企業のシリコンバレー本社から遠く離れた場所で行われる。こうした作業は、インド、ケニア、フィリピン、メキシコといった国々の不安定な労働者に委託されることが多い。労働者は英語を話せないことが多いが、英語で指示が出され、ルールを十分に理解していなければ、解雇やクラウドワークのプラットフォームからの追放に直面する。

これらの企業は、労働者の力が強まれば、膨大な量のデータを必要とする「AI」システムの普及への歩みが鈍り、その危害を十分に調査・軽減することなく展開されることを承知している。感覚を持った機械の話は、「AI」産業に力を与える搾取的な労働慣行の責任を問うことから私たちの目をそらすだけである。

AI倫理のための緊急の優先事項

倫理的AI、社会的善のためのAI、人間中心のAIの研究者は、データの「堕落」、透明性とモデルの公平性の育成に重点を置いてきたが、ここでは、私たちは、AI産業における労働搾取の廃止が、そうした取り組みの中核になるべきであると主張する。例えば、ケニアから米国への労働力搾取が許されなければ、企業は危害を加えるテクノロジーを迅速に普及させることができなくなる。彼らの市場計算がそうさせないというだけの話である。

したがって、私たちは、労働とAIシステムが交差するところで発生する問題を明らかにするための研究および公的イニシアティブへの資金提供を提案する。AI倫理の研究者は、業界における不当な労働条件の原因と結果の両方として、危害を及ぼすAIシステムを分析すべきである。AIの研究者や実務家は、クラウドワーカーが不安定な状況に置かれたまま、自分たちのキャリアアップのためにクラウドワーカーを利用していることを反省すべきだ。その代わりに、AI倫理コミュニティは、労働者の手に権力をシフトさせる取り組みに取り組むべきである。例えば、労働者のニーズに基づいて研究課題を労働者と共同作成すること、地理的な違いを超えた労働者の組織化を支援すること、研究成果を学術出版物に閉じ込めるのではなく労働者が容易にアクセスできるようにすることなどが挙げられる。Lilly IraniとM. Six Silbermanが作ったTurkopticonプラットフォームは、「労働者が雇用主との関係を公表し評価するための活動家システム」で、その好例である。

ジャーナリスト、アーティスト、科学者は、日常生活における労働搾取と危害を及ぼすAI製品との関連性を明確に描き、ギグワーカーやその他の脆弱な労働者集団との連帯や支援を育むことで貢献できる。ジャーナリストやコメンテーターは、シリアのデータアノテーターやアメリカのAmazonの配送ドライバーに関心を持つべき理由を一般大衆に示すことができる。恥はある状況下では仕事になる。企業にとって、「恥を知れ」という大衆の感情は、時には収益の減少につながり、説明責任を促すのに役立つ。

国境を越えた労働者の組織化を支援することは、「倫理的AI」を求める闘いの中心に据えるべきである。それぞれの職場や地理的な状況には独自の特異性があるが、他の場所の労働者がどのように同様の問題を回避しているかを知ることは、地域の組織化や組合活動のインスピレーションとなる。例えば、アルゼンチンのデータラベル作成者は、ケニアのコンテンツモデレーターや、米国で組織化されたAmazon Mechanical Turkの労働者が最近行った組合結成の取り組みから学ぶことができるし、その逆もまた然りである。さらに、シリコンバレーで働く高給取りの従業員と、地方で働く低賃金の請負業者の両方を含むAlphabet Workers Unionのように、ある地理的な場所で組合に加入した労働者は、別の場所でより不安定な労働者を擁護することができる。

「高給取りのハイテク労働者と、彼らを圧倒的に上回る低賃金労働者の間のこの種の連帯は、ハイテクCEOの悪夢である」

高給取りの技術労働者と、彼らより圧倒的に多い低賃金労働者の間のこの種の連帯は、技術系CEOの悪夢である。企業は低所得の労働者を使い捨てにすることが多いが、競合他社にすぐに仕事を奪われてしまう高所得の従業員を失うことはよりためらわれる。そのため、高収入の従業員は、組織化、組合結成、企業文化やポリシーへの不満の表明をする際に、はるかに長い時間が許されることになる。彼らは、倉庫で荷物の配達やデータのラベル付けなどの仕事をしている低賃金の従業員に対して、この安全性の向上を利用して主張することができる。その結果、企業はあらゆる手段を使って、これらのグループを互いに孤立させようとしているようだ。

Emily CunninghamとMaren Costaは、ハイテク企業のCEOを怖がらせるような、労働者間の連帯を作り出した。他のAmazon企業労働者とともに、彼らはAmazon Employees for Climate Justice」(AECJ)を共同設立した。2019年、8,700人以上のAmazon労働者が、ジェフ・ベゾスと同社の取締役会に宛てた公開書簡に自分の名前を公に署名し、気候リーダーシップを求め、気候科学に沿い、労働者を保護するために同社が実施すべき具体的なステップを求めた。同団体によると、若者主導のGlobal Climate Strikeと連帯して、世界中で3,000人以上のAmazon労働者がウォークアウトを行ったという。

Amazonはこれに対し、パリ協定より10年早く、2040年までにネット・ゼロ・カーボンを達成することを約束する「Climate Pledge」を発表している。カニンガムとコスタは、気候変動ストライキの後、懲戒処分を受け、解雇の脅しを受けたが、実際に解雇されたのは、AECJが低賃金労働者との連帯を促進するための行動を組織してからだったと言う。AECJの別のメンバーが、パンデミックの初期に倉庫労働者が直面していた悲惨な労働条件について話し合うパネルに耳を傾けるよう、企業の労働者を招待するカレンダーを送った数時間後、Amazonはコスタとカニンガムを解雇した。全米労働関係委員会は彼女たちの解雇が違法であると認定し、同社は後に両女性に非公開の金額で和解した。このケースは、経営者が恐れていた、低所得者層を同志とみなす高所得者層の揺るぎない連帯を物語っている。

この観点から、私たちは研究者やジャーナリストに対し、「AI」のエンジンを動かしている低所得層の労働者の貢献にも焦点を当て、人間のようなエージェンシーを持つ完全自律型マシンの物語で世間をミスリードすることをやめるよう求める。これらの機械は、世界中の低賃金労働者の軍団によって作られている。現在普及している危害を加えるAIシステムの背後にある労働搾取を明確に理解することで、一般の人々は、より強い労働保護と、それを破った主体に対する実際の結果を主張することができる。

訳注

概要
インターネット上の画像データの爆発的な増大は、画像やマルチメディアデータの索引付け、検索、整理、相互作用のための、より洗練された強固なモデルやアルゴリズムを育む可能性を秘めている。しかし、このようなデータをどのように利用し、組織化するかは、依然として重要な問題である。ここでは、WordNet構造をバックボーンに構築された大規模な画像オントロジーである「ImageNet」と呼ばれる新しいデータベースを紹介する。ImageNetは、WordNetの80,000の synsetの大部分に、平均500-1000枚のクリーンでフル解像度の画像を追加することを目標としている。その結果、WordNetの意味階層によって整理された数千万の注釈付き画像が得られることになる。この論文では、現状のImageNetを詳細に分析している: 12のサブツリー、5247のシセット、合計320万の画像である。ImageNetは、現在の画像データセットよりも規模も多様性もはるかに大きく、精度もはるかに高いことを示す。このような大規模データベースを構築することは困難な作業である。私たちはAmazon Mechanical Turkを使ったデータ収集スキームを説明する。最後に、私たちは物体認識、画像分類、自動物体クラスタリングの3つの簡単なアプリケーションを通して、ImageNetの有用性を説明する。ImageNetの規模、精度、多様性、階層構造が、コンピュータビジョンコミュニティやそれ以外の分野の研究者に比類ない機会を提供できることを期待している。ImageNet: A large-scale hierarchical image database

Table of Contents