「AIの一時停止」書簡に対する『Stochastic Parrots』執筆者たちの声明文

Categories
< Back
You are here:
Print

「AIの一時停止」書簡に対する『Stochastic Parrots』執筆者たちの声明文

(訳者前書き)先月から今月にかけて、マスコミが大々的に報じてきたAI騒動ですが、なかでも、ChatGPTの是非に議論が集中するなかで、フューチャー・オブ・ライフ・インスティチュートが始めた開発の一時中断を要求する公開書簡に注目が集った。あとで述べるように私はこの書簡にはあまり賛成できない。

公開書簡(英文) https://futureoflife.org/open-letter/pause-giant-ai-experiments/

NHKの報道 https://www3.nhk.or.jp/news/html/20230330/k10014024081000.html

イーロン・マスクはじめとしてシリコンバレーの成功者たちが異論を唱えたことでも更に注目が高まった。それから二週間くらいしかたっていないが、もはや忘れられた?かもしれない。日本では、ChatGPTの問題に言及しつつも、むしろ好奇心でAIを人間並にみたてての話題が国会答弁から学校教育まであらゆる場所を席巻しつつあるように感じる。これが次第に日常の風景になることでニュースにもならず、いつのまにか、AIを人間であるかのように扱うこと――AIフェティシズム――に違和感を感じない感性をもつ人達が多数を占める社会になりそうだ。(そうならないようにがんばりたい)

私自身あAIの開発の動向には大きな疑問があり、こうした関心をもってChatGPTなどをとりあげてきたが、私は、マスクも署名したというこの公開書簡には署名していない。開発にまったをかけることには異論はないがが、全体の問題意識がかなり私とは違う。そうしたなかで、この公開書簡ではダメだ、という反対意見がAIの開発に対して疑問をもってきた専門家のなかからも上がりはじめた。それが、以下に訳出した「『AIの一時停止』書簡に対する『Stochastic Parrots』執筆者たちの声明文」だ。

訳出した声明の冒頭で、著者たちは次のように書いている。

「いわゆるAIによる害は現実に存在しており、これは自動化システムを導入する人々や企業の行為に起因するものである。規制への取り組みは、透明性、説明責任、搾取的な労働慣行の防止に焦点を当てるべきである。」

そして声明の最後の方で、

「AIシステムによって最も影響を受ける人々、「デジタル国境の壁」にさらされる移民、特定の服を着ることを強制される女性、生成システムのアウトプットをフィルタリングする間にPTSDを経験する労働者、企業の利益のために作品を盗まれるアーティスト、支払い請求に苦しむギグワーカーがこの議論では発言する必要がある。」

とも述べている。

異論を表明した人達の考え方の詳細はStochastic Parrotsという論文にある。

ChatGPTなどの問題について、発達心理学とかの分野の人達はどう考えているのか知りたいところだ。発達心理学は学校教育にも影響をもっているはずで、ChatGPTが前提とする心理モデルを受け入れあれるのだろうか、と思うからだ。ピアジェが生きていたら、今の学校教育におけるAIフェティシズムをどう評価(批判)しただろうか、と常々思うことがある。(小倉利丸)

付記:関連して、下記の記事もぜひお読みください。共同起草者のひとりEmily M. Benderについての言及がります。

(NYmag)あなたはオウムではないし、チャットボットは人間ではない

2022/4/15加筆


「AIの一時停止」書簡に対する『Stochastic Parrots』執筆者たちの声明文

Timnit Gebru(DAIR)、Emily M. Bender(ワシントン大学)、Angelina McMillan-Major(ワシントン大学)、Margaret Mitchell(ハギング・フェイス)。

2023年3月31日

いわゆるAIによる害は現実に存在しており、これは自動化システムを導入する人々や企業の行為に起因するものである。規制への取り組みは、透明性、説明責任、搾取的な労働慣行の防止に焦点を当てるべきである。

[画像提供元 Rens Dimmendaal & David Clode / Better Images of AI / Fish reversed / CC-BY 4.0].

3月28日(火)、Future of Life Instituteは、チューリング賞受賞者のYoshua Bengioや世界有数の富豪であるElon Muskを含む2000人以上が署名した、「GPT-4より強力なAIシステムの訓練」を最低6ヶ月間モラトリアムすることを求める書簡を発表した。

この手紙の中には、「本物と合成のメディアを区別するための証明と電子透かしシステム」など、私たちが同意する(「Stochastic Parrots」として内輪では知られている2021年の査読付き論文で提案した)提言も数多く含まれているが、これらは、恐怖心を煽ったりAIハイプの影に隠れてしまい、「人間と競合する知能を持つ」想像上の「強力なデジタル頭脳」によるリスクに議論が誘導されてしまう。こうした仮定のリスクは、今日のAIシステムの展開から生じる実際の害を無視する長期主義と呼ばれる危険なイデオロギーが中心に据えているものだ。この書簡は、1)一握りの企業が利益を得る製品を作るための労働者の搾取大量のデータ窃取、2)抑圧のシステムを再生産し私たちの情報エコシステムを危険にさらす、世界のなかのシンセティック・メディア(訳注)の爆発、3)社会の不平等を悪化させる少数の人々の手への権力の集中など、これらのシステムによる継続した害を何一つ取り上げていない。

私たちは、Future of Life Instituteのような長期主義的な組織からこのような書簡が出されたことに驚かないが、それは、私たちが根本的に強化されたポストヒューマンになり、宇宙を植民地化し、何兆人ものデジタル人間を作り出すという未来像と概ね一致している。しかし、私たちはこの手紙に署名した多くのコンピュータ専門家と、それが肯定的に報道されたのを見て落胆しているのである。「繁栄」か「破局の可能性」のどちらかの未来を約束する空想上のAIが実現するとかいうユートピアアポカリプスに気をとられるのは危険だ[1]。私たちが『Stochastic Parrots』で指摘したように、自動化されたシステムの能力を誇張し、それらを擬人化するこうした言葉は、シンセティック・メディアの背後に知覚を持つ存在がいるかのように人々を欺く。これは、ChatGPTのようなシステムの成果を無批判に信頼するように人々を誘うだけでなく、エージェンシーを誤認させることにもなる。説明責任は、本来、人工物ではなく、その構築者にあるはずだ。

私たちに必要なのは、透明性を確保するための規制である。私たちがシンセティック・メディアに遭遇したとき、常にそれが明確であるべきなだけでなく、これらのシステムを構築する組織は、トレーニングデータとモデル・アーキテクチャを文書化して開示することを求められるべきなのだ。安全に使えるツールを作る責任は、生成システムを構築し配備する企業にあるはずだ。つまり、これらのシステムの構築者は、その製品から生み出されるアウトプットに対して責任を負わなければならない。私たちは、「そのような決定を選挙で選ばれていない技術リーダーに委ねてはならない」という意見に同意するが、そのような決定は、シリコンバレーに資金的に大きく依存する「AIの夏」を経験した学者たちに委ねられるべきでもないことにも留意しなければならない。AIシステムによって最も影響を受ける人々、「デジタル国境の壁」にさらされる移民、特定の服を着ることを強制される女性、生成システムのアウトプットをフィルタリングする間にPTSDを経験する労働者、企業の利益のために作品を盗まれるアーティスト、支払い請求に苦しむギグワーカーがこの議論では発言する必要がある。

一見あらかじめ決められたテクノロジーの未来に「適応」し、AIが引き起こすであろう「劇的な経済的・政治的混乱(特に民主主義への)」に対処しなければならないという手紙の語り口とは違って、私たちは、少数の特権階級の優先順位や彼らが構築し拡散させると決めたものに合わせることが私たちの役割だということには同意できない。私たちは、機械で読み書きができるように社会を「適応」させるのではなく、私たちのために働く機械を構築すべきなのだ。ますます大規模になる「AI実験」に向けた現在の競争は、私たちの唯一の選択肢がどれくらいのスピードで走るかという、あらかじめ決められた道などではなく、むしろ利益動機によって引き起こされる一連の決定なのだ。企業の行動と選択は、人々の権利と利益を保護する規制によって決定されなければならない。

今こそ行動すべき時だ。しかし、私たちが懸念の中心に置くべきは、想像上の「強力なデジタル・マインド」ではない。そうではなく、デジタルマインドを構築すると主張し、急速に権力を集中させ、社会的不公平を増大させている企業の、極めて現実的で現在進行形の搾取行為に注目すべきなのだ。


[1] 私たちは、19世紀にルーツを持ち、今日まで続いている非常に現実的で有害な実践である優生学が、件の書簡の脚注5で、”潜在的な破局 “にすぎないものの例として挙げられていることに注目する。

https://www.dair-institute.org/blog/letter-statement-March2023

訳注 シンセティック・メディア

「リアルな音声付き動画をAIによって作り出す動画合成技術である。事前に用意したテキストと人(映像、音声)のデータからAIが学習し、その人が本当に話しているような動画の生成が可能である。」(https://www.nri.com/jp/knowledge/publication/cc/chitekishisan/lst/2021/07/02)

「顔、音声、身体、自然言語などの人間由来の情報をAIが学習し、本物と見紛う音声付き動画「シンセティックメディア」の生成が可能になりつつあります。シンセティックメディアは、バーチャルアバターなどのコミュニケーション分野や、落語音声合成などのエンターテイメント分野を始めとした様々な分野で活用が期待されており、高品質なシンセティックメディア生成技術の確立が期待されています。一方で、シンセティックメディアの負の側面として、詐欺や思考誘導、世論操作を行う目的で、愉快犯や攻撃者が、フェイク映像、フェイク音声、フェイク文書といったフェイクメディアを生成、流通させる可能性があり、すでに社会問題となっています。」(https://www.nii.ac.jp/news/release/2021/0701.html)

Table of Contents