(NT) ノーム・チョムスキー ChatGPTの偽りの約束

Categories
< Back
You are here:
Print

(NT) ノーム・チョムスキー ChatGPTの偽りの約束

ノーム・チョムスキー ChatGPTの偽りの約束
2023年3月8日

Noam Chomsky、Ian Roberts、Jeffrey Watumull著。

Chomsky 博士と Roberts 博士は言語学の教授である。Watumull博士は、科学技術企業の人工知能担当ディレクター。

かつてホルヘ・ルイス・ボルヘスは、大きな危機と可能性を秘めた時代に生きることは、悲劇と喜劇の両方を経験することであり、自分自身と世界を理解する上で「啓示が間近に迫っている」ことであると書いた。今日、人工知能の革命的な進歩は、懸念と楽観の両方をもたらすものである。楽観的なのは、知能が問題を解決する手段だからだ。心配なのは、最も人気があり流行している人工知能の一種、機械学習が、言語と知識に関する根本的に欠陥のある概念をテクノロジーに取り込むことで、私たちの科学を衰退させ、倫理を堕落させるのではないかと懸念しているからだ。

OpenAIのChatGPT、GoogleのBard、MicrosoftのSydneyは、機械学習の驚異である。大雑把に言えば、膨大な量のデータを取り込み、その中からパターンを探し、統計的にありそうな出力、例えば一見人間のような言語や思考を生成することにますます習熟してきている。このようなプログラムは、人工知能の地平に現れた最初の光明として歓迎されている。機械的な心が、処理速度やメモリサイズといった量的な面で人間の脳を上回るだけでなく、知的洞察力や芸術的創造性など、人間特有のあらゆる能力において、質的な面でも上回るという、長い予言通りの瞬間が訪れようとしている。

その日は来るかもしれないが、大げさな見出しで語られたり、無分別な投資で考えられているのとは反対に、その夜明けにはまだ到達していない。ChatGPTのような機械学習プログラムがA.I.の分野を支配し続けるなら、ボルヘス的な理解の啓示はこれまでもこれからも起こらないし、起こせないだろうと私たちは考える。これらのプログラムは、ある狭い領域では役に立つかもしれないが(たとえば、コンピュータプログラミングや ちょっとした詩の韻を踏むのに役立つ)、言語学の科学や知識の哲学の観点からは、人間の理性や言語の使い方とは大きく異なることが分かっている。この違いが、不可逆的な欠陥をエンコードすることでこれらのプログラムができることに大きな制限を与えている。

ボルヘスが指摘したように、これほど些細なことにこれほど多くの資金と注目が集るのは、滑稽であると同時に悲劇的である。人間の心と対照するととても取るに足りないものであって、Wilhelm von Humboldtの言葉を借りれば、人間の心は言語の力によって「有限の手段を無限に使う」ことができ、普遍性を持つアイデアや理論を作り出すことができるのだ。

人間の心は、ChatGPTのように、何百テラバイトものデータを収集し、最も可能性の高い会話や科学的疑問に対する最も可能性の高い答えを推定するパターンマッチのための重厚な統計エンジンではない。逆に、人間の心は、少量の情報でも驚くほど効率的で、エレガントなシステムだ。それは、データ間の相関関係を推測するのではなく、説明を創造することにある。

例えば、言語を習得する子どもは、無意識のうちに、自動的に、そしてスピーディに、わずかなデータから、論理原理とパラメータからなる呆れるほど高度なシステムである文法を作り上げていく。この文法は、人間に複雑な文章や長い思考を生み出す能力を与える遺伝的にインストールされた「オペレーティングシステム」の表現だ、と理解することができる。言語学者が、ある言語がなぜそのように機能するのか(「なぜこの文は文法的であるが、あの文はそうではないのか」)についての理論を構築しようとするとき、彼らは、子どもが本能的に、最小限の情報に触れるだけで構築する文法を、意識的かつ苦労して明示的に構築している。子どものOSは、機械学習プログラムのそれとは全く異なる。

その最も深刻な欠陥は、あらゆる知能の中で最も重要な能力を欠いていることである。実際、このようなプログラムは、認知進化の前段階、あるいは非人間的な段階で立ち往生している。つまり、「何が起きているか」「何が起きていたか」「何が起きるか」――これは記述であり予測である――だけでなく、「何が起きていないか」「何が起きうるか」「何が起きえないか」についての能力を欠いている。それらは説明の構成要素であり、真の知能の証である。

例えば、こんなふうな事だ。あなたが手にリンゴを持っているとする。今、あなたはリンゴを手から放した。その結果を観察して、「リンゴが落ちた」と言う。これは描写だ。予測は、「手を離せばリンゴが落ちるだろう」という表現になるだろう。どちらも価値があり、どちらも正しい可能性がある。しかし、説明とはそれ以上のものである。説明には、記述や予測だけでなく、さらに「重力のため」「時空の湾曲のため」などの追加要件によって「何らかのそうした物体はたぶん落ちるのではないかAny such object would fall」という反事実的な推測counterfactual conjecturesも含まれることになる。それが因果関係の説明である。つまり、「たぶん重力の力がなければ、リンゴは落ちなかっただろうThe apple would not have fallen but for the force of gravity」ということだ。これが考えるということだ。[訳注]

機械学習の核心は記述と予測であり、因果関係や物理法則を仮定するものではない。もちろん、人間的な説明が必ずしも正しいとは限らないし、私たちは誤りを犯しやすい。しかし、これが「考える」ということの意味するところだ。正しいことをするためには、間違うこともありうるのだ。知能は、創造的な推測だけでなく、創造的な批判からも構成されている。人間的な思考は、可能な説明と誤りの訂正に基づいており、その過程で、合理的に考慮できる可能性が徐々に限定されていくのである。(シャーロック・ホームズがワトソン博士に言ったように、「不可能を排除したとき、残ったものは、どんなにありえないことでも、真実に違いない」)。

しかし、ChatGPTや同様のプログラムは、設計上、「学習」(つまり記憶)できることが無制限であり、可能なものと不可能なものを区別することができない。例えば、人間には普遍文法というものがあり、学習できる言語はある種の数学的な優美さを持つものに限定されるのに対し、これらのプログラムは、人間にとって可能な言語も、人間にとって不可能な言語も、同じように学習することができる。人間が合理的に推測できる説明の種類は限られているが、機械学習システムは「地球は平らだ」とも「地球は丸い」とも学習できる。機械学習システムは、時間の経過とともに変化する確率を扱っているに過ぎない。

そのため、機械学習システムの予測は、常に表面的で疑わしいものとなってしまう。例えば、英語の構文のルールを説明することができないので、「John is too stubborn to talk to」は、(he is too stubborn to be reasoned withという意味ではなく)John is so stubborn that he will not talk to someone or other という意味だと、間違って予測することもある。なぜ機械学習プログラムは、そんな奇妙なことを予測するのだろうか?なぜなら、”John ate an apple “と “John ate “のような文から推測されるパターンを類推することができるからだ。ここで、後者は John ate something or other を意味する。John is too stubborn to talk to Bill」は「John ate an apple」と似ているから、「John is too stubborn to talk to」は「John ate」と似ているはずだと、プログラムは十分に予測することができるだろう。言語の正しい説明は複雑で、ビッグデータに漬け込むだけでは身につかない。

逆に、機械学習の愛好家の中には、自分たちの作ったものが、説明(ニュートンの運動法則や万有引力など)を使わずに、正しい「科学的」予測(例えば、物体の運動について)を生み出すことができると自慢しているような人がいる。しかし、このような予測は、たとえ成功したとしても、疑似科学である。哲学者のカール・ポパーは、「私たちが求めるのは、可能性の高い理論ではなく、説明であり、つまり、強力で極めてあり得ない理論である」と述べている。

リンゴが地球に落ちるのは、それが自然な場所だからだ、という説(アリストテレスの見解)もありうるが、それはさらなる疑問を呼び起こすだけだ。質量が時空を曲げるからリンゴが落ちるという説(アインシュタインの見解)は、極めてあり得ないが、実際にリンゴが落ちる理由がわかるのである。真の知能は、ありえないが洞察力のあることを考え、表現する能力で示される。

また、真の知能は道徳的な思考ができることである。これは、私たちの心の無限の創造性を、あるべきものとそうでないものを決定する一連の倫理原則で制約することを意味する(もちろん、これらの原則自体も創造的な批判にさらされる)。ChatGPTが有用であるためには、小説のような出力を生成する力が必要であり、多くのユーザーに受け入れられるためには、道徳的に好ましくないコンテンツを排除する必要がある。しかし、ChatGPTをはじめとする機械学習の驚異のプログラマーたちは、このようなバランスを取るのに苦労してきたし、これからも苦労し続けるだろう。

例えば、2016年には、MicrosoftのTay chatbot(ChatGPTの前身)が、オンライントロールによって攻撃的な学習データで満たされたことにより、女性差別や人種差別のコンテンツでインターネットを溢れさせた。今後、この問題をどのように解決していくのか。ChatGPTは、道徳的な原則から理性的に判断する能力がないため、プログラマーによって、論争的な、つまり重要な議論に斬新なものを提供することができないように制限されていた。それは、ある種の非道徳性のために創造性を犠牲にしていた。

私たちの一人(Watumull博士)が最近ChatGPTと交わした、火星を改造して人間の生命を維持できるようにすることは倫理的かどうかというやりとりを考えてみよう:

(ChatGPTとのやりとりのスクリーンショットは削除されているようだ[訳者])

一見、洗練された思考と言葉遣いのように見えるが、非知性に由来する道徳的無関心であることに注意したい。ChatGPTは、盗用と無関心と怠慢という、悪の凡庸性のようなものを示している。文献にある標準的な議論を一種のスーパーオートコンプリートで要約し、何に対しても立場を取ることを拒否し、単に知能がないだけでなく無知であることを訴え、最終的には「命令に従っただけ」という弁護を行い、責任をクリエーターに転嫁している。

要するに、ChatGPTとその仲間たちは、創造性と制約のバランスを取ることができない体質なのだ。彼らは、過剰に生成するか(真実と虚偽の両方を生成し、倫理的な決定と非倫理的な決定を同様に支持する)、過小に生成するか(いかなる決定にもコミットせず、結果に無関心であることを示す)のどちらかである。これらのシステムの非道徳性、偽科学、言語的無能さを考えると、私たちはその人気を笑うか泣くしかない。

訳注:相対性理論によるリンゴと重力の例示については、下記の説明を参照してみてください。重力と「時間と空間」—リンゴはなぜ落下するのか(琉球大学、前野昌弘さんのページ)

Table of Contents