「図解即戦力」シリーズで ChatGPT の教科書を書かれた著者が、本ではお蔵入りとなった「ChatGPT と哲学」と題された章をブログに立項されていた。
以下、この項目に対して私が思ったことを書く。
サールの中国語の部屋
この批判への代表的な反論の1つが、AI にはもともと「自己」がないから意識もなく、したがって「中国語の部屋」が意識の有無を判定する必要はないというものです。「自己」とは、世界と自分を区別するもので、そのためには「ここからここまでが自分である」と明示する「身体」がなければならず、AI がそれを持たないことは自明であるという主張です。要するに、「AIには身体がないから知能ではない」ということです。
サールの中国語の部屋は、機械には統語論はあるが意味論がないということが主な眼目であって、自己や身体性の問題は中国語の部屋という問題に含まれていないように思える。
サールの中国語の部屋に対する大規模言語モデル陣営の応答は、たとえば以下の論文1にある。
Gubelmann によれば、サールの中国語の部屋という思考実験は、彼自身の生物学的自然主義と、統語論/意味論の区別が主眼である。 生物学的自然主義については、後期 Wittgenstein の行動主義的な主張2をその応答として当てている。 言語理解をするシステムの多重実現可能性と言い換えてもよいだろう。
また、機械には統語論はあるが意味論がないというサールの主張については、GOFAI (Good Old Fashioned AI)という記号主義的システムはともかく、大規模言語モデルのようなニューラルネットワークを構成要素とする結合主義システムには、統語論と意味論の区別は存在しない3、したがってその批判は当たらないのだ、とする応答を行っている。 これは尤もかつ核心的な応答だと思う。
そのようなわけで、中国語の部屋の思考実験と自己や身体性の問題はあまり関係がないと私は思う。
意味の使用説と知能?
「意味の使用説」は、意味はその言葉がどのように使用されるかによって定まるという主張です。その主張の解釈はさまざまあるのですが、文字通りに「言葉を使うことで意味が定まる」と解釈するのが一般的です。そして、ChatGPT は言葉を使えている、つまり意味を定め、扱うことが出来ているわけです。この観点においては、大規模言語モデルは「知能」たりえる、と主張することが出来ます。
これはよく分からない。 というのも、知能と言語使用の間の関係がよく分からないからである。 知能があれば言語使用ができるのか? 言語が使用できれば知能があるのか? ここらへんも非常に曖昧模糊としていて、哲学的論証と言えるに耐えるものではないだろう。 (ちなみに、私は知能と言語使用の関係を知らない)
また、「「言葉を使うことで意味が定まる」と解釈するのが"""一般的"""」と言ってしまうのは不味いと思う。 というのは、一般的に Wittgenstein は quiest (沈黙主義者)だからね。 まぁそこらへんは、徳の問題として指摘させて頂きたい。
(以下は、「後期 Wittgenstein は ChatGPT が有意味な言語を発話している、とは言わなさそう」と診断する山田圭一先生の発表に対する反論記事。)
以上! 出版物に載せなかったのは賢明な判断だと思いました。
- Gubelmann, Reto (2023). A Loosely Wittgensteinian Conception of the Linguistic Understanding of Large Language Models like BERT, GPT-3, and ChatGPT. Grazer Philosophische Studien 99 (4):485-523.↩
- あくまで行動主義「的」であることは、業界では常識だろう。↩
- この点は、記号論にもいくらか影響を与えそうである。統語論・意味論・語用論という区別は、Charles Morrisという記号論者によって与えられたのだから。↩