Gubelmann, R. Large Language Models, Agency, and Why Speech Acts are Beyond Them (For Now) – A Kantian-Cum-Pragmatist Case. Philos. Technol. 37, 32 (2024). https://doi.org/10.1007/s13347-024-00696-1
優れた論文だった。
論旨としては、認知的自律性/道徳的自律性/物質的自律性に分けられる Kant の自律性概念について、従来のカント主義者は認知的自律性が物質的自律性に付随すると考えてきたものの、現在のTransformerベースの深層学習モデルは自動的な特徴抽出という特性によって認知的自律性を獲得しており、先の図式が崩されることになるというものである。
後期 Wittgenstein の言語ゲームから影響を受けた Austin や Searle は、発話行為としての発話の有意味性を考える(発話行為論)1。 言語ゲーム概念は言語を生活のなかに埋め込むものであり、発話行為論もまた行為のなかに言語を埋め込むものと約言できる。 行為の哲学における主流な見解によれば、行為には意図が必要とされている。したがって、意図を持たない言語モデル2は発話行為を行うことができない。
しかしなぜ、言語モデルは意図を持たないと考えられるのか。 それは、言語モデルが有機体/無機体(organism/mechanism)というカント的区分における無機体だからである。 無機体は、外部の主体から行為を与えられるいわば関数のようなものであるのに対して、有機体は自身で自身を駆動する(オートポイエーシス)。 言語モデルは、時計のように人間によって記号の意味が与えられるものなのであり、それに自律性はないのである。
しかしながら、そうではない。 なぜならば、深層学習モデルは機械学習モデルとは異なり、自身で特徴を抽出するからである。 さらに Transformer ベースのモデルは、文法や文の階層構造を自身で抽出し、獲得する。 データを認識し解釈する術は、確率的勾配法によって自動的に獲得されているのだ。
したがって言語モデルは物質的無機体であるにも拘わらず、認知的自律性を保持していると言えるのである。
以上が本論文のざっとした要旨である。
本論の論理上の瑕疵といえば、著者が自身で認めているように、言語を主体の意図のみを引数とする関数(アルキメデス的言語)と見なしている点であろう。
Archimedean language unaffected by any specifically (and to some extent arbitrarily) formed linguistic structure of a natural language and then decides to express these thoughts in a given natural language.
これに反して、Heideggerの〈die Sprache spricht(言葉は言葉が語る)〉や Žižek 、Jakobson といった大陸哲学者や構造主義者らは言語的主体の他律性を主張しており、私もこれに同意する。 特に、Heideggerの〈die Sprache spricht(言葉は言葉が語る)〉というテーゼは、言語モデルの本質をそのまま表していると考えられる。 言語モデルが生成する言語は、訓練データとして投入された言語の模倣であるからだ。 言語モデルは訓練データに言語的主体性を奪われているのであり、まさに与えられる言語によって語らせられている。
ここのあたりの、非分析哲学的伝統にある言語論による言語モデルの考察も興味深いところである。 ポスト解釈学あたりは、かなりコミットできそうな気がする。 (この点で述べると、Wittgenstein は世界と内部モデルを取り違えたことが、自身の理論の足枷となっている感がある。)
本論文は、総じて優れた哲学論文であると言える。