はじめに
鈴木貴之編『人工知能とどうつきあうか――哲学から考える――』(2023年)を読んだ。 本項では、大塚淳による第4章「深層学習後の科学のあり方を考える」について、人間/人工知能という二元論が前提されていることを指摘し、それを批判する。
Twitter(現X)では200字を超えると書きにくいので、本ブログの一エントリーに据えることにした。
信念の度合い
寄り道ではあるが、「信念の度合い」について触れておく。
2020年の大塚淳『統計学を哲学する』(名古屋大学出版会)では、ベイズ更新式における事前分布を「信念の度合い」と呼んでいたが、本稿では「信念の度合い」という表記は見受けられなかった。 良かった。 なぜ私が良かったと考えているかというと、単なる初期パラメータを信念の度合いと同一視する見方はあまりにも時代遅れであり、実地から逸れているからである。 確率の哲学は現在の確率論からあまりにもかけ離れており、哲学的確率論の哲学と呼んだほうがいいのではないかと思ったほどだ。
伊勢田哲治は『統計学を哲学する』への書評記事にて以下のように述べており、この指摘が反映されたのかもしれない。
わたしが知る限り、ベイズ統計が実用的に用いられるほとんどの場面において、事前確率として用いられる値は、哲学者が言う意味での「信念の度合い」というよりは、「頻度についての主観的な見積もり」として解釈した方が自然です。
しかし大塚がこの信念の度合い=事前分布という考えを本当に捨てたかどうかは明らかではない。
深層学習がもたらす客観性の極限と自己疎外
本節が本題である。
(p. 88) で大塚は「深層学習がもたらす客観性の極限と自己疎外」と題した節において、以下のように述べている。
深層モデルの判断はそれを訓練するデータの鏡でしかなく、よって現実社会における差別やバイアスをそのまま反映する。しかも深層モデルの解釈不可能性は、モデルがもちうる差別的傾向の発見や修正を著しく困難にする。こうして、深層モデルは現実社会における既得権益を温存し、そこに含まれる差別構造を「客観性」の名のもとに固定化してしまう可能性すらある。これはもちろん、啓蒙主義がその建前とした民主的平等性とは真逆の事態である。
近代合理主義において、客観性はたしかに主体性の譲渡であったが、それでもそれが理性的存在としての「人間一般」への収斂である限り、自己疎外ではなかった。むしろそれは、一部の人間(貴族・聖職者)から万人へと判断主体を取り戻す民主的な契機であった。この「個人的判断根拠の移譲としての合理的客観性が、却って主体性の回復につながる」という神話のもとにあるのは、移譲される先が理性的存在としての人間そのものである、という合理主義的人間観である。しかしAIのもたらす「客観性」は、こうしたものではない。それは判断理由を人間の理解の届かないところに連れ去ってしまう上に、構造的不正や不平等を隠蔽することで、社会的弱者への抑圧を強化する可能性すらもつ。だとしたら、それは誰にとっての客観性であり、何のための客観性なのだろうか?
まずもって、このような虚空に向かって叫んでいるがごとき「〜だろうか?」という叙情的な文体による主張は止めた方がよいと指摘しておきたい。 これでは主張というより詩である。 「合理主義はいまや理性的存在である我々人間のものではなく、非人間的存在のものとなりつつある!」というようにトラゴ―ディア的に事態を描写してしまえば、それは議論ではなく悲劇に過ぎなくなる。 大塚は大陸哲学系統の哲学者なのであろうか。 そうでなければ、文飾を控えるべきである。
議論を戻そう。 大塚は、深層学習の理論的基盤の欠如、解釈可能性の低さという性質に基づいて、深層学習の出力は合理主義的ではあっても人間の自己疎外を起こすものであると論じる。 さらに、深層学習モデルの出力が判断として社会的に使用されることによって、モデルのもつバイアスが隠蔽されたかたちで、バイアスの被害者である社会的弱者への抑圧が強化されると述べる。
前半は確かにそうなのかもしれない。 しかし後半部分については、事実は全く逆の事態であると私は考える。
第一に、大塚はプロービング(probing)や脱バイアス化のためのアライメントといった研究を無視している。 これらは、深層学習モデルの内部やモデルの入力ベクトルが要素として含まれる語ベクトル空間へ工学的に介入を行うことにより、モデルに含まれるバイアスを除こうとする研究である。 また、言語モデルにおいてはプロンプトエンジニアリングによるモデルの脱バイアスも既に行われているだろう。 このような試みを無視して、超歴史的な思弁により「構造的不正や不平等を隠蔽」するなどと言ってはならない。
第二に、(これは尤も人文学にとって核心的であるが)深層学習のバイアスは深層学習モデルの問題ではなく、我々人間のもつバイアス(そして、それから派生する差別や偏見)の問題として捉えられなければならない。 ここでの大塚の議論は道具としての人工知能という狭い人工知能観によっているため、人間/人工知能という(新手の)二元論が前提されてしまっている。 このような二元論を取る限り、人間本性を考えるうえで実のある議論はできない。 次の論文を読んでほしい。 この論文は、言語モデルが推論タスクにおいて人間のような誤りを犯すという主張をしている。
このような、人間と深層学習モデル(大規模言語モデル)が同じ過ちを犯すという事態から何が言えるだろうか。 すなわち、人間のバイアスとそれに基づく差別や偏見は、言語モデルや深層学習モデルと極めて似た機序1のもとで、隠蔽された「構造的不正や不平等」を生み出しているということである。 このような考えにおいては、二元論的な人間/人工知能という対立はない。 人間の社会における弱者への抑圧が我々の認識論的位相に存在することを知るために、深層学習モデルを考えるのである。 我々人間自身の社会的抑圧を考えるうえで、深層学習モデルのバイアスへの考察は不可欠なのである。
大塚に限らず、(認知科学を除けば)人文科学においてこのように〈人間本性〉を考えるために深層学習モデルを考察する人は少ないようである。 人文科学は、以上に述べたような二元論ではなく、我々人間の問題として、深層学習モデルや大規模言語モデルのバイアスの問題を考えるべきだろう。
おわりに
編者である鈴木は「おわりに」において、「人文科学研究者の議論は、現在の人工知能に関する十分な理解を欠いているように見えるかもしれない」(p. 223)と述べるが、以上に述べたように、私はむしろ人文科学研究者が人文科学的な深い議論を提示できていないと考える。 人工知能の振る舞いは人間の問題であり、認識論の問題である。 このことに早く気がつき、実のある議論を提示してくれる哲学者の登場を待つばかりである。