Mastodon Mastodon

紀要論文・招待論文・寄稿論文は学術実績としてみなされるべきではない

日本の大学・研究業界において、長年議論されていながら改善されない「実績の数え方」。 履歴書の業績欄を埋める際、ジャーナルへの投稿論文(査読付き論文)と並んで記載されるのが、紀要論文、招待論文、寄稿論文です。

しかし、あえて厳しい言葉で言いたい。 これらは「学術的実績」としての評価対象から外す、あるいは明確に区別すべきではないでしょうか?

今回は、なぜこれらの論文が「真の実績」とは呼びがたいのか、その構造的理由を掘り下げます。

「審査(査読)」の欠如による質の担保のなさ

学術論文の価値は、同分野の専門家による厳しいチェック(査読)を経て、その客観的妥当性が証明される点にあります。

紀要論文

多くの大学紀要は、学内の教員や院生であれば「出せば載る」のが実態です。身内同士の甘いチェックで、学術的な厳密さが欠けているケースが少なくありません。

招待・寄稿論文

依頼された時点で掲載がほぼ確約されており、批判的な吟味がなされないまま世に出る構造になっています。

これらを、数パーセントの採択率をくぐり抜けてきた国際誌の論文と同等に扱うのは、あまりに不公平です。

「閉鎖的なコミュニティ」での内輪回し

特に紀要や寄稿は、その組織内や特定のコネクションだけで完結してしまいます。

本来、研究とは開かれた場で批判にさらされるべきものです。しかし、紀要は流通範囲が狭く、引用される機会も極端に少ないのが現実。これでは「知の蓄積」ではなく、単なる「学内ノルマの消化」や「思い出作り」に成り下がってしまいます。

若手の「研究力」を削ぐ温床

最も懸念すべきは、若手研究者への影響です。「実績の数」が重視されるあまり、手っ取り早く数を稼げる紀要や寄稿に逃げてしまう若手が増えています。

「通りやすい紀要」に逃げる癖がつくと、高い壁に挑むタフさが失われ、結果として日本の研究全体の国際競争力が低下していきます。甘い実績を「実績」と認め続けることは、若手の成長の機会を奪っているのと同じです。

結論

評価基準の「リブランディング」を もちろん、紀要には「速報性」や「若手の練習台」としての役割があることは否定しません。また、大御所による寄稿論文が貴重な展望を示していることもあります。

しかし、それらは「エッセイ」や「報告書」としてのカテゴリーに分けるべきです。

採用人事や助成金の審査において、「査読付き(Peer-reviewed)」とそれ以外を混同して評価する慣習は、今すぐ終わらせるべきではないでしょうか。

皆さんはどう考えますか? 「紀要だって立派な研究発表の場だ」という反論もあるでしょう。ぜひコメント欄やSNSで意見を聞かせてください。

(以上、Gemini 4による生成)

日本語しか読めないあなた(と私)が、現代哲学に分け入り英語論文を読む方法

現代哲学(contemporary philosophy)は、分析哲学に限らず、ニーチェ研究であれ、他の哲学者研究であれ、英語を用いて行われる。英語が実質的なリングア・フランカ(lingua franca)となっているのだ*1。これは記述的事実である。この状態は英語帝国主義的であり正義に反する事態であるかもしれないが*2、記述的事実としてそうなっているのである。したがって現代哲学を行うには、英語文献を読むしかない。日本の研究者が日本語に訳してくださった文献を読んでいるだけでは、二次的文献に当たることもできない。しかし英語文献であれば、このような情報を簡単に手に入れることができる。たとえば、「ウィトゲンシュタインクワインが翻訳不確定性について、どう違った考えを持っていたのか」を知りたいとなった場合、英語文献であればすぐに調べることができる。Googleで「Quine and Wittgenstein on the Indeterminancy of Translation」などというワードで検索すれば、以下の文献が即座に表示される。

Lugg, A. (2023). Quine and Wittgenstein on the Indeterminacy of Translation. In S. Morris (Ed.), The Philosophical Project of Carnap and Quine (pp. 177–193). chapter, Cambridge: Cambridge University Press.

この文献を読めば、そもそも (1) 「ウィトゲンシュタインクワインが翻訳不確定性について、どう違った考えを持っていたのか」という問いは、既に誰かが取り組んでおり、 (2) かつこの問いには、査読付きの答えが一つは存在している、ということが分かる。図書館に行って、日本語文献を目を皿のようにして調べなければ分からなかったことが、低いコストで一応は分かるようになっているのだ。

英語文献を読むことが、哲学をするための(ほぼ)必要条件である。

著作権の問題著作権上の問題として、書籍に収載されている文献は読めないことが多いが、そうでない場合には、PhilArchiveや査読以前のプレプリントサーバであれば An Archive for Preprints in Philosophy of Science - PhilSci-Archive (科学の哲学が中心)がある。書籍に収載されている文献でも、大学に所属しているのであればProQuestから書籍購入申し込みをすればよいだろう。さらには、野良で書籍のPDFが落ちている場合もある(私は法的実証主義者なので、法と道徳は分離しているものと割り切る。読みたい本の90%くらいはある)。また書籍の場合でも、Cambridge ElementのSocial Ontologyのように、オープンアクセス(本書の場合は、CC-BY-NC 4.0)で提供されている場合がある。Cambridge Elementsシリーズの書籍はサーベイ論文として非常に有用なので(日本の新書よりはるかに)、ぜひ読むべきである。

翻訳。翻訳については、機械翻訳の進展が目覚ましいため、プロの翻訳とまではいかなくても、90%くらいは理解できるほどの翻訳精度にはなっていると思われる。たとえば、GPT 5.2 や Gemini 4 といった言語モデルである。この記事 AIツールをガンガン使って研究する(2025年版) - 実践的倫理学 にあるように、API経由の翻訳アプリを自作で作るべきか、Readableのような既成のSaaSを使うべきであるのかについては、私は規範的信念を持たない。私は稼いでいたころに課金してしまったため、現状はReadableのプレミアムプラン(月5,000円)を使っている*3が、どちらでも良いと思う。究極的にはChromeブラウザの翻訳か、NotebookLMでも良いだろう。

三種の神器。哲学をするための三種の神器は、「Philpapers」・「Stanford Encyclopedia of Philosophy」・「Internet Encyclopedia of Philosophy」の3つである。これにはみんな同意をしてくれると思う。決して 概念と歴史がわかる 西洋哲学小事典 (ちくま学芸文庫 ン 6-1) ではない(良い本だとは思うが)。

philpapers.org

Philpapersは、意識や脳の哲学で著名なDavid Chalmersがその管理に参画している哲学文献のポータルサイトで、文字通り哲学の「最先端」が今どこにあるのかを知ることができる*4。特に研究者にとって重要であるのが、カテゴリー機能である。たとえば、Large Language Models - Bibliography - PhilPapers では、「Large Language Models(大規模言語モデル)」にタグ付けられた論文が一覧で表示される。大規模言語モデルに関する哲学上の議論が、いまどこまで進んでいるのかを確認することができるのである。その他にも、文献情報をAPAスタイルやBiBTeX形式でコピー・アンド・ペーストすることができたり、おそらくはAPI経由で色々することができたりと、有用なツールである。

plato.stanford.edu

iep.utm.edu

いわずもがなの哲学のオンライン百科事典であるが、ここにある情報は既知であることが我々にとって要求されている気がするので、確認しておくべきである。特に、このサイトに自分の研究したいトピックがエントリーとしてある場合には、その裏に膨大な文献が用意されていることを覚悟すべきだ。

plato.stanford.edu

たとえばここに「SNSと倫理」というエントリーがあるが、そのエントリーが存在するということは、既にこのトピックを狙っている人たちが潜在しているということである。

Coda

英語文献における固有名詞を調べ、英語文献を読み、というサイクルを永遠に繰り返していると、いずれ段々と現代哲学が何をしているのかが分かるようになってくる。自分もそうだった。大切なのは、自分が思い浮かべている疑問を、哲学的用語にして固め、それを検索結果にヒットさせるようにする能力を涵養することだと思う。なぜ哲学が今もまた存続しているのかといえば、人々が同じように思い浮かべる(「正しいとはなにか」、「決定論的世界でも自由意志はあるのか」といった)疑問を、共通の語彙のもとに流し固めて、議論可能にすることができるプラットフォームを提供しているからだろう。そのプラットフォームに乗るためにも、英語という言語に乗らないと話は(残念ながら)始まらないのだ。

*1:特に分析哲学において英語で論文が出版されるべきであるとする主張として Rodriguez-Pereyra, Gonzalo (2013). The Language of Publication of "Analytic" Philosophy. Critica 45 (133):83-90. を参照

*2:自分はここらの言語的正義に関する議論を知らない

*3:月1,000円のプロプランだと、Readable内製のポンコツ言語モデルしか使わせてもらえない。しかしReadableは、(2ページの)対訳で出してくれて、原書の語をすぐに確認できるところが良いと思う。

*4:哲学も研究の一部である以上、業界全体でどこまで言うことが言えているのかを確認しなければ論文にならない。したがって、業界の「最先端」を確認することは研究を行う上で真っ先に確認されるべきことなのだ。

「自己相互情報量 PMI(x, y) って多変数に拡張できないんですか?」→「できます」

自然言語処理における共起頻度ベースのメカニズムでよく採用されるのが「PMI(自己相互情報量、Pointwise Mutual Information)」である。このPMIは、2つの文書や文の間に共起(co-occurence)する単語について、その共起性という情報を保持するものである。形式的に、PMIは次のように定義される。

 \text{PMI}(x, y) = \log \frac{p(x, y)}{p(x) p(y)}

条件付き確率を使えば、PMIは次のように書くことができる。つまりPMIは、単語 x が出現する確率と、単語 x が出現するという条件での単語 y が出現する確率の対数比を表現しているのである。

 \text{PMI}(x, y) = \log \frac{p(y \mid x)}{p(y)}

また、PMIの値は変数の順列に対しても不変であることに注意しよう。

 \text{PMI}(x, y) = \log \frac{p(x \mid y)}{p(x)}

自然言語処理の教科書には一般に載っていないが*1、このPMIは、別に2つの単語の共起だけではなく、一般に  n (> 2) 個の単語の共起の場合にも拡張できることが容易に分かる。つまり

 \operatorname{PMI}\left(x_1, x_2, \ldots, x_n\right)=\log \frac{p\left(x_1, x_2, \ldots, x_n\right)}{p\left(x_1\right) p\left(x_2\right) \ldots p\left(x_n\right)}

である。

すなわち多変数の場合のPMIは、単語  x_1, x_2, \dots, x_n が同時に共起する同時確率密度関数と、単語  x_1, x_2, \dots, x_n が独立に出現する確率分布の積との対数比なのである。

この多変数版のPMIが  \log \left( \frac{q(x)}{r(x)} \right) という形になっていることからも分かる通り、PMI を確率分布  p \left( x_1, x_2, \dots, x_n \right) のもとで積分(平均)を取ると、KL divergenceの形式に一致させることができる。つまり

  \displaystyle \mathbb{E}_{ p (\boldsymbol{x}) } [ \operatorname{PMI}(p( \boldsymbol{x} )) ] = \int p(\boldsymbol{x}) \log \frac{p\left(x_1, x_2, \ldots, x_n\right)}{p\left(x_1\right) p\left(x_2\right) \ldots p\left(x_n\right)} \mathrm{d} \boldsymbol{x} = D_{\mathrm{KL}}\left(P_{\boldsymbol{X}} \Biggl| \bigotimes_{X \in \boldsymbol{X}} P_X\right)

である。ただし、 p(\boldsymbol{x}) = p\left(x_1, x_2, \ldots, x_n\right)

そして、これこそが多変数版の相互情報量  I(\boldsymbol{X}) の定義に他ならない。つまり

 \displaystyle I(\boldsymbol{X}) = D_\mathrm{KL} \left(P_{\boldsymbol{X}} \Biggl| \bigotimes_{X \in \boldsymbol{X}} P_X\right)

である。この多変数に一般化された相互情報量を、total correlation (Watanabe 1960) や multi-information (Studený & Vejnarová 1999) と呼ぶ*2

つまり、本質的に相互情報量(total correlation)は、単語の同時確率分布と、周辺確率分布の積との統計的距離(statical distance)であるということだ。

さらに、この相互情報量(total correlation)の順列不変性(permutation invariance)は、ソシュールの言語の線条性といった旧来の言語論のテーゼに否定的な影響を与えると考えられる。この相互情報量の順列不変性に似た例として、自己注意機構(self-attention)の順列不変性*3が挙げられる。これは、自己注意自体は単語の並び順に対して無知であるという性質(順列という情報を与えているのは、位置埋め込み(positional encoding)である)のことである。このような、単語の線条性というテーゼを疑わしくするような大規模言語モデルの性質が、その線条性というテーゼにどれほどの影響を与えるのかは今後の言語論研究の課題であると思われる。

なお total correlation という語を開発した「Watanabe」とは、かの認識学で有名な「渡辺 慧」のことである。

こんなところに日本人!?という千原兄弟の気持ちが分かった気がした。

*1:単に私が見たことがないというくらいの意味。

*2:https://en.wikipedia.org/wiki/Total_correlation

*3:詳しくは、たとえばHow Transformers Encode Position and Order | Mediumなどを参照。

大規模言語モデル(LLM)の哲学を始めるためのオススメ選書

大規模言語モデル(Large Language Models)とは、OpenAIのChatGPTやGoogle Gemini、AnthropicのClaudeといったTransformerベースの言語処理システムを指す*1。これを哲学するのが、大規模言語モデルの哲学である。Philpapersには「Large Language Models」というカテゴリがあり、多くの原稿が上がっている。

この記事では、大規模言語モデルを哲学するにあたって必要な書籍の紹介をしようと思う。この分野はあまり人がいない。というよりも、そもそも哲学界隈に人がいない。そのため、読書紹介記事を書き、少しでも間口を広めることで、興味を持つ人々を蝿瓶に吸い込もうという訳である。この記事を読めば、君もポケモンマスターになれる!!!!

入門(★)

日本語で書かれたものとしては、次の2冊+1記事を勧める。「入門」と題に付されていているので、入門程度の内容なのだろう。

著者の鈴木先生は、以前から深層学習等の神経科学・機械学習に対して哲学的に考察を続けられてきたらしい。

著者の次田先生は自然主義的意味論で博士論文を書かれていたはずだが、自然主義的意味論といっても、チョムスキー言語学との融和を指して自然主義と言っていたころの看板であるという印象がある。本書には、真理条件意味論で上手くいかなさそうという主張がある。

arxiv.org

arxiv.org

イケイケの人工知能の哲学者と言ったらBucknerとMillereだと思うが、その人達が書いている大規模言語モデルへの哲学的入門。Arxivに上がっているのが謎だが、じじつ上がっているので、無料で読むことができる。線形表象仮説*2はここで初めて知った。著者らは、BERTologyや線形プロービングといったモデル内への介入を、介入実在論と絡めて論じている。その他にも、エージェントシステムなど、色々機械・深層学習系のワードが知れる。オトクな論文である。

他には、以下がある。

VSIの『人工知能』である。本書は2018年に出版された。2018年といえば、ちょうど大規模言語モデルが流行り始めたくらいの時期である。したがって、本書はそれ以前のパラダイムに属した本であり、大規模言語モデルは取り上げられておらず、並列分散型アーキテクチャ現象学サイバネティクスといった、認知科学に依拠した古く単発の研究プロジェクトが取り上げられている。現在の議論において重要であるMultihead-layer Transformerは取り上げられていない。また著者であるBodenは人工知能の創造性に関する論文を書いていることで(私の中では)有名であるが、その論文が人間讃歌のように思えるため、私はあまり興味がない*3

www.cambridge.org

脱入門?(★★)

The MIT Press Essential Knowledgeシリーズで、2025年に出版された『大規模言語モデル』である。非常に構成が優れており、技術的な内容を数式を使わずに概念的に説明することに成功している。本書の意欲的な点として、物理学者であるDeutschが提唱した「コンストラクタ理論(constructor theory)*4」を用いて、大規模言語モデル再帰性を解釈しようという章が存在することが挙げられる。大規模言語モデル再帰性とは、自身が出力したトークンに基づいて次のトークンの出力(の標準単体)を決定し、さらにその決定された出力をもとにして、次のトークンに関する標準単体を決定していくという、一種の循環性である。このような発展的な内容は、いまだこの分野が開発の途上にあることを示すものだと思われる。

Cambridge Elements in Semanticsシリーズの一つで、深層学習と意味論との関連をいち早く扱った本。意味論的推論、構成性、記号接地問題(マルチモーダルLLM)を扱っている。が、構成性については根本的・哲学的な解決には至っていない。構成が優れた本。

分布意味論に関する自然言語処理の入門書である。分布意味論とは、源流をアメリ構造主義言語学のFirthに持つ、統辞論の位相における単語の共起頻度によって、その意味を与える意味論である———というようなことが載っている。第一章は哲学・言語学史的に面白いことが書かれているので、読む価値がある本である。DSMやSkip-gramなど、色々なモデルが載っている。

オライリーの「ゼロから作るDeep Leaning」シリーズは「フレームワーク編」を除き、全巻読んだ方が良いと思う。第一巻では機械・深層学習の数学的基礎を、第二巻ではTransformer以後の自然言語処理、第四巻では強化学習、第五巻では生成(拡散)モデルの数学的基礎を学ぶことができる。これらのトピックを知らないことには、何も理解していないといって過言ではない。変分下界や  w←w − η ∇_w ​L が何か説明できるようになっておかなければ、思わぬところで足を掬われるかもしれない。特に第二巻では、単語ベクトルの計算について、カウントベース手法とニューラルベース手法が数式的には根底で繋がっているということが書かれていたり、重要である。

そもそもPythonが分からない場合は、同じくオライリーの『Pythonチュートリアル』をお勧めする。安くて、短い。原著はオンラインにも上がっているはずである。しかし、今の高校生が情報科目でPythonを学ぶことを考えたら杞憂かもしれない。今の子のほうが、デジタルNATIVEであることは確かである。たしか、今の基本情報処理技術者試験には、選択科目にPythonがあるはずだ……

線形代数微積分が分からない場合、その分からなさが高校数学に起因している可能性がある。しかし、それを理解しない限りは前に進むことができない。幸い大学の線形代数は高校までの2・3次元空間とは異なるから、入りやすいかもしれない。線形独立とはなにか、直交補空間とはなにか、dim(Ker f) + dim(Im f) = n 、勾配爆発と行列の固有値の関係がいかなるものか、などは、計算言語学自然言語処理の論文を読む上では必須の知識であるため、新しいアイデアを思いつきたいのであれば、きちんと勉強すべきである(これらを知らない人の言うことは、薄い)。

自然言語処理界隈の重鎮(?)である黒橋先生の書いた自然言語処理の教科書である。さっさと読める。Transformerパラダイム以前の改訂版と以後の三訂版の間には、巨大な懸隔が存在し、それが改訂に現れている。TF-IDF法など、懐かしいと言われるであろう道具が載っている。比較は過去記事にも書いた。

yudukikun5120.hatenadiary.jp

この教科書はなんと学部生向けで、Transformer(注意機構)が載っている。学部生でこれを理解していれば凄いと思ってしまう。途中出てくる部分空間の図が変である(部分空間というよりも、領域のように見える)が、基本となる注意機構の仕組みが 線形射影 であることを理解できれば十分だと思う。深層学習モデルは、層から層へ「射影」しているのである。そして、これこそが言語モデルにおける情報の流れ(residual stream)を形づくっているのだ。

たとえば、画像埋め込み空間と言語的埋め込み空間が、プロクルステス的変換を掛けると一致するというような研究があったりするが、そういう論文を読むためにも、線形変換とアフィン変換の違いなど、基礎的な用語を確認しておくべきである。

transformer-circuits.pub

Transformer CircuitsというサイトはClaudeを作っているAnthropic社の技術ブログであり、最も最先端かつ優れた資料を提供している場所である。機械論的解釈可能性(Mechanical Interpretability)の研究が多い。「言語モデルってどういう仕組みなんだ?」と思ったら、まずここを参照しなければならない。

この本は学部生向けの教科書で、Transformer以後の自然言語処理の成果を一覧的に解説している。RNN や Transformer など、ニューラルモデル以降の技術要素に主眼がある点が特徴であり、マルコフモデルやトピックモデル、クラスタリング、語義曖昧性解消といった話題については扱われていない。数式やarxivプレプリントがゴリゴリ出てくるので、情報学部生以外には向いていないかもしれない。それでも、学部生向けの教科書ではある。

機械学習・深層学習・ベイズ統計学など

この本は深層学習の数理的解析を専門とされている今泉先生の書いた一般向けの本であり、おもに大規模言語モデルの構成部分である深層学習(deep learning)の数理的側面に焦点を当てている。特に、高次元誤差空間の地形に関する記述は興味深いものである。「なぜ我々は、高次元空間を低次元空間に射影しなければその性質を理解できないのか」といった、従来の哲学では扱われてこなかった認識論的な疑問を提示してくれる文献として重要である。*5

この本は学部生向けの教科書である。例題や図、まとめ、具体的な例などによって、視覚的(イメージ的)にパターン認識を勉強できる。最尤推定と事後確率最大化推定、ベイズ推定など。「自由エネルギー原理」や「予測符号化理論」といった理論も基本的にはベイズ式の拡張であるため、ベイズ過程を知っておくことは重要である。個人的には、ソフトマックス関数が条件付き確率から導けることが興味深かった。

記号主義の王といえば論理学だと思うが、その教科書である。情報学科卒である自分は、一年次の授業でこの教科書を指定された記憶がある。本書で一番重要なことは、集合論と述語が(ある意味で)同一であるということであろう。フレーゲ主義的意味論の基礎もここにあるのかもしれない(フレーゲに適当に触れると痛い目を見るので、あまり触れたくない)。完全標準形という概念も重要である。

可能世界やクリプキ構造といった論理哲学を扱う上では基礎的な内容を扱っている。S4とかそういったワードが出てくる。コネクショニストには関係がないが、一応分析哲学が歩んできた歴史を知るためには重要だと思う。おそらく様相論と深層学習は独立であるため。

肝心の言語の哲学は?

大規模言語モデルを哲学するといっても、さまざまな角度のアプローチがあるだろう。別に言語の哲学からだけでなくとも研究テーマを考案することができるかもしれない。たとえば https://journals.ub.uni-koeln.de/index.php/phai を見てみると、色々なテーマがあることが分かるだろう。行為の哲学から攻めることも可能かもしれない。したがって、個別の哲学に入りすぎるとよくないと思い、これ以上は書かないことにする。

(追記) とはいえ言語の哲学(philosophy of language)の入門書をここに示す方が、読者の便に寄与するかもしれない。言語の哲学に入る上で一番重要であるのは、言語分析によって哲学的問題にアプローチする、いわゆる言語による哲学(linguisticised philosophy*6)と、言語の哲学(philosophy of language)の違いである。つまり言語は、前者においては方法論的な道具であり、後者においては探究対象である。旧来の日本における言語哲学の入門書である『言語哲学大全』は、主として前者のパラダイムに属するものであると言ってよい。しかし現代の言語の哲学は必ずしも前者の方法論に則っているわけではなく、それを学ぶ人間が形式意味論を深くまで理解する必要は必ずしもない。言語による哲学は、メタ意味論(meta-semantics)の一種である真理条件意味論(truth-conditional semantics)と、言語の構成性(compositionality)という要件のもとで大きく発展してきたものであり、たとえば推論的意味論(inferential semantics)といったプラグマティズムに属するメタ意味論は、この「言語分析が哲学的問題を解消する」といったようなテーゼには必ずしも賛同しないのである。したがって言語の哲学を始めるには、数々のメタ意味論を俯瞰できるような入門書から入るべきだと思われる。

Very Short Introductionsシリーズから最近出版された本である。ChatGPTの出力が有意味であるか、無意味であるかといった話題が最初に載っている(しかし、解は示されていない)。ラッセル、フレーゲ、グライスの語用論、推論的意味論といった広いテーマが短く示されている。

まとめ

本稿の作成目的には、あまりにも適当に物事を話している人が多いという事態を牽制するということも含まれている。それは、AIハイプかもしれないし、還元主義かもしれない。言語モデルが単なる「確率的オウム」だとか、そういった特定の「像」(ウィトゲンシュタインの用語)にハマってしまう前に、一度言語モデルの仕組みをきちんと勉強してみるべきではないだろうか(「確率的」という語を乱用しないでほしい)。そういったまともな人が大規模言語モデルの哲学には必要だと思う。

*1:Transformerの面白さは、入出力がベクトルのシーケンスであればよいという点にある。したがって、言語でも画像でもベクトル列に変換できれば上手くいくということになる。また、商用モデルではないGPTとしてInstructGPTがある。人工知能の倫理において、大規模言語モデルを批判するさい、精神的搾取の範囲として、OpenAIやGoogleMicrosoftといった巨大資本との関連と、Transformerアーキテクチャは分離して議論される必要があると思ったことがある。

*2:モデル内では概念がベクトル、もしくは線形部分空間で表現されているという仮説。今では、線形ではなくミンコフスキー空間にまで拡張されているらしい。詳しくは、 https://arxiv.org/abs/2510.08638 を参照。

*3:とはいえ、BodenのH/P-creativity(歴史的/心理的創造性)という概念区分は、創造性という概念を明晰化するために有用である。このBodenの概念区分を用いて人工知能の創造性を論じた和書としては、 徳井直生. (2021). 創るためのAI: 機械と創造性のはてしない物語. ビー・エヌ・エヌ. がある。

*4:Deutsch, D. Constructor theory. Synthese 190, 4331–4359 (2013). https://doi.org/10.1007/s11229-013-0279-z

*5:従来の統計学は低次元多標本の場合にのみ偏っており、高次元少標本の場合の統計学はあまり開発が進んでいない(らしい)。従来の統計学の哲学も同様であると思われる。

*6:この用語については、以下の文献の第4.2節を参照。Heil, John (2009). Relations. Cambridge University Press.

クリエイティブ・コモンズ・ライセンス
このブログのコンテンツは、クリエイティブ・コモンズ 表示 - 非営利 - 継承 4.0 国際 ライセンスの下に提供されています。