以前オーム社の『機械学習入門 ボルツマン機械学習から深層学習まで』と『ベイズ推定入門 モデル選択からベイズ的最適化まで』を読み、そのときにそれらの書籍に生起する語彙をまとめていた。 本項にはそれを並べる。
なお、語がなにを意味していたかをほとんど私は既に忘れている。
『機械学習入門 ボルツマン機械学習から深層学習まで』
URN
urn:isbn:9784274219986
語彙
- 誤差関数
- 座標降下法
- 最急降下法
- 汎化性能
- 過学習
- 交差検証
- 訓練データ→テストデータ
- 活性化関数→非線形変換
- 多層ニューラルネットワーク(入力層・中間層・出力層)
- ホップフィールド・ネットワーク
- ボルツマン機械学習
- 勾配消失問題
- 誤差逆伝播法
- ランプ関数
- 正則化
- バッチ学習→ミニバッチ
- オンライン学習
- 確率勾配法
- 鞍点
- 深層学習
- ヘヴィサイド関数
- 分離超平面
- パーセプトロン
- サポートベクターマシン
- カーネル法
- 低階数行列再構成
- 特徴量選択
- スパースモデリング
- 非負値制約行列分解
- イジング模型
- ボルツマン機械
- 尤度
- マルコフ連鎖モンテカルロ法
- 平均場近似法
- 信念伝播法
- 擬似最尤法
- 変分原理
- 最小作用の原理
- 可視変数→隠れ変数
- 制限ありボルツマン機械
- コントラスティブ・ダイバージェンス法
- ディープボルツマン機械
- 自己符号化
- 次元圧縮
- 特徴量抽出
- 畳み込みニューラルネットワーク
- プーリング
『ベイズ推定入門 モデル選択からベイズ的最適化まで』
URN
urn:isbn:978-4-274-22139-2
語彙
- 事前分布
- 尤度関数
- 最尤推定
- 事後確率分布
- ベイズ更新
- 最大事後確率推定
- 条件付き確率
- 順問題
- 逆問題
- 統計的モデリング
- ベイズの定理
- 頻度主義的統計学
- ガウス分布
- 予測制度
- 混合ガウス分布
- 赤池情報量基準
- 過適合
- スパースモデリング
- ハイパーパラメータ
- 事後平均
- 事後分散
- 渡辺・赤池情報量基準
- 周辺尤度関数
- ベイズ情報量基準
- 事前情報+最尤法=正則化
- ベイジアン深層学習
- 正則なモデル⇔特異なモデル→適応的勾配法
- プラトー
- 自然勾配法
- 学習率
- フィッシャー情報行列
- 内挿・外挿
- スパース正則化
- データ同化
- カルマンフィルター
- 劣決定系方程式
- 列数より行数が少ない行列
- 計算量爆発→ L1ノルム最小化
- エラスティックネット→L1ノルムとL2ノルム
- スパースモデリング
- 軟判定閾値関数
- 辞書学習
- 圧縮センシング
- カーネル法
- L2ノルム正則化
- リプリゼンター定理
- ノンパラメトリックモデル
- スプライン補完
- ガウス過程
- ベイズ的最適化
- 実験計画法
- フィッシャー情報量
- 大数の法則
- マルコフ連鎖モンテカルロ法
- 共役事前分布
- 変分ベイズ法
- 平均場近似
- 信念伝播法
- 対称性の破れ
- ランジュバン方程式
- 確率勾配ランジュバン方程式
- ハミルトンモンテカルロ法