MML
  • 数学プログラミング置き場
  • 数学記号記法一覧
  • 機械学習のための数学
    • 確率論
  • 機械学習・データサイエンス
    • 1. 機械学習・データサイエンス(概要)
    • 2. 機械学習
      • 2.1. 機械学習をこれから始める人へ
      • 2.2. 回帰問題
        • 2.2.1. 線形回帰の基礎
        • 2.2.2. 線形回帰モデルと正則化
        • 2.2.3. 線形基底関数モデル
          • いろいろな基底関数
        • 2.2.4. ベイズ線形回帰モデル
        • 2.2.5. カーネル回帰
        • 2.2.6. ガウス過程回帰
        • 2.2.7. 一般化線形モデル
        • 2.2.8. 一般化加法モデル
        • 2.2.9. 分位点回帰
        • 2.2.10. 3層ニューラルネットワーク
        • 2.2.11. 深層学習
        • 2.2.12. 深層学習とガウス過程
      • 分類問題
        • 線形判別分析
        • SVM
        • カーネルSVM
      • 強化学習
    • 3. データサイエンス
      • 主成分分析
      • 白色化
      • 低ランク行列近似
      • 行列補完
      • NMF
      • スパースモデリング
        • LASSO
          • FISTA
          • ADMM
        • 全状態探索法
    • 4. ニューラルネットワーク
      • CNN
      • GAN
      • VAE
      • GNN
      • word2vec
    • 5. ベイズ推論
      • 確率
      • 確率分布
      • ちょっとだけ振り返って
      • MCMC
      • ギブスサンプリング
      • 変分推論
  • 連続最適化
    • 1. Taylor展開と関数近似
    • 2. Taylorの定理と誤差の評価
    • 3. 最適化問題
    • 4. 直線探索法
      • 4.1. 最急降下法
      • 4.2. Armijo条件・Wolfe条件
      • 4.3. ニュートン法
      • 4.4. 共役勾配法
        • 4.4.1. 原始的な共役勾配法
        • 4.4.2. PRP法
        • 4.4.3. HS法
      • 4.5. 準ニュートン法
        • 4.5.1. DFP法
        • 4.5.2. BFGS法
        • 4.5.3. L-BFGS法
        • 4.5.4. Bryoden family of methods
        • 4.5.5. Broyden法
    • 5. 確率的最適化
      • 5.1. 確率的勾配降下法(SGD)
      • 5.2. 確率的準ニュートン法(SQN)
  • 行列計算
    • QR分解
    • コレスキー分解
    • 一般化コレスキー分解
    • 固有値分解
    • 一般化固有値問題
    • 特異値分解
  • その他
    • 位相限定相関法
  • カーネル法
    • カーネル法(概要)
  • Riemannian最適化
    • Riemann多様体って?
    • Riemannian最適化(概要)
    • 概説
    • 詳説
      • 解析学
      • 線形代数学(反変性・共変性・不変量)
      • テンソル解析
      • リーマン積分と微分形式
      • 位相空間論
      • 多様体論(解析幾何学)
      • Riemann多様体
  • プログラミングサイドブック
    • はじめに
    • Step 0. 勉強の仕方
      • いつ始める?どれくらい勉強する?
      • どうやって勉強する?
      • どこから手をつけたらいい?
    • Step 1. インターネットで調べる
    • Step 2. コンピュータの仕組みを学ぶ
    • Step 3. 開発環境を整える
    • Step 4. プログラミング言語を学ぶ
    • Step 5. 次のステップへ進むには
    • Step 6. 情報科学を学ぶ
  • プログラミング
    • プログラミング(概要)
    • システムの構成
    • サーバーのセットアップ
      • OSセットアップ
        • ユーザの作成
        • SSHの設定
        • ファイアウォールの設定
      • ドメインの取得と設定(Google domain)
    • Dockerによる仮想化
    • サーバーサイド(golang/gin)
    • リバースプロキシの設置(nginx)
    • SSL/TLS(Let's Encrypt)
    • フロントエンド(Elm)
    • Authentication(Firebase)
    • DB(MySQL)
    • KVS(Redis)
  • 数学勉強ノート
    • 0. 数学勉強ノート(概要)
    • 1. 第1群(基礎1)
      • 1.1. 集合
      • 1.2. ファジィ集合
      • 1.3. 論理学
      • 1.4. 位相
      • 1.5. 代数学
        • 1.5.1. 群
        • 1.5.2. 環
        • 1.5.3. 体
      • 1.6. 多様体論
    • 2. 第2群(基礎2)
      • 2.1. 線形代数学
      • 2.2. 解析学
        • 2.2.1. 常微分
        • 2.2.2. 全微分/偏微分
        • 2.2.3. 反変・共変と不変量
        • 2.2.4. リーマン積分
        • 2.2.5. 外微分
        • 2.2.6. ベクトル解析
      • 2.3. 複素解析学
      • 2.4. 圏論
      • 2.5. 測度論
      • 2.6. 確率論
    • 3. 第3群(情報科学)
      • 3.1. 情報理論
      • 3.2. 通信符号理論
      • 3.3. 暗号理論
      • 3.4. グラフ理論
    • 4. 第4群(基礎3)
      • 4.1. 位相幾何学
      • 4.2. 微分幾何学
      • 4.3. 関数解析学
      • 4.4. 偏微分方程式論
      • 4.5. 数値解析学
        • 4.5.1. 常微分方程式
        • 4.5.2. 偏微分方程式
        • 4.5.3. 固有値問題/特異値分解
      • 4.6. 数理統計学
    • 5. 第5群(物理学)
      • 5.1. 古典力学
      • 5.2. 剛体力学
      • 5.3. 流体力学
      • 5.4. 解析力学
      • 5.5. 電磁気学
      • 5.6. 相対性理論
      • 5.7. 熱力学
      • 5.8. 統計力学
      • 5.9. 量子力学
    • 6. 第6群(電気・機械工学)
      • 6.1. 電気回路学
      • 6.2. システム制御理論
    • 7. 第7群(基礎4)
      • 7.1. 情報幾何学
      • 7.2. 確率解析
  • 書籍メモ
    • 書籍メモ(概要)
  • 論文メモ
    • 論文メモ(概要)
    • 線形代数
      • The Matrix Cookbook
      • ON THE EARLY HISTORY OF THE SINGULAR VALUE DECOMPOSITION
      • The tensor rank decomposition
    • 行列分解
      • Probabilistic Matrix Factorization
      • Probabilistic Matrix Factorization with Non-random Missing Data
      • Graph Regularized Non-negative Matrix Factorization for Data Representation
      • Alternating least squares for personalized ranking
    • 連続最適化
      • Quasi-Newton Methods: Superlinear Convergence Without Line Searches for Self-Concordant Functions
    • 確率・統計
      • Statistical inference of Langevin distributionfor directional data
      • Bayesian Inference over the Stiefel Manifold via the Givens Representation
      • あとで読む(Langevin distribution)
    • Riemannian最適化
      • A Broyden Class of Quasi-Newton Methods for Riemannian Optimization
      • Riemannian stochastic quasi-Newton algorithm with variance reduction and its convergence analysis
      • Primal-Dual Optimization Algorithms over Riemannian Manifolds: an Iteration Complexity Analysis
      • Extending FISTA to Riemannian Optimization for Sparse PCA
    • RCD空間
      • On the geometry of metric measure spaces. I
      • On the geometry of metric measure spaces. II
      • Cohomology and other analyticalaspects of RCD spaces
      • Untitled
  • 雑記帳
    • 球面幾何(楕円幾何)
    • 双曲幾何
  • なんかの部屋
    • データの表現について
Powered by GitBook
On this page

Was this helpful?

  1. 連続最適化

2. Taylorの定理と誤差の評価

2020/1/6公開

Previous1. Taylor展開と関数近似Next3. 最適化問題

Last updated 5 years ago

Was this helpful?

前の節では説明の簡略化のために Taylor 展開を有限個の項で打ち切ることで関数近似を導出したが、Taylor 展開を用いるには

  • f(x)f(x)f(x)が無限階微分可能である

  • Taylor 級数が収束する

  • Taylor 級数がもとの関数f(x)f(x)f(x)に一致する

といった比較的厳しい条件を満たす必要があり、また近似した関数のもとの関数からの誤差を評価するのが難しくなる。

実際に理論的に解析するには、より緩い条件で成り立つ Taylor の定理を用いる。Taylor の定理は、整数n  (n≥1)n \,\,(n \geq 1)n(n≥1)をとったとき、nnn階微分可能な関数f ⁣:R→Rf \colon \mathbb{R} \to \mathbb{R}f:R→Rに対して、次の性質

f(x)=f(x‾)+df(x‾)dxΔx+12d2f(x‾)dx2Δx2+⋯+1n!dnf(x‾)dxnΔxn+hn(Δx)Δxn(lim⁡Δx→0hn(Δx)=0)(2.1)\begin{aligned} f(x) = f(\overline{x}) + \frac{d f (\overline{x})}{dx} \Delta x + \frac{1}{2} \frac{d ^ 2 f (\overline{x})}{dx ^ 2} \Delta x ^ 2 + \cdots + \frac{1}{n!} \frac{d ^ n f (\overline{x})}{dx ^ n} \Delta x ^ n + h _ n (\Delta x) \Delta x ^ n \\ \left( \lim _ {\Delta x \to 0} h _ n (\Delta x) = 0 \right) \end{aligned} \tag{2.1}f(x)=f(x)+dxdf(x)​Δx+21​dx2d2f(x)​Δx2+⋯+n!1​dxndnf(x)​Δxn+hn​(Δx)Δxn(Δx→0lim​hn​(Δx)=0)​(2.1)

を満たす関数hn ⁣:R→Rh _ n\colon \mathbb{R} \to \mathbb{R}hn​:R→Rが存在するという主張である。

(2.1) 式からhn(Δx)Δxnh _ n (\Delta x) \Delta x ^ nhn​(Δx)Δxnの項を取り除くと前節で定義した (1.1.2) 式による関数のnnn次近似と一致している。すなわち

f(x)−fn(x)=hn(Δx)Δxnf(x) - f _ n (x) = h _ n (\Delta x) \Delta x ^ nf(x)−fn​(x)=hn​(Δx)Δxn

が成り立つので、hn(Δx)Δxnh _ n (\Delta x) \Delta x ^ nhn​(Δx)Δxnは近似誤差を表しているとみなせる。この近似誤差はランダウの記号を用いれば

hn(Δx)Δxn=o(∣Δx∣n)(2.2)h _ n (\Delta x) \Delta x ^ n = o \left( |\Delta x | ^n \right) \tag{2.2}hn​(Δx)Δxn=o(∣Δx∣n)(2.2)

と書けるから、関数の1次近似と2次近似について

が成り立つ。

が成り立つ。近似誤差は

である。

f(x)=fI(x)+o(∣Δx∣)f(x)=fII(x)+o(∣Δx∣2)(2.3)\begin{aligned} f (x) &= f _ {\rm I} (x) + o \left( |\Delta x | \right) \\ f (x) &= f _ {\rm II} (x) + o \left( |\Delta x | ^ 2 \right) \end{aligned} \tag{2.3}f(x)f(x)​=fI​(x)+o(∣Δx∣)=fII​(x)+o(∣Δx∣2)​(2.3)

関数f ⁣:Rn→R ⁣:x↦f(x)f \colon \mathbb{R} ^ n \to \mathbb{R} \colon x \mapsto f(x)f:Rn→R:x↦f(x)についても同様に、ユークリッドノルム∥⋅∥ ⁣:Rn→R\| \cdot \| \colon \mathbb{R} ^ n \to \mathbb{R}∥⋅∥:Rn→Rを用いて

f(x)=fn(x)+hn(Δx)∥Δx∥n(lim⁡∥Δx∥→0hn(Δx)=0)(2.4)\begin{aligned} f (x) &= f _ n (x) + h _ n (\Delta x) \|\Delta x \| ^ n \quad \left( \lim _ {\| \Delta x \| \to 0} h _ n (\Delta x) = 0 \right) \end{aligned} \tag{2.4}f(x)​=fn​(x)+hn​(Δx)∥Δx∥n(∥Δx∥→0lim​hn​(Δx)=0)​(2.4)
hn(Δx)∥Δx∥n=o(∥Δx∥n)(2.5)h _ n (\Delta x) \| \Delta x \| ^ n = o \left( \| \Delta x \| ^ n \right) \tag{2.5}hn​(Δx)∥Δx∥n=o(∥Δx∥n)(2.5)

と評価できて、n=1,2n = 1, 2n=1,2の場合について

f(x)=fI(x)+o(∥Δx∥)f(x)=fII(x)+o(∥Δx∥2)(2.6)\begin{aligned} f (x) &= f _ {\rm I} (x) + o \left( \|\Delta x \| \right) \\ f (x) &= f _ {\rm II} (x) + o \left( \|\Delta x \| ^ 2 \right) \end{aligned} \tag{2.6}f(x)f(x)​=fI​(x)+o(∥Δx∥)=fII​(x)+o(∥Δx∥2)​(2.6)