最小二乗法

データセットを4次関数で最小二乗近似した例
統計学
回帰分析
モデル
  • 一般化線形モデル
  • 離散選択(英語版)
  • ロジスティック回帰
  • 多項ロジット(英語版)
  • 混合ロジット(英語版)
  • プロビット(英語版)
  • 多項プロビット(英語版)
  • 順序ロジット(英語版)
  • 順序プロビット(英語版)
  • ポアソン(英語版)
  • 非線形回帰
  • ノンパラメトリック(英語版)
  • セミパラメトリック(英語版)
  • ロバスト(英語版)
  • 分位点(英語版)
  • 等調(英語版)
  • 主成分(英語版)
  • 最小角度(英語版)
  • 局所
  • 折れ線(英語版)
  • 変数誤差(英語版)
推定
  • 最小二乗法
  • 線形(英語版)
  • 非線形
  • 普通(英語版)
  • 加重(英語版)
  • 一般化(英語版)
  • 最小絶対偏差(英語版)
  • 繰返し加重(英語版)
  • ベイズ(英語版)
  • ベイズ多変量(英語版)
背景

最小二乗法(さいしょうにじょうほう、さいしょうじじょうほう;最小自乗法とも書く、: least squares method)は、誤差を伴う測定値の処理において、その誤差の二乗の和を最小にするようにし、最も確からしい関係式を求める方法である。測定で得られた数値の組を、適当なモデルから想定される1次関数対数曲線など特定の関数を用いて近似するときに、想定する関数が測定値に対してよい近似となるように、残差平方和を最小とするような係数を決定する方法[1][2][3]、あるいはそのような方法によって近似を行うことである[1][2][3]

歴史

1805年アドリアン=マリ・ルジャンドルが出版したのが初出である。しかし、1809年カール・フリードリヒ・ガウスが出版した際に1795年には最小二乗法を考案済みだったと主張したことで、最小二乗法の発明者が誰であるかについては不明になっている。

計算の概要

前提条件

最小二乗法では測定データ y {\displaystyle y} はモデル関数 f ( x ) {\displaystyle f(x)} と誤差 ε {\displaystyle \varepsilon } の和で

y = f ( x ) + ε {\displaystyle y=f(x)+\varepsilon }

と表せるとする。物理現象の測定データには、誤差が含まれ、それは系統誤差偶然誤差を含んでいる。この内、偶然誤差は、測定における信号経路の微視的現象に由来するならば、正規分布であると期待されることが多い。また、社会調査などの誤差理由の特定が困難な場合でも誤差が正規分布になると期待する考え方もある。

誤差が正規分布に従わない場合、最小二乗法によって得られたモデル関数はもっともらしくないことに注意する必要がある。偶然誤差が正規分布していない場合、系統誤差が無視できない位大きくそれをモデル関数に含めていない場合、測定データに正規分布から大きく外れた外れ値を含む場合などが該当する。

上記を含め、最小二乗法の理論的基盤には次のような前提が設けられている[1][2][3]

  • 測定値の誤差には偏りがない。すなわち誤差の平均値は 0 である。
  • 測定値の誤差の分散は既知である。ただし測定データごとに異なる値でも良い。
  • 各測定は互いに独立であり、誤差の共分散は 0 である。
  • 誤差は正規分布する。
  • m {\displaystyle m} 個のパラメータ[注釈 1](フィッティングパラメータ)を含むモデル関数 f {\displaystyle f} が知られていて、測定量の真の値を近似誤差なく再現することのできるパラメータが存在する。

基礎的な考え方

話を簡単にするため、測定値は x , y {\displaystyle x,y} の二次元の平面に分布するものとし、想定される分布(モデル関数)が y = f ( x ) {\displaystyle y=f(x)} の形である場合を述べる。想定している関数 f {\displaystyle f} は、既知の関数 g ( x ) {\displaystyle g(x)} 線型結合で表されていると仮定する。すなわち、

f ( x ) = k = 1 m a k g k ( x ) {\displaystyle f(x)=\sum _{k=1}^{m}a_{k}g_{k}(x)}

例えば、 g k ( x ) = x k 1 {\displaystyle g_{k}(x)=x^{k-1}} は、多項式近似であり、特に m = 2 {\displaystyle m=2} の時は f ( x ) = a 1 + a 2 x {\displaystyle f(x)=a_{1}+a_{2}x} という直線による近似(線形回帰)になる。

今、測定で得られた、次のような数値の組の集合があるとする。

{ ( x 1 , y 1 ) ,   ( x 2 , y 2 ) ,   ,   ( x n , y n ) } {\displaystyle \{(x_{1},y_{1}),\ (x_{2},y_{2}),\ \ldots ,\ (x_{n},y_{n})\}}

これら ( x , y ) {\displaystyle (x,y)} の分布が、 y = f ( x ) {\displaystyle y=f(x)} というモデル関数に従うと仮定した時、想定される理論値は

( x 1 , f ( x 1 ) ) , ( x 2 , f ( x 2 ) ) , . . . , ( x n , f ( x n ) ) {\displaystyle (x_{1},f(x_{1})),(x_{2},f(x_{2})),...,(x_{n},f(x_{n}))}

ということになり、実際の測定値との残差は、各 i {\displaystyle i} につき | y i f ( x i ) | {\displaystyle |y_{i}-f(x_{i})|} ということになる。

この残差の大きさは、 x y {\displaystyle xy} 平面上での ( x i , y i ) {\displaystyle (x_{i},y_{i})} ( x i , f ( x i ) ) {\displaystyle (x_{i},f(x_{i}))} との距離でもある。

ここで、理論値からの誤差の分散の推定値は残差の平方和

J = i = 1 n ( y i f ( x i ) ) 2 {\displaystyle J=\sum _{i=1}^{n}(y_{i}-f(x_{i}))^{2}}

で与えられるから、 J {\displaystyle J} が最小になるように想定分布 f {\displaystyle f} を(すなわち a k {\displaystyle a_{k}} を)、定めればよいということになる。

それには、上式は a k {\displaystyle a_{k}} を変数とする関数と見なすことができるので、 J {\displaystyle J} a k {\displaystyle a_{k}} について偏微分したものを 0 と置く。こうして得られた m {\displaystyle m} 個の連立方程式(正規方程式)を解き、 a k {\displaystyle a_{k}} を決定すればよい。

一次方程式の場合

さらに簡単な例として、モデル関数を1次関数とし、

f ( x ) = a x + b {\displaystyle f(x)=ax+b\,}

とおくと、 a , b {\displaystyle a,b} は次式で求められる。

a = n k = 1 n x k y k k = 1 n x k k = 1 n y k n k = 1 n x k 2 ( k = 1 n x k ) 2 {\displaystyle a={\frac {n\textstyle \sum \limits _{k=1}^{n}x_{k}y_{k}-\sum \limits _{k=1}^{n}x_{k}\sum \limits _{k=1}^{n}y_{k}}{n\textstyle \sum \limits _{k=1}^{n}{x_{k}}^{2}-\left(\sum \limits _{k=1}^{n}x_{k}\right)^{2}}}}
b = k = 1 n x k 2 k = 1 n y k k = 1 n x k y k k = 1 n x k n k = 1 n x k 2 ( k = 1 n x k ) 2 {\displaystyle b={\frac {\textstyle \sum \limits _{k=1}^{n}{x_{k}}^{2}\sum \limits _{k=1}^{n}y_{k}-\sum \limits _{k=1}^{n}x_{k}y_{k}\sum \limits _{k=1}^{n}x_{k}}{n\textstyle \sum \limits _{k=1}^{n}{x_{k}}^{2}-\left(\sum \limits _{k=1}^{n}x_{k}\right)^{2}}}}

解法例

当てはめたい関数 f {\displaystyle f} は、

f ( x ) = ( g 1 ( x ) , g 2 ( x ) , , g m ( x ) ) ( a 1 , a 2 , , a m ) T {\displaystyle f(x)=(g_{1}(x),g_{2}(x),\ldots ,g_{m}(x))(a_{1},a_{2},\ldots ,a_{m})^{\textrm {T}}}

と表すことができる。上付き添字 T は転置行列を表す。最小にすべき関数 J {\displaystyle J}

J ( a ) = ( G a y ) T ( G a y ) = ( [ G y ] [ a 1 ] ) T ( [ G y ] [ a 1 ] ) {\displaystyle {\begin{aligned}J({\boldsymbol {a}})&=(G{\boldsymbol {a}}-{\boldsymbol {y}})^{\textrm {T}}\,(G{\boldsymbol {a}}-{\boldsymbol {y}})\\&=\left({\begin{bmatrix}G&{\boldsymbol {y}}\end{bmatrix}}{\begin{bmatrix}{\boldsymbol {a}}\\-1\end{bmatrix}}\right)^{\textrm {T}}\,\left({\begin{bmatrix}G&{\boldsymbol {y}}\end{bmatrix}}{\begin{bmatrix}{\boldsymbol {a}}\\-1\end{bmatrix}}\right)\end{aligned}}}

と表される。ここに G {\displaystyle G} は、 G i j = g j ( x i ) {\displaystyle G_{ij}=g_{j}(x_{i})} なる成分を持つ n × m {\displaystyle n\times m} 行列、 y = ( y 1 , y 2 , , y n ) T {\displaystyle {\boldsymbol {y}}=(y_{1},y_{2},\ldots ,y_{n})^{\textrm {T}}} 、係数 a = ( a 1 , a 2 , , a m ) T {\displaystyle {\boldsymbol {a}}=(a_{1},a_{2},\ldots ,a_{m})^{\textrm {T}}} である。

これの最小解 a {\displaystyle {\boldsymbol {a}}} は、 [ G y ] T [ G y ] = R ~ T R ~ {\displaystyle {\begin{bmatrix}G&{\boldsymbol {y}}\end{bmatrix}}^{\textrm {T}}{\begin{bmatrix}G&{\boldsymbol {y}}\end{bmatrix}}={\tilde {R}}^{\textrm {T}}{\tilde {R}}} を満たす上三角行列 R ~ {\displaystyle {\tilde {R}}} の計算を経て、解 a {\displaystyle {\boldsymbol {a}}} を得ることができ、全体の計算量に無駄が少ない。下記の表式を用いると R ~ = [ R Q T y 0 T α ] {\displaystyle {\tilde {R}}={\begin{bmatrix}R&Q^{\textrm {T}}{\boldsymbol {y}}\\{\boldsymbol {0}}^{\textrm {T}}&\alpha \end{bmatrix}}} が得られ、 R a = Q T y {\displaystyle R{\boldsymbol {a}}=Q^{\textrm {T}}{\boldsymbol {y}}} から係数解 a {\displaystyle {\boldsymbol {a}}} を求める[注釈 2]

また前節で述べたように J a {\displaystyle {\boldsymbol {a}}} のそれぞれの成分で偏微分して 0 と置いた m {\displaystyle m} 個の式(正規方程式)は行列を用いて、

G T G a = G T y {\displaystyle G^{\textrm {T}}G{\boldsymbol {a}}=G^{\textrm {T}}{\boldsymbol {y}}}

と表される。これを正規方程式: normal equation)と呼ぶ。この正規方程式を解けば係数解 a {\displaystyle {\boldsymbol {a}}} が求まる。

係数解 a {\displaystyle {\boldsymbol {a}}} の解法には以下のようないくつかの方法がある。

  • 逆行列で正規方程式を解く
    行列 G T G {\displaystyle G^{T}G} 正則行列(つまりフルランク)である場合は、解 a = ( G T G ) 1 G T y {\displaystyle {\boldsymbol {a}}=(G^{\textrm {T}}G)^{-1}G^{\textrm {T}}{\boldsymbol {y}}} は一意に求まる。ただし G T G {\displaystyle G^{T}G} の逆行列を明示的に求めることは通常は良い方法ではない。
計算量が小さい方法としてコレスキー分解[4] G T G = R T R {\displaystyle G^{\textrm {T}}G=R^{\textrm {T}}R} R {\displaystyle R} m × m {\displaystyle m\times m} 三角行列)による三角行列分解を経て、最終的に R a = R T G T y {\displaystyle R{\boldsymbol {a}}=R^{-{\textrm {T}}}G^{\textrm {T}}{\boldsymbol {y}}} を解けばよい。
数値的安定性確保のためには、積 G T G {\displaystyle G^{T}G} を経ない三角行列分解が良い。すなわち以下と同じくQR分解(直交分解)による G = Q R {\displaystyle G=QR} から、 R a = Q T y {\displaystyle R{\boldsymbol {a}}=Q^{\textrm {T}}{\boldsymbol {y}}} を解く。
  • 直交分解で正規方程式を解く
    コレスキー分解の方法よりも計算量が大きいが、数値的に安定かつ汎用な方法として、QR分解特異値分解(SVD)を用いる方法がある[4]。これらの方法では計算の過程で積 G T G {\displaystyle G^{T}G} を必要としないため数値的安定性が高い。また G T G {\displaystyle G^{T}G} が正則行列でない(ランク落ちしている)場合は正規方程式の解が不定となるが、その場合でも、これらの手法では解 a のうちノルムが最も小さいものを求めることができる。特異値分解を用いる場合は、特異値のうち極めて小さい値を 0 とみなして計算することで数値計算上の大きな誤差の発生を防ぐことができる(: truncated SVD[5]
  • 擬似逆行列を使う方法もあるが[6]、計算効率が悪いため、特殊な場合(解析的な数式が必要な場合など)を除いてあまり用いられない。

拡張

多次元

想定される分布が媒介変数 t を用いて ( x , y ) = ( f ( t ) , g ( t ) ) {\displaystyle (x,y)=(f(t),g(t))} の形(あるいは f , g {\displaystyle f,g} は複数の媒介変数によって決まるとしても同様)であっても考察される。

すなわち、測定値 ( x i , y i ) {\displaystyle (x_{i},y_{i})} がパラメータ t i {\displaystyle t_{i}} に対する ( f ( t i ) , g ( t i ) ) {\displaystyle (f(t_{i}),g(t_{i}))} を理論値として近似されているものと考えるのである。

この場合、各点の理論値 ( f ( t i ) , g ( t i ) ) {\displaystyle (f(t_{i}),g(t_{i}))} と測定値 ( x i , y i ) {\displaystyle (x_{i},y_{i})} の間に生じる残差は

( x i f ( t i ) ) 2 + ( y i g ( t i ) ) 2 {\displaystyle {\sqrt {(x_{i}-f(t_{i}))^{2}+(y_{i}-g(t_{i}))^{2}}}}

である。故に、残差平方和

i = 1 n { ( x i f ( t i ) ) 2 + ( y i g ( t i ) ) 2 } {\displaystyle \sum _{i=1}^{n}\left\{(x_{i}-f(t_{i}))^{2}+(y_{i}-g(t_{i}))^{2}\right\}}

となるから、この値が最小であるように、 f , g {\displaystyle f,g} を決定するのである。

このように、 n {\displaystyle n} 組の ( x , y ) {\displaystyle (x,y)} の測定値 ( x i , y i ) ( i = 1 , 2 , . . . , n ) {\displaystyle (x_{i},y_{i})(i=1,2,...,n)} n {\displaystyle n} 組の ( x 1 , x 2 , . . . , x m ) {\displaystyle (x_{1},x_{2},...,x_{m})} の測定値 ( x 1 i , x 2 i , . . . , x m i ) ( i = 1 , 2 , . . . , n ) {\displaystyle (x_{1i},x_{2i},...,x_{mi})(i=1,2,...,n)} に拡張したものも考察することができる。

測定の誤差が既知の場合

n {\displaystyle n} 回の測定における誤差があらかじめ分かっている場合を考える。異なる測定方法で測定した複数のデータ列を結合する場合などでは、測定ごとに誤差が異なることはしばしばある。誤差が正規分布していると考え、その標準偏差 σ i ( i = 1 , 2 , , n ) {\displaystyle \sigma _{i}(i=1,2,\ldots ,n)} で、誤差の大きさを表す。すると、誤差が大きい測定より、誤差が小さい測定の結果により重みをつけて近似関数を与えるべきであるから、

J = i = 1 n ( y i f ( x i ) ) 2 σ i 2 {\displaystyle J'=\sum _{i=1}^{n}{\frac {(y_{i}-f(x_{i}))^{2}}{\sigma _{i}^{2}}}}

を、最小にするように f を定める方がより正確な近似を与える。

毎回の測定が独立ならば、測定値の尤度 e x p ( J ) {\displaystyle exp(-J')} に比例する。そこで、上記の J {\displaystyle J'} を最小にする f {\displaystyle f} は、最尤推定値であるとも解釈できる。また、 J {\displaystyle J'} 自由度 n m {\displaystyle n-m} カイ二乗分布[7]に従うので、それを用いてモデル f {\displaystyle f} の妥当性を検定することもできる。

毎回の測定誤差が同じ場合、 J {\displaystyle J'} を最小にするのは J {\displaystyle J} を最小にするのと同じ意味になる。

非線形最小二乗法

詳細は「非線形最小二乗法」を参照

もし、 f {\displaystyle f} が、 a k {\displaystyle a_{k}} の線型結合で表されないときは、正規方程式を用いた解法は使えず、反復解法を用いて数値的に a k {\displaystyle a_{k}} の近似値を求める必要がある。例えば、ガウス・ニュートン法[8]レーベンバーグ・マーカート法[9][10][11][12][13]が用いられる。とくにレーベンバーグ・マーカート法(: Levenberg-Marquardt Method)は多くの多次元非線形関数でパラメータを発散させずに効率よく収束させる(探索する)方法として知られている[10][11][12]

異常値の除去

前提条件の節で述べたように、測定データを最小二乗法によって近似する場合、外れ値または異常値が含まれていると極端に近似の尤もらしさが低下することがある。また、様々な要因によって異常値を含む測定はしばしば得られるものである。

誤差が正規分布から極端に外れた異常値を取り除くための方法として修正トンプソン-τ法が用いられる[14]

関連項目

ウィキメディア・コモンズには、最小二乗法に関連するカテゴリがあります。
ウィキブックスに最小二乗法関連の解説書・教科書があります。

脚注

[脚注の使い方]

注釈

  1. ^ m {\displaystyle m} は、測定データの数よりも小さいとする。
  2. ^ α 2 = min J ( a ) {\displaystyle \alpha ^{2}=\min J({\boldsymbol {a}})} G T G {\displaystyle G^{\textrm {T}}G} は正則行列と仮定。

出典

  1. ^ a b c 中川徹; 小柳義夫『最小二乗法による実験データ解析』東京大学出版会、1982年、30頁。ISBN 4-13-064067-4。 
  2. ^ a b c Lawson, C. L., & Hanson, R. J. (1995). Solving least squares problems (Vol. 15). SIAM.
  3. ^ a b c Bjorck, A. (1996). Numerical methods for least squares problems (Vol. 51). SIAM.
  4. ^ a b 山本哲朗『数値解析入門』(増訂版)サイエンス社〈サイエンスライブラリ 現代数学への入門 14〉、2003年6月。ISBN 4-7819-1038-6。 
  5. ^ Hansen, P.C. The truncated SVD as a method for regularization. BIT 27, 534–553 (1987).
  6. ^ 安川章. (2017). 科学実験/画像変換の近似計算に便利な 「疑似逆行列」 入門 できる人が使っている最小二乗法の一発フィット. インターフェース= Interface, 43(8), 142-146.
  7. ^ Weisstein, Eric W. "Chi-Squared Distribution." From MathWorld--A Wolfram Web Resource. mathworld.wolfram.com/Chi-SquaredDistribution.html
  8. ^ Magrenan, A. A., & Argyros, I. (2018). A contemporary study of iterative methods: convergence, dynamics and applications. Academic Press.
  9. ^ Weisstein, Eric W. "Levenberg-Marquardt Method." From MathWorld--A Wolfram Web Resource. mathworld.wolfram.com/Levenberg-MarquardtMethod.html
  10. ^ a b Moré, J. J. (1978). The Levenberg-Marquardt algorithm: implementation and theory. In Numerical analysis (pp. 105-116). Springer, Berlin, Heidelberg.
  11. ^ a b Yu, H., & Wilamowski, B. M. (2011). Levenberg-marquardt training. Industrial electronics handbook, 5(12), 1.
  12. ^ a b Ranganathan, Ananth (2004). “The levenberg-marquardt algorithm” (PDF). Tutoral on LM algorithm 11 (1): 101-110. https://sites.cs.ucsb.edu/~yfwang/courses/cs290i_mvg/pdf/LMA.pdf. 
  13. ^ 山下信雄, 福島雅夫「Levenberg-Marquardt法の局所収束性について (最適化の数理科学)」『数理解析研究所講究録』第1174巻、京都大学数理解析研究所、2000年10月、161-168頁、CRID 1050001201691367552、hdl:2433/64462ISSN 1880-2818。 
  14. ^ Michele Rienzner (2020). Find Outliers with Thompson Tau (www.mathworks.com/matlabcentral/fileexchange/27553-find-outliers-with-thompson-tau), MATLAB Central File Exchange. Retrieved May 17, 2020.
  15. ^ Van Huffel, S., & Vandewalle, J. (1991). The total least squares problem: computational aspects and analysis (Vol. 9). SIAM.
  16. ^ Golub, G. H., & Van Loan, C. F. (1980). An analysis of the total least squares problem. SIAM journal on numerical analysis, 17(6), 883-893.
  17. ^ Drygas, H. (2012). The coordinate-free approach to Gauss-Markov estimation (Vol. 40). Springer Science & Business Media.
  18. ^ Motulsky, H., & Christopoulos, A. (2004). Fitting models to biological data using linear and nonlinear regression: a practical guide to curve fitting. Oxford University Press.
典拠管理データベース: 国立図書館 ウィキデータを編集
  • 日本
  • チェコ