統計学に習熟するには線形代数の習得が不可欠である。が、初等的な線形代数ではカバーしきれないような分野も存在する。そこで以下の参考書
を基により高等な線形代数を学ぶ。
4. 行列の因数分解と行列ノルム
4.6 Schur分解
分解はまた、ある行列における零でない固有値の数がその行列の階数の下限を与えることを成立させる方法を提供する。
(
が成立する。 )
4.7 2つの対称行列の同時対角化
(例:正準変量分析
番目の標本を
を
個の異なるグループから独立に得た標本を扱う。このとき想定するモデルは
である。ここで
で各成分は定数だとし、
である。
正準変量分析は帰無仮説を検定すべく
を考えて、
が棄却された場合に実施する。
が
の
次元部分空間を張るならば、
として母集団において
に相当する
は階数が
である。
正の固有値に対応したの固有ベクトルは
次元部分空間を張る。
の場合には、
距離が適切に機能しないため、平均ベクトル間の差異を解釈するのは難しくなる。そこで
とすれば
であるから、
を分析すればよい。したがって
個の正の固有値に対応した
の固有ベクトルにより張られる部分空間への
の射影を考えればよい。すなわち
のスペクトル分解が
と表現できる場合、
内にベクトル
を描画すればよい(ここで
は
を満たす
行列で、
は
次対角行列である。)。この
次元空間におけるベクトル
の
個の成分は
番目の母集団に対する正準変数平均と呼ぶ。ここで正準変数を得る際に
の同時対角化が用いられている。実際、
が
を満たすならば、
とできる。もし
が未知であれば、正準変数平均は標本平均
と対応する
の同時対角化を用いて計算される標本正準変数平均から推定する。
さらに
が成立する。すなわちは
により対角化され、
であるから、もまた対角化される。
)