さとぅーの寝言

睡眠が大好きだけど大嫌いな駆け出しさんすうマンです。

Hadamardの定理

友達2人と一緒に高木貞治さんの『定本 解析概論』をぼちぼち読み進めていって、分からないところについて議論したりしてます。


とある日、p.78,79に載っている「Hadamard(アダマール)の定理」の証明がよく分からなかったので先生に質問してきました。


今回は本に載ってる証明文を引用しながら証明をまとめていきます。

アバウトな部分が多々あると思いますが、そこは目をつぶってください…


※数式が正しく表示されるまで時間かかるかもしれないけど許してね(はぁと


まずは証明したい命題を示します。

n行列式D{ \displaystyle D:=\begin{vmatrix}
       a_1 & b_1 & \cdots & l_1 \\
       a_2 & b_2 & \cdots & l_2 \\
       \vdots & \vdots & \ddots & \vdots \\
       a_n & b_n & \cdots & l_n \end{vmatrix} }
とおく。

このとき、
{ \displaystyle a_i^2 + b_i^2 + \dots + l_i^2 = s_i^2 \qquad (i=1,2,\cdots,n) \hspace{1.5cm}(7)}
が成り立つ条件下において(ただし s_iは与えられた正数)、次の関係式が成り立つ
{ \displaystyle |D| \le s_1 s_2 \cdots s_n }

 

では証明を見ていきましょう。

Dn^2個の変数a_1,\cdots,l_n多項式であるが、ここでは条件(7)のために独立変数はn(n-1)個である。


n-1列目の要素をk_1,\cdots,k_nとすると、条件式(7)よりl_ia_i,\cdots,k_iの値に依存して決まるので、l_1,\cdots,l_nは独立変数ではなくなります。
つまり、独立変数はn^2-n=n(n-1)個となります。
 
 

今n次元の球面(7)の上の点をP_iとして
 \displaystyle P=(P_1, P_2, \cdots, P_n)
なる組合せPの関数として行列式Dを考察すれば、…


ここで「n次元の球面」という表現が出てきていますが、先生曰く、正しくは「n-1次元の球面」だそうですね。
言われてみれば確かにそうですわ。

でもぶっちゃけ幾何学の勉強なんか全然してないから、なんで「n-1次元の球面」って表現するかはよく分かんないね。
直感的には分かってるつもりだけど…
 
 

D=D(P)Pに関して連続で、Pの変動の区域は閉区域で、かつその点はすべて内点である。よってDの最大値、最小値は存在して、それらはD極値の中から求められる。

 
ここは適当に読み流してしまいそうだけど、ちゃんと理解しようと思うとちょいとムズいとこ。

まず、D(P)の連続性だけど、これは閉区域内でPを動かしたときにDが飛び飛びの値を取らないということで、素直に認めてしまいましょう(投げやり
Dを実際に展開してみたら簡単な連続関数の和・差・積・商で表されるからとか、そんな感じなんですかね…

Pの変動区域が閉区域になることや、点Pがすべて内点であることについては深く突っ込まないことにします。
集合・位相の勉強してないから仕方ないね。
勉強してから追記加えるかもね。

そんで、D(P)は閉区域内で連続だから、その区域内で最大値、最小値を持つわけですね。
さらに、先ほど述べたとおり点Pは必ず内点となるため、最大値、最小値を取る点では必ず極値を取ります。

分かりやすく図で示すと↓

f:id:mathg-32:20160403175038p:plain
 
f:id:mathg-32:20160403175043p:plain

内点で最大値、最小値を取るとき、その点では必ず極値を取りますが、内点でないところで最大値、最小値を取るときは、その点で極値を取るかどうかは分かりません。


つまり、極値の中に最大値、最小値があるから、とりあえず極値はどんな値を取るか調べてやろうぜって話。
 
 

さて
 \displaystyle D=a_iA_i + b_iB_i + \dots + l_iL_i \, ,
 A_i, B_i, \cdots, L_i a_i, b_i, \cdots, l_iの余因子で、…(略)。そこで(7)を考慮に入れて、D極値の必要条件として
 \displaystyle \frac{\partial D}{\partial a_i} = A_i + L_i \frac{\partial l_i}{\partial a_i} = A_i - L_i \frac{a_i}{l_i} = 0 \hspace{1.5cm}(a)
を得る。b_i,c_i,\cdotsに関しても同様だから
 \displaystyle \frac{A_i}{a_i} = \frac{B_i}{b_i} = \dots = \frac{L_i}{l_i} \, \hspace{1.5cm}(b)

 
Dが極値を取る点では少なくとも
 \displaystyle \frac{\partial D}{\partial a_i} = 0,\frac{\partial D}{\partial b_i} = 0,\cdots, \frac{\partial D}{\partial k_i} = 0
を満たさないといけませんよね?
これらが同時に満たされるときにどういう関係式が導かれるかを調べます。

ここでは \frac{\partial D}{\partial a_i} = 0についてのみ考察します。

式(a)を見てみると
 \displaystyle \frac{\partial l_i}{\partial a_i} = -\frac{a_i}{l_i}
となることが分かります。
これは、(7)式の両辺をa_i微分してやると
 \displaystyle \begin{gather*}
      2a_i + 2l_i\frac{\partial l_i}{\partial a_i} = 0 \\
      \therefore \quad \frac{\partial l_i}{\partial a_i} = -\frac{a_i}{l_i}
      \end{gather*}
といった感じで導かれます。

よって、 \frac{\partial D}{\partial a_i} = 0を仮定すると
 \displaystyle A_i = a_i\frac{L_i}{l_i}
が成り立ちます。
 b_i, c_i, \cdotsについても同様の式が成り立ちます。

ここでは都合上、式(b)にまで変形しません。
 
 

さて i \ne jとすれば
 \displaystyle a_iA_j + b_iB_j + \dots + l_iL_j = 0 \hspace{1.5cm}(c)
故に
 \displaystyle a_ia_j + b_ib_j + \dots + l_il_j = 0 \hspace{1.5cm}(8)


式(c)が成り立つことを確かめるために、i行目とj行目が等しい次のn次行列式Aを考えます。
 
 \displaystyle A:=\begin{vmatrix}
       a_1 & b_1 & \cdots & l_1 \\
       \vdots & \vdots & \vdots & \vdots \\
       a_i & b_i & \cdots & l_i \\
       \vdots & \vdots & \vdots & \vdots \\
       a_j & b_j & \cdots & l_j \\
       \vdots & \vdots & \vdots & \vdots \\
       a_n & b_n & \cdots & l_n \end{vmatrix}
(ただし a_i = a_j, b_i = b_j, \cdots, l_i = l_j)

Aをj行目に関して余因子展開すると
 \displaystyle A = a_jA_j + b_jB_j + \dots + l_jL_j
となります。
Aはi行目とj行目が等しいので行列式の性質より A=0となり、また、仮定より a_i = a_j, b_i = b_j, \cdots, l_i = l_jなので
 \displaystyle a_iA_j + b_iB_j + \dots + l_iL_j = 0
が成り立つというわけです。

僕は最初、どんな行列式に対しても本当に式(c)が成り立つのか疑ってました。
だって、i行目とj行目が等しい特殊な行列式から導いた式なんですもん。

でも、どんな行列式についても式(c)の左辺のような式を考えるということは、それすなわちj行目の要素をすべてi行目の要素にすり替えてからj行目に関して余因子展開するということだから、やはりどんな行列式に対しても式(c)が成り立つんだなと勝手に解釈しました。
どうしても納得できない人は、簡単な行列式を例として式(c)が成り立つか確認してみてはどうでしょう。

そして、さっき導いた式
 \displaystyle A_j = a_j\frac{L_j}{l_j}, B_j = b_j\frac{L_j}{l_j}, \cdots
を式(c)に代入すると
 \displaystyle a_ia_j\frac{L_j}{l_j} + b_ib_j\frac{L_j}{l_j} + \dots +k_ik_j\frac{L_j}{l_j} + l_iL_j = 0
となります。

この両辺にl_jをかけて、さらにL_j (\ne 0)で割ると
 \displaystyle a_ia_j + b_ib_j + \dots + l_il_j = 0
となり、式(8)が導かれました。

式(b)を見ても分かるとおり、L_j = 0だとA_j=0, B_j=0,\cdotsとなり、D=0となってしまいます。
つまり、L_j = 0のときにはDは明らかに極値を取らないだろうということで、L_j \ne 0としたわけです。

ここで、式(8)をよ~く見てみましょう。
i行目とj行目の行ベクトルの内積が0になっていますよね?
つまり、Dが極値を取るとき、各行ベクトルはそれぞれ互いに直交するのです。
 
 

(7),(8)からはa_1,\cdots,l_nの値は決まらないが、Dの絶対値は確定する。すなわち(7),(8)を用いて
 \displaystyle D^2=\begin{vmatrix}
       {s_1}^2 & 0 & \cdots & 0 \\
       0 & {s_2}^2 & \cdots & 0 \\
       \vdots & \vdots & \ddots & \vdots \\
       0 & 0 & \cdots & {s_n}^2 \end{vmatrix} = (s_1s_2 \cdots s_n)^2
すなわち
 \displaystyle D = \pm s_1s_2 \cdots s_n

 
さて、ラストスパートでございますよ!

ここで、説明しやすいようにD = |X|とします。
行列式の性質より
 \displaystyle |X| = |{}^tX|, \hspace{1cm} |X|^2 = |X^2|
が成り立ちます。

これらを利用して、
 \displaystyle \begin{eqnarray*}
       D^2 &=& |X||{}^tX| = |X \, {}^tX| \\
           &=& \left| \begin{pmatrix}
               a_1 & b_1 & \cdots & l_1 \\
               a_2 & b_2 & \cdots & l_2 \\
               \vdots & \vdots & \ddots & \vdots \\
               a_n & b_n & \cdots & l_n \end{pmatrix}
               \begin{pmatrix}
               a_1 & a_2 & \cdots & a_n \\
               b_1 & b_2 & \cdots & b_n \\
               \vdots & \vdots & \ddots & \vdots \\
               l_1 & l_2 & \cdots & l_n \end{pmatrix} \right| \\
           &=& \begin{vmatrix}
               {s_1}^2 & 0 & \cdots & 0 \\
               0 & {s_2}^2 & \cdots & 0 \\
               \vdots & \vdots & \ddots & \vdots \\
               0 & 0 & \cdots & {s_n}^2 \end{vmatrix} \\
          &=& (s_1s_2 \cdots s_n)^2
      \end{eqnarray*}

ということで、Dの最大値がs_1s_2 \cdots s_n、最小値が-s_1s_2 \cdots s_nであることが分かりましたね。

つまり、
{ \displaystyle |D| \le s_1 s_2 \cdots s_n }
が示されました。








最後に一言…





疲れた。



この記事を書くのが疲れたって言ってんだよ!
察しろ!


しばらくは、こんなに長くてガチガチな記事を書くことはないでしょう。
受験前だし…



ではでは