5 行ベクトルが線形独立で正方行列でない場合

あとは考えるべきは、$A$ の行ベクトルが線形独立で、 かつ $A$ が正方行列でない場合、 すなわち $n\neq m$ の場合となる。 $n<m$ ならば $A$ の行ベクトルは必ず線形従属となるので、 $n>m$ の場合のみを考えればよい。

本節以降で、これをいくつかの段階に分けて、 補題などを紹介しながら考えていくことにする。

$n$ 次元行ベクトル $\overrightarrow{\hat{\alpha}}_1,\ldots,
\overrightarrow{\hat{\alpha}}_m$ が線形独立なので、 これに $(n-m)$ 個の線形独立なベクトル $\overrightarrow{\hat{\alpha}}_{m+1},\ldots,
\overrightarrow{\hat{\alpha}}_n$ を追加して、 $\overrightarrow{\hat{\alpha}}_1,\ldots,\overrightarrow{\hat{\alpha}}_n$ が線形独立であるようにできる。

その上で

  $\displaystyle
y_j = \overrightarrow{\hat{\alpha}}_j\overrightarrow{x}
\hspace{1zw}(m<j\leq n)$ (25)
とすれば、$n$ 個の確率変数 $y_1,\ldots,y_n$ を作ることができる。 そして、
  $\displaystyle
\overrightarrow{y}' = \left[\begin{array}{c}y_1\\ \vdots\\ y_n\e...
... \left[\begin{array}{c}b_1\\ \vdots\\ b_{m}\\ 0\\ \vdots\\ 0\end{array}\right],$ (26)
とし、
  $\displaystyle
B = (A')^{-1} = \left[\begin{array}{ccc}\overrightarrow{\beta}_1...
...a}_n\end{array}\right],
\hspace{0.5zw}\overrightarrow{c}=-B\overrightarrow{b}'$ (27)
とする。

考えるのは、 $y_1,\ldots,y_m$ の独立性、 すなわち (10) であるが、 その左辺が $m$ 次元確率分布 $(y_1,\ldots,y_m)$ の分布関数 $G(t_1,\ldots,t_m)$ で、それを積分で書いて $\overrightarrow{x}$ から $\overrightarrow{y}$ に 変数変換すれば、

\begin{eqnarray*}\lefteqn{G(t_1,\ldots,t_m)
\ =\
\int_{\{\scriptsize\overrigh...
...errightarrow{c})\mathop{\rm abs}(\vert B\vert)dy_{m+1}\cdots dy_n\end{eqnarray*}
となり、よって密度関数 $g(y_1,\ldots,y_m)$ はこれを微分して、
  $\displaystyle
g(y_1,\ldots,y_m)
=\mathop{\rm abs}(\vert B\vert)\int_{\mbox{\b...
...riptsize R}^{n-m}}f(B\overrightarrow{y}'+\overrightarrow{c})dy_{m+1}\cdots dy_n$ (28)
となる。 あとは、これが $g_1(y_1)\cdots g_m(y_m)$ の形になるかどうかを 考えればよい。 ここで、 $x_1,\ldots x_n$ の独立性より、 $f(\overrightarrow{x})$ は (9) の形なので、 ここに $\overrightarrow{x}=B\overrightarrow{y}+\overrightarrow{c}$ を代入すると、指数部分は、 (16) 同様
$\displaystyle \vert\overrightarrow{x}\vert^2$ $\textstyle =$ $\displaystyle \vert B\overrightarrow{y}'+\overrightarrow{c} \vert^2
 =\
\left\vert\sum_{i=1}^n\overrightarrow{\beta}_jy_j+\overrightarrow{c} \right\vert^2$  
  $\textstyle =$ $\displaystyle \sum_{i=1}^n d_iy_i^2+2\sum_{1\leq i<j\leq n}p_{i,j}y_iy_j
+ 2\sum_{i=1}^nr_iy_i + c$ (29)
    $\displaystyle \hspace{0.5zw}(d_i=\vert\overrightarrow{\beta}_i\vert^2,
\hspace{...
...i\mathrel{・}\overrightarrow{c},
\hspace{0.5zw}c=\vert\overrightarrow{c}\vert^2)$  
となる。 $\overrightarrow{\beta}_1,\ldots,\overrightarrow{\beta}_n$ は線形独立なので、 $d_i>0$ ($1\leq i\leq n$) で、 よってこれを (9) に代入して、 (28) の積分を計算すると、最終的に、
\begin{eqnarray*}g(y_1,\ldots,y_m)
&=&
a_0e^{-h_0(y_1,\ldots,y_m)/2},
\\
h...
...leq m}p^{(0)}_{i,j}y_iy_j
+ 2\sum_{i=1}^mr^{(0)}_iy_i + c^{(0)}\end{eqnarray*}
のような形になる。 これにより、 $y_1,\ldots,y_m$ の独立性の条件は、 $y_iy_j$ の係数 $p^{(0)}_{i,j}$ がすべて 0 になること、 になる。

以後は、この $p^{(0)}_{i,j}$ を具体的に求めること、 およびそれが 0 であるという条件を元の $A$ の条件に書き直すこと、 が目標となる。

竹野茂治@新潟工科大学
2022-08-19