본문 바로가기
전공 정리/공업수학

30. 대칭행렬, 반대칭행렬, 대각행렬

by 꼬긔 2020. 5. 27.

30.1. Symmetric, Skew-Symmetric, Orthogonal Matrices.

 Square matrix $\mathbf {A} = [a_{jk}]$가 있을 때, $\mathbf {A}$의 Transpose matrix와도 같다면, 이 Matrix를 Symmetric matrix라고 합니다.

$\mathbf {A} = \mathbf {A}^{\top}, \qquad thus \qquad a_{jk} = a_{kj}\cdots(1)$

 Skew-Symmetric matrix는 $\mathbf {A}$가 Transpose matrix에 $-1$을 곱한 것과 같은 Matrix를 말합니다. 즉,

$\mathbf {A} = -\mathbf {A}^{\top}, \qquad thus \qquad a_{jk} = -a_{kj}\cdots(2)$

 Orthogonal matrix는 $\mathbf {A}$의 Transpose matrix와 Inverse matrix가 같은 matrix를 말합니다. 식으로 쓰면

$\mathbf {A}^{\top} = \mathbf {A}^{-1}\cdots(3)$

 Symmetric, Skew-Symmetric, Orthogonal Matrices의 예시를 확인해 봅시다.

$\begin {bmatrix} -3&1&5\\1&0&-2\\5&-2&4 \end {bmatrix} \cdots (4)$

$\begin {bmatrix} 0&9&-12\\-9&0&20\\12&-20&0 \end {bmatrix} \cdots (5)$

$\begin {bmatrix} \frac {2}{3}&\frac {1}{3}&\frac {2}{3}\\ -\frac {2}{3}&\frac {2}{3}&\frac {1}{3}\\ \frac {1}{3}&\frac {2}{3}&-\frac {2}{3} \end {bmatrix} \cdots (6)$

 (4)는 Symmetric matrix, (5)는 Skew-Symmetric matrix, (6)은 Orthogonal matrix입니다. (4), (5)는 직관적으로 각각 (1), (2)를 만족하는 Matrix임을 확인할 수 있습니다. (6)은 Gauss-Jordan Elimination으로 Inverse matrix를 구하면 (3)을 만족함을 알 수 있습니다. Orthogonal matrix는 다음 섹션에서 자세히 다루겠습니다.

 모든 Skew-Symmetric matrix는 주대각성분이 모두 0입니다. Transpose matrix는 주대각성분을 변화시키지 않기 때문입니다. 주대각성분의 임의의 원소를 $a_{kk}$라 합시다.

$\begin {bmatrix} a_{11}&a_{12}&\cdots&&a_{1n}\\a_{21}&\ddots&\cdots&&\\ \vdots&\cdots&a_{kk}&\cdots&\vdots\\ &&&\ddots&\\a_{n1}&&\cdots&&a_{nn} \end {bmatrix} = \begin {bmatrix} -a_{11}&-a_{21}&\cdots&&-a_{n1}\\-a_{12}&\ddots&\cdots&&\\ \vdots&\cdots&-a_{kk}&\cdots&\vdots\\ &&&\ddots&\\-a_{1n}&&\cdots&&-a_{nn} \end {bmatrix} \cdots(7)$

 (7)의 $a_{kk} = -a_{kk}$를 만족하는 수는 오직 0뿐이기 때문에, Skew-Symmetic matrix의 주대각성분은 모두 0이어야 함을 확인할 수 있습니다.

 임의의 Square matrix $\mathbf {A}$를 Transpose matrix를 이용해서 Symmetric matrix와 Skew-Symmetric matrix를 만들어 낼 수 있습니다. Symmetric matrix를 $\mathbf {R}$, Skew-Symmetric matrix를 $\mathbf {S}$라 하면 다음과 같은 식을 만족합니다.

 $\mathbf {R} = \frac {1}{2}(\mathbf {A} + \mathbf {A}^{\top})\cdots(8)$

 $\mathbf {S} = \frac {1}{2}(\mathbf {A} - \mathbf {A}^{\top})\cdots(9)$

 (8)과 (9)를 더하면 새로운 사실을 알 수 있습니다.

 $\mathbf {A} = \mathbf {R} + \mathbf {S}\cdots (10)$

 (10)은 임의의 Square matrix는 Symmetric matrix와 Skew-Symmetric matrix의 합으로 나타낼 수 있음을 의미합니다.

 

cf) Eigenvalue of Symmetric and Skew-Symmetric Matrices.

 1). Symmetric matrix의 Eigenvalue는 실수입니다.

 2). Skew-Symmetric matrix의 Eigenvalue는 순허수이거나 0입니다.

 

30.2. Orthogonal Transformations and Orthogonal Matrices.

 Orthogonal transformation는 여태까지 풀어왔던 식인 (11)의 형태의 $\mathbf {A}$가 Orthogonal matrix인 경우를 말합니다.

$\mathbf {y} = \mathbf {Ax}\cdots (11)$

 Orthogonal transformation의 예시로 각 $\theta$만큼 평면의 회전이 있겠습니다.

$\mathbf {y} = \begin {bmatrix} y_1\\y_2 \end {bmatrix} = \begin {bmatrix} \cos {\theta}&-\sin {\theta}\\ \sin {\theta}&\cos {\theta} \end {bmatrix} \begin {bmatrix} x_1\\x_2 \end {bmatrix} \cdots (12)$

 

 잠시 Inner product(내적)를 먼저 정의해봅시다. $\mathbf {a}$, $\mathbf {b}$는 $R^n$내의 vector입니다.

$\mathbf {a} \cdot \mathbf {b} = \mathbf {a}^{\top} \mathbf {b} = \begin {bmatrix} a_1&\cdots&a_n \end {bmatrix} \begin {bmatrix} b_1\\ \vdots\\ b_n \end {bmatrix} \cdots (13)$

 여기서 Orthogonal transformation은 내적 값을 변화시키지 않습니다. 증명해 봅시다. $\mathbf {a}$, $\mathbf {b}$의 Orthogonal transformation을 $\mathbf {u}$, $\mathbf {v}$라고 합시다. 식으로 다시 써보면 다음과 같습니다.

 $\mathbf {u} = \mathbf {Aa}\cdots(14)$

 $\mathbf {v} = \mathbf {Ab}\cdots(15)$

$\mathbf {u}$와 $\mathbf {v}$의 내적을 구해봅시다. (13)의 정의에 따라 다음과 같이 쓸 수 있습니다.

 $\mathbf {u} \cdot \mathbf {v} = \mathbf {u}^{\top} \mathbf {v}  = (\mathbf {Aa})^{\top}\mathbf{Ab} \cdots (16)$

 Transpose의 법칙 $\mathbf {(AB)}^{\top} = \mathbf {B}^{\top} \mathbf{A}^{\top}$을 이용해 (16)을 다시 써봅시다.

 $(\mathbf {Aa})^{\top}\mathbf{Ab} = \mathbf {a}^{\top} \mathbf {A}^{\top} \mathbf {Ab} \cdots (17)$

 $\mathbf {A}$는 Orthogonal matrix이기 때문에, $\mathbf {A}^{\top} = \mathbf {A}^{-1}$이 성립합니다. $\mathbf {A^{-1} A} = \mathbf {I}$이므로, Ortogonal matrix는 $\mathbf {A^{\top} A} = \mathbf {I}$를 만족합니다. 이를 이용해 (17)을 다음과 같이 정리할 수 있습니다.

 $\mathbf {a}^{\top} \mathbf {A}^{\top} \mathbf {Ab} = \mathbf {a}^{\top}\mathbf{Ib} = \mathbf {a}^{\top}\mathbf {b} = \mathbf {a} \cdot \mathbf {b} \cdots (18)$

 즉, (18)을 통해 다음을 결론지을 수 있습니다.

 $\mathbf {u} \cdot \mathbf {v} = \mathbf {a} \cdot \mathbf {b} \qquad (\mathbf {u} = \mathbf {Aa}, \mathbf {v} = \mathbf {Ab})$, ($\mathbf {A}$ is Orthogonal matrix.)$\cdots(19)$

 

 내적을 이용하여 Orthogonal matrix를 보다 쉽게 판별할 수 있습니다. Square matrix $\mathbf {A}$가 있고 $\mathbf {A}$의 column vector(또는 row vector)를 $\mathbf {a_1}$, $\cdots$, $\mathbf {a_n}$이라 합시다. (20)과 같이 정의되는 Orthonormal system을 만족한다면, $\mathbf {A}$는 Orthogonal matrix입니다.

$\mathbf {a_j} \cdot \mathbf {a_k} = \mathbf {a_j}^{\top} \mathbf {a_k} = \begin {cases} 0\quad if\quad j\neq k \\ 1 \quad if \quad j=k \end {cases} \cdots (20)$

 (20)을 증명해봅시다. $\mathbf {A}$가 Orthogonal matrix라고 가정합시다. 그렇다면 (21)을 만족합니다.

$\mathbf {I} = \mathbf {A^{-1}A} = \mathbf {A^{\top} A} \cdots (21)$

 column vector 형태로 (21)을 다시 써봅시다.

$\mathbf {I} = \mathbf {A^{\top}A} = \begin {bmatrix} \mathbf {a_1}^{\top} \\ \vdots \\ \mathbf {a_n}^{\top} \end {bmatrix} \begin {bmatrix} \mathbf {a_1} & \cdots & \mathbf {a_n} \end {bmatrix} = \begin {bmatrix} \mathbf {a_1}^{\top}\mathbf {a_1}&\mathbf {a_1}^{\top}\mathbf {a_2}&\cdots&\mathbf {a_1}^{\top} \\ \vdots&\vdots&\ddots&\vdots \\ \mathbf {a_n}^{\top}\mathbf {a_1}& \mathbf {a_n}^{\top}\mathbf {a_2}& \cdots & \mathbf {a_n}^{\top} \mathbf {a_n} \end {bmatrix} \cdots (22)$

 (22)의 같을 조건에 의하여, (20)을 만족함을 알 수 있습니다.

 

 Orthogonal matrix의 Determinant는 $\pm 1$입니다. Unit matrix를 이용하여 이를 증명해봅시다.

$\mathbf {I}$의 Determinant는 1입니다. $\mathbf {A}$가 Orthogonal matrix라 가정하면, 다음과 같이 쓸 수 있습니다.

$1 = \det {\mathbf {I}} = \det {(\mathbf {AA^{-1}})} = \det {(\mathbf {AA^{\top}})} \cdots (23)$

 Determinant의 법칙 $\det {(\mathbf {AB})} = \det {\mathbf {A}} \det {\mathbf {B}}$, $\mathbf {A} = \mathbf {A^{\top}}$을 이용하여 (23)을 정리해봅시다.

$\det {(\mathbf {AA^{\top}})} = \det {\mathbf {A}} \det {\mathbf {A}^{\top}} = (\det {\mathbf {A}})^2=1\cdots (24)$

 (24)에서 $\mathbf {A}$가 Orthogonal matrix라면, $\det {\mathbf {A}} = \pm 1$을 만족함을 알 수 있습니다.

 

 이번 포스팅은 여기까지 마치겠습니다. 다음 포스팅에서 Diagonalization, Quadratic Forms에 대하여 작성할 예정입니다.

 

댓글