Processing math: 90%
본문 바로가기
전공 정리/공업수학

30. 대칭행렬, 반대칭행렬, 대각행렬

by 꼬긔 2020. 5. 27.

30.1. Symmetric, Skew-Symmetric, Orthogonal Matrices.

 Square matrix A=[ajk]가 있을 때, A의 Transpose matrix와도 같다면, 이 Matrix를 Symmetric matrix라고 합니다.

A=A,thusajk=akj(1)

 Skew-Symmetric matrix는 A가 Transpose matrix에 1을 곱한 것과 같은 Matrix를 말합니다. 즉,

A=A,thusajk=akj(2)

 Orthogonal matrix는 A의 Transpose matrix와 Inverse matrix가 같은 matrix를 말합니다. 식으로 쓰면

A=A1(3)

 Symmetric, Skew-Symmetric, Orthogonal Matrices의 예시를 확인해 봅시다.

[315102524](4)

[0912902012200](5)

[231323232313132323](6)

 (4)는 Symmetric matrix, (5)는 Skew-Symmetric matrix, (6)은 Orthogonal matrix입니다. (4), (5)는 직관적으로 각각 (1), (2)를 만족하는 Matrix임을 확인할 수 있습니다. (6)은 Gauss-Jordan Elimination으로 Inverse matrix를 구하면 (3)을 만족함을 알 수 있습니다. Orthogonal matrix는 다음 섹션에서 자세히 다루겠습니다.

 모든 Skew-Symmetric matrix는 주대각성분이 모두 0입니다. Transpose matrix는 주대각성분을 변화시키지 않기 때문입니다. 주대각성분의 임의의 원소를 akk라 합시다.

[a11a12a1na21akkan1ann]=[a11a21an1a12akka1nann](7)

 (7)의 akk=akk를 만족하는 수는 오직 0뿐이기 때문에, Skew-Symmetic matrix의 주대각성분은 모두 0이어야 함을 확인할 수 있습니다.

 임의의 Square matrix A를 Transpose matrix를 이용해서 Symmetric matrix와 Skew-Symmetric matrix를 만들어 낼 수 있습니다. Symmetric matrix를 R, Skew-Symmetric matrix를 S라 하면 다음과 같은 식을 만족합니다.

 R=12(A+A)(8)

 S=12(AA)(9)

 (8)과 (9)를 더하면 새로운 사실을 알 수 있습니다.

 A=R+S(10)

 (10)은 임의의 Square matrix는 Symmetric matrix와 Skew-Symmetric matrix의 합으로 나타낼 수 있음을 의미합니다.

 

cf) Eigenvalue of Symmetric and Skew-Symmetric Matrices.

 1). Symmetric matrix의 Eigenvalue는 실수입니다.

 2). Skew-Symmetric matrix의 Eigenvalue는 순허수이거나 0입니다.

 

30.2. Orthogonal Transformations and Orthogonal Matrices.

 Orthogonal transformation는 여태까지 풀어왔던 식인 (11)의 형태의 A가 Orthogonal matrix인 경우를 말합니다.

y=Ax(11)

 Orthogonal transformation의 예시로 각 θ만큼 평면의 회전이 있겠습니다.

y=[y1y2]=[cosθsinθsinθcosθ][x1x2](12)

 

 잠시 Inner product(내적)를 먼저 정의해봅시다. a, bRn내의 vector입니다.

ab=ab=[a1an][b1bn](13)

 여기서 Orthogonal transformation은 내적 값을 변화시키지 않습니다. 증명해 봅시다. a, b의 Orthogonal transformation을 u, v라고 합시다. 식으로 다시 써보면 다음과 같습니다.

 u=Aa(14)

 v=Ab(15)

uv의 내적을 구해봅시다. (13)의 정의에 따라 다음과 같이 쓸 수 있습니다.

 uv=uv=(Aa)Ab(16)

 Transpose의 법칙 (AB)=BA을 이용해 (16)을 다시 써봅시다.

 (Aa)Ab=aAAb(17)

 A는 Orthogonal matrix이기 때문에, A=A1이 성립합니다. A1A=I이므로, Ortogonal matrix는 AA=I를 만족합니다. 이를 이용해 (17)을 다음과 같이 정리할 수 있습니다.

 aAAb=aIb=ab=ab(18)

 즉, (18)을 통해 다음을 결론지을 수 있습니다.

 uv=ab(u=Aa,v=Ab), (A is Orthogonal matrix.)(19)

 

 내적을 이용하여 Orthogonal matrix를 보다 쉽게 판별할 수 있습니다. Square matrix A가 있고 A의 column vector(또는 row vector)를 a1, , an이라 합시다. (20)과 같이 정의되는 Orthonormal system을 만족한다면, A는 Orthogonal matrix입니다.

ajak=ajak={0ifjk1ifj=k(20)

 (20)을 증명해봅시다. A가 Orthogonal matrix라고 가정합시다. 그렇다면 (21)을 만족합니다.

I=A1A=AA(21)

 column vector 형태로 (21)을 다시 써봅시다.

I=AA=[a1an][a1an]=[a1a1a1a2a1ana1ana2anan](22)

 (22)의 같을 조건에 의하여, (20)을 만족함을 알 수 있습니다.

 

 Orthogonal matrix의 Determinant는 ±1입니다. Unit matrix를 이용하여 이를 증명해봅시다.

I의 Determinant는 1입니다. A가 Orthogonal matrix라 가정하면, 다음과 같이 쓸 수 있습니다.

1=det

 Determinant의 법칙 \det {(\mathbf {AB})} = \det {\mathbf {A}} \det {\mathbf {B}}, \mathbf {A} = \mathbf {A^{\top}}을 이용하여 (23)을 정리해봅시다.

\det {(\mathbf {AA^{\top}})} = \det {\mathbf {A}} \det {\mathbf {A}^{\top}} = (\det {\mathbf {A}})^2=1\cdots (24)

 (24)에서 \mathbf {A}가 Orthogonal matrix라면, \det {\mathbf {A}} = \pm 1을 만족함을 알 수 있습니다.

 

 이번 포스팅은 여기까지 마치겠습니다. 다음 포스팅에서 Diagonalization, Quadratic Forms에 대하여 작성할 예정입니다.