30.1. Symmetric, Skew-Symmetric, Orthogonal Matrices.
Square matrix A=[ajk]가 있을 때, A의 Transpose matrix와도 같다면, 이 Matrix를 Symmetric matrix라고 합니다.
A=A⊤,thusajk=akj⋯(1)
Skew-Symmetric matrix는 A가 Transpose matrix에 −1을 곱한 것과 같은 Matrix를 말합니다. 즉,
A=−A⊤,thusajk=−akj⋯(2)
Orthogonal matrix는 A의 Transpose matrix와 Inverse matrix가 같은 matrix를 말합니다. 식으로 쓰면
A⊤=A−1⋯(3)
Symmetric, Skew-Symmetric, Orthogonal Matrices의 예시를 확인해 봅시다.
[−31510−25−24]⋯(4)
[09−12−902012−200]⋯(5)
[231323−2323131323−23]⋯(6)
(4)는 Symmetric matrix, (5)는 Skew-Symmetric matrix, (6)은 Orthogonal matrix입니다. (4), (5)는 직관적으로 각각 (1), (2)를 만족하는 Matrix임을 확인할 수 있습니다. (6)은 Gauss-Jordan Elimination으로 Inverse matrix를 구하면 (3)을 만족함을 알 수 있습니다. Orthogonal matrix는 다음 섹션에서 자세히 다루겠습니다.
모든 Skew-Symmetric matrix는 주대각성분이 모두 0입니다. Transpose matrix는 주대각성분을 변화시키지 않기 때문입니다. 주대각성분의 임의의 원소를 akk라 합시다.
[a11a12⋯a1na21⋱⋯⋮⋯akk⋯⋮⋱an1⋯ann]=[−a11−a21⋯−an1−a12⋱⋯⋮⋯−akk⋯⋮⋱−a1n⋯−ann]⋯(7)
(7)의 akk=−akk를 만족하는 수는 오직 0뿐이기 때문에, Skew-Symmetic matrix의 주대각성분은 모두 0이어야 함을 확인할 수 있습니다.
임의의 Square matrix A를 Transpose matrix를 이용해서 Symmetric matrix와 Skew-Symmetric matrix를 만들어 낼 수 있습니다. Symmetric matrix를 R, Skew-Symmetric matrix를 S라 하면 다음과 같은 식을 만족합니다.
R=12(A+A⊤)⋯(8)
S=12(A−A⊤)⋯(9)
(8)과 (9)를 더하면 새로운 사실을 알 수 있습니다.
A=R+S⋯(10)
(10)은 임의의 Square matrix는 Symmetric matrix와 Skew-Symmetric matrix의 합으로 나타낼 수 있음을 의미합니다.
cf) Eigenvalue of Symmetric and Skew-Symmetric Matrices.
1). Symmetric matrix의 Eigenvalue는 실수입니다.
2). Skew-Symmetric matrix의 Eigenvalue는 순허수이거나 0입니다.
30.2. Orthogonal Transformations and Orthogonal Matrices.
Orthogonal transformation는 여태까지 풀어왔던 식인 (11)의 형태의 A가 Orthogonal matrix인 경우를 말합니다.
y=Ax⋯(11)
Orthogonal transformation의 예시로 각 θ만큼 평면의 회전이 있겠습니다.
y=[y1y2]=[cosθ−sinθsinθcosθ][x1x2]⋯(12)
잠시 Inner product(내적)를 먼저 정의해봅시다. a, b는 Rn내의 vector입니다.
a⋅b=a⊤b=[a1⋯an][b1⋮bn]⋯(13)
여기서 Orthogonal transformation은 내적 값을 변화시키지 않습니다. 증명해 봅시다. a, b의 Orthogonal transformation을 u, v라고 합시다. 식으로 다시 써보면 다음과 같습니다.
u=Aa⋯(14)
v=Ab⋯(15)
u와 v의 내적을 구해봅시다. (13)의 정의에 따라 다음과 같이 쓸 수 있습니다.
u⋅v=u⊤v=(Aa)⊤Ab⋯(16)
Transpose의 법칙 (AB)⊤=B⊤A⊤을 이용해 (16)을 다시 써봅시다.
(Aa)⊤Ab=a⊤A⊤Ab⋯(17)
A는 Orthogonal matrix이기 때문에, A⊤=A−1이 성립합니다. A−1A=I이므로, Ortogonal matrix는 A⊤A=I를 만족합니다. 이를 이용해 (17)을 다음과 같이 정리할 수 있습니다.
a⊤A⊤Ab=a⊤Ib=a⊤b=a⋅b⋯(18)
즉, (18)을 통해 다음을 결론지을 수 있습니다.
u⋅v=a⋅b(u=Aa,v=Ab), (A is Orthogonal matrix.)⋯(19)
내적을 이용하여 Orthogonal matrix를 보다 쉽게 판별할 수 있습니다. Square matrix A가 있고 A의 column vector(또는 row vector)를 a1, ⋯, an이라 합시다. (20)과 같이 정의되는 Orthonormal system을 만족한다면, A는 Orthogonal matrix입니다.
aj⋅ak=aj⊤ak={0ifj≠k1ifj=k⋯(20)
(20)을 증명해봅시다. A가 Orthogonal matrix라고 가정합시다. 그렇다면 (21)을 만족합니다.
I=A−1A=A⊤A⋯(21)
column vector 형태로 (21)을 다시 써봅시다.
I=A⊤A=[a1⊤⋮an⊤][a1⋯an]=[a1⊤a1a1⊤a2⋯a1⊤⋮⋮⋱⋮an⊤a1an⊤a2⋯an⊤an]⋯(22)
(22)의 같을 조건에 의하여, (20)을 만족함을 알 수 있습니다.
Orthogonal matrix의 Determinant는 ±1입니다. Unit matrix를 이용하여 이를 증명해봅시다.
I의 Determinant는 1입니다. A가 Orthogonal matrix라 가정하면, 다음과 같이 쓸 수 있습니다.
1=det
Determinant의 법칙 \det {(\mathbf {AB})} = \det {\mathbf {A}} \det {\mathbf {B}}, \mathbf {A} = \mathbf {A^{\top}}을 이용하여 (23)을 정리해봅시다.
\det {(\mathbf {AA^{\top}})} = \det {\mathbf {A}} \det {\mathbf {A}^{\top}} = (\det {\mathbf {A}})^2=1\cdots (24)
(24)에서 \mathbf {A}가 Orthogonal matrix라면, \det {\mathbf {A}} = \pm 1을 만족함을 알 수 있습니다.
이번 포스팅은 여기까지 마치겠습니다. 다음 포스팅에서 Diagonalization, Quadratic Forms에 대하여 작성할 예정입니다.
'전공 정리 > 공업수학' 카테고리의 다른 글
32. 벡터미적분학 : 내적과 외적 (0) | 2020.06.03 |
---|---|
31. 대각화와 이차 형식 (0) | 2020.05.29 |
29. 고윳값 문제 적용 (0) | 2020.05.27 |
28. 고윳값 문제 (0) | 2020.05.26 |
27. 크래머(Cramer) 공식, 가우스-조던 소거법 (Gauss-Jordan Elimination) (0) | 2020.05.22 |
댓글