본문 바로가기
다른 공부들/수학

[Kreyszig 공업수학][선형대수] 8장 (3) 여러가지 종류의 실행렬들

by 생각사람 2023. 9. 24.
 

Kreyszig 공업수학(상) | Erwin Kreyszig - 교보문고

Kreyszig 공업수학(상) | 『공업수학』 상권. 이 책은 반세기 동안 전 세계적으로 가장 널리, 그리고 가장 많이 채택되어 사용되고 있는 Erwin Kreyszig교수가 저술한 Advanced Engineering Mathematics, 10th Edition

product.kyobobook.co.kr

위의 공업수학 교재에 나오는 내용을 혼자 공부하기 위해 정리한 요약노트입니다. 그리고 영어교과서를 기준으로 보고 있기도 하고, 많은 전공서적들에서 영어표현을 많이 사용하기 때문에, 한글용어를 일부러 찾아서 소개는 해볼 생각이지만 용어소개가 끝나면 주요 용어들은 영어로 나오게 될 예정인 점 양해 부탁드립니다.

 

대각화 문제(diagonalization problem)을 다루기 전에, 여러가지 독특한 특성을 가지는 행렬들과 고유치 문제의 연관관계를 살펴보고 가도록 하겠습니다. 조금 더 선형대수학을 제대로 공부해보기 시작하면(겉핥기 말고!) 자주 등장하는 행렬들이었던 것으로 기억해요

목차

    여러가지 행렬들의 종류

    By Jérôme - {own}, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=19344633

    위키피디아에 정말 좋은 도표가 있었어요! 중요하게 이름까지 붙여서 다루는 행렬들이 위의 그림처럼 어마어마하게 많아요! 이번 시리즈에서 다룰 행렬들은 저 중에서,

    • 직교행렬(orthogonal matrix)
    • 대칭행렬(symmetric matrix)
    • 반대칭행렬(skew-symmetric matrix)
    • 정부호행렬(definite matrix)
    • 에르미트 행렬(Hermitian matrix)
    • 반에르미트 행렬(skew-Hermitian matrix)
    • 유니타리 행렬(unitary matrix)

    이렇게 적어놓고 나니 거의 다네요... 정의를 먼저 쭉 정리해보겠습니다. 이 정리를 하는 데에는 실수 행렬과 복소수 행렬을 나누어 하면 조금 더 간단해요.

    실수 행렬들에 대해 (Real matrices)

    먼저 실수 성분을 갖는 실수 행렬 혹은 실행렬에 대해 알아볼 거에요. 여기에 해당하는 것은 symmetric matrix, skew-symmetric matrix, 그리고 orthogonal matrix가 있어요. 여기서는 transpose를 취했을 때에 원래 행렬과 어떤 관계를 갖느냐가 중요해요.

    • Symmetric matrix: \(A^{t} = A\)를 만족하는 행렬이에요. 즉, 대각성분에 대칭이기 때문에 이런 이름을 가져요.
    • Skew-symmetric matrix: \(A^{t} = -A\)를 만족하는 행렬이에요. 즉, 대각성분을 기준으로 부호만 바뀌고 크기는 같은 성분을 갖기 때문에 이런 이름을 가져요.
    • Orthogonal matrix: \(A^{t} = A^{-1}\)을 만족하는 행렬이에요. 즉, transpose를 취하면 역행렬을 얻을 수 있어요. 

    먼저 간단히 내적(Inner product)에 대해

    Orthogonal matrix의 성질을 알기 위해서는 내적(inner product)을 잠시 정의할 필요가 있어요. 고등학교 <기하와 벡터> 수준에서 정의된 것과 크게 다르지 않아요. \(\vec{x},\; \vec{y} \in \mathbb{R}^{n}\)에 대해,

    $$\begin{align} \vec{x} \cdot \vec{y} &\stackrel{(1)}{=} (x_{1},\;\cdots ,\; x_{n})\cdot (y_{1},\;\cdots ,\; y_{n}) \\ &= \sum_{i} x_{i}y_{i} \\ &= \vec{x}^{t}\vec{y} \\ &\stackrel{(2)}{=} \pmatrix{x_{1} & \cdots & x_{n}} \pmatrix{y_{1} \\ \vdots \\ y_{n}} \end{align}$$

    책마다 기호가 조금 다를 수는 있어요. 내적을 \(\langle\vec{x},\;\vec{y}\rangle\)로 나타내기도 합니다. 여기서 잘 봐두셔야 하는 것이 (1)에서의 표기와 (2)에서의 표기가 다르다는 것이에요. (1)에서는 둘 다 가로로 적혀 있어요. 이렇게 쉼표(comma)를 써서 표시하는 방법이 튜플(tuple)형태로  표현한 방법이에요. 그런데 (2)에서는 쉼표를 사용하지 않고 마치 \(n\times 1\) 행렬인 것처럼 적었죠? 이런 것은 행렬형태로 벡터를 표현하였다고 표현해요. 대단한 차이는 아닌데 간혹 둘을 마구 섞어서 서술하는 책들이 있어서 이런 것이 있구나 알아두면 도움이 되겠어요!

     

    이제 각 행렬들이 갖는 성질들을 정리해보겠습니다!

    Orthogonal matrix ★

    조금 특이한 만큼 중요한 행렬입니다. 어떤 성질이 있는지 볼게요. 자세히는 다루지 않겠지만, 평면이나 3차원 공간에서 orthogonal matrix로 나타나는 linear transformation은 회전변환(rotation transformation)에 해당한다고 해요. 이걸 내적의 보존에서 살짝 엿볼 수 있어요!

    (내적의 보존; invariance of inner products)
    orthogonal matrix로 나타나는 orthogonal transformation(직교변환)은 벡터들의 내적을 보존한다. 즉, orthogonal matrix \(A\)와 $$\vec{a},\;\vec{b},\;\vec{x},\;\vec{y} \in \mathbb{R}^{n}$$에 대해 $$A\vec{x} = \vec{a},\;A\vec{y} = \vec{b}$$라고 한다면, $$\vec{x} \cdot \vec{y} = \vec{a} \cdot \vec{b}$$가 성립한다.

    증명은 어렵지 않아요. 단순히 다 대입해보면 됩니다!

    $$\begin{align} \vec{a} \cdot \vec{b} &= (A\vec{x})^{t}(A\vec{y}) \\ &= \vec{x}^{t}A^{t}A\vec{y} \\ &= \vec{x}^{t}I_{n}\vec{y} \\ &= \vec{x}\cdot \vec{y}\end{align}$$

    여기서 또 하나 얻을 수 있는 것은, 벡터의 길이, 혹은 노름(norm)가 직교변환에 의해 변하지 않고 보존된다는 거에요. 이건,

    $$||\vec{x}|| = \sqrt{\vec{x}\cdot\vec{x}} = \sqrt{\vec{a}\cdot\vec{a}} = ||\vec{a}||$$에서 알 수 있어요.

     

    그리고 이런 성질도 있어요!

    다음은 동치이다.
    (1) 어떤 real matrix가 orthogonal matrix이다.
    (2) 열벡터와 행벡터가 orthonormal system을 형성한다.

    여기서 orthonormal system을 형성한다는 것은, \(j\)번째 열벡터(column vector)와 \(k\)번째 열벡터에 대해 내적을 생각하면,

    $$\vec{a_{j}} \cdot \vec{a_{k}} = \delta_{jk} =  \begin{cases} 0 & j\ne k \\ 1 & j=k \end{cases}$$ 여기서 \(\delta_{jk}\)를 크로네커 델타(Kronecker's delta)라고 합니다.

     

    증명은 역시 어렵지 않아요. (1)을 가정하면 (2)가 됨은 LaTeX로 쓰기가 조금 번거로워서 글씨로 직접 써봤어요 ㅎㅎ

    증명과정입니다.

    열벡터가 orthonormal system을 형성함을 보이는 데에는 \(I_{n} = A^{-1}A = A^{t}A\)를 이용했습니다. 행벡터가 orthonormal system을 형성함을 보이기 위해서는 \(I_{n} = AA^{-1} = AA^{t}\)을 이용하면 되고 별로 어렵지 않아요!

     

    이번엔 (2)이면 (1)임을 보이면 되겠습니다. \(AA^{t} = A^{t}A = I_{n}\)임을 동일한 계산과정을 통해 나타낼 수 있어요. 그런데 inverse matrix는 유일하기 때문에 (다른 역행렬이 존재한다고 귀류법 써버리면 모순임이 보여지겠죠?) \(A^{t} = A^{-1}\)이 되어 orthogonal matrix임이 증명됩니다.

     

    또 다음과 같은 성질도 있어요!

    Orthogonal matrix의 행렬식은 1 또는 -1이다.

    증명은 무척 쉬워요. \(\det(A) = \det(A^{t})\)임을 이용하면,

    $$\begin{align}(\det(A))^{2} &= \det(A)\det(A^{t}) \\ &= \det(AA^{t}) \\ &= 1\end{align}$$

    이므로 증명이 끝납니다.

     

    이런 성질도 가질 수 있어요!

    Orthogonal matrix의 곱도 orthogonal matrix가 된다.

    \(A,\;B\)를 orthogonal matrix라고 하면,

    $$\begin{align}(AB)^{t}AB &= B^{t}A^{t}AB \\ &= B^{t}B \\ &= I_{n}\end{align}$$

    가 되므로 증명됩니다. 참고로, 아까 처음에 orthogonal matrix는 rotation에 해당한다고 했었죠? rotation을 하고 또 rotation을 하는 변환이 orthogonal matrix의 곱에 의해 나타나므로, 역시 rotation이 됨은 유추해볼 수 있기는 해요.

     

    이번에는 eigenvalue problem과 연결지어 볼까요?

    Orthogonal matrix의 eigenvalue는 +1 or -1이다. 

    이번 글에서 나오는 성질들의 증명은 대체로 어렵지 않지만 이건 조금 생각할 부분이 있었습니다. 일단 orthogonal matrix의 성질을 이용하려면 transpose를 어떻게든 취해야 하고, eigenvalue problem을 푸는 거니까 \(A\vec{x} = \lambda \vec{x}\)를 어떻게든 써야 합니다. 이걸 잘 생각하면,

    $$\begin{align} (A\vec{x})^{t}A\vec{x} &= (\lambda \vec{x})^{t}\lambda \vec{x} \\ &= \lambda^{2} \vec{x}^{t}\vec{x} \\ &= \lambda^{2} ||\vec{x}||^{2}\end{align}$$

    그런데

    $$\begin{align} (A\vec{x})^{t}A\vec{x} &= \vec{x}^{t}A^{t}A\vec{x}\\ &= \vec{x}^{t}\vec{x} \\ &= ||\vec{x}||^{2}\end{align}$$

    이므로 eigenvector는 영벡터(null vector)가 아닌 것을 다루므로

    $$\lambda^{2} = 1$$

    이 되어 증명이 끝납니다.

     

    이렇게나 다양한 성질을 가지고 있는 거라면 모아서 한 번 생각해볼 만하지요? 이게 복소수로 이어지면 유니타리 행렬(unitary matrix)가 되어 정말 많이 나오게 된답니다........... 물론, 이 시리즈에서는 많이 나오지는 않겠지만요.

    Symmetric matrices & Skew-symmetric matrices

    대칭행렬과 반대칭행렬은 직교행렬만큼은 아니지만 여러가지 성질을 가지고 있어요.

     

    먼저 임의의 행렬을 가지고 대칭행렬이나 반대칭행렬을 만들 수 있다는 걸 다뤄볼게요.

    임의의 \(n\times n\) 행렬에 대해 다음을 만족한다고 하자.
    $$\begin{cases} B = A + A ^{t} = (a_{ij}+a_{ji}),\\ C = A-A^{t} = (a_{ij} -a_{ji})\end{cases}$$
    그러면 \(B,\;C\)는 각각 symmetric matrix, skew-symmetric matrix가 된다.

    증명은 따로 할 필요 없겠죠? 각각에 transpose를 취해보면 알 수 있어요.

     

    또 이런 성질도 있어요

    symmetric matrix의 inverse는 symmetric, skew-symmetric matrix의 inverse는 skew-symmetric이 된다.

    아까 orthogonal matrix도 그렇지만, 이 친구들은 무조건 transpose를 취해주기는 해야한다는 마음가짐을 가져야 하고, 증명은 유일성을 이용하면 쉽게 가능해요. 먼저 symmetric을 보죠. symmetric matrix를 \(A\), 이 inverse를 \(B\)라고 하면,

    $$\begin{align} (AB)^{t} &= I_{n} \\ &= B^{t}A^{t} \\ &= B^{t} A \end{align}$$

    그런데

    $$\begin{align} (BA)^{t} &= I_{n} \\ &= A^{t}B^{t} \\ &= A B^{t} \end{align}$$

    그러므로 \(B^{t} = A^{-1}\)가 성립하게 되어버리는데, inverse는 유일하므로 $$B^{t} = B$$가 성립합니다. skew-symmetric의 경우도 똑같으니 직접 해보세요!

     

    Symmetric matrix의 eigenvalue problem을 생각해보면 다음이 성립함도 알 수 있다고 해요!

    서로 다른 eigenvalue에 대응하는 eigenvector들은 서로 수직이다(=내적값이 0이다)

    이건 다음을 이용하면 증명 가능해용.

    $$\begin{align} (A\vec{x})\cdot \vec{y} &= \vec{x}^{t} A^{t} \vec{y} \\ &= \vec{x}^{t} (A^{t}\vec{y}) \\ &= \vec{x} \cdot (A\vec{y})\end{align}$$

    Eigenvalue problem에 대입했다고 치고 \(\lambda_{1} \ne \lambda_{2} \)이며 \(A\vec{x} = \lambda_{1} \vec{x}\)와 \(A\vec{y} = \lambda_{2} \vec{y}\)가 성립한다고 하면, 위의 관계에 의해서

    $$ \lambda_{1} \vec{x}\cdot \vec{y} = \lambda_{2}\vec{x}\cdot\vec{y}$$

    가 성립합니다. 그런데 $$(\lambda_{1}-\lambda_{2})\vec{x}\cdot\vec{y} = 0$$이 되어 $$\vec{x}\cdot\vec{y}=0$$이 됩니다. skew-symmetric의 경우에는 부호 문제 때문에 위의 성질을 만족하지 않아요.


    마무리

    정말 다양한 행렬들이 있지요? 성질도 여러가지 가지고 있구요! 이런 symmetric, skew-symmetric, orthogonal matrix는 실수 성분을 갖는 행렬 한정이어서 일반적이지 못해요. 우리가 알고 있는 가장 넓은 범위의 수체계는 복소수(complex number)이죠? 다음 글에서 다룰 Hermitian, skew-Hermitian, unitary matrix는 복소수체계에서 정의되는 수로 위의 3개의 행렬들의 일반화로 생각하면 된다고 해요.

     

    너무 길어지고 있으니 다음글에서 이어가도록 하겠습니다.

    댓글