Bab 4: Dekomposisi Matriks

Memecah Matriks Menjadi Komponen yang Lebih Sederhana

Peta Konsep

                            graph TD
                                A[Matriks A] --> B[Determinan & Trace]
                                A --> C[Eigenvalues & Eigenvectors]
                                A --> D[Cholesky Decomposition]
                                A --> E[Singular Value Decomposition SVD]
                                C --> F[Diagonalisasi]
                                E --> G[Data Compression / PCA]
                            

1. Determinan dan Trace

Dua karakteristik penting dari matriks persegi $\boldsymbol{A}$:

  • Trace: $\text{tr}(\boldsymbol{A}) = \sum a_{ii}$ (Jumlah elemen diagonal). Trace invarian terhadap perubahan basis.
  • Determinan: $\text{det}(\boldsymbol{A})$ atau $|\boldsymbol{A}|$. Ukuran "volume" geometris transformasi linear. $\text{det}(\boldsymbol{A}) = 0$ berarti matriks tidak bisa di-inverse (singular).

2. Eigenvalues dan Eigenvectors

Bayangkan sebuah transformasi linear $\boldsymbol{A}$. Kebanyakan vektor akan berubah arah saat ditransformasi. Namun, ada vektor spesial yang tidak berubah arah, hanya panjangnya saja yang berubah skalanya.

$$ \boldsymbol{A}\boldsymbol{x} = \lambda \boldsymbol{x} $$
  • $\boldsymbol{x}$ adalah Eigenvector.
  • $\lambda$ adalah Eigenvalue (faktor skala).
Eigendecomposition

Jika $\boldsymbol{A} \in \mathbb{R}^{n \times n}$ memiliki $n$ vektor eigen yang bebas linear, kita bisa menulisnya sebagai:

$$ \boldsymbol{A} = \boldsymbol{P}\boldsymbol{D}\boldsymbol{P}^{-1} $$

Di mana $\boldsymbol{D}$ adalah matriks diagonal berisi eigenvalue, dan $\boldsymbol{P}$ berisi eigenvector sebagai kolomnya.

3. Cholesky Decomposition

Khusus untuk matriks yang Simetris dan Positive Definite (seperti matriks kovariansi dalam Statistik), kita bisa melakukan dekomposisi yang lebih efisien yang mirip dengan "akarnya matriks":

$$ \boldsymbol{A} = \boldsymbol{L}\boldsymbol{L}^\top $$

Di mana $\boldsymbol{L}$ adalah matriks Lower Triangular. Ini sangat penting untuk optimasi numerik dan sampling distribusi Gaussian.

4. Singular Value Decomposition (SVD)

Eigendecomposition hanya untuk matriks persegi. Bagaimana dengan matriks persegi panjang $m \times n$? Jawabannya adalah SVD, "Teorema Fundamental Aljabar Linear".

Setiap matriks $\boldsymbol{A}$ bisa dipecah menjadi:

$$ \boldsymbol{A} = \boldsymbol{U}\boldsymbol{\Sigma}\boldsymbol{V}^\top $$
  • $\boldsymbol{U}$: Matriks Ortogonal ($m \times m$) -> Vektor Singular Kiri
  • $\boldsymbol{\Sigma}$: Matriks Diagonal (persegi panjang) -> Singular Values
  • $\boldsymbol{V}$: Matriks Ortogonal ($n \times n$) -> Vektor Singular Kanan