Bab 7: Optimasi Kontinu

Mencari Solusi Terbaik: Minima, Maxima, dan Konstrain

Peta Konsep

                            graph TD
                                A[Masalah Optimasi] --> B[Unconstrained]
                                A --> C[Constrained]
                                B --> D[Gradient Descent]
                                B --> E["Stochastic Gradient Descent (SGD)"]
                                B --> F[Newton Method]
                                C --> G[Lagrange Multipliers]
                                C --> H[Dualitas]
                                A --> I[Convex Optimization]
                                I --> J[Global Minimum Guaranteed]
                            

1. Gradient Descent

Bayangkan Anda berada di pegunungan yang berkabut dan ingin turun ke lembah terdalam. Strategi paling sederhana adalah melihat ke sekeliling dan melangkah ke arah yang paling curam menurun. Ini adalah intuisi dari Gradient Descent.

Untuk meminimalkan fungsi $f(\boldsymbol{x})$, kita memperbarui parameter $\boldsymbol{x}$ secara iteratif:

$$ \boldsymbol{x}_{t+1} = \boldsymbol{x}_t - \gamma \nabla f(\boldsymbol{x}_t) $$
  • $-\nabla f(\boldsymbol{x}_t)$: Arah turunan tercuram (negatif gradien).
  • $\gamma$: Step size atau Learning Rate (seberapa besar langkah yang diambil).

2. Optimasi Terkendala (Constrained Optimization)

Seringkali kita ingin mencari nilai optimal, tapi dengan batasan (constraint). Contoh: "Minimalkan biaya produksi, TAPI kualitas tidak boleh di bawah standar X".

Masalah ini diformulasikan sebagai:

$$ \begin{align*} \min_{\boldsymbol{x}} \quad & f(\boldsymbol{x}) \\ \text{subject to} \quad & g_i(\boldsymbol{x}) \le 0 \quad \text{(pertidaksamaan)} \\ & h_j(\boldsymbol{x}) = 0 \quad \text{(persamaan)} \end{align*} $$
Lagrange Multipliers

Kita bisa mengubah masalah terkendala menjadi tak terkendala dengan menggunakan Lagrangian:

$$ \mathcal{L}(\boldsymbol{x}, \boldsymbol{\lambda}, \boldsymbol{\nu}) = f(\boldsymbol{x}) + \sum \lambda_i g_i(\boldsymbol{x}) + \sum \nu_j h_j(\boldsymbol{x}) $$

Variabel baru $\lambda_i$ dan $\nu_j$ disebut Lagrange Multipliers. Solusi optimal berada di titik sadel (saddle point) dari Lagrangian.

3. Convex Optimization

Kelas masalah optimasi yang paling "enak". Jika fungsi tujuan $f(\boldsymbol{x})$ adalah Convex (cembung, berbentuk mangkuk) dan himpunan kendalanya juga convex, maka:

  • Setiap Local Minimum adalah Global Minimum.
  • Kita bisa menjamin bahwa kita akan menemukan solusi terbaik.
Banyak metode ML (seperti Support Vector Machines, Linear Regression, Logistic Regression) adalah masalah optimasi konveks. Namun, Deep Learning (Neural Networks) umumnya Non-Convex, yang membuatnya jauh lebih sulit secara teoritis, meski Gradient Descent sering berhasil dengan baik secara praktis.