Part 14: Advanced Optimization

Meninggalkan Stochastic Gradient Descent (SGD) Klasik

1. Evolusi Optimizer

SGD itu ibarat orang buta menuruni gunung dengan langkah kecil. Lambat dan sering tersangkut di lembah lokal (Local Minima). Kita butuh alat yang lebih canggih.

Momentum

"Seperti bola menggelinding."
Mempertahankan kecepatan dari langkah sebelumnya. Jika arahnya sama, makin cepat!

RMSprop

"Adaptive Learning Rate."
Jalan curam? Pelankan langkah. Jalan datar? Percepat langkah.

Adam

"Momentum + RMSprop"

Raja dari segala optimizer saat ini. Cepat, stabil, dan adaptif.
(Adaptive Moment Estimation)

2. Learning Rate Scheduling

Learning Rate (LR) tidak harus tetap (konstan) sepanjang waktu.

Mulai dengan LR besar (biar cepat turun gunung), lalu kecilkan LR pelan-pelan saat mendekati tujuan (biar presisi).

Mulai dengan LR sangat kecil (pemanasan), lalu naikkan perlahan, baru turunkan lagi (Decay). Ini mencegah gradien meledak di awal training.

Model Sudah Pintar & Cepat!

Tapi... kenapa dia memutuskan gambar ini adalah "Kucing"? AI sering disebut "Kotak Hitam" (Black Box). Mari kita bongkar isinya.

Lanjut ke Part 15: Explainability (XAI)