Part 6: Overfitting & Regularization

Musuh Terbesar AI: "Menghafal" vs "Memahami"

1. Overfitting (Menghafal Soal)

Bayangkan seorang siswa yang menghafal kunci jawaban tryout. Saat tryout nilainya 100 (Training Loss Rendah). Tapi saat Ujian Nasional soalnya sedikit beda, dia tidak bisa jawab (Test Loss Tinggi).

Itulah Overfitting. Model terlalu "pas" dengan data training sampai tidak mengenali pola umum (Generalisasi lemah).

Underfitting

Terlalu bodoh
(Garis Lurus di kurva lengkung)

Good Fit

Pas
(Menangkap pola umum)

Overfitting

Terlalu hafal
(Garis meliuk-liuk kena semua titik)

2. Regularization (Solusi)

Bagaimana mencegah siswa menghafal? Kita mempersulit hidupnya saat belajar.

Secara acak "mematikan" (menghapus) sebagian neuron saat training (misal 50%). Ini memaksa neuron lain untuk bekerja lebih keras dan tidak bergantung pada satu fitur saja.

Memantau Validation Loss saat training. Jika Validation Loss mulai naik padahal Training Loss turun, hentikan training segera! Itu tanda overfitting dimulai.

Memperbanyak data dengan memanipulasi data yang ada. Contoh: Memutar gambar, zoom, crop, atau mengubah kecerahan. Ini membuat model belajar bahwa "Kucing miring" tetaplah "Kucing".

Masuk ke Dunia Visual (Computer Vision)

Neural Network biasa (MLP) payah dalam melihat gambar. Kita butuh arsitektur khusus yang meniru mata manusia: Convolutional Neural Network (CNN).

Lanjut ke Part 7: Why Convolution?