Part 10: Autoencoders

Seni Meringkas Data (Compression & Denoising)

1. Konsep Utama: Botol Leher (Bottleneck)

Bayangkan Anda harus menceritakan isi buku setebal 500 halaman kepada teman dalam waktu 1 menit. Anda pasti akan membuang detail tidak penting dan hanya menceritakan inti sarinya.

Itulah Autoencoder. Sebuah Neural Network yang dipaksa untuk mengkompresi data input menjadi representasi kecil (Latent Space), lalu mengembalikannya lagi.

Input
Data Besar (Gambar HD)
Encoder
Latent Vector
Intisari (Compressed)
Decoder
Output
Rekonstruksi (Mirip Input)

2. Dimensionality Reduction

Data di dunia nyata itu "loas" (Banyak dimensi/fitur). Autoencoder bisa memadatkan data tersebut.

Contoh: Rekomendasi Film

Input: Rating user untuk 10.000 film.


Tanpa Autoencoder

Kita harus memproses 10.000 angka. Berat & Lambat.

Dengan Autoencoder

Encoder memadatkan 10.000 rating menjadi 10 Angka Latent (Misal: Suka Horor, Benci Romantis, Suka Aktor X, dll).
Kita cukup memproses 10 angka ini!

3. Kegunaan Nyata Autoencoder

Image Denoising

Latih Autoencoder dengan Input = Gambar Buram/Rusak, dan Target = Gambar Bersih. AI akan belajar cara "memperbaiki" gambar.

Anomaly Detection

Latih Autoencoder hanya dengan data Normal. Jika ada data aneh masuk, Autoencoder akan gagal merekonstruksinya (Error tinggi). Error tinggi = Pertanda Anomali (Fraud/Kerusakan).

Revolusi NLP: Transformer

RNN lambat karena harus membaca kata satu per satu. Bagaimana jika kita bisa membaca seluruh kalimat sekaligus dan langsung tahu mana yang penting? Selamat datang di era Transformer & ChatGPT.

Lanjut ke Part 11: Transformers