1. FP32 vs FP16
Secara default, Neural Network menggunakan Float32 (32-bit Floating Point). Presisinya tinggi, tapi boros memori dan lambat. GPU modern (Nvidia RTX/Tesla) punya fitur khusus bernama Tensor Cores yang sangat cepat menghitung matriks dalam Float16.
| Tipe Data | Ukuran (Bit) | Range Angka | Kecepatan |
|---|---|---|---|
| FP32 (Single) | 32-bit | Sangat Luas | 1x (Standard) |
| FP16 (Half) | 16-bit | Lebih Sempit | ~3x Lebih Cepat |