3.3. Minibatch
Materi ini menjelaskan konsep mini batch dalam pelatihan jaringan neural, yang membagi data menjadi beberapa batch untuk mempercepat komputasi dan meningkatkan efisiensi pembelajaran, dengan manfaat utama termasuk estimasi gradien yang lebih akurat dan peningkatan kecepatan training pada GPU. Rincian materi sebagai berikut:
- 0:03 - 0:08: Pembahasan mengenai mini batch dalam proses training.
- 0:11 - 0:17: Loss dihitung untuk memperbarui bobot jaringan.
- 0:33 - 0:46: Ilustrasi penggunaan gambar dalam training dan pembaruan bobot berdasarkan loss.
- 0:54 - 1:12: Dataset contoh dengan 8.000 gambar, masing-masing 64x64 piksel RGB, menghasilkan banyak data poin.
- 1:32 - 2:00: Gambar diproses melalui feature map, menghasilkan 65.536 data poin per gambar.
- 2:21 - 2:42: Penggunaan mini batch untuk mempercepat komputasi dengan membagi data menjadi beberapa batch.
- 2:53 - 3:10: Mini batch memungkinkan training yang lebih cepat dan efisien dibandingkan melatih seluruh sampel sekaligus.
- 3:17 - 3:48: Keuntungan mini batch: estimasi gradien lebih akurat, pembelajaran lebih cepat, dan komputasi paralel yang meningkatkan kecepatan training pada GPU.