5.3. Optimization Algorithm
Video tersebut menjelaskan berbagai algoritma optimisasi untuk memperbarui bobot dalam pelatihan jaringan saraf, termasuk SGD, Momentum, Adagrad, RMSprop, dan Adam, serta bagaimana masing-masing algoritma menangani masalah gradien dan laju pembelajaran untuk meningkatkan efisiensi pelatihan. Berikut adalah poin-poin ringkas dalam video.
- 0:05-0:15 - Penjelasan tentang algoritma optimisasi yang digunakan untuk mencari minimum fungsi kerugian dalam jaringan saraf, setelah backpropagation menghitung gradien.
- 1:05-2:00 - Penjelasan ulang tentang jaringan saraf: data masuk di lapisan input dan keluar di lapisan output, dengan fungsi kerugian dihitung untuk melatih bobot melalui gradien.
- 2:00-3:20 - Masalah ketika dataset besar dan solusinya
- 3:20-4:00 - Stochastic Gradient Descent: bobot (W) diperbarui dengan gradien yang diskalakan oleh learning rate (η). Laju pembelajaran adalah hiperparameter penting yang bisa memengaruhi performa.
- 4:00-5:00 - Learning rate rendah memperlambat pelatihan, bisa membuat bobot terjebak di local minima. Learning rate tinggi bisa membantu bobot keluar dari local minima tapi berisiko melewati target minimum.
- 5:00-6:30 - Momentum ditambahkan ke SGD untuk mempercepat pembaruan bobot, membantu melompati local minima dan mengurangi fluktuasi stokastik.
- 6:30-8:00 - Adagrad: metode ini menyesuaikan learning rate dengan skala akar kuadrat dari gradien yang ditemukan sebelumnya, membantu parameter yang kurang sering diperbarui untuk mendapatkan peningkatan.
- 8:00-10:00 - RMSprop: memperbaiki kekurangan Adagrad dengan memungkinkan learning rate meningkat atau menurun selama pelatihan, menggunakan parameter diskon untuk menyimpan gradien sebelumnya.
- 10:00-12:00 - Adam (Adaptive Moment Estimation): menggabungkan kelebihan RMSprop dan momentum untuk mendapatkan pembaruan learning rate yang lebih adaptif dan efisien.