Coconote
AI notes
AI voice & video notes
Try for free
🤖
Memahami Residual Connection di Neural Network
Aug 23, 2024
Residual Connection dalam Neural Network
Pengantar
Residual connection adalah komponen dalam desain neural network yang berbentuk skip connection.
Diperkenalkan dalam Residual Network (ResNet).
Motivasi Residual Connection
Awalnya dari eksperimen yang membandingkan network 20 layer dan 56 layer.
Hasil Eksperimen:
Network 56 layer memiliki training error dan test error yang lebih tinggi dibandingkan network 20 layer.
Pertanyaan muncul: apakah transformasi identity lebih optimal dan tidak memerlukan layer tambahan?
Konsep Transformasi Identity
Skip connection memungkinkan input melewati tanpa diubah oleh layer tambahan.
Residual (selisih) dihitung oleh cabang lain yang memiliki layer.
Manfaat Residual Connection
Membantu mengurangi masalah vanishing gradient.
Gradien dapat mengalir dari dua cabang.
Vanishing Gradient:
Mengacu pada hilangnya gradien selama backpropagation.
Hasil Penelitian
Grafik menunjukkan error pada network:
Tanpa Residual Connection:
Network 34 layer memiliki error lebih tinggi dibandingkan dengan network 18 layer.
Dengan Residual Connection:
Network 34 layer memiliki error lebih rendah dibandingkan dengan network 18 layer.
Pembuktian bahwa residual connection penting dalam membangun deep network.
Penggunaan Residual Connection
Selain ResNet, juga digunakan dalam:
ShuffleNet
MobileNet versi 2
Metode Penggabungan Features
Pada skip connection, ada dua metode penggabungan:
Penjumlahan
: Menggabungkan dua features.
Concatenation
: Informasi kedua features tidak tercampur.
Contoh penggunaannya:
DenseNet
U-Net
Penutup
Untuk pembelajaran lebih lanjut, disarankan untuk subscribe channel untuk update.
📄
Full transcript