Pengguna:KhalilullahAlFaath/Jaringan saraf konvolusional: Perbedaan antara revisi

Konten dihapus Konten ditambahkan
Penambahan Konten
Tag: VisualEditor Suntingan perangkat seluler Suntingan peramban seluler
Tambah konten arsitektur
Tag: VisualEditor Suntingan perangkat seluler Suntingan peramban seluler
Baris 31:
 
{{TOC limit|3}}
 
== Architecture ==
[[File:Comparison image neural networks.svg|thumb|480px|Perbandingan lapisan konvolusi (convolution), pengumpul (pooling), rapat (dense) dari [[LeNet]] dan [[AlexNet]]<br>(Ukuran citra masukan AlexNet seharusnya 227×227×3, bukan 224×224×3, agar perhitungannya benar. Makalah aslinya menyebutkan angka yang berbeda, tetapi Andrej Karpathy, kepala visi komputer Tesla, mengatakan bahwa seharusnya 227×227×3 (dia mengatakan bahwa Alex tidak menjelaskan mengapa dia menggunakan 224×224×3). Konvolusi berikutnya seharusnya 11×11 dengan langkah (stride) 4: 55×55×96 (bukan 54×54×96). Sehingga jika dihitung, misalnya, sebagai: [(lebar input 227 - lebar kernel 11) / stride 4] + 1 = [(227 - 11) / 4] + 1 = 55. Karena luaran kernel memiliki panjang yang sama dengan lebar, maka luasnya adalah 55×55).]]
{{Main|Lapisan (pemelajaran dalam)}}
CNN terdiri atas satu lapisan masukan (''input layer''), [[jaringan saraf tiruan#organisasi|lapisan-lapisan tersembunyi]], dan satu lapisan luaran (''output layer''). Lapisan-lapisan tersembunyi CNN di dalamnya termasuk satu atau lebih lapisan yang melakukan konvolusi. Lapisan ini biasanya menghitung [[Produk dot|perkalian titik]] kernel konvolusi dengan matriks masukan lapisan. Lapisan ini melakukan perkalian titik ini umumnya dengan [[produk titik frobenius|produk titik Frobenius]] dan menggunakan [[rectifier (jaringan saraf)|ReLU]] sebagai fungsi aktivasinya. Proses konvolusi dengan pergeseran kernel konvolusi pada matriks masukan pada layer tersebut menghasilkan peta fitur (''feature maps'') dan digunakan sebagai masukan untuk lapisan selanjutnya. Lapisan konvolusi ini dilanjutkan oleh lapisan-lapisan lainnya, seperti lapisan pengumpul (''pooling layer''), lapisan terhubung sepenuhnya ''(fully-connected layer''), dan lapisan normalisasi (''normalization layer''). Di sini perlu diperhatikan kemiripan antara CNN dengan [[matched filter]].<ref>Convolutional Neural Networks Demystified: A Matched Filtering Perspective Based Tutorial https://arxiv.org/abs/2108.11663v3</ref>