Optimasi Algoritma Pelatihan Levenberg–Marquardt Berdasarkan Variasi Nilai Learning-Rate dan Jumlah Neuron dalam Lapisan Tersembunyi

Abstract
Backpropagation (BP) merupakan salah satu paradigma pembelajaran dalam jaringan syaraf tiruan yang dibangun dengan banyak lapisan untuk mengubah bobot–bobot yang terhubung dengan neuron pada lapisan tersembunyi. Pengubahan bobot dilakukan oleh sebuah algoritma pelatihan sehingga mendekati bobot optimal. Kinerja algoritma pelatihan dikatakan optimal dapat dilihat dari error yang dihasilkan (MSE). Semakin kecil MSE, semakin optimal kinerjanya. Beberapa penelitian yang dilakukan sebelumnya, diperoleh informasi bahwa algoritma pelatihan yang paling optimal berdasarkan MSE terkecil adalah algoritma Levenberg–Marquardt (LM) dengan rata–rata MSE 0.001 dengan tingkat pengujian α=5%. Penelitian tersebut menggunakan 10 neuron dalam lapisan tersembunyi. Keadaan optimal banyaknya neuron dalam lapisan tersembunyi yang dapat menghasilkan MSE paling kecil belum diketahui. Oleh karena itu, dalam penelitian ini dilakukan analisis untuk mengetahui jumlah neuron yang paling optimal dalam lapisan tersembunyi pada algoritma LM. Parameter jaringan yang digunakan yaitu 15 neuron dalam lapisan input , target error =0.001 (10 -3 ) dan variasi nilai laju pembelajaran. Penelitian ini menggunakan metode campuran yaitu pengembangan program komputer dan pengujian data statistik menggunakan ANOVA. Pengembangan program komputer digunakan untuk membangkitkan data random sebagai masukan jaringan, menjalankan algoritma LM, dan menghasilkan data keluaran. Hasil analisis menunjukkan bahwa dengan 27 neuron pada lapisan tersembunyi menghasilkan MSE terkecil yaitu 0.0000807±0.0001220 dengan laju pembelajaran=0.8.