IMPLEMENTASI ALGORITMA GENETIKA DENGAN MAGNIFIED GRADIENT FUNCTION DAN DETERMINISTIC WEIGHT MODIFICATION DALAM MULITLAYER NEURAL NETWORK
Abstract
Algoritma backpropagation menggunakan pola pelatihan yang berdasarkan turunan fungsi gradien (gradient derivative function) untuk perubahan bobot dan fungsi aktifasi yang berupa fungsi sigmoid, sehingga error yang dihasilkan pada iterasi berikutnya semakin kecil. Dalam penggunaan algoritma backpropagation ada dua aspek yang menjadi pertimbangan yaitu flat spot dan laju konvergensi (convergence rate).
Penelitian berikut berusaha mengembangkan hibrid GA-MDPROP yang bertujuan mempercepat laju konvergensi dari algoritma backpropagation. Algoritma genetika digunakan untuk mecari topologi optimum dari jaringan saraf khususnya pada penentuan bobot awal, sedangkan MDPROP merupakan model hibrid Magnified Gradient Function Propagation (MGFPROP) dengan Deterministic Weight Modification (DWM). Penggunaan MGFPROP bertujuan mempercepat laju konvergensi dengan memperbesar fungsi gradient pada fungsi aktifasi, sedangkan DWM bertujuan mengurangi error dari sistem dengan mengubah bobot dengan cara yang telah ditentukan.
Hasil penelitian menunjukkan algoritma GA-MDPROP memiliki laju konvergensi yang lebih cepat dibandingkan dengan algoritma backpropagation. Algoritma GA-MDPROP juga memiliki laju konvergensi yang lebih cecpat dibandingkan dengan algoritma MDPROP khususnya untuk faktor penguatan S=1.
Kata kunci: Algoritma Genetika, Magnified Gradient Function Propagation (MGFPROP), Deterministic Weight Modification (DWM), MDPROP, GA-MDPROP.
Penelitian berikut berusaha mengembangkan hibrid GA-MDPROP yang bertujuan mempercepat laju konvergensi dari algoritma backpropagation. Algoritma genetika digunakan untuk mecari topologi optimum dari jaringan saraf khususnya pada penentuan bobot awal, sedangkan MDPROP merupakan model hibrid Magnified Gradient Function Propagation (MGFPROP) dengan Deterministic Weight Modification (DWM). Penggunaan MGFPROP bertujuan mempercepat laju konvergensi dengan memperbesar fungsi gradient pada fungsi aktifasi, sedangkan DWM bertujuan mengurangi error dari sistem dengan mengubah bobot dengan cara yang telah ditentukan.
Hasil penelitian menunjukkan algoritma GA-MDPROP memiliki laju konvergensi yang lebih cepat dibandingkan dengan algoritma backpropagation. Algoritma GA-MDPROP juga memiliki laju konvergensi yang lebih cecpat dibandingkan dengan algoritma MDPROP khususnya untuk faktor penguatan S=1.
Kata kunci: Algoritma Genetika, Magnified Gradient Function Propagation (MGFPROP), Deterministic Weight Modification (DWM), MDPROP, GA-MDPROP.
Full Text:
PDFDOI: http://dx.doi.org/10.12962/j24068535.v5i2.a238
Refbacks
- There are currently no refbacks.