Soru sorNN üzerinde her çalıştırmada farklı veya aynı sonucu almak
oguz tarafından 6 yıl önce soruldu

Merhaba,
NN üzerinde train ettiğim data her seferinde hem performans olarak epoch olarak farklı sonuç veriyordu. İngilizce arattığımda 
rng('default')
koduyla çözülebileceğini yazdıklarını gördüm. Kodu eklediğimde her seferinde aynı sonucu alıyordum ancak parametreleri değiştirdiğimde (LR, Epoch, Goal) de sonuç değişmiyor. Sadece neuron sayısı değişince değişiklik oluyor. Bunu nasıl düzeltebilirim?

1 Cevap
En iyi cevap
ozturk tarafından 6 yıl önce cevaplandı

Merhaba,
NN kullanarak eğitim işlemi gerçekleştirmek için ağında bulunan parametre sayısı ve eğitim örneği sayısı iyi hesaplanmalıdır. Muhtemelen kullandığın parametre sayısına göre eğitim verin yetersiz. Eğitim örneklerini arttırarak bu problemi çözebilirsin. Diğer olası problem ise eğitim verinin lineer olabilme ihtimalidir. bunları iyice incelemelisin. Muhtemelen öğrenme gerçekleşmiyor. 
rng('değer') kodu başlangıçta random olarak belirlenecek parametre değerleri için kullanılır. Senin probleminde kullandığın rng('default') değeri her seferinde ağının aynı parametreler ile başlamsını sağlar. Aynı ağ parametreleri (nöron başlangıç değerleri) ve aynı eğitim örnekleri ile farklı sonuç alamazsın. Değiştirdiğin parametreler (LR, Epoch, Goal vs.) training eğrisi oturunca işe yaramaya başlar. Sen rng kullanarak zaten bunları hep aynı değerlerde yani çok erken durduruyorsun. Yazdığın değerlere ulaşma olmadan NN tool kendini durduruyor. 
Yapman gereken araştırmalar; ağ derinliğinin belirlenmesi, örnek sayısı, veriseti lineerliği testi, güncelleme algoritması seçimi, ve gerçekten random değer çalıştırmak. (rng'yi iyice incele)
Kolay Gelsin.