Çok Katmanlı Yapay Sinir Ağları

2.GİRİŞ

Çok katmanlı bir YSa tek veya daha fazla gizli katmanı olmasıyla tek katmanlı bir YSa ile benzer yapıya sahiptir. Şekil 2.1′ de çok katmanlı bir YSa örneği görebilirsin.

Şekil 2.1 Üç katmanlı sinir ağı

Şimdi girdi ve ağırlıkları bilindiği zaman ağdaki çıktıyı nasıl hesaplayabileceğimize bakalım. Sinir ağlarındaki verilen değerlerin çıktılarını hesaplanması ileri besleme olarak adlandırılır.

2.1 İleri Beslemeli Ağlar

Yapay sinir ağlarında girdi katmanından çıktıyı nasıl hesaplayacağımızı ispat etmek için, yukarıda verilen üç katmanlı sinir ağını kullanalım. Şekil 2.2′ de yukarıda üç katmanlı sinir ağının denklemi verilmiştir.

Şekil 2.2 Üç katmanlı sinir ağı denklemi

Yukarıdaki denklemde f() aktivasyon fonksiyonunu temsil eder, yani burada kullanacağımız sigmoid fonksiyonudur. h1 ikinci katman birinci satır, h2 ikinci katman 2. satır, h3 ise 2. katman 3.satırdaki düğümlerin çıktısıdır ve bu düğümlerin çıktılarının toplamı bize çıktıyı elde etmemize olanak sağlar. Yukarıdaki denklemleri görüntüye dökmek gerekirse h1,h2,h3 ve çıktı katmanı olan hwb katmanı, 1.5, 2 ve 3 girdi değerleri için, rastgele ağırlık ve bias değerleri aldığımızda şöyle olur:

2.2 Gradyan Düşüşü

Girdi ve çıktı ile ağları eğitmede amaç daha iyi tahmin yapan bir girdi ve çıktı değerleri almaktır. Hataları minimize etmek için ağırlıklar değiştirilir. Şekil 2.3’ü inceleyelim.

Şekil 2.3 Tek boyutta bir gradyana örnek

Bu diyagramda, hatanın ağırlık değerine bağlı mavi bir grafiğe sahibiz, yani w. En düşük ihtimalli hata siyah çarpı ile işaretlenmiştir ama hangi w değerleri bu en az hatayı verir bilmiyoruz. w’ye rastgele bir değer verelim ve eğri üzerinde hata veren 1 noktasını işaretleyelim. W’yi şu şekilde değiştirmeliyiz, mümkün olan en az hataya yaklaşma, yani siyah çarpıya. Bunu yapmak için en çok kullanılan yöntem gradyan düşüşüdür. Bu metotla ilerlemek için, 1 noktasında hesaplanmış w’yi ilk olarak hata gradyanı olarak saymalıyız. Gradyan bu noktada hata eğrisinin eğimidir. Bu eğim Şekil 2.3’te siyah ok ile gösterilmiştir. Eğime bakılarak fonksiyonun artış hızını ve yönünü bulabiliriz. Eğer gradyanın yönü pozitif yönde artıyorsa hatada artışa, eğer negatifse artıyorsa (yukarıda olduğu gibi) hatada düşüşe sebep olur.

2.3 Geri Beslemeli Sinir Ağları

İleri beslemeli ağlarda elde ettiğimiz çıkış değeri ile olması gereken çıktı değerlerinin karşılaştırılması geri beslemeli sinir ağlarında yapılır. Hesaplanan değer ile beklenen değer arasındaki fark hata olarak adlandırılır. Hata geriye doğru yayarak dağıtılır. Çıkış katmanı ve ara katman arasındaki ağırlıklar güncellenir. Daha sonra ara katman ile giriş katmanı arasındaki ağırlıklar güncellenir. Ağırlık güncelleme işlemini yapay sinir ağlarının eğitilmesi konusunda detaylı olarak ulaşabilirsiniz.

referans Dr. Andy Thomas, An introduction to neural networks for beginners

Bir Cevap Yazın

Aşağıya bilgilerinizi girin veya oturum açmak için bir simgeye tıklayın:

WordPress.com Logosu

WordPress.com hesabınızı kullanarak yorum yapıyorsunuz. Çıkış  Yap /  Değiştir )

Google fotoğrafı

Google hesabınızı kullanarak yorum yapıyorsunuz. Çıkış  Yap /  Değiştir )

Twitter resmi

Twitter hesabınızı kullanarak yorum yapıyorsunuz. Çıkış  Yap /  Değiştir )

Facebook fotoğrafı

Facebook hesabınızı kullanarak yorum yapıyorsunuz. Çıkış  Yap /  Değiştir )

Connecting to %s