Yapay Sinir Ağlarına Giriş

1.GİRİŞ

Yapay sinir ağları (YSa) beynimizdeki sinir sisteminin taklididir. Bir insan beyninde sinir ağları, nöron ağlarıyla birbirine bağlıdır. Öğrenme, sinir bağlantılarını harekete geçirerek ve bu bağlantıları pekiştirerek gerçekleşir. Yapay sinir ağları beyin davranışlarını sadeleştirmeyi ve taklit etmeyi dener. Denetimli ve denetimsiz öğrenme olarak iki sınıfa ayrılır. Denetimli öğrenmede, sisteme girdi ve çıktı verileri girerek onların karşılaştırılmasını sağlanarak sinir ağı eğitilir. Denetimsiz öğrenmede, girdi verisinin kendi başına yapısını anlamasına dayanır.

Şekil 1.1 Genel bir yapay sinir ağı

1.1 Yapay Sinir Ağları Temel Kavramlar

1.1.1 Aktivasyon fonksiyonu

Biyolojik nöron bir YSa da aktivasyon fonksiyonu tarafından aktive edilir. Girdi değeri belirli bir değerden yüksek olmalıdır, çıktı değeri ise 0’dan 1’e, -1’den 1’e ya da 0>0 yapılarında değişmelidir. Ortak kullanılan bir aktivasyon fonksiyonu, sigmoid fonksiyon:

f(z)=1/1+exp(-z)

Sigmoid fonksiyonun Python kodları:

import matplotlib.pyplot as plt
import numpy as np
z=np.arange(-10,10,0.1)
f=1/(1+np.exp(-z))
plt.plot(z,f)
plt.xlabel("x")
plt.ylabel("f(x)")
plt.show()
print(np.exp(x))
Şekil 1.2 Sigmoid fonksiyonı

Şekil 1.2′ de görüleceği gibi Sigmoid fonksiyonu belirli bir x değerinden sonra 1′ i geçmez ve 0 ile 1 arasındadır.

1.1.2 Düğümler

Girdi ve çıktı değerlerini birbirlerine bağlı hiyerarşik ağlardır. Her düğüm çoklu ağırlaştırılmış girdilerden oluşur, bu girdilerin toplamına aktivasyon fonksiyonu uygulanır ve sonucunda bir çıktı elde edilir.

Şekil 1.3 Girdiler, düğüm ve çıktı

Şekil 1.3’teki daire düğümü temsil eder. Her girdinin bir ağırlığı vardır ve yukarıdaki şekil sırasıyla w1,w2,w3 ağırlığı için şöyle formülize edilir:

x1w1+x2w2+x3w3+b

b sapma değeridir.

1.2.3 Sapma

Tek girdisi ve çıktısı olan bir örneği ele alalım:

Şekil 1.4 Basit bir düğüm

Bu örnekte düğümün aktivasyon fonksiyonunun girişi basitçe x1w1’dir. w1’i değiştirmek bu ağda ne yapar onu inceleyelim.

Şekil 1.5 Ağırlık arttırma etkisi
import matplotlib.pyplot as plt
import numpy as np
x=np.arange(-10,10,0.1)
w=5
b1=-10
b2=0
b3=10
l1="b=-10"
l2="0"
l3="b=10"
for b,l in [(b1,l1),(b2,l2),(b3,l3)]:
    f=1/(1+np.exp(-x*w+b))
    plt.plot(x,f,label=l)
plt.xlabel("x")
plt.ylabel("h_b(x)")
plt.legend(loc=2)
plt.show()
Şekil 1.6 Sapmanın aktivasyon fonksiyonuna etkisi

Bir Cevap Yazın

Aşağıya bilgilerinizi girin veya oturum açmak için bir simgeye tıklayın:

WordPress.com Logosu

WordPress.com hesabınızı kullanarak yorum yapıyorsunuz. Çıkış  Yap /  Değiştir )

Google fotoğrafı

Google hesabınızı kullanarak yorum yapıyorsunuz. Çıkış  Yap /  Değiştir )

Twitter resmi

Twitter hesabınızı kullanarak yorum yapıyorsunuz. Çıkış  Yap /  Değiştir )

Facebook fotoğrafı

Facebook hesabınızı kullanarak yorum yapıyorsunuz. Çıkış  Yap /  Değiştir )

Connecting to %s