Son Dersler
Yapay Zeka ve Makine Öğrenimi

İleri Seviye Yapay Sinir Ağları Nasıl Çalışır? Temel Çalışma Prensipleri

11 Nisan 2026 8 dk okuma Deniz Karay

İleri seviye yapay sinir ağları, insan beyninin biyolojik çalışma prensiplerini matematiksel modeller aracılığıyla taklit ederek karmaşık veri setlerinden öğrenme gerçekleştiren, çok katmanlı bilgi işleme sistemleridir. Günümüzde bu teknolojiler, otonom sürüşten kanser teşhisine, diller arası anlık çeviriden kişiselleştirilmiş alışveriş önerilerine kadar dijital dünyanın her köşesinde hayatımızı kolaylaştıran temel güç haline gelmiştir.

🎯 Bu Derste Öğrenecekleriniz
  • Yapay sinir ağlarının temel mimari yapısını ve katmanlarını kavrayacaksınız.
  • Ağırlıklar, sapmalar ve aktivasyon fonksiyonlarının öğrenme sürecindeki rolünü anlayacaksınız.
  • Geri yayılım (backpropagation) ve gradyan iniş algoritmalarının nasıl çalıştığını keşfedeceksiniz.
  • Modern dünyada kullanılan ileri seviye ağ mimarilerini (CNN, RNN) ayırt edebileceksiniz.
📌 Bu Konuda Bilmeniz Gerekenler
  • Yapay sinir ağları, birbirine bağlı ‘nöron’ adı verilen düğümlerden oluşur.
  • Öğrenme süreci, ağın yaptığı hataları fark edip kendi içindeki parametreleri güncellemesiyle gerçekleşir.
  • ‘Derin Öğrenme’ terimi, çok sayıda gizli katmana sahip sinir ağlarını ifade eder.
  • Veri miktarı arttıkça bu ağların tahmin yeteneği ve doğruluğu genellikle artış gösterir.

Yapay Sinir Ağlarının Anatomisi ve Katman Yapısı

Bir yapay sinir ağını anlamak için onu devasa bir veri işleme fabrikasına benzetebiliriz. Bu fabrika, hammaddeleri (verileri) alır, çeşitli işlemlerden geçirir ve sonunda bir ürün (tahmin) ortaya çıkarır. Bu süreçte üç ana katman türü görev yapar. Her katman, verinin farklı bir özelliğini yakalamak ve anlamlandırmak için tasarlanmıştır.

Girdi Katmanı (Input Layer)

Girdi katmanı, ağın dış dünyayla temas kurduğu ilk noktadır. Buradaki nöronlar herhangi bir işlem yapmaz; sadece ham veriyi (bir resmin pikselleri, bir hisse senedinin fiyatı veya bir ses dalgası) alır ve bir sonraki katmana iletir. Girdi katmanındaki nöron sayısı, verinin boyutuna göre belirlenir. Örneğin, 28×28 boyutunda siyah-beyaz bir resim işleniyorsa, girdi katmanında 784 adet nöron bulunur.

Gizli Katmanlar (Hidden Layers)

Yapay sinir ağının asıl ‘zekası’ gizli katmanlarda gizlidir. ‘Gizli’ denmesinin sebebi, bu katmanların girdi veya çıktı ile doğrudan temas etmemesidir. İleri seviye ağlarda (derin öğrenme modellerinde) bu katmanların sayısı yüzlerce olabilir. Her bir gizli katman, verideki daha karmaşık desenleri öğrenir. İlk katmanlar basit kenarları fark ederken, derinleştikçe nesneleri, yüzleri veya kavramları tanımaya başlar.

Çıktı Katmanı (Output Layer)

İşlenen bilgilerin son durağı çıktı katmanıdır. Bu katman, ağın nihai kararını verdiği yerdir. Eğer bir sınıflandırma yapılıyorsa (örneğin resimdeki hayvan kedi mi köpek mi?), çıktı katmanındaki nöronlar her bir sınıf için bir olasılık değeri üretir. En yüksek olasılığa sahip olan nöron, ağın tahminini temsil eder.

ℹ️ Bilgi: Yapay sinir ağlarının babası sayılan ‘Perceptron’ kavramı, 1950’li yıllarda Frank Rosenblatt tarafından geliştirilmiştir. O dönemdeki modeller sadece tek bir katmandan oluşuyordu ve çok basit mantıksal işlemleri yapabiliyordu.

Ağırlıklar ve Sapmalar: Öğrenmenin Matematiği

Nöronlar arasındaki bağlantıların her birinin bir ‘Ağırlığı’ (Weight) vardır. Ağırlık, bir bilginin ne kadar önemli olduğunu belirleyen katsayıdır. Eğer bir nöron, çıktıyı belirlemede çok kritik bir bilgi taşıyorsa, onun ağırlığı artırılır. Sapma (Bias) ise, bir nöronun aktif hale gelmesi için gereken ‘eşik’ değerini belirler. Bir nöronun toplam çıktısı, girdilerin ağırlıklarla çarpılıp sapma ile toplanması sonucu hesaplanır.

📖 Örnek

Bir arkadaşınızın akşam yemeğine gelip gelmeyeceğini tahmin eden bir sinir ağı düşünün. Girdiler: Hava durumu, iş yoğunluğu ve trafik olsun. Eğer arkadaşınız trafiğe çok önem veriyorsa, ‘trafik’ girdisinin ağırlığı (w) çok yüksek olacaktır. Hava durumu kötü olsa bile trafik açıksa gelme ihtimali artar. İşte sinir ağları, bu ağırlıkları deneme-yanılma yoluyla en doğru hale getirmeye çalışır.

Aktivasyon Fonksiyonları: Karar Verme Süreci

Hesaplanan toplam değerin bir sonraki nörona aktarılıp aktarılmayacağına aktivasyon fonksiyonları karar verir. Eğer bu fonksiyonlar olmasaydı, yapay sinir ağları sadece basit birer doğrusal denklem olurdu ve karmaşık problemleri (örneğin el yazısı tanıma) asla çözemezdi. Aktivasyon fonksiyonları, sisteme ‘doğrusalsızlık’ katar.

  • ReLU (Rectified Linear Unit): Günümüzde en popüler olanıdır. Negatif değerleri sıfırlar, pozitif değerleri olduğu gibi bırakır. Çok hızlı çalışır.
  • Sigmoid: Çıktıyı 0 ile 1 arasına sıkıştırır. Genellikle olasılık hesaplamalarında kullanılır.
  • Softmax: Çok sınıflı sınıflandırma problemlerinde, çıktı katmanındaki değerlerin toplamının 1 olmasını sağlar.
💡 İpucu: Modern derin öğrenme projelerine başlıyorsanız, gizli katmanlarda genellikle ReLU fonksiyonunu kullanmak en iyi performansı ve hızı sağlar.

Eğitim Süreci: İleri Besleme ve Geri Yayılım

Yapay sinir ağları nasıl öğrenir? Bu süreç iki aşamalı bir döngüden oluşur: İleri besleme (Forward Propagation) ve Geri yayılım (Backpropagation). İlk başta ağ tamamen cahildir ve ağırlıklar rastgele atanır. Ağ bir tahmin yapar ve bu tahminin gerçek sonuçtan ne kadar uzak olduğu bir ‘Kayıp Fonksiyonu’ (Loss Function) ile ölçülür.

Hata payı hesaplandıktan sonra ‘Geri Yayılım’ süreci başlar. Bu aşamada matematiksel bir yöntem olan ‘Gradyan İniş’ (Gradient Descent) kullanılır. Hata, çıktı katmanından girdi katmanına doğru geriye doğru dağıtılır. Her bir bağlantının hatadaki payı hesaplanır ve ağırlıklar hatayı azaltacak şekilde küçük adımlarla güncellenir. Bu işlem binlerce kez tekrarlandığında, ağ giderek daha doğru tahminler yapmaya başlar.

⚠️ Dikkat: ‘Aşırı Öğrenme’ (Overfitting) durumuna dikkat edilmelidir. Bu, ağın veriyi öğrenmek yerine ezberlemesi durumudur. Ezberleyen bir ağ, eğitim setinde mükemmel sonuç verirken, ilk kez gördüğü yeni verilerde başarısız olur.
Özellik Geleneksel Algoritmalar İleri Seviye Sinir Ağları
Veri İhtiyacı Düşük / Orta Çok Yüksek
Özellik Çıkarımı Manuel (İnsan eliyle) Otomatik (Ağ tarafından)
Donanım Gücü Standart CPU Yüksek Güçlü GPU / TPU

İleri Seviye Sinir Ağı Mimarileri

Her problem türü için farklı bir ağ yapısı daha verimli çalışır. Günümüzde standart sinir ağlarının ötesine geçen özel mimariler geliştirilmiştir. Bu mimariler, verinin yapısına göre özelleşmiş işlem yeteneklerine sahiptir.

Evrişimli Sinir Ağları (CNN)

Özellikle görsel verileri işlemek için tasarlanmıştır. CNN’ler, bir resmin üzerindeki pikselleri tarayarak kenarları, köşeleri ve dokuları tespit eden ‘filtreler’ kullanır. İnsan gözünün bir nesneyi tanıma biçimine çok benzer şekilde çalışırlar. Yüz tanıma sistemleri ve otonom araçların çevreyi görmesi bu mimari sayesindedir.

Özyinelemeli Sinir Ağları (RNN)

Sıralı veriler (zaman serileri, metinler, sesler) için idealdir. RNN’lerin bir ‘belleği’ vardır; yani bir önceki adımda ne olduğunu hatırlar. Bir cümleyi okurken kelimelerin sırası anlamı değiştirdiği için, RNN’ler dili anlamlandırmada çok başarılıdır. Ancak uzun cümlelerde geçmişi unutma sorunu yaşadıkları için yerlerini ‘Transformer’ ve ‘LSTM’ modellerine bırakmışlardır.

Öğrendiklerinizi Pekiştirin

Yapay sinir ağları, karmaşık matematiksel temellere dayansa da aslında doğadan ilham alan ve sürekli kendini geliştiren muazzam yapılardır. Bu sistemlerin çalışma prensiplerini anlamak, geleceğin teknolojilerine yön vermek isteyen her öğrenci için kritik bir kazanımdır. Teorik bilgiyi pratiğe dökmek için küçük veri setleriyle kendi modellerinizi eğiterek bu büyüleyici dünyayı daha yakından keşfedebilirsiniz.

✏️ Kendinizi Test Edin
  1. Bir yapay sinir ağında ‘gizli katmanların’ temel görevi nedir?
  2. Hata payını azaltmak için ağırlıkların güncellendiği sürece ne ad verilir?
  3. Görsel verileri (resim, video) işlemek için en uygun ağ mimarisi hangisidir?
  4. Aktivasyon fonksiyonları neden doğrusal olmayan yapıda olmalıdır?
  5. Aşırı öğrenme (overfitting) sorunu nasıl fark edilir ve nasıl önlenebilir?
📝 Konu Özeti
  • Yapay sinir ağları; girdi, gizli ve çıktı olmak üzere üç temel katmandan oluşur.
  • Öğrenme, ağırlık (weight) ve sapma (bias) değerlerinin optimize edilmesiyle sağlanır.
  • Aktivasyon fonksiyonları, nöronların ateşlenip ateşlenmeyeceğini belirleyen karar mekanizmalarıdır.
  • Geri yayılım algoritması, hatayı kaynağına kadar takip ederek sistemin kendini düzeltmesini sağlar.
  • CNN görsellerde, RNN ise metin ve zaman serisi verilerinde uzmanlaşmış mimarilerdir.

DersMerkezi.net.tr’nin yazarı, eğitim alanında yıllara dayanan deneyime sahip bir uzmandır ve öğrencilerin öğrenme sürecini desteklemeyi hedefler. Matematik, fen bilimleri, tarih, dil ve edebiyat başta olmak üzere birçok ders alanında içerik üretir ve konuları sade, anlaşılır ve adım adım rehberler halinde sunar.

Yorum Yap