Skip to main content
Yapay Zeka

Derin Öğrenme Rehberi: Sinir Ağlarından Transformer Mimarisine Kapsamlı Kılavuz

March 29, 2026 5 min read 3 views Raw
Also available in: en
Derin öğrenme ve yapay zeka ekranı
Table of Contents

Derin Öğrenme Nedir?

Derin öğrenme (deep learning), yapay zekanın bir alt dalı olan makine öğrenmesinin en güçlü ve en hızlı büyüyen alanıdır. Temel olarak, çok katmanlı yapay sinir ağları kullanarak verilerden karmaşık örüntüler ve temsiller öğrenen bir yöntemler bütünüdür. "Derin" kelimesi, sinir ağındaki gizli katman sayısına atıfta bulunur; modern derin öğrenme modelleri yüzlerce hatta binlerce katmana sahip olabilir.

Geleneksel makine öğrenmesi yöntemlerinde, özellik mühendisliği (feature engineering) süreci büyük ölçüde insan uzmanlığına bağlıdır. Derin öğrenme bu süreci otomatikleştirerek ham verilerden doğrudan anlamlı özellikler çıkarabilir. Bu yetenek, görüntü tanıma, doğal dil işleme, konuşma tanıma ve otonom sürüş gibi alanlarda çığır açan sonuçlar elde edilmesini sağlamıştır.

Yapay Sinir Ağlarının Temelleri

Yapay sinir ağları, biyolojik sinir sisteminden esinlenen hesaplama modelleridir. Temel yapı taşı olan yapay nöron (perceptron), girdileri ağırlıklarla çarparak toplar, bir bias değeri ekler ve sonucu bir aktivasyon fonksiyonundan geçirir.

Katmanlar ve Mimariler

Bir sinir ağı tipik olarak üç tür katmandan oluşur:

  1. Girdi Katmanı: Ham verilerin ağa beslendiği katmandır. Nöron sayısı, girdi özelliklerinin boyutuyla eşleşir.
  2. Gizli Katmanlar: Verilerin işlendiği ve dönüştürüldüğü ara katmanlardır. Derin öğrenmedeki "derinlik" bu katmanların sayısını ifade eder.
  3. Çıktı Katmanı: Ağın nihai tahminini üreten katmandır. Sınıflandırma problemlerinde sınıf sayısı kadar, regresyon problemlerinde ise tek bir nörona sahiptir.

Aktivasyon Fonksiyonları

Aktivasyon fonksiyonları, sinir ağlarına doğrusal olmayan (non-linear) dönüşümler kazandırır. Bu, ağın karmaşık ilişkileri öğrenebilmesini sağlar.

  • ReLU (Rectified Linear Unit): En yaygın kullanılan aktivasyon fonksiyonudur. Negatif değerleri sıfıra, pozitif değerleri olduğu gibi geçirir. Hesaplama açısından verimlidir.
  • Sigmoid: Çıktıyı 0 ile 1 arasına sıkıştırır. İkili sınıflandırma problemlerinin çıktı katmanında kullanılır.
  • Tanh: Çıktıyı -1 ile 1 arasına sıkıştırır. Sigmoid'e göre sıfır merkezli olması avantajdır.
  • Softmax: Çok sınıflı sınıflandırma problemlerinin çıktı katmanında kullanılır. Tüm çıktıları olasılık dağılımına dönüştürür.

Geri Yayılım (Backpropagation) ve Eğitim

Geri yayılım, sinir ağlarının öğrenme sürecinin temel algoritmasıdır. İleri besleme (forward pass) ile ağın tahmini hesaplanır, kayıp fonksiyonu ile tahmin ve gerçek değer arasındaki fark ölçülür, ardından gradyanlar çıktıdan girdiye doğru zincirleme türev kuralı (chain rule) ile hesaplanır ve ağırlıklar güncellenir.

Optimizasyon Algoritmaları

Gradyan iniş (gradient descent), ağırlıkları kayıp fonksiyonunu minimize edecek şekilde güncelleyen temel optimizasyon yöntemidir. Modern derin öğrenmede kullanılan başlıca optimizasyon algoritmaları şunlardır:

AlgoritmaÖzellikKullanım Alanı
SGDBasit, momentum ile kullanılabilirGenel amaçlı, büyük veri setleri
AdamAdaptif öğrenme hızı, momentumEn yaygın tercih edilen algoritma
AdamWAdam + ağırlık çürümesi düzeltmesiTransformer modelleri
RMSpropAdaptif öğrenme hızıRNN ve zaman serisi problemleri

Evrişimli Sinir Ağları (CNN)

Evrişimli sinir ağları, özellikle görüntü işleme alanında devrim yaratmış bir derin öğrenme mimarisidir. CNN'ler, görüntülerdeki uzamsal ilişkileri ve hiyerarşik örüntüleri otomatik olarak öğrenir.

CNN'in Temel Bileşenleri

Evrişim (convolution) katmanı, filtreler (kerneller) kullanarak görüntüden yerel özellikleri çıkarır. Havuzlama (pooling) katmanı, uzamsal boyutu azaltarak hesaplama maliyetini düşürür ve öteleme değişmezliği sağlar. Tam bağlantılı (fully connected) katman ise çıkarılan özellikleri sınıflandırma veya regresyon için kullanır.

Modern CNN mimarileri arasında ResNet (artık bağlantılar ile çok derin ağlar), EfficientNet (ölçekleme optimizasyonu), ve Vision Transformer (ViT) öne çıkmaktadır. Bu mimariler, ImageNet gibi büyük ölçekli veri setlerinde insanüstü doğruluk oranları elde etmiştir.

Tekrarlayan Sinir Ağları (RNN) ve LSTM

Tekrarlayan sinir ağları, ardışık verileri işlemek için tasarlanmıştır. Metin, zaman serileri ve konuşma gibi sıralı verilerde önceki bilgileri "hatırlama" yeteneğine sahiptir. Ancak standart RNN'ler, kaybolan gradyan (vanishing gradient) problemi nedeniyle uzun vadeli bağımlılıkları öğrenmekte zorlanır.

LSTM ve GRU

Long Short-Term Memory (LSTM), kaybolan gradyan problemini çözmek için tasarlanmış gelişmiş bir RNN mimarisidir. Unutma kapısı, girdi kapısı ve çıktı kapısı olmak üzere üç kapı mekanizmasına sahiptir. Bu kapılar, hangi bilginin hatırlanacağını, hangisinin unutulacağını kontrol eder.

Gated Recurrent Unit (GRU), LSTM'in basitleştirilmiş versiyonudur. Daha az parametreye sahiptir ve birçok görevde LSTM ile karşılaştırılabilir performans gösterir.

Transformer Mimarisi

2017 yılında "Attention Is All You Need" makalesiyle tanıtılan Transformer mimarisi, derin öğrenme alanında bir paradigma değişimi yaratmıştır. RNN ve CNN'lerin sınırlamalarını aşarak, paralel işleme ve uzun menzilli bağımlılıkları modelleme konusunda üstün performans sergiler.

Dikkat Mekanizması (Attention)

Transformer'ın kalbinde öz-dikkat (self-attention) mekanizması yer alır. Bu mekanizma, bir dizideki her elemanın diğer tüm elemanlarla ilişkisini hesaplar. Query (sorgu), Key (anahtar) ve Value (değer) matrisleri kullanılarak dikkat skorları hesaplanır ve ağırlıklı toplam elde edilir.

Çok başlı dikkat (multi-head attention), farklı temsil alt uzaylarındaki ilişkileri paralel olarak öğrenir. Bu, modelin farklı türdeki bağımlılıkları aynı anda yakalamasını sağlar.

Büyük Dil Modelleri (LLM)

Transformer mimarisi üzerine inşa edilen büyük dil modelleri, doğal dil işleme alanında benzeri görülmemiş yetenekler sergilemektedir. GPT serisi (üretici ön eğitimli dönüştürücü), BERT (iki yönlü kodlayıcı) ve Claude gibi modeller, metin üretimi, çeviri, özetleme ve soru yanıtlama gibi görevlerde olağanüstü performans göstermektedir.

Transformer mimarisi yalnızca doğal dil işleme ile sınırlı kalmamış, görüntü işleme (Vision Transformer), protein yapısı tahmini (AlphaFold), müzik üretimi ve kod yazma gibi birçok alanda devrim yaratmıştır.

Pratik Uygulamalar ve Kullanım Alanları

Derin öğrenme, günlük hayatımızın birçok alanında görünmez bir şekilde çalışmaktadır:

  • Bilgisayarlı Görü: Yüz tanıma, nesne tespiti, tıbbi görüntü analizi, otonom sürüş
  • Doğal Dil İşleme: Makine çevirisi, duygu analizi, metin özetleme, sohbet robotları
  • Konuşma Teknolojileri: Ses tanıma, metin-konuşma dönüşümü, sesli asistanlar
  • Sağlık: İlaç keşfi, hastalık teşhisi, genom analizi
  • Finans: Dolandırıcılık tespiti, algoritmik ticaret, risk analizi
  • Oyun ve Eğlence: Oyun yapay zekası, içerik önerisi, görüntü oluşturma

Derin Öğrenme Araçları ve Framework'leri

Derin öğrenme projelerinde kullanılan başlıca framework'ler PyTorch, TensorFlow ve JAX'tır. PyTorch, araştırma topluluğunda en popüler seçenek haline gelmiştir; dinamik hesaplama grafiği ve Pythonic API'si ile öne çıkar. TensorFlow, üretim ortamlarında güçlü bir altyapı sunar ve TensorFlow Lite ile mobil dağıtımı destekler. JAX ise Google tarafından geliştirilen, fonksiyonel programlama ve otomatik farklılaştırma odaklı bir kütüphanedir.

Sonuç

Derin öğrenme, yapay zekanın en dinamik ve etkileyici alanı olmaya devam etmektedir. Sinir ağlarının temel prensiplerinden CNN ve RNN mimarilerine, oradan Transformer devrimine kadar uzanan bu yolculuk, teknolojinin sınırlarını sürekli zorlamaktadır. Derin öğrenme alanında uzmanlaşmak isteyenler için sağlam bir matematik temeli (lineer cebir, olasılık, kalkülüs), Python programlama yetkinliği ve PyTorch veya TensorFlow gibi framework'lere hakimiyet temel gereksinimlerdir.

Share this post