Skip to main content
Yapay Zeka

Büyük Dil Modelleri (LLM) Nasıl Çalışır? Herkes İçin Anlatım

Mart 06, 2026 12 dk okuma 30 views Raw
Büyük Dil Modelleri (LLM) - Yapay sinir ağı ve yapay zeka konseptinin 3D görselleştirmesi
İçindekiler

🧠 Büyük Dil Modelleri (LLM) Nasıl Çalışır?

Herkes İçin Anlaşılır Bir Rehber

Yayın Tarihi: 6 Mart 2026 | Okuma Süresi: ~18 dakika

📑 İçindekiler

ChatGPT ile sohbet ettiğinizde, Claude'a bir soru sorduğunuzda veya Gemini'den bir metin yazdırttığınızda arka planda devasa bir büyük dil modeli (LLM) çalışır. Peki bu modeller gerçekten nasıl işliyor? Bir insanmış gibi metin yazmayı, kod oluşturmayı, çeviri yapmayı nasıl başarıyor? Bu rehberde, teknik bilginiz olsun ya da olmasın, LLM dünyasını sade ve anlaşılır bir dille keşfedeceksiniz.

1. Büyük Dil Modeli (LLM) Nedir?

En basit ifadeyle bir Büyük Dil Modeli (Large Language Model - LLM), milyarlarca metin üzerinde eğitilmiş ve bir sonraki kelimeyi tahmin ederek anlamlı metinler üreten yapay zeka sistemidir. "Büyük" kelimesi burada hem eğitim verisi hacmini hem de modelin parametre sayısını ifade eder.

Bunu şöyle düşünebilirsiniz: Hayatınız boyunca okuduğunuz tüm kitapları, makaleleri, web sayfalarını ve konuşmaları hatırlayabilen ve bunlardan öğrendiği kalıpları kullanarak yeni metinler oluşturabilen bir sistem. Ancak burada önemli bir ayrım var: LLM'ler gerçekten "anlamaz" — onlar istatistiksel olarak en uygun kelime dizisini üretirler.

💡 Basit Bir Benzetme

Bir LLM'i süper gelişmiş bir "otomatik tamamlama" sistemi olarak düşünün. Telefonunuzda mesaj yazarken önerilen kelimeleri bilirsiniz — LLM'ler bu konseptin trilyon kelime üzerinde eğitilmiş, inanılmaz karmaşık versiyonudur. "Bugün hava çok..." yazdığınızda model "güzel", "sıcak" veya "bulutlu" gibi olası devamları olasılık hesaplayarak seçer.

LLM'lerin yapabildiği bazı görevler:

  • Metin üretimi: Makale, blog yazısı, hikaye, şiir yazma
  • Soru-cevap: Bilgi sorularını yanıtlama
  • Kod oluşturma: Programlama dillerinde kod yazma ve hata ayıklama
  • Çeviri: Diller arası metin çevirisi
  • Özetleme: Uzun metinleri kısa ve öz hale getirme
  • Analiz: Veri yorumlama, duygu analizi, sınıflandırma

2. LLM'lerin Kısa Tarihi

Dil modelleri bir gecede ortaya çıkmadı. İşte bu yolculuğun önemli dönüm noktaları:

Yıl Gelişme Önemi
2017 Transformer mimarisi (Google) Her şeyi değiştiren "Attention Is All You Need" makalesi
2018 BERT & GPT-1 İlk büyük ön-eğitimli dil modelleri
2020 GPT-3 (175 milyar parametre) Ölçeklendirmenin gücünü gösterdi
2022 ChatGPT yayınlandı LLM'leri herkesin erişimine açtı
2023 GPT-4, Claude 2, Llama 2 Multimodal yetenekler ve açık kaynak yarışı
2024-2026 Claude Opus, GPT-5, Gemini Ultra Akıl yürütme, araç kullanımı ve ajan mimarileri

3. Transformer Mimarisi Basitçe

Tüm modern LLM'lerin temelinde Transformer mimarisi yatar. 2017'de Google araştırmacıları tarafından geliştirilen bu mimari, doğal dil işleme alanında devrim yarattı. Peki basitçe nasıl çalışır?

🔑 Dikkat Mekanizması (Attention)

Transformer'ın en önemli yeniliği "self-attention" (öz-dikkat) mekanizmasıdır. Bu mekanizma, modelin bir cümledeki her kelimenin diğer tüm kelimelerle ilişkisini aynı anda değerlendirmesini sağlar.

Örnek: "Köpek parkta topla oynadı çünkü o çok enerjikti." cümlesinde "o" kelimesinin "köpek"e mi yoksa "park"a mı atıfta bulunduğunu anlamak için attention mekanizması tüm kelimelerin birbirleriyle olan ilişki ağırlıklarını hesaplar.

Transformer'ın önceki modellere (RNN, LSTM) göre en büyük avantajı paralel işlem yapabilmesidir. Eski modeller metni kelime kelime sırayla işlerken, Transformer tüm kelimeleri aynı anda değerlendirir. Bu sayede eğitim çok daha hızlı gerçekleşir ve daha büyük modeller eğitmek mümkün olur.

Transformer mimarisinin temel bileşenleri şunlardır:

  • Embedding Katmanı: Kelimeleri sayısal vektörlere dönüştürür. Her kelime yüzlerce veya binlerce boyutlu bir vektör olarak temsil edilir.
  • Pozisyonel Kodlama: Kelimelerin cümle içindeki sırasını modele bildirir. "Ali Veli'yi gördü" ile "Veli Ali'yi gördü" arasındaki farkı anlamak için gereklidir.
  • Multi-Head Attention: Birden fazla "dikkat başlığı" kullanarak kelimelerin farklı ilişki türlerini (dilbilgisel, anlamsal, bağlamsal) eş zamanlı olarak yakalar.
  • Feed-Forward Ağlar: Her attention hesaplamasından sonra verileri işleyerek daha karmaşık temsiller oluşturur.
  • Katman Normalizasyonu: Eğitim sürecini stabilize eder ve daha hızlı öğrenmeyi sağlar.

4. Tokenizasyon Nedir?

LLM'ler metni doğrudan okuyamaz — önce sayılara çevrilmesi gerekir. Tokenizasyon, metni "token" adı verilen küçük parçalara ayırma işlemidir. Bu parçalar tam kelimeler olabileceği gibi, kelimelerin alt parçaları da olabilir.

📝 Tokenizasyon Örneği

Cümle: "Yapay zeka geleceği şekillendiriyor"

Olası token'lar: ["Yap", "ay", " zeka", " gelece", "ği", " şekil", "lend", "iri", "yor"]

Her token bir sayıya (ID) dönüştürülür ve model bu sayılarla çalışır.

En yaygın tokenizasyon yöntemleri:

Yöntem Açıklama Kullanan Modeller
BPE (Byte Pair Encoding) En sık geçen karakter çiftlerini birleştirerek sözlük oluşturur GPT serisi
WordPiece BPE'ye benzer ama olasılık tabanlı birleştirme yapar BERT
SentencePiece Dile bağımsız, ham metin üzerinde çalışır Llama, Mistral

⚠️ Önemli Not

Tokenizasyon dile göre farklılık gösterir. Türkçe gibi sondan eklemeli (aglütinatif) dillerde bir kelime birden fazla token'a bölünebilir. Bu nedenle aynı metin İngilizce'den Türkçe'ye çevrildiğinde token sayısı genellikle artar ve maliyet yükselir.

5. Eğitim Süreci: Pre-training, Fine-tuning, RLHF

Bir LLM'in kullanılabilir hale gelmesi üç ana aşamadan geçer. Her aşama farklı bir amaca hizmet eder ve modeli giderek daha yetenekli kılar.

🔹 Aşama 1: Ön Eğitim (Pre-training)

Model, internetin büyük bir bölümünü — kitaplar, web siteleri, akademik makaleler, forumlar — tarayarak dil kalıplarını öğrenir. Bu aşamada modele herhangi bir talimat verilmez; sadece "bir sonraki kelimeyi tahmin et" görevi verilir.

  • Trilyon kelimelik veri setleri kullanılır
  • Binlerce GPU üzerinde haftalarca/aylarca sürer
  • Maliyeti milyonlarca doları bulabilir
  • Model dilbilgisi, gerçek dünya bilgisi ve akıl yürütme kalıpları öğrenir

🔹 Aşama 2: İnce Ayar (Fine-tuning / SFT)

Ön eğitimden sonra model metin tamamlayabilir ama kullanışlı bir asistan değildir. Supervised Fine-Tuning (SFT) aşamasında, insan uzmanlar tarafından hazırlanan soru-cevap çiftleri, talimat-yanıt örnekleri ile model eğitilir. Bu sayede model "talimat takip etme" yeteneği kazanır.

Örneğin: "Bu metni özetle" dediğinizde gerçekten özetlemeyi, "Bu kodu düzelt" dediğinizde hata ayıklamayı öğrenir.

🔹 Aşama 3: İnsan Geri Bildirimli Pekiştirmeli Öğrenme (RLHF)

Bu aşamada insan değerlendiriciler, modelin ürettiği farklı yanıtları sıralar. Bu tercihler kullanılarak bir "ödül modeli" eğitilir ve ana model bu ödül sinyallerine göre kendini iyileştirir.

RLHF'nin sağladığı iyileştirmeler:

  • Daha yararlı ve doğru yanıtlar üretme
  • Zararlı içerik üretimini azaltma
  • Daha doğal ve insansı bir ton yakalama
  • Belirsiz durumlarda dürüstçe "bilmiyorum" diyebilme

💡 İpucu

Bazı şirketler RLHF yerine Constitutional AI (CAI) veya DPO (Direct Preference Optimization) gibi alternatif yöntemler kullanmaktadır. Anthropic'in Claude modeli, Constitutional AI yaklaşımını öncülük etmiştir.

6. Bağlam Penceresi, Sıcaklık ve Parametreler

LLM'lerle çalışırken sıkça karşılaşacağınız üç kritik kavram vardır. Bu kavramları anlamak, modeli daha etkili kullanmanızı sağlar.

📏 Bağlam Penceresi (Context Window)

Modelin bir seferde işleyebileceği maksimum token sayısıdır. Bu, hem girdi (prompt) hem de çıktı (yanıt) dahil toplam uzunluğu kapsar.

GPT-4 Turbo 128.000 token (~300 sayfa)
Claude Opus 200.000 token (~500 sayfa)
Gemini 1.5 Pro 1.000.000 token (~2500 sayfa)
Llama 3 128.000 token (~300 sayfa)

🌡️ Sıcaklık (Temperature)

Model çıktısının ne kadar yaratıcı veya belirleyici (deterministic) olacağını kontrol eden parametredir. 0 ile 2 arasında değer alır.

  • Sıcaklık = 0: En olası kelimeyi seçer. Tutarlı, tekrarlanabilir, "güvenli" çıktılar. Kod yazımı, veri analizi için ideal.
  • Sıcaklık = 0.7: Dengeli bir yaratıcılık. Çoğu genel amaçlı kullanım için önerilen değer.
  • Sıcaklık = 1.5+: Çok yaratıcı ama tutarsız olabilir. Beyin fırtınası, yaratıcı yazım için kullanılabilir.

⚙️ Parametre Sayısı

Modelin ağırlıklarının toplam sayısını ifade eder. Genel olarak daha fazla parametre = daha yetenekli model demektir (ama her zaman değil). GPT-3'ün 175 milyar, GPT-4'ün tahminen 1.7 trilyon (Mixture of Experts), Llama 3'ün 70 milyar parametresi vardır. Ancak parametre sayısı tek başına yeterli değildir — eğitim verisi kalitesi, mimari seçimleri ve eğitim yöntemleri de büyük rol oynar.

7. Önemli LLM'ler: GPT-4, Claude, Gemini, Llama, Mistral

2026 itibarıyla yapay zeka dünyasında birçok güçlü LLM bulunmaktadır. Her birinin kendine has güçlü yönleri ve kullanım senaryoları vardır.

Model Geliştirici Güçlü Yönleri Tür
GPT-4 / GPT-5 OpenAI Genel amaçlı, multimodal, geniş ekosistem Kapalı
Claude Opus Anthropic Uzun bağlam, güvenlik, analiz, kod Kapalı
Gemini Ultra Google Multimodal, çok dilli, Google entegrasyonu Kapalı
Llama 3 Meta Açık kaynak, özelleştirilebilir, verimli Açık
Mistral Large Mistral AI Avrupa menşeli, verimli, çok dilli Kısmen Açık

8. Açık Kaynak vs Kapalı Kaynak Modeller

LLM dünyasındaki en önemli tartışmalardan biri açık kaynak ve kapalı kaynak modeller arasındaki seçimdir. Her iki yaklaşımın da belirgin avantajları ve dezavantajları vardır.

✅ Açık Kaynak (Llama, Mistral)

  • Kendi sunucularınızda çalıştırabilirsiniz
  • Veri gizliliği tam kontrolünüzdedir
  • Özelleştirme ve ince ayar yapılabilir
  • API maliyeti yoktur
  • Topluluk desteği ve şeffaflık

🔒 Kapalı Kaynak (GPT-4, Claude)

  • Genellikle en yüksek performans
  • Altyapı yönetimi gerekmez
  • Sürekli güncelleme ve iyileştirme
  • Kolay API entegrasyonu
  • Profesyonel destek ve SLA

💡 İpucu

Birçok kuruluş hibrit bir yaklaşım benimser: Hassas veriler için açık kaynak modelleri kendi sunucularında çalıştırırken, genel amaçlı görevler için kapalı kaynak API'larını kullanır. Bu sayede hem performanstan hem de veri güvenliğinden ödün verilmez.

9. Halüsinasyon Sorunu

Halüsinasyon, bir LLM'in gerçek gibi görünen ama tamamen uydurma bilgiler üretmesi durumudur. Bu, LLM'lerin doğasından kaynaklanan yapısal bir sorundur — model bir sonraki kelimeyi istatistiksel olarak tahmin ettiği için bazen "makul görünen ama yanlış olan" içerik üretir.

⚠️ Dikkat!

Halüsinasyonlar özellikle tıbbi, hukuki ve finansal alanlarda tehlikeli olabilir. Bir LLM'in ürettiği bilgiyi güvenilir kaynaklarla doğrulamadan kritik kararlar almayınız.

Yaygın halüsinasyon türleri:

  • Uydurma referanslar: Var olmayan akademik makalelere, kitaplara veya web sitelerine atıfta bulunma
  • Yanlış istatistikler: Makul görünen ama gerçek olmayan sayısal veriler üretme
  • Tarihsel yanlışlıklar: Olayları, tarihleri veya kişileri karıştırma
  • Kendinden emin yanılgılar: Yanlış bilgiyi çok güvenli bir tonda sunma

Halüsinasyonu azaltma yöntemleri: RAG (Retrieval Augmented Generation) kullanarak gerçek veri tabanlarına bağlama, sıcaklık parametresini düşürme, modelden kaynak göstermesini isteme ve çıktıyı bağımsız olarak doğrulama.

10. LLM'lerin Sınırlamaları

LLM'ler son derece güçlü araçlar olsa da önemli sınırlamaları vardır. Bu sınırlamaları anlamak, modelleri daha etkili ve sorumlulukla kullanmanızı sağlar.

⏰ Bilgi Kesim Tarihi

Eğitim verisi belirli bir tarihte kesilir. Güncel olaylar hakkında yanlış bilgi üretebilir.

🧮 Matematiksel Hatalar

Karmaşık hesaplamalarda hata yapabilir. Çarpma, bölme gibi aritmetik işlemlerde güvenilir değildir.

🔄 Önyargılar

Eğitim verisindeki toplumsal, kültürel ve dil önyargılarını yansıtabilir.

🔌 Gerçek Dünya Etkileşimi

Araç entegrasyonu olmadan internet araması, dosya okuma, e-posta gönderme yapamaz.

💰 Maliyet ve Enerji

Eğitim ve çalıştırma muazzam hesaplama gücü ve enerji gerektirir.

🧠 Gerçek Anlama Eksikliği

Dil kalıplarını taklit eder ama gerçek anlamda "anlamaz" veya "düşünmez".

11. Gelecek Yönelimleri

LLM teknolojisi hızla gelişmeye devam ediyor. 2026 ve sonrasında beklenen önemli trendler şunlardır:

  • Ajan (Agent) Mimarileri: LLM'lerin sadece metin üretmekle kalmayıp, araçları kullanarak otonom görevleri tamamlayabilmesi. Kod yazma, web araştırma, veri analizi gibi çok adımlı süreçleri bağımsız olarak yürütebilen yapay zeka ajanları.
  • Multimodal Yetenekler: Metin, görüntü, ses, video ve 3D verileri aynı anda anlama ve üretme. Tek bir model ile her türlü içerik oluşturma.
  • Küçük Ama Güçlü Modeller: Mixture of Experts (MoE), pruning ve distillation teknikleriyle daha küçük ama son derece yetenekli modeller geliştirme. Cep telefonunuzda çalışan LLM'ler.
  • Uzun Bağlam Pencereleri: Milyonlarca token uzunluğunda bağlam pencereleri ile tüm kitapları, kod tabanlarını veya veri setlerini tek seferde işleme.
  • Gerçek Zamanlı Öğrenme: Modellerin konuşma sırasında yeni bilgileri öğrenmesi ve hatırlaması (şu anda sınırlı olan bir yetenek).
  • Etik ve Düzenleme: AB Yapay Zeka Yasası gibi düzenlemelerin yaygınlaşması, şeffaflık gereksinimleri ve yapay zeka güvenliği standartları.

12. Doğru LLM Nasıl Seçilir?

Projeniz veya ihtiyacınız için doğru LLM'i seçerken dikkate almanız gereken temel kriterler:

Kriter Soru Öneri
Görev türü Kod mu, metin mi, analiz mi? Kod için Claude/GPT-4, yaratıcı yazım için GPT-4, analiz için Claude
Gizlilik Veriler hassas mı? Hassas veriler için açık kaynak + yerel çalıştırma
Bütçe Token başı maliyet önemli mi? Yüksek hacim için Mistral veya Llama
Dil desteği Türkçe performans önemli mi? GPT-4 ve Gemini Türkçe'de güçlü
Bağlam uzunluğu Uzun belgeler mi işlenecek? Gemini (1M token) veya Claude (200K token)

💡 Profesyonel İpucu

Tek bir LLM'e bağlı kalmak yerine model yönlendirme (model routing) stratejisi uygulayın. Basit görevler için hızlı ve ucuz bir model (örn. GPT-4o Mini), karmaşık görevler için güçlü bir model (örn. Claude Opus) kullanarak hem maliyet hem performans optimizasyonu sağlayabilirsiniz.

13. Sıkça Sorulan Sorular (SSS)

❓ LLM'ler gerçekten "düşünebilir" mi?

Hayır, LLM'ler geleneksel anlamda düşünmez. Onlar, milyarlarca metin üzerinden öğrenilen istatistiksel kalıpları kullanarak en olası kelime dizisini üretir. "Düşünme" gibi görünen davranışlar, eğitim verisindeki akıl yürütme kalıplarının başarılı bir şekilde yeniden üretilmesidir. Ancak yeni nesil "chain-of-thought" ve "reasoning" modelleri, adım adım düşünme sürecini taklit ederek daha karmaşık problemleri çözebilmektedir.

❓ LLM'leri eğitmek ne kadar maliyetlidir?

Büyük LLM'lerin eğitimi son derece pahalıdır. GPT-4 seviyesinde bir modelin eğitimi tahminen 50-100 milyon dolar arasında maliyete sahiptir. Bu maliyet GPU/TPU kiralama, enerji, veri hazırlama ve insan geri bildirim süreçlerini kapsar. Ancak daha küçük modeller (7B-13B parametre) çok daha düşük bütçelerle eğitilebilir ve ince ayar (fine-tuning) işlemleri binlerce dolar mertebesinde yapılabilir.

❓ LLM'ler insanların işlerini elinden alacak mı?

LLM'ler belirli görevleri otomatize edebilir ancak tüm işleri ortadan kaldırması beklenmemektedir. Daha olası senaryo, LLM'lerin insanların verimliliklerini artıran bir araç olarak kullanılmasıdır. Tekrarlayan, kalıp-tabanlı görevler (veri girişi, basit raporlama, şablon metin yazımı) otomasyona daha açıkken, yaratıcılık, empati, fiziksel beceri ve karmaşık karar verme gerektiren işler insanlara özgü kalmaya devam edecektir. Kritik olan, bu araçları etkin kullanmayı öğrenmektir.

❓ Kendi LLM'imi eğitebilir miyim?

Sıfırdan büyük bir LLM eğitmek kurumsal düzeyde kaynak gerektirir. Ancak mevcut açık kaynak modelleri (Llama, Mistral) kendi verilerinizle ince ayar (fine-tuning) yaparak özelleştirebilirsiniz. LoRA ve QLoRA gibi tekniklerle, tek bir tüketici GPU'su üzerinde bile ince ayar yapmak mümkündür. Hugging Face, Ollama gibi platformlar bu süreci büyük ölçüde kolaylaştırır.

❓ LLM ile chatbot arasındaki fark nedir?

LLM, altta yatan yapay zeka modelidir — dil anlama ve üretme yeteneğine sahip temel teknoloji. Chatbot ise bu modelin bir kullanıcı arayüzü üzerinden sunulmuş halidir. ChatGPT bir chatbot iken, arkasında GPT-4 modeli (LLM) çalışır. Bir LLM, chatbot dışında API üzerinden kod içinde kullanılabilir, belge analizi yapabilir, otomatik raporlar oluşturabilir — yani chatbot LLM'in sadece bir kullanım şeklidir.

Sonuç

Büyük Dil Modelleri, yapay zeka tarihindeki en heyecan verici gelişmelerden biridir. Transformer mimarisi, devasa veri setleri ve akıllı eğitim yöntemleri sayesinde makineler artık insana yakın düzeyde metin üretebiliyor. Ancak halüsinasyon, önyargı ve gerçek anlama eksikliği gibi sınırlamaları da göz ardı etmemek gerekir.

LLM'leri bir araç olarak akıllıca kullanmak — güçlü yönlerini değerlendirmek, sınırlarını bilmek ve çıktılarını doğrulamak — gelecekte en değerli becerilerden biri olacaktır.

Bu içerik Ekolsoft ekibi tarafından hazırlanmıştır. Yapay zeka, yazılım geliştirme ve dijital dönüşüm konularında güncel içerikler için bizi takip edin.

]]>

Bu yazıyı paylaş