İçindekiler
- 1. Giriş: Türkçe NLP Neden Önemli?
- 2. Türkçe Dilinin NLP Zorlukları
- 3. Aglütinatif Yapı ve Ek Sistemi
- 4. Morfolojik Analiz
- 5. Tokenization ve Alt Kelime Modelleri
- 6. İsimli Varlık Tanıma (NER)
- 7. Duygu Analizi
- 8. Türkçe LLM'ler ve Büyük Dil Modelleri
- 9. Açık Kaynak Modeller ve Kütüphaneler
- 10. Pratik Projeler ve Uygulamalar
- 11. Benchmark Sonuçları ve Karşılaştırmalar
- 12. Türkçe NLP'nin Geleceği
- 13. Sıkça Sorulan Sorular (SSS)
1. Giriş: Türkçe NLP Neden Önemli?
Doğal dil işleme (NLP), yapay zekanın en hızlı gelişen alt alanlarından biridir. İnsan dilini anlama, yorumlama ve üretme yeteneği kazanan sistemler günlük hayatımızın her alanına nüfuz etmektedir. Ancak NLP araştırmalarının büyük çoğunluğu İngilizce odaklı yapılmakta ve Türkçe gibi morfolojik açıdan zengin diller için özel çözümler geliştirilmesi gerekmektedir.
Türkçe, dünya genelinde yaklaşık 80 milyon ana dil konuşucusu ve 20 milyon ikinci dil konuşucusu ile önemli bir dil grubudur. Ural-Altay dil ailesinin Altay koluna ait olan Türkçe, aglütinatif (eklemeli) yapısı ile İngilizce ve diğer Hint-Avrupa dillerinden temelden farklılaşır. Bu yapısal farklılık, NLP algoritmaları için hem zorluklar hem de benzersiz fırsatlar sunmaktadır.
Son yıllarda Türkçe NLP alanında büyük ilerlemeler kaydedilmiştir. BERTurk, TurkishBERT ve çeşitli Türkçe dil modelleri, metin sınıflandırma, duygu analizi ve isimli varlık tanıma gibi görevlerde etkileyici sonuçlar elde etmektedir. Bu yazıda, Türkçe NLP'nin tüm boyutlarını derinlemesine inceleyeceğiz.
💡 Bilgi Notu
Türkçe, UNESCO'nun dil çeşitliliği raporlarına göre dijital alanda yeterince temsil edilmeyen diller arasında yer almaktadır. NLP çalışmaları bu açığı kapatmak için kritik öneme sahiptir.
2. Türkçe Dilinin NLP Zorlukları
Türkçe dili, NLP sistemleri için İngilizce ile kıyaslandığında çok daha karmaşık bir yapı sunar. Bu zorlukların temelinde dilin morfolojik zenginliği, söz dizimi esnekliği ve fonetik uyum kuralları yatmaktadır.
Serbest Söz Dizimi (Free Word Order)
Türkçe, temel olarak SOV (Özne-Nesne-Yüklem) söz dizimine sahip olsa da, vurgu ve anlam nüanslarına bağlı olarak sözcük sıralaması değişebilir. "Ali kitabı okudu", "Kitabı Ali okudu", "Okudu Ali kitabı" cümlelerinin hepsi dilbilgisel olarak geçerlidir. Bu esneklik, sözdizimsel ayrıştırma (parsing) için büyük zorluk oluşturur.
Belirsizlik (Ambiguity) Sorunları
Türkçede birçok kelime, bağlama göre farklı anlamlar taşıyabilir. Örneğin "yüz" kelimesi hem bir sayı, hem bir fiil (yüzmek), hem de bir beden parçası (yüz/surat) anlamına gelebilir. Bu tür çok anlamlılık, kelime anlamı belirleme (Word Sense Disambiguation) sistemlerini zorlamaktadır.
Ünlü Uyumu ve Fonetik Kurallar
Büyük ve küçük ünlü uyumu, Türkçe eklerin alacağı biçimi belirler. "Evler" ama "kapılar", "geldim" ama "gittim" örneklerinde görüldüğü gibi, ekler kök ünlüsüne göre şekil değiştirir. NLP sistemlerinin bu kuralları anlaması gerekir çünkü yanlış ünlü uyumu hem yazım hataları tespitinde hem de morfolojik analizde sorunlara yol açar.
3. Aglütinatif Yapı ve Ek Sistemi
Türkçenin en belirgin özelliği aglütinatif (eklemeli) yapısıdır. Bu yapıda bir kök sözcüğe ardı ardına yapım ve çekim ekleri getirilerek yeni kelimeler ve anlamlar oluşturulur. Tek bir sözcük, bir İngilizce cümlenin taşıdığı kadar anlam içerebilir.
Örnek olarak "çalışamayabileceklerdenmişsiniz" kelimesini inceleyelim:
çalış + ama + yabil + ecek + ler + den + miş + siniz (kök) (olmsz) (yetenek) (gelecek) (çoğul) (ayrılma) (rivayet) (2.çoğul) Anlam: "Çalışamayabileceklerdenmiş olduğunuz bildiriliyor"
Bu yapı, NLP açısından ciddi bir kelime dağarcığı (vocabulary) sorunu yaratır. İngilizce bir metinde yaklaşık 50.000-100.000 farklı kelime formu bulunurken, aynı büyüklükteki bir Türkçe metinde milyonlarca farklı kelime formu ortaya çıkabilir. Bu durum, geleneksel kelime tabanlı modellerin Türkçe için yetersiz kalmasına neden olur.
Yapım Ekleri ve Üretkenlik
Türkçe yapım ekleri son derece üretkendir. Bir fiil kökünden isim, sıfat, zarf ve yeni fiiller türetilebilir. "Gör-" kökünden: görüş, görüntü, görünüm, görüşme, görev, görsel, görece, görücü gibi onlarca kelime türetilir. Her biri ayrı çekim ekleri alabilir ve bu kombinatorik patlama, kelime haznesini astronomik rakamlara çıkarır.
Çekim Ekleri ve Dilbilgisel Bilgi
İsimlerde hal (nominatif, akuzatif, datif, lokatif, ablatif, genitif), iyelik ve çoğul ekleri; fiillerde zaman, kişi, kip, çatı ekleri bulunur. Bu eklerin tümü morfolojik analizde doğru biçimde tanınmalıdır. Yanlış segmentasyon, anlam kaybına ve hatalı sınıflandırmalara yol açar.
🔑 Önemli
Bir Türkçe fiil kökünden teorik olarak binlerce farklı çekimli form üretilebilir. Bu özellik, sözlük tabanlı yaklaşımları pratik olarak imkansız kılar ve morfolojik çözümleyici kullanımını zorunlu hale getirir.
4. Morfolojik Analiz
Morfolojik analiz, Türkçe NLP'nin temel taşıdır. Bir kelimenin kök ve eklerini ayırt etme, her bir morfemi tanımlama ve dilbilgisel bilgileri çıkarma işlemlerini kapsar. Türkçe için geliştirilmiş en bilinen morfolojik çözümleyiciler arasında Zemberek, TRMorph ve Morpheus yer almaktadır.
Zemberek NLP
Zemberek, Java tabanlı açık kaynaklı bir Türkçe NLP kütüphanesidir. Morfolojik analiz, yazım denetimi, cümle sınırı belirleme ve kelime kök bulma gibi temel NLP görevlerini destekler. Ahmet Afşın Akın tarafından geliştirilmiş olan Zemberek, Türkçe NLP topluluğunun en çok kullandığı araçlardan biridir.
// Zemberek Morfolojik Analiz Örneği
TurkishMorphology morphology = TurkishMorphology.createWithDefaults();
WordAnalysis results = morphology.analyze("evlerinizden");
// Çıktı:
// [ev:Noun] evlerinizden [ev:Noun,A3pl:ler,P2pl:iniz,Abl:den]
// Kök: ev (İsim)
// Çoğul: -ler
// İyelik: -iniz (2. çoğul kişi)
// Hal: -den (Ayrılma/Ablatif)
Morfolojik Belirsizlik
Türkçede morfolojik belirsizlik önemli bir sorundur. Bir kelime formunun birden fazla geçerli morfolojik çözümlemesi olabilir. Örneğin "yüzler" kelimesi "yüz+ler" (yüzler/suratlar) veya "yüz+ler" (yüzmek eyleminin geniş zaman 3. çoğul çekimi) şeklinde çözümlenebilir. Doğru çözümlemenin seçilmesi için bağlamsal bilgi gereklidir.
Morfolojik belirsizlik çözümü (morphological disambiguation) için istatistiksel modeller, koşullu rastgele alanlar (CRF) ve son yıllarda derin öğrenme tabanlı yaklaşımlar kullanılmaktadır. BERT tabanlı modeller, bağlamsal temsilleri kullanarak morfolojik belirsizlik çözümünde %97'nin üzerinde doğruluk oranlarına ulaşmıştır.
5. Tokenization ve Alt Kelime Modelleri
Tokenization, metni daha küçük birimlere (token) ayırma işlemidir. İngilizce için boşluk tabanlı tokenization genellikle yeterli olsa da, Türkçenin aglütinatif yapısı nedeniyle daha sofistike yöntemler gereklidir.
Kelime Tabanlı Tokenization Sorunu
Kelime tabanlı tokenization Türkçe için büyük bir sözlük (vocabulary) sorununa yol açar. Aynı kökten türeyen yüzlerce farklı kelime formu ayrı tokenlar olarak ele alınır ve model bu formlar arasındaki ilişkiyi öğrenmekte zorlanır. Ayrıca eğitim verisinde görülmeyen kelime formları (OOV - Out of Vocabulary) sorunu ciddi boyutlara ulaşır.
BPE ve Alt Kelime Tokenization
Byte Pair Encoding (BPE) ve SentencePiece gibi alt kelime (subword) tokenization yöntemleri, Türkçe için büyük avantaj sağlar. Bu yöntemler kelimeleri istatistiksel olarak anlamlı alt parçalara böler. Örneğin "evlerinizden" kelimesi "ev##ler##iniz##den" şeklinde bölünebilir ve model bu alt parçaları farklı bağlamlarda yeniden kullanabilir.
# SentencePiece ile Türkçe Tokenization
import sentencepiece as spm
sp = spm.SentencePieceProcessor()
sp.load('turkce_model.model')
text = "Doğal dil işleme ile metin analizi yapılmaktadır"
tokens = sp.encode(text, out_type=str)
# ['▁Doğal', '▁dil', '▁işle', 'me', '▁ile', '▁metin', '▁analiz', 'i', '▁yapıl', 'makta', 'dır']
Morfoloji Farkında Tokenization
Bazı araştırmacılar, morfolojik bilgiyi tokenization sürecine entegre eden yaklaşımlar geliştirmiştir. Morfolojik sınırları dikkate alan tokenization, hem sözlük boyutunu azaltır hem de modelin dilbilgisel yapıyı daha iyi öğrenmesini sağlar. Bu yaklaşım özellikle makine çevirisi ve metin üretimi görevlerinde başarılı sonuçlar vermektedir.
6. İsimli Varlık Tanıma (NER)
İsimli varlık tanıma (Named Entity Recognition - NER), metindeki özel isimleri (kişi, kuruluş, yer, tarih vb.) otomatik olarak tanımlama görevidir. Türkçe NER, dilin morfolojik zenginliği nedeniyle İngilizce NER'den daha zorlu bir görevdir.
Türkçe NER Zorlukları
Türkçede özel isimler de çekim eki alır. "Ankara'dan", "İstanbul'un", "Atatürk'ü" gibi örneklerde varlık ismi eklerin altında gizlenebilir. Ayrıca büyük harf kullanımı İngilizceye kıyasla farklı kurallara tabidir ve her zaman güvenilir bir ipucu sağlamaz.
Türkçe NER için kullanılan veri setleri arasında WikiANN, XTREME ve özel olarak oluşturulmuş Türkçe NER külliyatları bulunmaktadır. BERTurk tabanlı NER modelleri, F1 skoru açısından %90'ın üzerinde performans göstermektedir.
# Türkçe NER Örneği (Transformers)
from transformers import pipeline
ner = pipeline("ner", model="savasy/bert-base-turkish-ner-cased")
text = "Mustafa Kemal Atatürk 1881'de Selanik'te doğdu."
entities = ner(text)
# Çıktı:
# [{'word': 'Mustafa', 'entity': 'B-PER', 'score': 0.99},
# {'word': 'Kemal', 'entity': 'I-PER', 'score': 0.99},
# {'word': 'Atatürk', 'entity': 'I-PER', 'score': 0.98},
# {'word': 'Selanik', 'entity': 'B-LOC', 'score': 0.97}]
7. Duygu Analizi
Duygu analizi (sentiment analysis), bir metnin pozitif, negatif veya nötr duygusal tonunu belirleme görevidir. E-ticaret yorumları, sosyal medya paylaşımları ve müşteri geri bildirimleri üzerinde yoğun olarak kullanılmaktadır.
Türkçe Duygu Analizi Zorlukları
Türkçe duygu analizinde olumsuzluk yapıları (negation) büyük zorluk oluşturur. "Beğenmedim değil" gibi çift olumsuzluk yapıları, "sevmiyorum ama kötü de değil" gibi karma cümleler ve ironi/sarkastik ifadeler modelleri yanıltabilir. Ayrıca argo ve konuşma dili, resmi Türkçeden çok farklı yapılar içerir.
Türkçe duygu analizi için SemEval, Türkçe tweet veri setleri ve e-ticaret yorum külliyatları kullanılmaktadır. BERT tabanlı modeller bu görevde %85-92 arasında doğruluk oranlarına ulaşmaktadır. Özellikle alan spesifik (domain-specific) ince ayar yapıldığında performans önemli ölçüde artmaktadır.
Aspect-Based Duygu Analizi
Yön bazlı duygu analizi (ABSA), bir yorumun farklı yönlerini (fiyat, kalite, hizmet vb.) ayrı ayrı değerlendirir. "Yemekler harika ama servis çok yavaştı" gibi bir cümlede yemek yönü pozitif, servis yönü negatif olarak etiketlenir. Türkçe ABSA çalışmaları son yıllarda hız kazanmış olup restoran, otel ve e-ticaret alanlarında uygulanmaktadır.
8. Türkçe LLM'ler ve Büyük Dil Modelleri
Büyük dil modelleri (LLM) alanında Türkçe odaklı çalışmalar hız kazanmıştır. Bu modeller, Türkçe metinler üzerinde eğitilerek dilin yapısal özelliklerini daha iyi kavramakta ve çeşitli NLP görevlerinde üstün performans sergilemektedir.
BERTurk
BERTurk, Stefan Schweter tarafından geliştirilen Türkçe BERT modelidir. 35GB Türkçe metin üzerinde sıfırdan eğitilmiş olan bu model, hem cased hem de uncased versiyonlarıyla sunulmaktadır. BERTurk, metin sınıflandırma, NER, soru yanıtlama ve cümle benzerliği gibi görevlerde çok dilli BERT'e kıyasla önemli ölçüde daha iyi sonuçlar vermektedir.
TURNA ve Diğer Türkçe Modeller
TURNA (Turkish Natural Language Processing Architecture), T5 mimarisine dayalı bir encoder-decoder modeldir. Metin özetleme, başlık oluşturma, parafraz ve metin üretimi gibi üretken görevlerde güçlü performans sergilemektedir. Bunun yanı sıra Turkish-GPT2, Kanarya ve çeşitli üniversite araştırma grupları tarafından geliştirilen modeller de Türkçe NLP ekosistemine katkıda bulunmaktadır.
Çok Dilli Modellerin Türkçe Performansı
GPT-4, Claude, Gemini ve Llama gibi çok dilli LLM'ler Türkçe'yi desteklemekle birlikte, İngilizce'ye kıyasla performans farkı gözlemlenmektedir. Bu fark özellikle dilbilgisel doğruluk, ince anlam nüansları ve kültürel bağlam gerektiren görevlerde belirginleşir. Türkçe'ye özel ince ayar yapılan modeller bu farkı önemli ölçüde kapatmaktadır.
9. Açık Kaynak Modeller ve Kütüphaneler
Türkçe NLP ekosistemi, çeşitli açık kaynak araçlar ve kütüphanelerle zenginleşmektedir. Bu araçlar, araştırmacılar ve geliştiriciler için Türkçe metin işleme görevlerini kolaylaştırmaktadır.
Zemberek-NLP
Zemberek-NLP, Java tabanlı kapsamlı bir Türkçe NLP kütüphanesidir. Morfolojik analiz, tokenization, cümle sınırı belirleme, yazım denetimi, kelime önerisi ve duygu sözlüğü gibi temel işlevleri barındırır. Python bağlayıcıları aracılığıyla Python ekosisteminden de erişilebilir.
spaCy-Turkish
spaCy kütüphanesinin Türkçe modelleri, tokenization, POS etiketleme, bağımlılık ayrıştırma ve NER görevlerini destekler. Endüstriyel uygulamalar için optimize edilmiş bu modeller, yüksek hız ve doğruluk sunmaktadır.
Hugging Face Türkçe Modeller
Hugging Face model deposunda yüzlerce Türkçe NLP modeli bulunmaktadır. Metin sınıflandırma, NER, soru yanıtlama, özetleme ve metin üretimi gibi çeşitli görevler için hazır modeller indirilebilir ve kullanılabilir. Transformers kütüphanesi ile birkaç satır kodla bu modeller çalıştırılabilir.
# Hugging Face ile Türkçe Metin Sınıflandırma from transformers import AutoTokenizer, AutoModelForSequenceClassification import torch model_name = "dbmdz/bert-base-turkish-cased" tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForSequenceClassification.from_pretrained(model_name, num_labels=3) text = "Bu ürünü çok beğendim, herkese tavsiye ederim!" inputs = tokenizer(text, return_tensors="pt", padding=True, truncation=True) outputs = model(**inputs) predictions = torch.softmax(outputs.logits, dim=1)
Diğer Önemli Kütüphaneler
TurkishNLP: Python tabanlı, yazım düzeltme, heceleme ve kelime kök bulma gibi temel işlevler sunar. NLTK Türkçe: NLTK'nın Türkçe durdurma kelimeleri (stopwords) ve temel tokenization desteği. Stanza: Stanford NLP grubunun geliştirdiği çok dilli kütüphane, Türkçe için POS etiketleme, lemmatizasyon ve bağımlılık ayrıştırma sunar.
10. Pratik Projeler ve Uygulamalar
Türkçe NLP teknolojileri çeşitli pratik uygulamalarda kullanılmaktadır. İşte öne çıkan uygulama alanları ve örnek projeler:
Chatbot ve Sanal Asistanlar
Türkçe chatbot geliştirme, niyet sınıflandırma (intent classification), varlık çıkarma (entity extraction) ve diyalog yönetimi bileşenlerini içerir. Bankacılık, e-ticaret ve müşteri hizmetleri alanlarında Türkçe chatbotlar yaygın olarak kullanılmaktadır. Rasa NLU ve Dialogflow gibi platformlar Türkçe desteği sunmaktadır.
Metin Özetleme
Haber özetleme, belge özetleme ve toplantı özetleme gibi görevler Türkçe NLP'nin önemli uygulama alanlarıdır. TURNA ve mT5 modelleri, Türkçe metin özetleme görevinde başarılı sonuçlar üretmektedir. Extractive (çıkarıcı) ve abstractive (soyutlayıcı) yaklaşımlar kullanılmaktadır.
Makine Çevirisi
Türkçe-İngilizce makine çevirisi, dilin yapısal farklılıkları nedeniyle zorlu bir görevdir. SOV vs SVO söz dizimi farkı, eklemeli yapı ve anlam belirsizlikleri çeviri kalitesini etkiler. Helsinki-NLP/OPUS modelleri ve Google Translate bu alanda öne çıkan çözümlerdir.
Konuşma Tanıma ve Sentez
Türkçe konuşma tanıma (ASR) ve konuşma sentezi (TTS) sistemleri, Whisper, Mozilla TTS ve özel modeller aracılığıyla geliştirilmektedir. Türkçenin fonetik yapısının düzenli olması sentez için avantaj sağlarken, ağız ve lehçe çeşitliliği tanıma için zorluk oluşturur.
11. Benchmark Sonuçları ve Karşılaştırmalar
Türkçe NLP modellerinin performansı çeşitli benchmark veri setleri üzerinde değerlendirilmektedir. Aşağıdaki tablo, başlıca görevlerdeki karşılaştırmalı sonuçları göstermektedir.
Sonuçlar açıkça göstermektedir ki Türkçeye özel eğitilmiş modeller (BERTurk), çok dilli modellere (mBERT, XLM-R) kıyasla tutarlı bir şekilde daha yüksek performans sergilemektedir. Bu fark özellikle morfolojik açıdan zorlayıcı görevlerde belirginleşmektedir.
12. Türkçe NLP'nin Geleceği
Türkçe NLP alanı hızla gelişmektedir ve gelecekte çeşitli önemli gelişmeler beklenmektedir. Daha büyük ve kaliteli Türkçe veri külliyatlarının oluşturulması, Türkçeye özel büyük dil modellerinin geliştirilmesi ve endüstriyel uygulamaların yaygınlaşması öne çıkan trendlerdir.
TÜBİTAK ve çeşitli üniversiteler tarafından desteklenen projeler, Türkçe NLP altyapısını güçlendirmektedir. Açık kaynak topluluğunun büyümesi, veri paylaşım platformlarının gelişmesi ve uluslararası işbirliklerinin artması, Türkçe NLP'nin geleceği için umut verici gelişmelerdir.
Özellikle Retrieval-Augmented Generation (RAG) yaklaşımlarının Türkçe veri tabanlarıyla entegrasyonu, Türkçe multimodal modeller ve Türkçe konuşma-metin dönüşüm sistemlerinin geliştirilmesi gelecek dönemin önemli araştırma alanları olarak öne çıkmaktadır.
💡 Gelecek Vizyonu
2026 ve sonrasında Türkçe NLP alanında milyar parametreli Türkçe odaklı LLM'lerin, gerçek zamanlı çeviri sistemlerinin ve multimodal Türkçe AI asistanlarının yaygınlaşması beklenmektedir.
13. Sıkça Sorulan Sorular (SSS)
Türkçe NLP neden İngilizce NLP'den daha zor?
Türkçenin aglütinatif yapısı nedeniyle bir kökten binlerce farklı kelime formu üretilebilir. Bu durum sözlük boyutunu büyütür, veri seyrekliğine (data sparsity) neden olur ve standart tokenization yöntemlerini yetersiz bırakır. Ayrıca serbest söz dizimi, morfolojik belirsizlik ve etiketli veri kıtlığı ek zorluklar oluşturur.
Türkçe NLP için en iyi model hangisidir?
Göreve bağlı olarak değişir. Metin sınıflandırma ve NER için BERTurk, metin üretimi ve özetleme için TURNA, genel amaçlı görevler için ise XLM-RoBERTa iyi seçeneklerdir. Üretken görevler için GPT-4 ve Claude gibi çok dilli LLM'ler de güçlü Türkçe performansı sunmaktadır.
Zemberek hâlâ güncel mi ve kullanılmalı mı?
Zemberek, morfolojik analiz, yazım denetimi ve kelime kök bulma gibi kural tabanlı görevlerde hâlâ güçlü bir araçtır. Ancak derin öğrenme tabanlı görevler için Hugging Face modelleri ve spaCy tercih edilmektedir. İdeal yaklaşım, Zemberek'in morfolojik analizini derin öğrenme modelleriyle birleştirmektir.
Türkçe duygu analizi için hangi veri setleri kullanılabilir?
Başlıca Türkçe duygu analizi veri setleri şunlardır: Türkçe tweet duygu analizi veri setleri, e-ticaret yorum veri setleri (Hepsiburada, Trendyol yorumları), film yorum veri setleri ve SemEval yarışma veri setleri. Hugging Face Datasets kütüphanesinde de çeşitli Türkçe duygu analizi veri setleri bulunmaktadır.
Türkçe NLP projesi geliştirmek için nereden başlamalıyım?
Python ve temel NLP kavramlarını öğrendikten sonra Hugging Face Transformers kütüphanesi ile başlamanız önerilir. BERTurk modelini kullanarak basit bir metin sınıflandırma projesi yapabilirsiniz. Ardından Zemberek ile morfolojik analiz, spaCy ile NER projeleri geliştirebilirsiniz. GitHub'da açık kaynak Türkçe NLP projelerini incelemeniz de faydalı olacaktır.
Türkçe NLP'de morfolojik analiz neden bu kadar önemli?
Morfolojik analiz, Türkçe NLP'nin temel taşıdır çünkü Türkçe kelimelerin büyük kısmı birden fazla ek içerir ve bu eklerin doğru tanınması anlam çıkarımı için kritiktir. Morfolojik analiz olmadan tokenization, NER, metin sınıflandırma ve makine çevirisi gibi görevlerin başarısı önemli ölçüde düşer. Özellikle kök bulma, ek ayrıştırma ve morfolojik belirsizlik çözümü diğer tüm NLP görevlerinin ön koşuludur.