Skip to main content
Veri Bilimi & Yapay Zeka

MLOps 2026: Modelden Üretime En İyi Uygulamalar

March 06, 2026 11 min read 29 views Raw
MLOps üretim hattı ve model dağıtım süreçleri
Table of Contents

Makine öğrenimi modelleri geliştirmek bir işin yalnızca yarısıdır. Gerçek zorluk, bu modelleri güvenilir, ölçeklenebilir ve sürdürülebilir bir şekilde üretime taşımaktır. MLOps (Machine Learning Operations), yazılım mühendisliğindeki DevOps prensiplerini makine öğrenimi yaşam döngüsüne uygulayarak bu zorluğun üstesinden gelmeyi hedefler. 2026 yılında MLOps, artık bir "olsa iyi olur" değil, kurumsal yapay zeka stratejilerinin vazgeçilmez bir parçasıdır.

💡 Bilgi

Gartner'ın 2026 raporuna göre, kurumsal AI projelerinin %85'i MLOps olmadan ilk 18 ay içinde başarısız oluyor. Doğru MLOps uygulamaları bu oranı %15'in altına düşürebilir.

1. MLOps Nedir ve Neden Önemlidir?

MLOps, makine öğrenimi modellerinin geliştirilmesi, eğitimi, dağıtımı ve izlenmesi süreçlerini otomatikleştiren ve standartlaştıran bir disiplindir. Geleneksel yazılım geliştirme ile karşılaştırıldığında, ML projeleri ek karmaşıklıklar taşır: veri bağımlılıkları, model performans degraduasyonu, yeniden eğitim döngüleri ve üretim ortamında veri kayması (data drift).

MLOps'un temel hedefleri şunlardır:

  • Tekrarlanabilirlik: Her deneyin ve model eğitiminin aynı koşullarda tekrarlanabilmesi
  • Otomasyon: Manuel süreçlerin ortadan kaldırılması ve hata oranının düşürülmesi
  • İzlenebilirlik: Model performansının sürekli takibi ve anomali tespiti
  • İşbirliği: Veri bilimciler, ML mühendisleri ve DevOps ekipleri arasında sorunsuz koordinasyon
  • Uyumluluk: Düzenleyici gereksinimler ve denetim izlerinin sağlanması

2026'da MLOps'un önemi, yapay zeka modellerinin kurumsal karar alma süreçlerindeki rolünün artmasıyla doğru orantılı olarak büyümektedir. Artık sadece büyük teknoloji şirketleri değil, her ölçekten kuruluş MLOps pratiklerini benimsemektedir.

2. MLOps Olgunluk Seviyeleri

Google'ın tanımladığı MLOps olgunluk modeli, kuruluşların ML operasyonlarındaki gelişimini üç seviyede değerlendirir. Bu seviyeler, organizasyonların nerede olduklarını ve nereye gitmeleri gerektiğini anlamalarına yardımcı olur.

Seviye 0: Manuel Süreçler

Bu seviyede her şey manueldir. Veri bilimciler Jupyter Notebook'larında model geliştirirler, eğitim süreci elle yürütülür ve dağıtım ad-hoc şekilde gerçekleşir. CI/CD yoktur, model performansı aktif olarak izlenmez ve yeniden eğitim nadiren yapılır.

Olgunluk Seviyesi Otomasyon CI/CD İzleme
Seviye 0 - Manuel Yok Yok Yok
Seviye 1 - ML Pipeline Pipeline otomasyonu Kısmi Temel
Seviye 2 - CI/CD for ML Tam otomasyon Tam Gelişmiş

Seviye 1: ML Pipeline Otomasyonu

Bu seviyede, model eğitim süreci otomatik bir pipeline olarak tanımlanır. Veri hazırlama, özellik mühendisliği, eğitim, değerlendirme ve dağıtım adımları orkestre edilir. Tetikleyicilerle (zamanlı veya veri temelli) otomatik yeniden eğitim mümkün hale gelir. Ancak pipeline kodunun kendisi için CI/CD henüz uygulanmamış olabilir.

Seviye 2: Tam CI/CD for ML

En olgun seviyede, hem ML pipeline kodu hem de model artefaktları için tam CI/CD uygulanır. Pipeline bileşenleri otomatik olarak test edilir, model performansı sürekli izlenir ve data drift algılandığında otomatik yeniden eğitim tetiklenir. Tüm süreç, sıfır manuel müdahale ile çalışır. 2026'da hedeflenmesi gereken seviye budur.

3. CI/CD for ML: Sürekli Entegrasyon ve Dağıtım

Geleneksel CI/CD, yazılım kodunu derleyip test etmeye ve dağıtmaya odaklanırken, CI/CD for ML ek boyutlar gerektirir: veri doğrulama, model eğitimi, model doğrulama ve model dağıtımı. Her bir pipeline aşaması, kalite kapıları (quality gates) ile korunmalıdır.

Sürekli Entegrasyon (CI)

ML projeleri için CI şunları kapsamalıdır:

# ML CI Pipeline Örneği (GitHub Actions)
ml-ci-pipeline:
  stages:
    - data-validation:
        - great_expectations_check
        - schema_validation
        - data_drift_detection
    - code-quality:
        - unit_tests
        - integration_tests
        - linting (pylint, flake8)
    - model-training:
        - train_model
        - hyperparameter_validation
    - model-evaluation:
        - performance_metrics
        - bias_detection
        - regression_tests
    - artifact-storage:
        - model_registry_push
        - metadata_logging

Sürekli Dağıtım (CD)

Model dağıtım sürecinde, performans eşiklerini geçen modeller otomatik olarak staging ortamına, ardından kontrollü bir şekilde üretime taşınır. Bu süreçte canary deployment veya blue-green deployment stratejileri kullanılır. Her dağıtım adımında otomatik geri alma (rollback) mekanizmaları hazır bulunmalıdır.

✅ En İyi Uygulama

CI/CD pipeline'ınızda mutlaka "model performans regresyon testi" ekleyin. Yeni model, mevcut üretim modelinden düşük performans gösteriyorsa dağıtımı otomatik olarak engelleyin.

4. Model Versiyonlama Stratejileri

Model versiyonlama, MLOps'un temel taşlarından biridir. Yazılım versiyonlamasından farklı olarak, ML'de üç ayrı bileşenin versiyonlanması gerekir: kod, veri ve model artefaktları. Bu üçlü birlikte takip edilmezse tekrarlanabilirlik imkansız hale gelir.

Veri Versiyonlama (DVC)

Data Version Control (DVC), büyük veri setlerini Git benzeri bir yapıyla versiyonlamayı sağlar. Veri dosyalarının kendisi Git'te tutulmaz; bunun yerine meta veriler ve hash'ler Git'te, gerçek veriler uzak depolarda (S3, GCS, Azure Blob) saklanır.

# DVC ile veri versiyonlama
dvc init
dvc add data/training_dataset.parquet
git add data/training_dataset.parquet.dvc .gitignore
git commit -m "v2.1 - Yeni eğitim verisi eklendi"
dvc push  # Veriyi uzak depoya yükle

# Belirli bir versiyona geri dönme
git checkout v1.0
dvc checkout

Model Artefakt Versiyonlama

Model artefaktları (ağırlıklar, konfigürasyon dosyaları, ön işleme pipeline'ları), semantik versiyonlama (SemVer) kullanılarak saklanmalıdır. Her model versiyonu, eğitim verisinin versiyonu, hiperparametreler, performans metrikleri ve ortam bilgileri ile birlikte kaydedilmelidir. Bu yaklaşım, herhangi bir noktaya geri dönmeyi ve denetim izini sağlar.

2026'da yaygın olarak kullanılan model versiyonlama araçları arasında MLflow Model Registry, DVC, Weights & Biases Artifacts ve Neptune.ai bulunmaktadır.

5. Experiment Tracking ve Yönetimi

Makine öğrenimi geliştirme süreci, yüzlerce deney içerir: farklı hiperparametreler, veri ön işleme stratejileri, model mimarileri ve özellik setleri denenir. Experiment tracking, tüm bu deneylerin sistematik olarak kaydedilmesi ve karşılaştırılması sürecidir.

Experiment Tracking'in Temel Bileşenleri

Etkili bir experiment tracking sistemi şu bilgileri kaydetmelidir:

  • Hiperparametreler: Learning rate, batch size, epoch sayısı, model mimarisi parametreleri
  • Metrikler: Accuracy, F1 score, AUC-ROC, loss değerleri (eğitim ve doğrulama)
  • Artefaktlar: Model dosyaları, confusion matrix görselleri, özellik önem grafikleri
  • Ortam bilgileri: Python versiyonu, kütüphane sürümleri, donanım konfigürasyonu
  • Veri referansları: Kullanılan veri setinin versiyonu ve hash'i
import mlflow

# MLflow ile experiment tracking
mlflow.set_experiment("churn_prediction_v3")

with mlflow.start_run(run_name="xgboost_optimized"):
    # Hiperparametre loglama
    mlflow.log_param("learning_rate", 0.01)
    mlflow.log_param("max_depth", 8)
    mlflow.log_param("n_estimators", 500)
    
    # Model eğitimi
    model = train_model(X_train, y_train, params)
    
    # Metrik loglama
    mlflow.log_metric("accuracy", 0.94)
    mlflow.log_metric("f1_score", 0.91)
    mlflow.log_metric("auc_roc", 0.97)
    
    # Model artefaktını kaydet
    mlflow.xgboost.log_model(model, "model")
    
    # Ek artefaktlar
    mlflow.log_artifact("confusion_matrix.png")

Weights & Biases (W&B), MLflow ve Neptune.ai gibi araçlar, deneyleri görselleştirmeyi, karşılaştırmayı ve ekip üyeleriyle paylaşmayı kolaylaştırır. 2026'da bu araçlar, otomatik hiperparametre optimizasyonu ve deney önerisi gibi AI destekli özellikler de sunmaktadır.

6. Feature Store: Özellik Mühendisliği

Feature store, makine öğrenimi özelliklerinin (feature) merkezi olarak yönetildiği, paylaşıldığı ve sunulduğu bir platformdur. Tekrarlanabilirlik, tutarlılık ve verimlilik açısından kritik öneme sahiptir. Eğitim zamanında ve çıkarım (inference) zamanında aynı özelliklerin tutarlı olarak sunulmasını garanti eder.

Feature Store Mimarisi

Modern bir feature store iki ana bileşenden oluşur:

Bileşen Amaç Depolama
Offline Store Eğitim verisi için tarihsel özellikler Data Lake, BigQuery, Redshift
Online Store Gerçek zamanlı çıkarım için düşük gecikmeli erişim Redis, DynamoDB, Cassandra

2026'da öne çıkan feature store çözümleri arasında Feast (açık kaynak), Tecton, Hopsworks ve bulut sağlayıcıların kendi çözümleri (Vertex AI Feature Store, SageMaker Feature Store) yer almaktadır. Feature store kullanmanın en büyük avantajı, ekipler arasında özellik paylaşımını ve yeniden kullanımını sağlayarak geliştirme süresini önemli ölçüde kısaltmasıdır.

from feast import FeatureStore

# Feast ile feature store kullanımı
store = FeatureStore(repo_path="feature_repo/")

# Eğitim verisi için tarihsel özellikler
training_df = store.get_historical_features(
    entity_df=entity_df,
    features=[
        "customer_features:total_purchases",
        "customer_features:avg_order_value",
        "customer_features:days_since_last_order",
        "product_features:category_popularity"
    ]
).to_df()

# Online serving için gerçek zamanlı özellikler
online_features = store.get_online_features(
    features=[
        "customer_features:total_purchases",
        "customer_features:avg_order_value"
    ],
    entity_rows=[{"customer_id": 12345}]
).to_dict()

7. Model Registry ve Yaşam Döngüsü

Model registry, eğitilmiş modellerin merkezi bir katalogda saklandığı, versiyonlandığı ve yaşam döngüsü boyunca yönetildiği bir sistemdir. Model registry, modelin "None" durumundan "Staging", "Production" ve "Archived" durumlarına geçişini yönetir ve bu geçişlerde onay mekanizmaları uygular.

Model Yaşam Döngüsü Aşamaları

Tipik bir model yaşam döngüsü şu aşamalardan oluşur:

  • Development: Model geliştirme ve deney aşaması
  • Staging: Entegrasyon testleri ve performans doğrulaması
  • Production: Canlı trafik ile aktif kullanım
  • Shadow: Üretim trafiği üzerinde sessiz değerlendirme (prediction yapılır ama sonuç kullanılmaz)
  • Archived: Denetim amacıyla saklanmış eski modeller
import mlflow
from mlflow.tracking import MlflowClient

client = MlflowClient()

# Modeli registry'ye kaydet
mlflow.register_model(
    model_uri="runs:/abc123/model",
    name="churn_prediction_model"
)

# Modeli Staging'e taşı
client.transition_model_version_stage(
    name="churn_prediction_model",
    version=3,
    stage="Staging"
)

# Staging testleri başarılıysa Production'a taşı
client.transition_model_version_stage(
    name="churn_prediction_model",
    version=3,
    stage="Production"
)

2026'da model registry çözümleri, model lineage (soy ağacı) takibi, otomatik uyumluluk kontrolleri ve model kartları (model cards) gibi gelişmiş özellikler sunmaktadır. Model kartları, modelin amacı, sınırlamaları, etik değerlendirmeler ve performans metrikleri gibi bilgileri standart bir formatta dokümante eder.

8. A/B Testing ve Canary Deployment

Yeni bir modeli üretime almanın en güvenli yolu, kontrollü dağıtım stratejileri kullanmaktır. A/B testing ve canary deployment, riskleri minimize ederek model geçişlerini yönetmenin kanıtlanmış yöntemleridir.

A/B Testing Stratejileri

ML modellerinde A/B testing, iki veya daha fazla modelin aynı anda gerçek kullanıcı trafiği üzerinde karşılaştırılmasını sağlar. Trafik belirli oranlarda modellere yönlendirilir ve iş metrikleri (dönüşüm oranı, gelir, kullanıcı memnuniyeti) üzerinden istatistiksel anlamlılık değerlendirilir.

Strateji Trafik Dağılımı Risk Seviyesi Kullanım Alanı
A/B Testing 50/50 veya özel oranlar Orta İş metrikleri karşılaştırması
Canary Deployment %5-10 → kademeli artış Düşük Güvenli geçiş
Shadow Deployment %100 (sessiz) Çok düşük Doğrulama ve karşılaştırma
Blue-Green Anlık geçiş Orta Hızlı geri alma gereksinimi

Canary Deployment Uygulaması

Canary deployment'ta yeni model, trafiğin küçük bir yüzdesine (genellikle %5-10) sunulur. Performans metrikleri ve hata oranları sürekli izlenir. Sorun tespit edilmezse trafik oranı kademeli olarak artırılır; sorun çıkarsa anında geri alma yapılır. Kubernetes ve Istio ile bu süreç kolayca otomatikleştirilebilir.

# Istio ile Canary Deployment konfigürasyonu
apiVersion: networking.istio.io/v1beta1
kind: VirtualService
metadata:
  name: ml-model-service
spec:
  hosts:
    - ml-model.example.com
  http:
    - route:
        - destination:
            host: ml-model-v1  # Mevcut model
          weight: 90
        - destination:
            host: ml-model-v2  # Yeni model (canary)
          weight: 10

⚠️ Uyarı

A/B testlerinde istatistiksel anlamlılığa ulaşmadan karar vermeyin. Yetersiz veri ile sonuçlandırılan testler, yanlış model seçimine ve gelir kaybına yol açabilir. Minimum örneklem büyüklüğünü önceden hesaplayın.

9. MLOps Araçları: MLflow, Kubeflow, W&B

2026'da MLOps ekosistemi olgunlaşmış ve güçlü araçlar sunmaktadır. Her aracın güçlü yanları ve kullanım senaryoları farklıdır. İşte en yaygın kullanılan üç platform:

MLflow

MLflow, açık kaynaklı ve en yaygın kullanılan MLOps platformudur. Dört ana bileşenden oluşur: Tracking (deney takibi), Projects (tekrarlanabilir çalıştırma), Models (model paketleme) ve Registry (model yönetimi). Databricks tarafından desteklenir ve bulut agnostik yapısıyla her ortamda çalışabilir. 2026'da MLflow 3.x, gelişmiş AI Gateway, prompt engineering ve LLMOps özellikleri ile genişlemiştir.

Kubeflow

Kubeflow, Kubernetes üzerinde çalışan kapsamlı bir ML platformudur. Pipeline orkestrasyonu (Kubeflow Pipelines), dağıtık eğitim (Training Operators), hiperparametre optimizasyonu (Katib) ve model sunumu (KServe) gibi bileşenler içerir. Büyük ölçekli, Kubernetes-native ortamlar için idealdir ancak kurulum ve yönetim karmaşıklığı daha yüksektir.

Weights & Biases (W&B)

W&B, experiment tracking ve model değerlendirmede öne çıkan bir platformdur. Gerçek zamanlı eğitim görselleştirmesi, interaktif dashboard'lar, takım işbirliği özellikleri ve güçlü artifact yönetimi sunar. Araştırma ekipleri ve hızlı iterasyon gerektiren projeler için mükemmeldir. 2026'da W&B Launch ile model dağıtım ve orkestrasyon yetenekleri de güçlenmiştir.

Özellik MLflow Kubeflow W&B
Experiment Tracking Güçlü Temel Mükemmel
Pipeline Orkestrasyonu Temel Mükemmel Orta
Model Registry Güçlü Temel Orta
Ölçeklenebilirlik Orta Mükemmel Güçlü
Kurulum Kolaylığı Kolay Karmaşık Çok Kolay

10. Model İzleme ve Gözlemlenebilirlik

Bir model üretime alındıktan sonra iş bitmez; asıl zorluk o noktada başlar. Model izleme (monitoring), modelin üretim ortamında beklenen performansı sürdürdüğünden emin olmak için kritik öneme sahiptir. Veri kayması (data drift), kavram kayması (concept drift) ve model performans degraduasyonu sürekli takip edilmelidir.

İzlenmesi Gereken Metrikler

  • Model Performans Metrikleri: Accuracy, precision, recall, F1 score, AUC-ROC (etiketli veri mevcut olduğunda)
  • Veri Kalitesi Metrikleri: Eksik değer oranı, özellik dağılımı değişimleri, şema uyumsuzlukları
  • Operasyonel Metrikler: Gecikme (latency), throughput, hata oranları, kaynak kullanımı
  • İş Metrikleri: Dönüşüm oranı, gelir etkisi, kullanıcı memnuniyeti

2026'da Evidently AI, Whylabs, Arize AI ve Fiddler gibi araçlar, model izleme ve gözlemlenebilirlik alanında öne çıkmaktadır. Bu araçlar, data drift algılama, otomatik uyarı ve kök neden analizi gibi gelişmiş özellikler sunmaktadır.

💡 İpucu

Model izleme dashboard'unuzu Grafana veya benzeri bir görselleştirme aracıyla entegre edin. Data drift algılandığında otomatik Slack/Teams bildirimleri gönderin ve belirli eşik değerler aşıldığında otomatik yeniden eğitim pipeline'ını tetikleyin.

Sıkça Sorulan Sorular

MLOps ile DevOps arasındaki fark nedir?

DevOps yazılım kodunun yaşam döngüsünü yönetirken, MLOps buna ek olarak veri versiyonlama, model eğitimi, experiment tracking, model izleme ve data drift yönetimi gibi ML'ye özgü süreçleri de kapsar. MLOps, DevOps prensiplerini ML bağlamına genişleten bir disiplindir.

MLOps'a başlamak için minimum hangi araçlara ihtiyacım var?

Başlangıç için MLflow (experiment tracking ve model registry), DVC (veri versiyonlama), Git (kod versiyonlama) ve basit bir CI/CD aracı (GitHub Actions veya GitLab CI) yeterlidir. Olgunluk arttıkça feature store, gelişmiş izleme araçları ve Kubernetes tabanlı orkestrasyon ekleyebilirsiniz.

Feature store kullanmak ne zaman gerekli olur?

Birden fazla model aynı özellikleri kullanıyorsa, eğitim-çıkarım tutarlılığı kritikse, gerçek zamanlı çıkarım yapılıyorsa veya özellik mühendisliği ekipler arasında paylaşılması gerekiyorsa feature store kullanmak büyük fayda sağlar. Tek bir model ve basit batch çıkarım senaryolarında ise başlangıçta gerekli olmayabilir.

Data drift nasıl tespit edilir ve ne yapılmalıdır?

Data drift, gelen verilerin dağılımının eğitim verisinin dağılımından sapmasıdır. KS testi, PSI (Population Stability Index) ve Jensen-Shannon divergence gibi istatistiksel testlerle tespit edilir. Drift algılandığında, önce kök neden analizi yapılmalı, ardından güncel verilerle model yeniden eğitilmeli ve A/B test ile doğrulanmalıdır.

Küçük ekipler MLOps'u nasıl uygulayabilir?

Küçük ekipler, tam kapsamlı bir MLOps platformu kurmak yerine kademeli bir yaklaşım benimsemelidir. İlk adım olarak experiment tracking (MLflow veya W&B) ve basit CI/CD (GitHub Actions) ile başlayın. İkinci aşamada model registry ve otomatik testler ekleyin. Bulut yönetilen hizmetleri (AWS SageMaker, GCP Vertex AI) tercih ederek operasyonel yükü azaltabilirsiniz.

MLOps ve LLMOps arasında ne fark vardır?

LLMOps, MLOps'un büyük dil modelleri (LLM) için özelleştirilmiş halidir. Prompt yönetimi, fine-tuning pipeline'ları, RAG (Retrieval-Augmented Generation) entegrasyonu, değerlendirme metrikleri (hallucination detection, toxicity scoring) ve maliyet optimizasyonu gibi LLM'e özgü ek boyutlar içerir. 2026'da LLMOps, MLOps ekosisteminin hızla büyüyen bir alt dalıdır.

Share this post