Skip to main content
Yapay Zeka ve Mobil

Cihaz Üzerinde İnferans: On-Device LLM'lerle Mobil Uygulamalar İçin Performans ve Gizlilik

Mart 13, 2026 4 dk okuma 21 views Raw
Ahşap bir yüzey üzerinde duran, şık tasarımlı modern bir akıllı telefonun yakın çekim fotoğrafı.
İçindekiler

Mobil cihazlarda büyük dil modellerinin (LLM) cihaz üzerinde çalıştırılması (on-device inference), 2024–2026 yılları arasında hızla olgunlaşan bir trend oldu. Hem performans hem de gizlilik gereksinimleri, kullanıcı verilerinin buluta gönderilmeden işlenmesine olan talebi artırdı. Bu yazıda on-device LLM'lerin teknik zorluklarını, performans optimizasyonlarını, gizlilik faydalarını ve pratik uygulama rehberini ele alıyoruz.

Neden On-Device Inference?

On-device inference, mobil uygulamalar için bir dizi avantaj sağlar:

  • Düşük gecikme: Ağ turları olmadan anlık yanıtlar mümkün.
  • Gizlilik: Kullanıcı verileri cihaz içinde kalır, veri koruma regülasyonlarına uyum kolaylaşır.
  • Çevrimdışı çalışma: İnternet bağlantısı olmayan senaryolarda bile model hizmeti sağlanır.
  • Maliyet kontrolü: Bulut maliyetleri azalır, özellikle yüksek hacimli uygulamalarda ekonomik avantaj sağlar.

Karşılaşılan Zorluklar

Cihaz üzerinde LLM çalıştırmanın teknik zorlukları vardır:

  • Model boyutu ve bellek kısıtları: Büyük modeller mobil bellek ve depolama sınırlarına takılır.
  • Hesaplama kaynakları: CPU/GPU/NPU kapasiteleri sınırlıdır; enerji tüketimi önemlidir.
  • Doğruluk kaybı: Kuvantizasyon veya küçültme işlemleri model doğruluğunu etkileyebilir.
  • Güncellemeler ve model dağıtımı: Sürüm yönetimi ve güvenli model güncellemeleri planlanmalıdır.

Performans Optimizasyon Teknikleri

On-device LLM performansını artırmak için sık kullanılan teknikler:

1. Model Küçültme ve Bilgi Sıkıştırma

Model distillation (öğretmenden öğrenciye), pruning ve parametre paylaşımı ile model boyutu küçültülebilir. Distillation, daha küçük bir modelin büyük modelin davranışını taklit etmesini sağlar; pruning ise gereksiz ağırlıkları kaldırır. Bu yaklaşımlar doğruluk-kapasite dengesini korumada etkilidir.

2. Quantization (Kuvantizasyon)

FP32'den FP16, int8 ve daha agresif 4-bit veya 2-bit formata doğru kuvantizasyon, model belleğini ve bellek bant genişliği gereksinimini önemli ölçüde azaltır. 2024 sonrası gelişmelerle GPTQ, AWQ ve NF4 gibi yöntemler yaygınlaştı; 4-bit kvantizasyon modern telefonlarda makul doğruluk-yer tasarrufu dengesi sunuyor. Ancak quantize edilmiş modellerin doğruluk testi ve kalibrasyonu şarttır.

3. Verimli Runtimes ve Donanım Hızlandırma

Mobil platformlarda performansı açığa çıkarmak için native hızlandırıcılar kullanılmalı: Apple cihazlarda Core ML ve Apple Neural Engine; Android'de NNAPI, GPU delegate'leri (Vulkan/Metal) ve özel NPU dâhili hızlandırıcılar. Cross-platform çözümler olarak ONNX Runtime Mobile, TensorFlow Lite ve PyTorch Mobile ile birlikte llama.cpp / ggml gibi hafif çalışma zamanları da popülerdir.

4. Bellek Yönetimi ve MMAP

Model ağırlıklarını bellek eşleme (mmap) ile yedekleyip, gerektiğinde sayfalama yaparak başlangıç bellek kullanımını azaltabilirsiniz. Ayrıca katman bazlı yükleme (layer-wise loading) ve çalışma zamanı belleği yeniden kullanımı önemli optimizasyonlardır.

5. Pipeline Optimizasyonları

Tokenizasyonu önceden desteklenmiş kabuklarda hızlandırmak, çıkışları stream ederek ilk token'ları hızlı iletmek ve kısa bağlamları (context) yerel cache ile işlemek kullanıcı deneyimini iyileştirir. Batching yerine kullanıcı başına tekil düşük-latency yaklaşımları mobilde genelde daha uygundur.

Gizlilik ve Güvenlik

On-device inference gizliliği güçlendirir ancak dikkat edilmesi gerekenler vardır:

Yerel Veri İşleme

Kullanıcı verileri cihazda kalır; bu, GDPR ve benzeri düzenlemelere uyumu kolaylaştırır. Fakat uygulama içi loglama, hatırlama (telemetry) veya hata raporlama sırasında istenmeyen veri sızıntılarına karşı maskeleme ve anonimleştirme uygulanmalıdır.

Güvenli Enklavlar ve Anahtar Yönetimi

Model gizliliği ve lisans koruması için Trusted Execution Environment (TEE), Secure Enclave veya Android Keystore gibi mekanizmalar kullanılabilir. Model güncellemeleri şifrelenmeli ve imzalanmalıdır.

Diferansiyel Gizlilik ve Federated Learning

Merkezi modele katkı gerekiyorsa diferansiyel gizlilik ve federated learning yaklaşımları değerlendirilmelidir. Bu yöntemler, cihazda eğitilmiş veya ince ayarlanmış bilgilerin doğrudan paylaşılmasını engellerken merkezi öğrenmeyi mümkün kılar.

Hibrit Yaklaşımlar ve RAG (Retrieval-Augmented Generation)

Her işlemi tamamen cihazda yapmak zor olabilir. Hibrit mimarilerde, temel dil modeli cihazda çalışırken, geniş bilgi gerektiren sorgular için güvenli ve gizlilik odaklı bir bulut katmanı veya özel RAG pipeline'ı kullanılabilir. On-device vektör arama (HNSWlib, FAISS-lite ya da SQLite + ANN çözümleri) ile yerel bilgi bazlı RAG gerçekleştirilebilir; kritik olmayan veriler gerektiğinde buluta gönderilebilir.

Pratik Uygulama Rehberi: Adım Adım

  1. İhtiyaç analizi: Gecikme, doğruluk, gizlilik önceliklerini belirleyin.
  2. Model seçimi: Mobil için optimize edilmiş açık modeller veya distill edilmiş versiyonlar tercih edin.
  3. Quantization ve test: Farklı kvantizasyon düzeylerini deneyin; doğruluk regresyon testleri yapın.
  4. Runtime seçimi: Hedef platforma göre Core ML, NNAPI, TFLite veya ONNX gibi runtime'ları değerlendirin.
  5. Donanım optimizasyonu: GPU/NPU delegeleri, multi-threading, enerji profilleri test edin.
  6. Gizlilik kontrolleri: TEE, şifreleme, veri anonimleştirme ve GDPR uyumunu uygulayın.
  7. Dağıtım ve güncelleme: Model imzalama, delta güncellemeleri ve güvenli kanallar kurun.
  8. İzleme ve geri bildirim: Doğruluk, gecikme ve batarya tüketimini sürekli izleyin; kullanıcı geri bildirimlerini toplayın.

Örnek Araç ve Kütüphaneler

Sık kullanılan araçlar (2026 itibarıyla yaygınlaşmış ve güncel): llama.cpp / ggml, GPTQ / AWQ araçları, TensorFlow Lite, PyTorch Mobile, ONNX Runtime Mobile, Core ML Tools, HNSWlib/FAISS-lite, NVidia/TensorRT (edge server senaryoları) ve platformun native API'leri (NNAPI, Metal, Vulkan).

Sonuç

On-device LLM'ler mobil uygulamaların kullanıcı deneyimini, gizliliğini ve maliyet etkinliğini dönüştürüyor. 2026'ya gelindiğinde donanım hızlandırıcıları, gelişmiş kvantizasyon teknikleri ve verimli runtimelar sayesinde cihazda çalışan güçlü modeller mümkün hale geldi. Bununla birlikte doğru optimizasyon, güvenlik uygulamaları ve hibrit mimari kararları, hem performans hem de kullanıcı gizliliği açısından kritik öneme sahip. Uygulamanız için en iyi çözümü seçerken hedef kullanıcı kitlesi, cihaz profilleri ve regülasyon gereksinimlerini dikkate alın.

Bu yazıyı paylaş