llama.cpp, Georgi Gerganov'un 2023 başında başlattığı, dış bağımlılığı son derece az olan saf C/C++ ile yazılmış bir LLM çıkarım kütüphanesidir; 'yerel LLM' akımının patlamasındaki tek başına en önemli katalizördür. CPU dahil her yerde çalışır, GPU desteği eklenebilir, Quantization (GGUF formatı) ile büyük modelleri sıradan donanıma indirir. Üzerine inşa edilen ekosistem — Ollama, LM Studio, KoboldCpp, text-generation-webui — bugünkü 'evimde 8B model çalıştırıyorum' pratiğinin altyapısını oluşturur. Bir hobi projesi olarak başladı, şimdi en yaygın yerel çıkarım runtime'ı: 2026'da hâlâ açık kaynak topluluğunun en etkili yapımlarından biri.
Dış Bağlantılar