Ollama + Llama 3.3 ile Bilgisayarınızda Ücretsiz LLM Çalıştırma Rehberi (2026)

26.04.2026 13:25 Haber

ChatGPT, Claude veya Gemini kullanmak güzel — ama her sorgu için API ücreti ödemek, internet bağlantısına bağımlı olmak ve verilerinizi üçüncü tarafa göndermek zorunda kalmak istemeyebilirsiniz. Ollama + Llama 3.3 ikilisi tam burada devreye giriyor: kendi bilgisayarınızda, tamamen ücretsiz ve çevrimdışı çalışan güçlü bir yapay zeka asistanı (free, offline, local LLM). Alesta Web ekibi olarak bu rehberde Ollama'nın kurulumundan ilk sohbete kadar tüm adımları en başından anlatıyoruz.

Ollama Nedir? (What is Ollama?)

Ollama, büyük dil modellerini (Large Language Models, LLM) lokal makinenizde çalıştırmanızı sağlayan açık kaynak bir araçtır. Tek bir komutla model indirip çalıştırabilirsiniz; üstelik OpenAI ile uyumlu bir REST API sunucusu da otomatik olarak başlatır.

? Neden Lokal LLM? (Why Local LLM?)
  • Gizlilik (Privacy): Verileriniz makinenizden çıkmaz
  • Maliyet (Cost): API ücreti yok, sınırsız kullanım
  • Çevrimdışı (Offline): İnternete bağımlı değilsiniz
  • Hız (Speed): Network gecikmesi yok
  • Özelleştirme (Customization): Kendi modelinizi fine-tune edebilirsiniz

Alesta Web ekibi olarak özellikle hassas veri işleyen kurumsal müşterilerimize Ollama tabanlı çözümleri öneriyoruz. Çünkü hiçbir prompt internete çıkmaz — tüm işlem lokal makine içinde tamamlanır.

Donanım Gereksinimleri (Hardware Requirements)

Lokal LLM çalıştırmak için sisteminizin yeterli RAM ve tercihen bir GPU'ya sahip olması gerekir. Aşağıdaki tablo, model boyutlarına göre minimum gereksinimleri özetliyor:

Model Boyutu — Donanım Karşılığı

Model Parametre RAM Disk
llama3.2:1b 1B 4 GB ~1 GB
llama3.2:3b 3B 8 GB ~2 GB
llama3.3:70b 70B 64 GB ~40 GB
qwen2.5:7b 7B 16 GB ~5 GB
⚠️ Dikkat / Warning:

Llama 3.3 70B modeli güçlü bir GPU (en az 48 GB VRAM önerilir) veya çok fazla RAM gerektirir. Ortalama bir geliştirici makinesinde llama3.2:3b veya qwen2.5:7b ile başlamanızı öneriyoruz (recommended for most developers).

Adım Adım Ollama Kurulumu (Installation Guide)

Linux Üzerinde Kurulum

# Tek satırla otomatik kurulum
curl -fsSL https://ollama.com/install.sh | sh

# Kurulumu doğrula
ollama --version

# Servis durumunu kontrol et
systemctl status ollama

macOS Üzerinde Kurulum

# Homebrew ile
brew install ollama

# Veya resmi siteden .dmg indir
# https://ollama.com/download/mac

# Servisi başlat
ollama serve

Windows Üzerinde Kurulum

Windows için resmi installer en kolay yoldur:

  1. https://ollama.com/download/windows adresinden installer'ı indirin
  2. İndirilen OllamaSetup.exe dosyasını çift tıklayın
  3. Kurulum sihirbazını takip edin (5 saniyede biter)
  4. Kurulum sonrası cmd veya PowerShell açın ve ollama --version ile doğrulayın
✅ Beklenen Çıktı:

ollama version is 0.x.x şeklinde versiyon bilgisi görüyorsanız kurulum tamamlanmıştır.

Llama 3.3 Modelini İndirme

Ollama kurulduktan sonra istediğiniz modeli tek komutla indirebilirsiniz. Alesta Web olarak yeni başlayanlara llama3.2:3b modeli ile başlamayı öneriyoruz — hızlı ve hafif (fast and lightweight).

Model İndirme (Download Model)

# Hafif model (3 milyar parametre, 2 GB)
ollama pull llama3.2:3b

# Orta model (7 milyar parametre, 4-5 GB)
ollama pull qwen2.5:7b

# Büyük model (70 milyar parametre, 40 GB - güçlü donanım gerekir)
ollama pull llama3.3:70b

# İndirilen modelleri listele
ollama list
? İpucu / Pro Tip:

Model indirme süresi internet hızınıza ve model boyutuna göre değişir. llama3.2:3b ortalama bir bağlantıda 5-10 dakikada inerken, llama3.3:70b 1-2 saat sürebilir. İndirme arka planda devam ettiği için terminal'i kapatmayın (don't close the terminal).

İlk Sohbet ve Komut Satırı Kullanımı

Model indikten sonra interaktif sohbet başlatmak için tek komut yeterli:

Sohbet Başlatma (Start Chatting)

# Modeli interaktif sohbet modunda başlat
ollama run llama3.2:3b

# Açılan terminal'de doğrudan soru sorabilirsiniz:
# >>> Merhaba, Türkçe biliyor musun?
# >>> PHP ile MySQL bağlantısı nasıl yapılır?
# >>> /bye  (sohbeti bitirmek için)

Tek Seferlik Sorgu (One-Shot Query)

# Tek bir soruyu hızlıca sor, cevabı al
ollama run llama3.2:3b "Bana basit bir Python merhaba dünya yaz"

# Dosyadan prompt okuma
ollama run llama3.2:3b "$(cat soru.txt)"

Alesta Web uzmanları, basit kod üretimi ve günlük yardım için llama3.2:3b modelini ortalama bir laptop üzerinde rahatça kullanılabilir buluyor. alestaweb.com üzerindeki birçok dahili otomasyonda lokal LLM tabanlı çözümler kullanıyoruz.

REST API ile Programatik Kullanım

Ollama servisi varsayılan olarak http://localhost:11434 portunda bir REST API sunucusu çalıştırır. Bu API hem Ollama'nın kendi formatını hem de OpenAI uyumlu bir endpoint sunar (OpenAI-compatible endpoint).

Curl ile Doğrudan API Sorgusu

curl http://localhost:11434/api/generate -d '{
  "model": "llama3.2:3b",
  "prompt": "Türkiye hakkında 3 cümle yaz",
  "stream": false
}'

Python ile Kullanım (Python Usage)

import requests

response = requests.post(
    "http://localhost:11434/api/generate",
    json={
        "model": "llama3.2:3b",
        "prompt": "PHP'de döngüler nasıl yazılır?",
        "stream": False
    }
)

print(response.json()["response"])

OpenAI SDK Uyumlu Kullanım (OpenAI-Compatible)

from openai import OpenAI

# OpenAI API yerine lokal Ollama'ya yönlendir
client = OpenAI(
    base_url="http://localhost:11434/v1",
    api_key="ollama"  # Boş olamaz, herhangi bir değer kabul edilir
)

response = client.chat.completions.create(
    model="llama3.2:3b",
    messages=[
        {"role": "user", "content": "JavaScript ve TypeScript farkı nedir?"}
    ]
)

print(response.choices[0].message.content)

Bu yapı sayesinde, mevcut OpenAI SDK kullanan kodunuzu sadece base_url değiştirerek Ollama'ya yönlendirebilirsiniz. Sıfır kod değişikliği ile lokale geçiş (zero-code migration to local).

Diğer Modeller (Other Available Models)

Ollama yalnızca Llama ailesi ile sınırlı değil. Aşağıdaki modeller de aynı kolaylıkla kullanılabilir:

Popüler Lokal Modeller

  • ollama pull qwen2.5:7b — Alibaba'nın güçlü çok dilli modeli (excellent multilingual)
  • ollama pull mistral:7b — Mistral AI'ın hafif ve hızlı modeli
  • ollama pull deepseek-coder-v2:16b — Kod yazma odaklı uzman model (code-focused)
  • ollama pull phi3:3.8b — Microsoft'un küçük ama etkili modeli
  • ollama pull gemma2:9b — Google'ın açık modeli
  • ollama pull codellama:13b — Meta'nın kod uzmanı
? Türkçe Performans Notu:

qwen2.5:7b ve llama3.3:70b Türkçe sorularda en iyi sonuçları veriyor. Hafif kullanım için llama3.2:3b de Türkçe konusunda yeterince iyi (good enough for daily use).

Performans İyileştirme İpuçları

GPU Hızlandırma (GPU Acceleration)

Ollama, NVIDIA CUDA, Apple Metal ve AMD ROCm'u otomatik tespit edip kullanır. GPU varsa CPU'dan 5-20x daha hızlı çalışır.

# GPU kullanımını doğrula
ollama ps

# CPU/GPU durumunu görmek için
nvidia-smi  # NVIDIA için

Bellek Yönetimi

# Model belleği boşaltma (idle modelleri kapat)
ollama stop llama3.2:3b

# Çalışan modelleri görüntüle
ollama ps

Hız İçin Quantize Versiyonlar

Aynı model farklı kuantizasyon seviyeleriyle gelir (Q4, Q5, Q8). Q4 en hızlı ama kalite biraz düşer; Q8 en yavaş ama orijinal kaliteye yakındır.

# Hızlı sürüm (Q4 quantization)
ollama pull llama3.2:3b-instruct-q4_0

# Kaliteli sürüm (Q8 quantization)
ollama pull llama3.2:3b-instruct-q8_0

Sık Karşılaşılan Hatalar

❌ "Error: model requires more system memory than available"

Modeliniz makinenizin RAM'inden büyük. Daha küçük bir model deneyin.

# Hafif alternatif
ollama pull llama3.2:1b

❌ "connection refused on localhost:11434"

Ollama servisi çalışmıyor olabilir.

# Linux
sudo systemctl start ollama

# macOS
ollama serve

# Windows: Görev Yöneticisi'nden Ollama process'ini başlat

❌ Model çok yavaş yanıt veriyor

GPU kullanılmıyor olabilir veya RAM swap'a düşmüş olabilir.

  • GPU sürücülerini güncelleyin (NVIDIA için en az 525+)
  • Daha küçük model deneyin
  • Quantize edilmiş sürüm kullanın (q4 yerine q5 yerine q4)
  • Diğer ağır uygulamaları kapatın

? Kaynaklar / References

Bu rehberde kullanılan bilgiler aşağıdaki güvenilir kaynaklardan derlenmiştir:

Alesta Web olarak tüm komutları Ubuntu 24.04, macOS Sonoma ve Windows 11 üzerinde test ettik (verified on multiple platforms).

✅ Sonuç (Conclusion)

Lokal LLM artık sadece araştırmacıların değil, sıradan geliştiricilerin de ulaşabildiği bir teknoloji. Ollama ile dakikalar içinde kurulum, Llama 3.3 ile güçlü bir asistan, OpenAI uyumlu API ile mevcut kodlarınızı sıfır değişiklikle taşıyabilirsiniz. Gizlilik, maliyet ve hız avantajları cabası.

Hızlı Özet / Quick Summary:

  • ✅ Kurulum 5 dakikada (5 minutes setup)
  • ✅ Tamamen ücretsiz ve çevrimdışı
  • ✅ Verileriniz makinenizden çıkmaz (full privacy)
  • ✅ OpenAI SDK ile uyumlu (OpenAI-compatible)
  • ✅ GPU varsa otomatik hızlandırma

Faydalı Linkler / Useful Links:

© 2026 Alesta Web — Tüm hakları saklıdır. Lokal LLM, yapay zeka entegrasyonu ve sunucu kurulumu için profesyonel destek almak isterseniz alestaweb.com üzerinden iletişime geçebilirsiniz.