Ulaşım
- Adres:2342 Sk, İpekyol, İpek Ap 49A, 63250 Haliliye/Şanlıurfa
- Telefon:
0542 315 45 37 - eMail: info@alestaweb.com
ChatGPT, Claude veya Gemini kullanmak güzel — ama her sorgu için API ücreti ödemek, internet bağlantısına bağımlı olmak ve verilerinizi üçüncü tarafa göndermek zorunda kalmak istemeyebilirsiniz. Ollama + Llama 3.3 ikilisi tam burada devreye giriyor: kendi bilgisayarınızda, tamamen ücretsiz ve çevrimdışı çalışan güçlü bir yapay zeka asistanı (free, offline, local LLM). Alesta Web ekibi olarak bu rehberde Ollama'nın kurulumundan ilk sohbete kadar tüm adımları en başından anlatıyoruz.
Ollama, büyük dil modellerini (Large Language Models, LLM) lokal makinenizde çalıştırmanızı sağlayan açık kaynak bir araçtır. Tek bir komutla model indirip çalıştırabilirsiniz; üstelik OpenAI ile uyumlu bir REST API sunucusu da otomatik olarak başlatır.
Alesta Web ekibi olarak özellikle hassas veri işleyen kurumsal müşterilerimize Ollama tabanlı çözümleri öneriyoruz. Çünkü hiçbir prompt internete çıkmaz — tüm işlem lokal makine içinde tamamlanır.
Lokal LLM çalıştırmak için sisteminizin yeterli RAM ve tercihen bir GPU'ya sahip olması gerekir. Aşağıdaki tablo, model boyutlarına göre minimum gereksinimleri özetliyor:
| Model | Parametre | RAM | Disk |
|---|---|---|---|
| llama3.2:1b | 1B | 4 GB | ~1 GB |
| llama3.2:3b | 3B | 8 GB | ~2 GB |
| llama3.3:70b | 70B | 64 GB | ~40 GB |
| qwen2.5:7b | 7B | 16 GB | ~5 GB |
Llama 3.3 70B modeli güçlü bir GPU (en az 48 GB VRAM önerilir) veya çok fazla RAM gerektirir. Ortalama bir geliştirici makinesinde llama3.2:3b veya qwen2.5:7b ile başlamanızı öneriyoruz (recommended for most developers).
# Tek satırla otomatik kurulum
curl -fsSL https://ollama.com/install.sh | sh
# Kurulumu doğrula
ollama --version
# Servis durumunu kontrol et
systemctl status ollama
# Homebrew ile
brew install ollama
# Veya resmi siteden .dmg indir
# https://ollama.com/download/mac
# Servisi başlat
ollama serve
Windows için resmi installer en kolay yoldur:
OllamaSetup.exe dosyasını çift tıklayıncmd veya PowerShell açın ve ollama --version ile doğrulayınollama version is 0.x.x şeklinde versiyon bilgisi görüyorsanız kurulum tamamlanmıştır.
Ollama kurulduktan sonra istediğiniz modeli tek komutla indirebilirsiniz. Alesta Web olarak yeni başlayanlara llama3.2:3b modeli ile başlamayı öneriyoruz — hızlı ve hafif (fast and lightweight).
# Hafif model (3 milyar parametre, 2 GB)
ollama pull llama3.2:3b
# Orta model (7 milyar parametre, 4-5 GB)
ollama pull qwen2.5:7b
# Büyük model (70 milyar parametre, 40 GB - güçlü donanım gerekir)
ollama pull llama3.3:70b
# İndirilen modelleri listele
ollama list
Model indirme süresi internet hızınıza ve model boyutuna göre değişir. llama3.2:3b ortalama bir bağlantıda 5-10 dakikada inerken, llama3.3:70b 1-2 saat sürebilir. İndirme arka planda devam ettiği için terminal'i kapatmayın (don't close the terminal).
Model indikten sonra interaktif sohbet başlatmak için tek komut yeterli:
# Modeli interaktif sohbet modunda başlat
ollama run llama3.2:3b
# Açılan terminal'de doğrudan soru sorabilirsiniz:
# >>> Merhaba, Türkçe biliyor musun?
# >>> PHP ile MySQL bağlantısı nasıl yapılır?
# >>> /bye (sohbeti bitirmek için)
# Tek bir soruyu hızlıca sor, cevabı al
ollama run llama3.2:3b "Bana basit bir Python merhaba dünya yaz"
# Dosyadan prompt okuma
ollama run llama3.2:3b "$(cat soru.txt)"
Alesta Web uzmanları, basit kod üretimi ve günlük yardım için llama3.2:3b modelini ortalama bir laptop üzerinde rahatça kullanılabilir buluyor. alestaweb.com üzerindeki birçok dahili otomasyonda lokal LLM tabanlı çözümler kullanıyoruz.
Ollama servisi varsayılan olarak http://localhost:11434 portunda bir REST API sunucusu çalıştırır. Bu API hem Ollama'nın kendi formatını hem de OpenAI uyumlu bir endpoint sunar (OpenAI-compatible endpoint).
curl http://localhost:11434/api/generate -d '{
"model": "llama3.2:3b",
"prompt": "Türkiye hakkında 3 cümle yaz",
"stream": false
}'
import requests
response = requests.post(
"http://localhost:11434/api/generate",
json={
"model": "llama3.2:3b",
"prompt": "PHP'de döngüler nasıl yazılır?",
"stream": False
}
)
print(response.json()["response"])
from openai import OpenAI
# OpenAI API yerine lokal Ollama'ya yönlendir
client = OpenAI(
base_url="http://localhost:11434/v1",
api_key="ollama" # Boş olamaz, herhangi bir değer kabul edilir
)
response = client.chat.completions.create(
model="llama3.2:3b",
messages=[
{"role": "user", "content": "JavaScript ve TypeScript farkı nedir?"}
]
)
print(response.choices[0].message.content)
Bu yapı sayesinde, mevcut OpenAI SDK kullanan kodunuzu sadece base_url değiştirerek Ollama'ya yönlendirebilirsiniz. Sıfır kod değişikliği ile lokale geçiş (zero-code migration to local).
Ollama yalnızca Llama ailesi ile sınırlı değil. Aşağıdaki modeller de aynı kolaylıkla kullanılabilir:
ollama pull qwen2.5:7b — Alibaba'nın güçlü çok dilli modeli (excellent multilingual)ollama pull mistral:7b — Mistral AI'ın hafif ve hızlı modeliollama pull deepseek-coder-v2:16b — Kod yazma odaklı uzman model (code-focused)ollama pull phi3:3.8b — Microsoft'un küçük ama etkili modeliollama pull gemma2:9b — Google'ın açık modeliollama pull codellama:13b — Meta'nın kod uzmanıqwen2.5:7b ve llama3.3:70b Türkçe sorularda en iyi sonuçları veriyor. Hafif kullanım için llama3.2:3b de Türkçe konusunda yeterince iyi (good enough for daily use).
Ollama, NVIDIA CUDA, Apple Metal ve AMD ROCm'u otomatik tespit edip kullanır. GPU varsa CPU'dan 5-20x daha hızlı çalışır.
# GPU kullanımını doğrula
ollama ps
# CPU/GPU durumunu görmek için
nvidia-smi # NVIDIA için
# Model belleği boşaltma (idle modelleri kapat)
ollama stop llama3.2:3b
# Çalışan modelleri görüntüle
ollama ps
Aynı model farklı kuantizasyon seviyeleriyle gelir (Q4, Q5, Q8). Q4 en hızlı ama kalite biraz düşer; Q8 en yavaş ama orijinal kaliteye yakındır.
# Hızlı sürüm (Q4 quantization)
ollama pull llama3.2:3b-instruct-q4_0
# Kaliteli sürüm (Q8 quantization)
ollama pull llama3.2:3b-instruct-q8_0
Modeliniz makinenizin RAM'inden büyük. Daha küçük bir model deneyin.
# Hafif alternatif
ollama pull llama3.2:1b
Ollama servisi çalışmıyor olabilir.
# Linux
sudo systemctl start ollama
# macOS
ollama serve
# Windows: Görev Yöneticisi'nden Ollama process'ini başlat
GPU kullanılmıyor olabilir veya RAM swap'a düşmüş olabilir.
Bu rehberde kullanılan bilgiler aşağıdaki güvenilir kaynaklardan derlenmiştir:
Alesta Web olarak tüm komutları Ubuntu 24.04, macOS Sonoma ve Windows 11 üzerinde test ettik (verified on multiple platforms).
Lokal LLM artık sadece araştırmacıların değil, sıradan geliştiricilerin de ulaşabildiği bir teknoloji. Ollama ile dakikalar içinde kurulum, Llama 3.3 ile güçlü bir asistan, OpenAI uyumlu API ile mevcut kodlarınızı sıfır değişiklikle taşıyabilirsiniz. Gizlilik, maliyet ve hız avantajları cabası.
Hızlı Özet / Quick Summary:
Faydalı Linkler / Useful Links:
© 2026 Alesta Web — Tüm hakları saklıdır. Lokal LLM, yapay zeka entegrasyonu ve sunucu kurulumu için profesyonel destek almak isterseniz alestaweb.com üzerinden iletişime geçebilirsiniz.