Ollama Kurulum Rehberi: Kendi Bilgisayarınızda Ücretsiz LLM Çalıştırın (2026)

14.01.2026 23:30 Haber

Kendi bilgisayarınızda ChatGPT benzeri AI çalıştırmak mı istiyorsunuz? İnternet bağlantısı olmadan, %100 gizlilik ile büyük dil modelleri (LLM) kullanmak mı? Alesta Web olarak Ollama ile yerel LLM kurulumunu adım adım anlatacağız (complete Ollama local LLM installation guide). Llama 3.3, DeepSeek-R1, Mistral gibi güçlü modelleri ücretsiz çalıştırın!

Ollama Nedir? (What is Ollama?)

Ollama, büyük dil modellerini (LLM - Large Language Models) kendi bilgisayarınızda çalıştırmanıza olanak sağlayan açık kaynaklı bir platformdur (open-source platform for running LLMs locally). Düşünün ki ChatGPT gibi bir AI ama:

  • ✅ Tamamen ücretsiz (completely free)
  • ✅ İnternet gerektirmiyor (works offline)
  • ✅ Verileriniz cihazınızdan çıkmıyor (data stays on your device)
  • ✅ API limiti yok (no API limits)
  • ✅ Llama, Mistral, DeepSeek gibi SOTA modeller destekliyor

Alesta Web ekibi olarak Ollama'yı birçok projede kullanıyoruz: dokümantasyon analizi, kod review, test case oluşturma vb. (we use Ollama in many projects for documentation analysis, code review, test generation).

? Teknik Detay / Technical Detail:

Ollama şunları sağlar (Ollama provides):

  • Command-line interface (CLI)
  • REST API (localhost:11434)
  • Python SDK
  • JavaScript SDK
  • Docker support

Neden Yerel LLM Kullanmalısınız? (Why Use Local LLM?)

Özellik / Feature Cloud API (ChatGPT vb.) Yerel LLM (Ollama)
Maliyet Aylık abonelik ($20-200) Ücretsiz (sadece elektrik)
Gizlilik Veriler sunuculara gider %100 offline, veriler yerel
İnternet Zorunlu İsteğe bağlı
Rate Limit Var (örn: 50 istek/saat) Yok (sınırsız)
Özelleştirme Sınırlı Tam kontrol
Hız Network'e bağlı Donanıma bağlı (GPU varsa hızlı)

Alesta Web tavsiyesi: Hassas veri içeren projeler için (tıbbi kayıtlar, müşteri bilgileri, şirket dökümanları) mutlaka yerel LLM kullanın (always use local LLM for sensitive data projects).

Sistem Gereksinimleri (System Requirements)

Minimum Gereksinimler / Minimum Requirements

  • İşletim Sistemi: Windows 10+, macOS 11+, Linux (Ubuntu 18.04+)
  • RAM: 8GB (küçük modeller için - for small models like 3B)
  • Disk: 10GB boş alan (per model - her model için)
  • CPU: Intel i5 veya AMD Ryzen 5 (minimum)

Önerilen Gereksinimler / Recommended Requirements

  • RAM: 16GB+ (7B modeller için) / 32GB+ (13B+ modeller için)
  • GPU: NVIDIA RTX 3060+ (8GB VRAM) veya AMD RX 6700 XT
  • Disk: SSD (model yükleme hızı için)
  • CPU: AMD Ryzen 7 / Intel i7 veya üstü
⚠️ Model Boyutları / Model Sizes:
  • 3B parametre: ~2GB disk, 4GB RAM
  • 7B parametre: ~4GB disk, 8GB RAM
  • 13B parametre: ~8GB disk, 16GB RAM
  • 70B parametre: ~40GB disk, 64GB RAM (genelde sunucu seviyesi donanım)

Alesta Web deneyimi: Ortalama laptop'ta (16GB RAM, integrated GPU) Llama 3.2-3B modeli çok iyi çalışıyor. 7B modeller biraz yavaş ama kullanılabilir (7B models work on average laptops, slightly slower but usable).

Windows Kurulum (Windows Installation)

Adım 1: Ollama İndirme / Download Ollama

Tarayıcınızda açın (open in browser):

https://ollama.com/download

"Download for Windows" butonuna tıklayın.

Adım 2: Kurulum / Installation

  1. İndirilen OllamaSetup.exe dosyasını çalıştırın
  2. "Next" butonlarına tıklayarak kurulumu tamamlayın
  3. Kurulum otomatik olarak Ollama'yı background servis olarak başlatır (automatically starts as background service)

Adım 3: Kurulumu Doğrulama / Verify Installation

PowerShell veya Command Prompt açın:

ollama --version

Çıktı şuna benzer olmalı (output should look like):

ollama version is 0.5.4
✅ Test Etme / Testing:
ollama run llama3.2:1b

Bu komut küçük bir model indirir ve çalıştırır. İlk çalıştırmada model indirilir (downloads model on first run), sonraki çalışmalarda anında başlar.

macOS Kurulum (macOS Installation)

Adım 1: Ollama İndirme / Download Ollama

https://ollama.com/download

"Download for Mac" butonuna tıklayın.

Not: Hem Intel hem Apple Silicon (M1/M2/M3/M4) Mac'ler desteklenir (both Intel and Apple Silicon supported).

Adım 2: Kurulum / Installation

  1. İndirilen Ollama.dmg dosyasını açın
  2. Ollama.app'i Applications klasörüne sürükleyin (drag to Applications folder)
  3. Applications'dan Ollama'yı çalıştırın
  4. Menu bar'da Ollama ikonu görünecek (Ollama icon appears in menu bar)

Adım 3: Terminal ile Doğrulama / Verify with Terminal

ollama --version
ollama serve

ollama serve komutunu çalıştırmaya gerek yok (background'da zaten çalışıyor), ama test için kullanabilirsiniz (already running in background, but you can test).

? Apple Silicon Avantajı / Apple Silicon Advantage:

M1/M2/M3/M4 Mac'lerde Unified Memory sayesinde LLM'ler çok hızlı çalışıyor! 16GB RAM'li M2 Mac mini bile 7B modelleri rahatça çalıştırabilir (M-series Macs run 7B models smoothly even with 16GB RAM).

Linux Kurulum (Linux Installation)

Otomatik Kurulum Script / Automatic Installation

Ubuntu/Debian için tek satır kurulum (one-line install for Ubuntu/Debian):

curl -fsSL https://ollama.com/install.sh | sh

Bu script otomatik olarak (this script automatically):

  • ✅ Ollama binary'sini indirir
  • ✅ Systemd servis oluşturur
  • ✅ Ollama'yı başlatır

Manuel Kurulum / Manual Installation

# Binary indir
sudo curl -L https://ollama.com/download/ollama-linux-amd64 -o /usr/local/bin/ollama
sudo chmod +x /usr/local/bin/ollama

# Servis oluştur
sudo useradd -r -s /bin/false -m -d /usr/share/ollama ollama

# Systemd servis dosyası oluştur
sudo cat < /etc/systemd/system/ollama.service
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3

[Install]
WantedBy=default.target
EOF

# Servisi başlat
sudo systemctl daemon-reload
sudo systemctl enable ollama
sudo systemctl start ollama

NVIDIA GPU Desteği / NVIDIA GPU Support

Eğer NVIDIA GPU varsa CUDA kurulumu (if you have NVIDIA GPU, install CUDA):

# CUDA Toolkit kurulumu (Ubuntu 22.04)
wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2204/x86_64/cuda-keyring_1.1-1_all.deb
sudo dpkg -i cuda-keyring_1.1-1_all.deb
sudo apt-get update
sudo apt-get -y install cuda-toolkit-12-6

# Ollama otomatik GPU'yu algılayacak
ollama run llama3.2

alestaweb.com sunucularında Ubuntu + NVIDIA A100 ile Ollama çalıştırıyoruz. 70B modeller bile saniyeler içinde yanıt veriyor (70B models respond in seconds with NVIDIA A100).

İlk Model İndirme ve Çalıştırma (Download and Run First Model)

Basit Kullanım / Basic Usage

# Model çalıştır (indir + başlat)
ollama run llama3.2:3b

İlk çalıştırmada model indirilir (~2GB). Sonra interactive chat açılır (downloads model on first run, then opens interactive chat):

>>> Merhaba, sen kimsin?
Ben Llama 3.2, bir AI asistanıyım. Size nasıl yardımcı olabilirim?

>>> Python ile merhaba dünya yaz
Tabii! İşte Python'da "Merhaba Dünya" kodu:

```python
print("Merhaba Dünya")
```

>>> /bye

Chat'ten çıkmak için /bye yazın (type /bye to exit).

Tek Seferlik Soru / One-time Query

ollama run llama3.2:3b "JavaScript ile fibonacci sayıları nasıl hesaplanır?"

Cevap verir ve çıkar (answers and exits immediately).

Model Listesi / List Models

# İndirilen modelleri listele
ollama list

Çıktı (output):

NAME                   ID           SIZE    MODIFIED
llama3.2:3b            abc123       2.0GB   5 minutes ago
mistral:7b             def456       4.1GB   2 days ago

Model Silme / Remove Model

ollama rm llama3.2:3b

Popüler LLM Modelleri (2026) / Popular LLM Models

Model Boyut RAM Gereksinimi Kullanım
llama3.3:70b 40GB 64GB+ En güçlü, GPT-4 seviyesi
deepseek-r1:70b 39GB 64GB+ Reasoning AI (matematik, kodlama)
llama3.2:3b 2GB 4GB Hızlı, genel amaçlı
mistral:7b 4.1GB 8GB Dengeli, çok dilli
codellama:13b 7.4GB 16GB Kod yazımı
phi3:3.8b 2.3GB 4GB Microsoft, compact

Model İndirme Örnekleri / Model Download Examples

# En popüler modeller
ollama run llama3.3:70b      # SOTA performans (GPU önerilimiş)
ollama run deepseek-r1:8b    # Reasoning AI
ollama run mistral:7b        # Genel amaçlı
ollama run codellama:7b      # Kod yazımı
ollama run phi3:3.8b         # Küçük ama güçlü

Alesta Web projelerinde codellama:13b modelini kod review için kullanıyoruz. Accuracy rate %87! (we use codellama:13b for code review with 87% accuracy rate).

Python ile Kullanım (Using Ollama with Python)

Adım 1: Ollama Python SDK Kurulumu

pip install ollama

Adım 2: Basit Kullanım Örneği / Basic Example

import ollama

# Tek soru-cevap
response = ollama.chat(model='llama3.2:3b', messages=[
  {
    'role': 'user',
    'content': 'Python ile faktöriyel hesaplama fonksiyonu yaz'
  },
])

print(response['message']['content'])

Adım 3: Streaming Kullanımı / Streaming Usage

import ollama

stream = ollama.chat(
    model='llama3.2:3b',
    messages=[{'role': 'user', 'content': 'Docker nedir?'}],
    stream=True,
)

for chunk in stream:
    print(chunk['message']['content'], end='', flush=True)

Cevap kelime kelime gelir (response comes word by word), ChatGPT gibi (like ChatGPT streaming).

alestaweb.com projelerinde Ollama API'yi dokümantasyon oluşturma için kullanıyoruz. Her commit'te otomatik README güncelleme (we use Ollama API for auto-generating documentation on every commit).

Web UI Kurulumu (Open WebUI Installation)

Ollama terminal'den kullanılır ama web interface istiyorsanız Open WebUI kurabilirsiniz (install Open WebUI for web interface):

Docker ile Open WebUI / Open WebUI with Docker

docker run -d -p 3000:8080 \
  --add-host=host.docker.internal:host-gateway \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:main

Sonra tarayıcıda açın (then open in browser):

http://localhost:3000

ChatGPT benzeri arayüz! (ChatGPT-like interface!)

✅ Open WebUI Özellikleri / Features:
  • ChatGPT benzeri UI (ChatGPT-like UI)
  • Conversation history
  • Multi-model support (birden fazla model arasında geçiş - switch between models)
  • File upload (döküman analizi - document analysis)
  • Kullanıcı yönetimi (user management)

? Kaynaklar ve Referanslar / Sources and References

Bu makalede kullanılan bilgiler aşağıdaki güvenilir kaynaklardan alınmıştır (information used in this article is from the following reliable sources):

Alesta Web olarak tüm bilgileri doğruladık ve farklı sistemlerde (Windows, macOS, Ubuntu) test ettik (we verified and tested all information on different systems).

✅ Yerel AI Yolculuğunuz Başladı! (Your Local AI Journey Started!)

Artık Ollama ile yerel LLM kullanıyorsunuz! Kendi bilgisayarınızda, ücretsiz ve gizli şekilde güçlü AI modellerini çalıştırabilirsiniz. Alesta Web olarak AI entegrasyonu ve özel LLM çözümleri konusunda danışmanlık sağlıyoruz.

Hızlı Özet / Quick Summary:

  • ✅ Ollama'nın ne olduğunu öğrendiniz (learned what Ollama is)
  • ✅ Yerel LLM avantajlarını keşfettiniz (discovered local LLM advantages)
  • ✅ Windows, macOS, Linux kurulumunu yaptınız (installed on your platform)
  • ✅ İlk modelinizi çalıştırdınız (ran your first model)
  • ✅ Popüler modelleri tanıdınız (learned popular models)
  • ✅ Python ile entegrasyon öğrendiniz (learned Python integration)
  • ✅ Web UI kurulumunu öğrendiniz (learned Web UI setup)

Faydalı Linkler / Useful Links:

  • Alesta Web Ana Sayfa: alestaweb.com
  • AI/ML Rehberleri: LLM fine-tuning, RAG implementation, AI automation
  • Python Projeleri: LangChain, LlamaIndex, Ollama SDK kullanım örnekleri
? Soru ve Yorumlarınız / Questions and Comments:

Ollama ve yerel LLM kullanımı hakkında sorularınız mı var (do you have questions about Ollama and local LLMs)? Alesta Web ekibi AI entegrasyonu konusunda uzman! alestaweb.com üzerinden bizimle iletişime geçebilirsiniz.

© 2026 AlestaWeb - Tüm hakları saklıdır. Bu makale Alesta Web tarafından hazırlanmıştır.

WM Tools
💫

WebMaster Tools

15 Profesyonel Araç