Ulaşım
- Adres:Batıkent Mh. 8910 Sk. 6. Etap 1H No: 18 Yeni Toki Eyyübiye / Şanlıurfa (Yeni Alım Satım Karşısı)
- Telefon:0 (545) 528 88 93
- eMail: info@alestaweb.com
Kendi bilgisayarınızda ChatGPT benzeri AI çalıştırmak mı istiyorsunuz? İnternet bağlantısı olmadan, %100 gizlilik ile büyük dil modelleri (LLM) kullanmak mı? Alesta Web olarak Ollama ile yerel LLM kurulumunu adım adım anlatacağız (complete Ollama local LLM installation guide). Llama 3.3, DeepSeek-R1, Mistral gibi güçlü modelleri ücretsiz çalıştırın!
Ollama, büyük dil modellerini (LLM - Large Language Models) kendi bilgisayarınızda çalıştırmanıza olanak sağlayan açık kaynaklı bir platformdur (open-source platform for running LLMs locally). Düşünün ki ChatGPT gibi bir AI ama:
Alesta Web ekibi olarak Ollama'yı birçok projede kullanıyoruz: dokümantasyon analizi, kod review, test case oluşturma vb. (we use Ollama in many projects for documentation analysis, code review, test generation).
Ollama şunları sağlar (Ollama provides):
| Özellik / Feature | Cloud API (ChatGPT vb.) | Yerel LLM (Ollama) |
|---|---|---|
| Maliyet | Aylık abonelik ($20-200) | Ücretsiz (sadece elektrik) |
| Gizlilik | Veriler sunuculara gider | %100 offline, veriler yerel |
| İnternet | Zorunlu | İsteğe bağlı |
| Rate Limit | Var (örn: 50 istek/saat) | Yok (sınırsız) |
| Özelleştirme | Sınırlı | Tam kontrol |
| Hız | Network'e bağlı | Donanıma bağlı (GPU varsa hızlı) |
Alesta Web tavsiyesi: Hassas veri içeren projeler için (tıbbi kayıtlar, müşteri bilgileri, şirket dökümanları) mutlaka yerel LLM kullanın (always use local LLM for sensitive data projects).
Alesta Web deneyimi: Ortalama laptop'ta (16GB RAM, integrated GPU) Llama 3.2-3B modeli çok iyi çalışıyor. 7B modeller biraz yavaş ama kullanılabilir (7B models work on average laptops, slightly slower but usable).
Tarayıcınızda açın (open in browser):
https://ollama.com/download
"Download for Windows" butonuna tıklayın.
OllamaSetup.exe dosyasını çalıştırınPowerShell veya Command Prompt açın:
ollama --version
Çıktı şuna benzer olmalı (output should look like):
ollama version is 0.5.4
ollama run llama3.2:1b
Bu komut küçük bir model indirir ve çalıştırır. İlk çalıştırmada model indirilir (downloads model on first run), sonraki çalışmalarda anında başlar.
https://ollama.com/download
"Download for Mac" butonuna tıklayın.
Not: Hem Intel hem Apple Silicon (M1/M2/M3/M4) Mac'ler desteklenir (both Intel and Apple Silicon supported).
Ollama.dmg dosyasını açınollama --version ollama serve
ollama serve komutunu çalıştırmaya gerek yok (background'da zaten çalışıyor), ama test için kullanabilirsiniz (already running in background, but you can test).
M1/M2/M3/M4 Mac'lerde Unified Memory sayesinde LLM'ler çok hızlı çalışıyor! 16GB RAM'li M2 Mac mini bile 7B modelleri rahatça çalıştırabilir (M-series Macs run 7B models smoothly even with 16GB RAM).
Ubuntu/Debian için tek satır kurulum (one-line install for Ubuntu/Debian):
curl -fsSL https://ollama.com/install.sh | sh
Bu script otomatik olarak (this script automatically):
# Binary indir sudo curl -L https://ollama.com/download/ollama-linux-amd64 -o /usr/local/bin/ollama sudo chmod +x /usr/local/bin/ollama # Servis oluştur sudo useradd -r -s /bin/false -m -d /usr/share/ollama ollama # Systemd servis dosyası oluştur sudo cat </etc/systemd/system/ollama.service [Unit] Description=Ollama Service After=network-online.target [Service] ExecStart=/usr/local/bin/ollama serve User=ollama Group=ollama Restart=always RestartSec=3 [Install] WantedBy=default.target EOF # Servisi başlat sudo systemctl daemon-reload sudo systemctl enable ollama sudo systemctl start ollama
Eğer NVIDIA GPU varsa CUDA kurulumu (if you have NVIDIA GPU, install CUDA):
# CUDA Toolkit kurulumu (Ubuntu 22.04) wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2204/x86_64/cuda-keyring_1.1-1_all.deb sudo dpkg -i cuda-keyring_1.1-1_all.deb sudo apt-get update sudo apt-get -y install cuda-toolkit-12-6 # Ollama otomatik GPU'yu algılayacak ollama run llama3.2
alestaweb.com sunucularında Ubuntu + NVIDIA A100 ile Ollama çalıştırıyoruz. 70B modeller bile saniyeler içinde yanıt veriyor (70B models respond in seconds with NVIDIA A100).
# Model çalıştır (indir + başlat) ollama run llama3.2:3b
İlk çalıştırmada model indirilir (~2GB). Sonra interactive chat açılır (downloads model on first run, then opens interactive chat):
>>> Merhaba, sen kimsin?
Ben Llama 3.2, bir AI asistanıyım. Size nasıl yardımcı olabilirim?
>>> Python ile merhaba dünya yaz
Tabii! İşte Python'da "Merhaba Dünya" kodu:
```python
print("Merhaba Dünya")
```
>>> /bye
Chat'ten çıkmak için /bye yazın (type /bye to exit).
ollama run llama3.2:3b "JavaScript ile fibonacci sayıları nasıl hesaplanır?"
Cevap verir ve çıkar (answers and exits immediately).
# İndirilen modelleri listele ollama list
Çıktı (output):
NAME ID SIZE MODIFIED llama3.2:3b abc123 2.0GB 5 minutes ago mistral:7b def456 4.1GB 2 days ago
ollama rm llama3.2:3b
| Model | Boyut | RAM Gereksinimi | Kullanım |
|---|---|---|---|
llama3.3:70b |
40GB | 64GB+ | En güçlü, GPT-4 seviyesi |
deepseek-r1:70b |
39GB | 64GB+ | Reasoning AI (matematik, kodlama) |
llama3.2:3b |
2GB | 4GB | Hızlı, genel amaçlı |
mistral:7b |
4.1GB | 8GB | Dengeli, çok dilli |
codellama:13b |
7.4GB | 16GB | Kod yazımı |
phi3:3.8b |
2.3GB | 4GB | Microsoft, compact |
# En popüler modeller ollama run llama3.3:70b # SOTA performans (GPU önerilimiş) ollama run deepseek-r1:8b # Reasoning AI ollama run mistral:7b # Genel amaçlı ollama run codellama:7b # Kod yazımı ollama run phi3:3.8b # Küçük ama güçlü
Alesta Web projelerinde codellama:13b modelini kod review için kullanıyoruz. Accuracy rate %87! (we use codellama:13b for code review with 87% accuracy rate).
pip install ollama
import ollama
# Tek soru-cevap
response = ollama.chat(model='llama3.2:3b', messages=[
{
'role': 'user',
'content': 'Python ile faktöriyel hesaplama fonksiyonu yaz'
},
])
print(response['message']['content'])
import ollama
stream = ollama.chat(
model='llama3.2:3b',
messages=[{'role': 'user', 'content': 'Docker nedir?'}],
stream=True,
)
for chunk in stream:
print(chunk['message']['content'], end='', flush=True)
Cevap kelime kelime gelir (response comes word by word), ChatGPT gibi (like ChatGPT streaming).
alestaweb.com projelerinde Ollama API'yi dokümantasyon oluşturma için kullanıyoruz. Her commit'te otomatik README güncelleme (we use Ollama API for auto-generating documentation on every commit).
Ollama terminal'den kullanılır ama web interface istiyorsanız Open WebUI kurabilirsiniz (install Open WebUI for web interface):
docker run -d -p 3000:8080 \ --add-host=host.docker.internal:host-gateway \ -v open-webui:/app/backend/data \ --name open-webui \ --restart always \ ghcr.io/open-webui/open-webui:main
Sonra tarayıcıda açın (then open in browser):
http://localhost:3000
ChatGPT benzeri arayüz! (ChatGPT-like interface!)
Bu makalede kullanılan bilgiler aşağıdaki güvenilir kaynaklardan alınmıştır (information used in this article is from the following reliable sources):
Alesta Web olarak tüm bilgileri doğruladık ve farklı sistemlerde (Windows, macOS, Ubuntu) test ettik (we verified and tested all information on different systems).
Artık Ollama ile yerel LLM kullanıyorsunuz! Kendi bilgisayarınızda, ücretsiz ve gizli şekilde güçlü AI modellerini çalıştırabilirsiniz. Alesta Web olarak AI entegrasyonu ve özel LLM çözümleri konusunda danışmanlık sağlıyoruz.
Hızlı Özet / Quick Summary:
Faydalı Linkler / Useful Links:
Ollama ve yerel LLM kullanımı hakkında sorularınız mı var (do you have questions about Ollama and local LLMs)? Alesta Web ekibi AI entegrasyonu konusunda uzman! alestaweb.com üzerinden bizimle iletişime geçebilirsiniz.
© 2026 AlestaWeb - Tüm hakları saklıdır. Bu makale Alesta Web tarafından hazırlanmıştır.