MCP ve Continue ile Yerel AI Modellerini Kullanmak
Yerel Copilot Kurulum Rehberi: MCP + Continue + VSCode + Ollama
Genel Bakış
Bu rehber, tamamen yerel çalışan bir AI kod asistanı kurmak için gerekli tüm adımları içerir. GitHub Copilot’a benzer özellikleri ücretsiz ve gizlilik odaklı bir şekilde elde edebilirsiniz.
Gerekli Bileşenler
1. Ollama - AI Model Sunucusu
- Yerel olarak LLM’leri çalıştırmak için
- GPU/CPU optimizasyonu ile hızlı inference
- Kolay model yönetimi
2. Continue - VSCode AI Uzantısı
- VSCode içinde AI kod tamamlama
- Chat interface ve kod açıklamaları
- Çoklu provider desteği
3. MCP (Model Context Protocol) - Bağlam Yönetimi
- Gelişmiş kod bağlamı paylaşımı
- Proje yapısını AI’ya aktarma
- Daha akıllı öneriler için
Adım 1: Ollama Kurulumu
# Homebrew ile
brew install ollama
# Veya direkt indirin: https://ollama.ai/download
Ollama Servisini Başlatma
# Ollama daemon'unu başlat
ollama serve
# Yeni terminal açıp test edin
ollama --version
Adım 2: En İyi Kod Modellerini İndirme
Önerilen Modeller (Performans Sırası)
1. CodeQwen 2.5 Coder 7B (En İyi Genel Performans)
ollama pull codeqwen:7b-code
- Artıları: Çok hızlı, düşük RAM kullanımı (8GB), mükemmel kod tamamlama
- Kullanım: Günlük kodlama için ideal
2. DeepSeek Coder V2 16B (En İyi Kalite)
ollama pull deepseek-coder-v2:16b
- Artıları: Üstün kod kalitesi, karmaşık problemleri çözme
- Gereksinim: 16GB+ RAM, daha yavaş
3. Code Llama 13B (Dengeli Seçenek)
ollama pull codellama:13b-code
- Artıları: İyi performans/hız dengesi, Meta desteği
- Gereksinim: 12GB RAM
4. Qwen2.5 Coder 3B (Düşük Kaynak)
ollama pull qwen2.5-coder:3b
- Artıları: Çok az RAM (4GB), hızlı
- Kullanım: Zayıf donanım için
Model Performans Karşılaştırması
Model | RAM Gereksinimi | Hız | Kod Kalitesi | Çok Dilli Destek |
---|---|---|---|---|
CodeQwen 2.5 7B | 8GB | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐⭐⭐ |
DeepSeek V2 16B | 16GB+ | ⭐⭐⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ |
Code Llama 13B | 12GB | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐ |
Qwen2.5 3B | 4GB | ⭐⭐⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐⭐ |
Adım 3: VSCode ve Continue Kurulumu
VSCode Uzantısını Yükleme
- VSCode’u açın
- Extensions (Ctrl+Shift+X) bölümüne gidin
- “Continue” araması yapın
- “Continue - Codestral, Claude, and more” uzantısını yükleyin
Continue Konfigürasyonu
Continue uzantısını yükledikten sonra konfigürasyon dosyasını düzenleyin:
Windows: %USERPROFILE%\.continue\config.json
macOS/Linux: ~/.continue/config.json
{
"models": [
{
"title": "CodeQwen 7B",
"provider": "ollama",
"model": "codeqwen:7b-code",
"apiBase": "http://localhost:11434"
},
{
"title": "DeepSeek Coder",
"provider": "ollama",
"model": "deepseek-coder-v2:16b",
"apiBase": "http://localhost:11434"
}
],
"tabAutocompleteModel": {
"title": "CodeQwen Autocomplete",
"provider": "ollama",
"model": "codeqwen:7b-code",
"apiBase": "http://localhost:11434"
},
"embeddingsProvider": {
"provider": "ollama",
"model": "nomic-embed-text",
"apiBase": "http://localhost:11434"
},
"contextProviders": [
{
"name": "code",
"params": {}
},
{
"name": "docs",
"params": {}
},
{
"name": "diff",
"params": {}
},
{
"name": "terminal",
"params": {}
},
{
"name": "problems",
"params": {}
},
{
"name": "folder",
"params": {}
},
{
"name": "codebase",
"params": {}
}
]
}
Adım 4: MCP Kurulumu ve Konfigürasyonu
MCP Sunucularını Yükleme
# npm ile MCP araçlarını yükleyin
npm install -g @modelcontextprotocol/server-filesystem
npm install -g @modelcontextprotocol/server-git
npm install -g @modelcontextprotocol/server-sqlite
Continue için MCP Konfigürasyonu
Config dosyanıza MCP bölümünü ekleyin:
{
"mcpServers": {
"filesystem": {
"command": "npx",
"args": [
"@modelcontextprotocol/server-filesystem",
"/path/to/your/projects"
]
},
"git": {
"command": "npx",
"args": ["@modelcontextprotocol/server-git"]
}
}
}
Adım 5: Gelişmiş Optimizasyonlar
Ollama Performans Ayarları
# GPU kullanımını optimize etme
export OLLAMA_NUM_GPU=1
export OLLAMA_GPU_OVERHEAD=0
# Paralel istekleri artırma
export OLLAMA_NUM_PARALLEL=4
export OLLAMA_MAX_LOADED_MODELS=2
Continue Gelişmiş Ayarları
{
"allowAnonymousTelemetry": false,
"completionOptions": {
"temperature": 0.1,
"topP": 0.9,
"maxTokens": 1024,
"presencePenalty": 0.0,
"frequencyPenalty": 0.0
},
"requestOptions": {
"timeout": 10000,
"verifySsl": false
}
}
Kullanım Kılavuzu
Temel Özellikler
1. Otomatik Kod Tamamlama
- Yazmaya başladığınızda otomatik öneriler
- Tab ile kabul etme
- Esc ile reddetme
2. Chat Interface
Ctrl+Shift+P
→ “Continue: Open Chat”- Kod hakkında soru sorma
- Kod açıklama ve refactoring
3. Kod Seçimi ve İşleme
- Kodu seçin → Sağ tık → Continue menüsü
- “Explain Code”, “Refactor”, “Add Comments”
4. Terminal Entegrasyonu
- Terminal komutlarını AI’ya sorabilirsiniz
- Hata çözümü için yardım alın
İleri Seviye Kullanım
Özel Promptlar Oluşturma
~/.continue/config.json
dosyasına özel slash komutları ekleyin:
{
"slashCommands": [
{
"name": "review",
"description": "Kod incelemesi yap",
"prompt": "Bu kodu incele ve iyileştirme önerileri sun. Güvenlik açıkları, performans sorunları ve kod kalitesi açısından değerlendir."
},
{
"name": "test",
"description": "Unit test oluştur",
"prompt": "Bu kod için kapsamlı unit testler yaz. Edge case'leri de kapsa."
},
{
"name": "docs",
"description": "Dokümantasyon yaz",
"prompt": "Bu kod için detaylı dokümantasyon yazısı oluştur. Parametreler, return değerleri ve kullanım örnekleri dahil et."
}
]
}
Sorun Giderme
Yaygın Problemler ve Çözümleri
1. Ollama Bağlantı Hatası
# Ollama servisinin çalıştığını kontrol edin
ollama list
netstat -an | grep 11434
# Yeniden başlatın
ollama serve
2. Yavaş Performans
- Daha küçük model kullanın (3B veya 7B)
- GPU sürücülerini güncelleyin
- RAM miktarını kontrol edin
3. Kod Tamamlama Çalışmıyor
- Continue uzantısının aktif olduğunu kontrol edin
- Config dosyasındaki model adlarını doğrulayın
- VSCode’u yeniden başlatın
4. Model İndirme Sorunları
# Manuel model indirme
ollama pull codeqwen:7b-code --verbose
# İndirilen modelleri kontrol etme
ollama list
Performans Metrikleri
Donanım Önerileri
Kullanım Seviyesi | CPU | RAM | GPU | Önerilen Model |
---|---|---|---|---|
Temel | 4 core | 8GB | İsteğe bağlı | Qwen2.5 3B |
Orta | 6 core | 16GB | GTX 1060+ | CodeQwen 7B |
İleri | 8+ core | 32GB+ | RTX 3070+ | DeepSeek V2 16B |
Hız Karşılaştırması (Token/saniye)
- Qwen2.5 3B: ~40-60 token/s (CPU)
- CodeQwen 7B: ~25-35 token/s (CPU), ~80-120 token/s (GPU)
- DeepSeek V2 16B: ~15-25 token/s (CPU), ~50-80 token/s (GPU)
Güvenlik ve Gizlilik
Avantajlar
- Tüm veriler yerel kalır
- İnternet bağlantısı gerekmez
- Kod şirket dışına çıkmaz
- GDPR uyumlu
En İyi Güvenlik Uygulamaları
- Ollama’yı sadece localhost’ta çalıştırın
- Firewall kurallarını kontrol edin
- Hassas projelerde ağ bağlantısını kesin
Sonuç ve Öneriler
En İyi Kurulum (Çoğu Kullanıcı İçin)
- Model: CodeQwen 7B
- RAM: 16GB minimum
- GPU: Opsiyonel ama önerilen
Gelişmiş Kullanıcılar İçin
- Model: DeepSeek Coder V2 16B
- RAM: 32GB+
- GPU: RTX 3070 veya üzeri
Bu kurulum ile GitHub Copilot’a rakip, hatta bazı konularda daha iyi performans gösteren yerel bir AI kod asistanına sahip olacaksınız. Tüm verileriniz güvende kalacak ve internet bağlantısı olmadan bile çalışabileceksiniz.
MCP Entegrasyonu Nasıl Çalışır?
Model Context Protocol (MCP), modellerin dış dünya ile etkileşim kurmasını sağlayan güçlü bir araçtır. İşleyiş mantığı şu şekildedir:
- Araç Tanıtımı: Mevcut araçlar JSON formatında modele sunulur
- Model Kararı: Model yanıtında bir araç çağrısı yapmayı seçebilir
- İzin Süreci: Kullanıcı onayı (otomatik politika varsa atlanır)
- Araç Çalıştırma: Continue, MCP sunucusu üzerinden aracı çalıştırır
- Sonuç Döndürme: Sonuç modele geri gönderilir
- Döngü: Model potansiyel olarak başka araç çağrıları yapabilir
Pratik Uygulama: Playwright MCP Sunucusu
Gerçek bir örnek üzerinden MCP’nin gücünü görelim:
Kurulum Adımları
- Çalışma alanınızın kök dizininde
.continue/mcpServers
klasörü oluşturun - Bu klasörde
playwright-mcp.yaml
dosyası oluşturun - Aşağıdaki yapılandırmayı ekleyin:
name: Playwright mcpServer
version: 0.0.1
schema: v1
mcpServers:
- name: Browser search
command: npx
args:
- "@playwright/mcp@latest"
Test Senaryosu
Kurulumu test etmek için şu görevi deneyin:
“Playwright kullanarak https://news.ycombinator.com adresine git, ana sayfadaki ilk 4 gönderinin başlık ve URL’lerini çıkar, proje kök dizininde hn.txt dosyası oluştur ve bu listeyi düz metin olarak kaydet.”
Bu komut sonucunda, otomatik olarak hn.txt
dosyası oluşturulacak ve istenen veriler içerisine kaydedilecektir.
Model Yapılandırması
Yerel modellerinizi kullanmak için .continue/models
klasöründe yapılandırma dosyası oluşturun:
OLLAMA
name: Ollama Devstral model
version: 0.0.1
schema: v1
models:
- provider: ollama
model: unsloth/devstral-small-2505-gguf:Q4_K_M
defaultCompletionOptions:
contextLength: 8192
name: Ollama Devstral-Small
roles:
- chat
- edit
Avantajları
Bu kurulum size şu faydaları sağlar:
- Gizlilik: Tüm verileriniz yerel makinenizde kalır
- Esneklik: Farklı görevler için farklı modeller kullanabilirsiniz
- Özelleştirme: Özel araçlar ve MCP sunucuları ekleyebilirsiniz
- Maliyet: Bulut API’leri için ödeme yapmanıza gerek yok
- Hız: Yerel çalışma sayesinde daha düşük gecikme süreleri
Sonuç
MCP ve Continue kombinasyonu, modern yazılım geliştirmenin ihtiyaçlarını karşılayan güçlü bir çözüm sunuyor. Verilerinizin gizliliğini korurken, yapay zeka destekli geliştirme deneyiminden faydalanabilirsiniz.
Bu teknolojiler sayesinde, web otomasyonundan dosya yönetimine kadar uzanan geniş bir araç yelpazesini AI asistanınıza entegre edebilir, tümüyle yerel bir ortamda çalışabilirsiniz. Geliştirme iş akışınızı bir üst seviyeye taşımaya hazır mısınız? Continue Hub’daki farklı MCP sunucularını keşfederek başlayabilirsiniz.