Kendi sunucumda (Hetzner VPS) yapay zeka modellerimi çalıştırmak için Coolify kullanmaya karar verdim. Amacım, Ollama‘yı (AI Motoru) ve Open WebUI‘yı (ChatGPT benzeri arayüz) tek bir pakette kurup kullanmaktı.
Coolify’ın hazır servisleri arasında “Ollama With Open WebUI” seçeneği mevcut. “Harika, tek tıkla kurulacak” diye düşündüm. Ancak kurulum bittikten sonra arayüze girdiğimde karşılaştığım manzara şuydu:
Kırmızı bir hata kutusu: “Server Connection Error” Model listesi: “Failed to fetch models”
Eğer siz de Coolify kullanırken bu sorunla karşılaştıysanız, panik yapmayın. Sorun ne Coolify’da ne de sunucunuzda. Sorun, eksik gelen docker-compose dosyasında. İşte adım adım çözüm hikayem.
Sorunun Teşhisi: Motor Nerede? 🕵️♂️
Open WebUI arayüzü açılıyordu ama model indirmeye çalıştığımda veya ayarları kontrol ettiğimde Ollama’ya ulaşamıyordu.
Coolify panelinden terminale bağlanıp curl komutları denediğimde Could not resolve host: ollama hatası alıyordum. Yani sistem “ollama” diye bir servisi tanımıyordu.
Sonunda Coolify panelindeki “Edit Compose File” butonuna tıklayıp çalışan koda baktığımda şok oldum: Dosyada sadece Open WebUI tanımlıydı, Ollama servisi hiç yoktu!
Yani elimizde direksiyonu, koltukları olan bir araba vardı ama kaputun altında motor yoktu. 🚗💨
Çözüm: Docker Compose Dosyasını Düzeltmek 🛠️
Bu sorunu çözmek için servisin yapılandırma dosyasını (YAML) manuel olarak düzenlememiz ve Ollama’yı sisteme tanıtmamız gerekiyor.
İşte adım adım yapmanız gerekenler:
1. Servis Ayarlarına Girin
Coolify panelinde, hatayı aldığınız “Ollama With Open WebUI” projesinin içine girin.
2. Yapılandırma Dosyasını Açın
Ekranın üst kısmında bulunan “Edit Compose File” (Veya Configuration altındaki Edit butonu) seçeneğine tıklayın.
3. Hatalı Kodu Silin ve Doğrusunu Yapıştırın
Mevcut kodun içinde services: ollama: satırının olmadığını göreceksiniz. O kutudaki her şeyi silin ve aşağıdaki tam çalışan kodu yapıştırın:
services:
# 1. OLLAMA SERVİSİ (MOTOR)
ollama:
image: ollama/ollama:latest
volumes:
- ollama:/root/.ollama
restart: always
healthcheck:
test: ["CMD", "ollama", "list"]
interval: 10s
timeout: 5s
retries: 5
# 2. OPEN WEBUI SERVİSİ (ARAYÜZ)
open-webui:
image: ghcr.io/open-webui/open-webui:main
volumes:
- open-webui:/app/backend/data
environment:
# Arayüze motorun yerini gösteriyoruz:
- OLLAMA_BASE_URL=http://ollama:11434
- SERVICE_URL_OPENWEBUI_8080
depends_on:
- ollama
restart: always
volumes:
ollama:
open-webui:
4. Kaydet ve Yeniden Başlat (Deploy)
Kodu yapıştırdıktan sonra “Save” butonuna basın. Ardından ekranın sağ üst köşesindeki “Restart” veya “Deploy” butonuna tıklayın.
Bu işlem, sunucunuzda hem Ollama’yı hem de WebUI’yı sıfırdan ve birbirine bağlı şekilde kuracaktır.
Sonuç: Sorunsuz Çalışan Yapay Zeka 🧠
Sunucu yeniden açıldıktan sonra Open WebUI arayüzüne (tarayıcıdan) tekrar girdiğimde o kırmızı hatanın gittiğini gördüm.
Test etmek için şu adımları izledim:
-
Yönetici Ayarları > Modeller sekmesine gittim.
-
“Pull a model” kısmına
moondream(veyallama3,gemma2) yazdım. -
İndirme çubuğu sorunsuz çalıştı ve model yüklendi!
Artık kendi sunucumda, verilerim dışarı çıkmadan çalışan özel bir yapay zekam var.
Özetle: Coolify harika bir araç olsa da bazen hazır şablonlarda (template) eksiklikler olabiliyor. Eğer “Connection Error” alıyorsanız, ilk bakmanız gereken yer docker-compose dosyasında servislerin tam olup olmadığıdır.
İyi kodlamalar! 🚀