Coolify Üzerinde Ollama + Open WebUI Kurulumu: “Server Connection Error” Hatası ve Kesin Çözümü

Kendi sunucumda (Hetzner VPS) yapay zeka modellerimi çalıştırmak için Coolify kullanmaya karar verdim. Amacım, Ollama‘yı (AI Motoru) ve Open WebUI‘yı (ChatGPT benzeri arayüz) tek bir pakette kurup kullanmaktı.

Coolify’ın hazır servisleri arasında “Ollama With Open WebUI” seçeneği mevcut. “Harika, tek tıkla kurulacak” diye düşündüm. Ancak kurulum bittikten sonra arayüze girdiğimde karşılaştığım manzara şuydu:

Kırmızı bir hata kutusu: “Server Connection Error” Model listesi: “Failed to fetch models”

Eğer siz de Coolify kullanırken bu sorunla karşılaştıysanız, panik yapmayın. Sorun ne Coolify’da ne de sunucunuzda. Sorun, eksik gelen docker-compose dosyasında. İşte adım adım çözüm hikayem.

Sorunun Teşhisi: Motor Nerede? 🕵️‍♂️

Open WebUI arayüzü açılıyordu ama model indirmeye çalıştığımda veya ayarları kontrol ettiğimde Ollama’ya ulaşamıyordu.

Coolify panelinden terminale bağlanıp curl komutları denediğimde Could not resolve host: ollama hatası alıyordum. Yani sistem “ollama” diye bir servisi tanımıyordu.

Sonunda Coolify panelindeki “Edit Compose File” butonuna tıklayıp çalışan koda baktığımda şok oldum: Dosyada sadece Open WebUI tanımlıydı, Ollama servisi hiç yoktu!

Yani elimizde direksiyonu, koltukları olan bir araba vardı ama kaputun altında motor yoktu. 🚗💨

Çözüm: Docker Compose Dosyasını Düzeltmek 🛠️

Bu sorunu çözmek için servisin yapılandırma dosyasını (YAML) manuel olarak düzenlememiz ve Ollama’yı sisteme tanıtmamız gerekiyor.

İşte adım adım yapmanız gerekenler:

1. Servis Ayarlarına Girin

Coolify panelinde, hatayı aldığınız “Ollama With Open WebUI” projesinin içine girin.

2. Yapılandırma Dosyasını Açın

Ekranın üst kısmında bulunan “Edit Compose File” (Veya Configuration altındaki Edit butonu) seçeneğine tıklayın.

3. Hatalı Kodu Silin ve Doğrusunu Yapıştırın

Mevcut kodun içinde services: ollama: satırının olmadığını göreceksiniz. O kutudaki her şeyi silin ve aşağıdaki tam çalışan kodu yapıştırın:

YAML

services:
  # 1. OLLAMA SERVİSİ (MOTOR)
  ollama:
    image: ollama/ollama:latest
    volumes:
      - ollama:/root/.ollama
    restart: always
    healthcheck:
      test: ["CMD", "ollama", "list"]
      interval: 10s
      timeout: 5s
      retries: 5

  # 2. OPEN WEBUI SERVİSİ (ARAYÜZ)
  open-webui:
    image: ghcr.io/open-webui/open-webui:main
    volumes:
      - open-webui:/app/backend/data
    environment:
      # Arayüze motorun yerini gösteriyoruz:
      - OLLAMA_BASE_URL=http://ollama:11434
      - SERVICE_URL_OPENWEBUI_8080
    depends_on:
      - ollama
    restart: always

volumes:
  ollama:
  open-webui:

4. Kaydet ve Yeniden Başlat (Deploy)

Kodu yapıştırdıktan sonra “Save” butonuna basın. Ardından ekranın sağ üst köşesindeki “Restart” veya “Deploy” butonuna tıklayın.

Bu işlem, sunucunuzda hem Ollama’yı hem de WebUI’yı sıfırdan ve birbirine bağlı şekilde kuracaktır.

Sonuç: Sorunsuz Çalışan Yapay Zeka 🧠

Sunucu yeniden açıldıktan sonra Open WebUI arayüzüne (tarayıcıdan) tekrar girdiğimde o kırmızı hatanın gittiğini gördüm.

Test etmek için şu adımları izledim:

  1. Yönetici Ayarları > Modeller sekmesine gittim.

  2. “Pull a model” kısmına moondream (veya llama3, gemma2) yazdım.

  3. İndirme çubuğu sorunsuz çalıştı ve model yüklendi!

Artık kendi sunucumda, verilerim dışarı çıkmadan çalışan özel bir yapay zekam var.

Özetle: Coolify harika bir araç olsa da bazen hazır şablonlarda (template) eksiklikler olabiliyor. Eğer “Connection Error” alıyorsanız, ilk bakmanız gereken yer docker-compose dosyasında servislerin tam olup olmadığıdır.

İyi kodlamalar! 🚀

Yorum bırakın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir