Inference Unlimited

Docker'ı Yerel AI Modellerini Çalıştırmak İçin Nasıl Yapılandırılır

Giriş

Docker, uygulama sanallaştırması için bir araçtır ve bu araç, AI modellerini izole edilmiş ortamlarda çalıştırmak için kullanılır. Bu sayede farklı projeler arasında bağımlılık ve ortam çatışmalarını önleyebilir ve kolayca yönetebilirsiniz. Bu makalede, Docker'ı yerel AI modellerini çalıştırmak için nasıl yapılandırdığınızı anlatacağız.

Ön Koşullar

Docker'ı yapılandırmadan önce şunlara ihtiyacınız olacak:

Docker Desktop Yükleme

Eğer Docker Desktop henüz yüklü değilse, Docker sayfasındaki talimatlara göre yükleyebilirsiniz.

Dockerfile Oluşturma

Docker'da bir AI modeli çalıştırmak için, modeli çalıştırmak için gerekli ortam ve bağımlılıkları tanımlayan bir Dockerfile oluşturmanız gerekir. Aşağıda Python tabanlı bir AI modeli için örnek bir Dockerfile bulunmaktadır:

# Resmi Python görüntüsünü kullanın
FROM python:3.9-slim

# Ortam değişkenini LANG ayarlayın
ENV LANG C.UTF-8

# Paketleri güncelle ve bağımlılıkları yükle
RUN apt-get update && apt-get install -y \
    build-essential \
    && rm -rf /var/lib/apt/lists/*

# Çalışma dizini oluştur
WORKDIR /app

# Gereksinimleri çalışma dizinine kopyala
COPY requirements.txt .

# Python bağımlılıklarını yükle
RUN pip install --no-cache-dir -r requirements.txt

# Geri kalan dosyaları çalışma dizinine kopyala
COPY . .

# Uygulamanın dinleyeceği portu belirle
EXPOSE 8000

# Uygulamayı çalıştıran komutu belirle
CMD ["python", "app.py"]

requirements.txt Dosyası Oluşturma

requirements.txt dosyası, AI modelini çalıştırmak için gerekli Python bağımlılıklarını içerir. Örnek bir requirements.txt dosyası aşağıdaki gibidir:

numpy==1.21.2
pandas==1.3.3
tensorflow==2.6.0
flask==2.0.1

Docker Görüntüsü Oluşturma

Docker görüntüsünü oluşturmak için terminalde aşağıdaki komutu kullanın:

docker build -t ai-model .

Bu komut, Dockerfile tabanında bir Docker görüntüsü oluşturur ve ona ai-model etiketini verir.

Docker Konteynerını Çalıştırma

Görüntü oluşturulduktan sonra, aşağıdaki komutu kullanarak Docker konteynerını çalıştırabilirsiniz:

docker run -p 8000:8000 ai-model

Bu komut, Docker konteynerını çalıştırır ve konteynerin port 8000'ünü hostun port 8000'üne eşler.

AI Modelinin Test Edilmesi

AI modelinin doğru çalışıp çalışmadığını test etmek için curl araçlarını kullanabilir veya tarayıcıyı açarak http://localhost:8000 adresine gidebilirsiniz.

Docker Konteynerlerini Yönetme

Docker, konteynerleri yönetmek için birkaç komut sağlar. Aşağıdakiler bunlardan bazılarıdır:

Özet

Docker, AI modellerini izole edilmiş ortamlarda çalıştırmak için güçlü bir araçtır. Bu sayede bağımlılıkları ve ortamları kolayca yönetebilir ve farklı projeler arasında çatışmaları önleyebilirsiniz. Bu makalede, Docker'ı yerel AI modellerini çalıştırmak için nasıl yapılandırdığınızı anlattık. Bu bilgilerin sizin için faydalı olacağını umuyoruz!

Język: TR | Wyświetlenia: 12

← Powrót do listy artykułów