Kılavuz: 32GB RAM'lı Bir Bilgisayarda Mistral'ı Nasıl Çalıştırırsınız
Giriş
Mistral, çalıştırılabilmesi için yeterli güçte donanım gerektiren güçlü bir dil modelidir. Bu kılavuzda, 32GB RAM'lı bir bilgisayarda Mistral'ı nasıl yapılandırıp çalıştırdığınızı gösterelim. Böylece bu modelin gelişmiş özelliklerinden yararlanabilirsiniz.
Ön Koşullar
Yüklemeyi başlatmadan önce, sistemin aşağıdaki ön koşulları karşıladığını doğrulayın:
- İşletim sistemi: Linux (Ubuntu 20.04 LTS önerilir)
- İşlemci: Intel i7 veya daha yeni / AMD Ryzen 7 veya daha yeni
- Bellek: 32GB
- Grafik kartı: En az 16GB VRAM'lı NVIDIA (isteğe bağlı ama önerilir)
- Disk alanı: En az 50GB boş alan
Bağımlılıkların Yüklenmesi
İlk adım, tüm gereken bağımlılıkların yüklenmesidir. Terminali açın ve aşağıdaki komutları çalıştırın:
sudo apt update
sudo apt install -y python3 python3-pip git wget
PyTorch'ın Yüklenmesi
Mistral, çalışması için PyTorch'a ihtiyaç duyar. Aşağıdaki komutla yükleyebilirsiniz:
pip3 install torch torchvision torchaudio
Mistral Modelinin İndirilmesi
Mistral modelini indirmek için aşağıdaki komutu kullanın:
git clone https://github.com/mistralai/mistral.git
cd mistral
Ortamın Yapılandırılması
Modeli çalıştırmadan önce ortamı yapılandırmak gerekir. config.py adlı bir dosya oluşturun ve aşağıdaki ayarları ekleyin:
import torch
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
model_path = "mistral/model.bin"
Modelin Çalıştırılması
Şimdi Mistral modelini çalıştırabilirsiniz. Aşağıdaki betiği kullanın:
import torch
from mistral import MistralModel
# Yapılandırmayı yükleyin
from config import device, model_path
# Modeli yükleyin
model = MistralModel.from_pretrained(model_path)
model.to(device)
# Giriş verilerini hazırlayın
input_text = "Nasıl yardımcı olabilirim?"
input_ids = tokenizer.encode(input_text, return_tensors="pt").to(device)
# Tahmini yapın
output = model.generate(input_ids, max_length=50)
# Sonucu gösterin
print(tokenizer.decode(output[0], skip_special_tokens=True))
Bellek Optimizasyonu
32GB RAM'ınız olduğundan, performansı iyileştirmek için birkaç optimizasyon teknik uygulayabilirsiniz:
-
Gradient checkpointing kullanın:
model.gradient_checkpointing_enable() -
Batch boyutunu küçültün:
model.eval() with torch.no_grad(): output = model.generate(input_ids, max_length=50, batch_size=1) -
8-bit kwantizasyon kullanın:
model = model.to(torch.float8)
Bellek Kullanımının İzlenmesi
Bellek kullanımını izlemek için aşağıdaki betiği kullanabilirsiniz:
import psutil
def monitor_memory():
process = psutil.Process()
memory_info = process.memory_info()
print(f"Bellek kullanımı: {memory_info.rss / (1024 ** 3):.2f} GB")
monitor_memory()
Özet
Bu kılavuzda, 32GB RAM'lı bir bilgisayarda Mistral'ı nasıl çalıştırdığınızı gösterdik. Uygun yapılandırma ve optimizasyonla bu güçlü dil modelinden etkili bir şekilde yararlanabilirsiniz. Performansla ilgili sorunlar yaşarsanız, bellek miktarını artırmayı veya daha fazla VRAM'lı bir grafik kartı kullanmayı düşünebilirsiniz.
Bu kılavuzun size yardımcı olduğu umarız! Sorunuz varsa veya ek yardıma ihtiyacınız varsa, lütfen bizimle iletişime geçin.