Inference Unlimited

GPU को LLM मॉडल्स के साथ काम करने के लिए कैसे कॉन्फ़िगर करें

GPU को बड़े भाषा मॉडल्स (LLM) के साथ काम करने के लिए कॉन्फ़िगर करना कई कारकों को ध्यान में रखना आवश्यक है, जैसे हार्डवेयर की संगतता, ड्राइवरों का इंस्टॉलेशन, सॉफ्टवेयर का कॉन्फ़िगरेशन और पर्यावरण का ऑप्टिमाइज़ेशन। इस लेख में, हम चरण-दर-चरण बताएंगे कि कैसे आप अपने GPU को LLM मॉडल्स के साथ प्रभावी ढंग से काम करने के लिए तैयार करें।

1. उपयुक्त GPU का चयन

कॉन्फ़िगरेशन शुरू करने से पहले, उपयुक्त GPU का चयन करना महत्वपूर्ण है। LLM मॉडल्स को बहुत सारा GPU मेमोरी (VRAM) और कंप्यूटिंग पावर की आवश्यकता होती है। सबसे लोकप्रिय विकल्प हैं:

2. GPU ड्राइवरों का इंस्टॉलेशन

NVIDIA कार्ड्स के लिए

  1. ड्राइवरों को डाउनलोड करें:

    • NVIDIA Driver Downloads पेज पर जाएं।
    • ग्राफिक्स कार्ड के मॉडल और ऑपरेटिंग सिस्टम का चयन करें।
  2. ड्राइवरों का इंस्टॉलेशन:

    sudo apt update
    sudo apt install -y nvidia-driver-535
    sudo reboot
    
  3. इंस्टॉलेशन की जांच:

    nvidia-smi
    

AMD कार्ड्स के लिए

  1. ड्राइवरों को डाउनलोड करें:

    • AMD Driver Support पेज पर जाएं।
    • ग्राफिक्स कार्ड के मॉडल और ऑपरेटिंग सिस्टम का चयन करें।
  2. ड्राइवरों का इंस्टॉलेशन:

    sudo apt update
    sudo apt install -y rocm-opencl-runtime
    sudo reboot
    
  3. इंस्टॉलेशन की जांच:

    rocminfo
    

3. CUDA और cuDNN का इंस्टॉलेशन

CUDA का इंस्टॉलेशन

  1. CUDA को डाउनलोड करें:

    • CUDA Toolkit Archive पेज पर जाएं।
    • अपने सिस्टम के लिए उपयुक्त संस्करण का चयन करें।
  2. CUDA का इंस्टॉलेशन:

    sudo dpkg -i cuda-repo-<distro>_<version>_amd64.deb
    sudo apt-key adv --fetch-keys https://developer.download.nvidia.com/compute/cuda/repos/<distro>/x86_64/3bf863cc.pub
    sudo apt update
    sudo apt install -y cuda
    
  3. CUDA को PATH वरियबल में जोड़ें:

    echo 'export PATH=/usr/local/cuda/bin:$PATH' >> ~/.bashrc
    echo 'export LD_LIBRARY_PATH=/usr/local/cuda/lib64:$LD_LIBRARY_PATH' >> ~/.bashrc
    source ~/.bashrc
    

cuDNN का इंस्टॉलेशन

  1. cuDNN को डाउनलोड करें:

    • NVIDIA cuDNN पेज पर रजिस्टर करें।
    • अपने सिस्टम के लिए उपयुक्त संस्करण डाउनलोड करें।
  2. cuDNN का इंस्टॉलेशन:

    sudo dpkg -i cudnn-local-repo-<distro>_<version>_amd64.deb
    sudo apt update
    sudo apt install -y libcudnn8
    

4. प्रोग्रामिंग पर्यावरण का कॉन्फ़िगरेशन

Python और लाइब्रेरीज का इंस्टॉलेशन

  1. Python का इंस्टॉलेशन:

    sudo apt update
    sudo apt install -y python3 python3-pip python3-venv
    
  2. वर्चुअल पर्यावरण का निर्माण:

    python3 -m venv llm-env
    source llm-env/bin/activate
    
  3. लाइब्रेरीज का इंस्टॉलेशन:

    pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu118
    pip install transformers datasets accelerate
    

5. LLM मॉडल का कॉन्फ़िगरेशन

Transformers लाइब्रेरी के साथ मॉडल कॉन्फ़िगरेशन का उदाहरण

from transformers import AutoModelForCausalLM, AutoTokenizer

# मॉडल और टोकनाइज़र को लोड करें
model_name = "bigscience/bloom"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name, device_map="auto")

# इनपुट का तैयारी
input_text = "GPU को LLM मॉडल्स के साथ काम करने के लिए कैसे कॉन्फ़िगर करें?"
inputs = tokenizer(input_text, return_tensors="pt").to("cuda")

# उत्तर का जनरेशन
outputs = model.generate(**inputs, max_length=100)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))

6. प्रदर्शन का ऑप्टिमाइज़ेशन

Accelerate लाइब्रेरी का उपयोग

Accelerate लाइब्रेरी कई GPU पर मॉडल्स को आसानी से स्केल करने की अनुमति देती है।

from accelerate import Accelerator

accelerator = Accelerator()
model, optimizer = accelerator.prepare(model, optimizer)

DeepSpeed का उपयोग

DeepSpeed बड़े मॉडल्स को ऑप्टिमाइज़ करने का एक टूल है।

deepspeed --num_gpus=4 train.py

सारांश

GPU को LLM मॉडल्स के साथ काम करने के लिए कॉन्फ़िगर करना कई कारकों को ध्यान में रखना आवश्यक है, जैसे उपयुक्त हार्डवेयर का चयन, ड्राइवरों का इंस्टॉलेशन, सॉफ्टवेयर का कॉन्फ़िगरेशन और पर्यावरण का ऑप्टिमाइज़ेशन। इस लेख के माध्यम से, आप अपने GPU को बड़े भाषा मॉडल्स के साथ प्रभावी ढंग से काम करने के लिए तैयार करने में सक्षम होने चाहिए।

Język: HI | Wyświetlenia: 6

← Powrót do listy artykułów