Guida: Come avviare Stable Beluga su un computer con 32GB di RAM
Stable Beluga è uno strumento moderno per la generazione di immagini basato sulla tecnologia AI. In questa guida, ti mostreremo come avviare Stable Beluga su un computer con 32GB di RAM, passo dopo passo.
Requisiti preliminari
Prima di iniziare l'installazione, assicurati che il tuo sistema soddisfi i seguenti requisiti:
- Sistema operativo: Windows 10/11 o Linux (consigliato Ubuntu 20.04 LTS)
- Processore: Intel i7 o successivo / AMD Ryzen 7 o successivo
- Memoria RAM: 32GB
- Scheda grafica: NVIDIA RTX 2060 o successiva (con almeno 8GB di memoria GPU)
- Spazio su disco: 50GB di spazio libero
Installazione delle dipendenze
Su sistema Windows
-
Installa i driver per la scheda grafica:
- Scarica gli ultimi driver per la tua scheda grafica dal sito ufficiale di NVIDIA.
- Esegui l'installazione seguendo le istruzioni del produttore.
-
Installa Python:
- Scarica e installa Python 3.8 o successivo dal sito ufficiale python.org.
- Assicurati di selezionare l'opzione "Add Python to PATH" durante l'installazione.
-
Installa Git:
- Scarica e installa Git dal sito ufficiale git-scm.com.
Su sistema Linux (Ubuntu 20.04 LTS)
-
Aggiorna il sistema:
sudo apt update && sudo apt upgrade -y -
Installa i driver NVIDIA:
sudo apt install nvidia-driver-470 sudo reboot -
Installa Python e Git:
sudo apt install python3 python3-pip git
Clonazione del repository Stable Beluga
- Apri il terminale (o la riga di comando in Windows).
- Esegui il seguente comando:
git clone https://github.com/stability-ai/stable-beluga.git cd stable-beluga
Installazione delle dipendenze Python
-
Crea e attiva un ambiente virtuale:
python -m venv venv source venv/bin/activate # Su Windows: venv\Scripts\activate -
Installa i pacchetti richiesti:
pip install -r requirements.txt
Configurazione di Stable Beluga
-
Copia il file di configurazione:
cp config.example.yaml config.yaml -
Modifica il file
config.yamlin un editor di testo, ad esempio VS Code:model: name: "stable-beluga" path: "models/stable-beluga.safetensors" device: "cuda" # Usa "cpu", se non hai una scheda grafica precision: "fp16" # Puoi cambiare in "fp32", se hai abbastanza memoria
Scaricamento del modello
- Scarica il modello Stable Beluga dal repository ufficiale:
(Sostituisci l'URL con quello del modello attuale.)wget https://example.com/models/stable-beluga.safetensors -P models/
Avvio di Stable Beluga
-
Esegui lo script principale:
python main.py -
In caso di problemi di memoria, prova a ridurre la dimensione del batch nel file
config.yaml:batch_size: 1 # Predefinito 4, riduci se necessario
Esempi di utilizzo
Generazione di un'immagine
from stable_beluga import StableBeluga
model = StableBeluga.from_config("config.yaml")
prompt = "Astronaut riding a horse on Mars"
image = model.generate(prompt)
image.save("output.png")
Generazione di una serie di immagini
prompts = [
"Sunset over the ocean",
"Forest in autumn",
"City skyline at night"
]
for prompt in prompts:
image = model.generate(prompt)
image.save(f"{prompt.replace(' ', '_')}.png")
Ottimizzazione della memoria
Se incontri problemi di memoria, prova le seguenti soluzioni:
-
Riduci la dimensione del batch:
batch_size: 1 -
Usa la precisione fp32:
precision: "fp32" -
Disattiva i gradienti:
enable_gradients: false
Risoluzione dei problemi
Errore di memoria GPU
Se ricevi un errore di memoria GPU, prova:
-
Ridurre la risoluzione di output:
output_size: [512, 512] # Riduci a [256, 256], se necessario -
Usare un modello più piccolo:
model: name: "stable-beluga-small"
Errore di dipendenza
Se incontri problemi con le dipendenze, prova:
-
Aggiorna pip:
pip install --upgrade pip -
Installa i pacchetti manualmente:
pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu113
Riassunto
In questa guida, ti abbiamo mostrato come avviare Stable Beluga su un computer con 32GB di RAM. Ricorda che l'ottimizzazione della memoria potrebbe essere necessaria a seconda del tuo hardware. Con questi passaggi, dovresti essere in grado di generare immagini di alta qualità utilizzando Stable Beluga.
Se hai ulteriori domande o incontri problemi, visita il forum ufficiale di Stable Beluga o il repository GitHub.