Guía: Cómo ejecutar Stable Beluga en una computadora con 32GB de RAM
Stable Beluga es una herramienta moderna para generar imágenes basada en tecnología de IA. En esta guía, mostraremos cómo ejecutar Stable Beluga en una computadora con 32GB de RAM, paso a paso.
Requisitos previos
Antes de comenzar la instalación, asegúrate de que tu sistema cumpla con los siguientes requisitos:
- Sistema operativo: Windows 10/11 o Linux (se recomienda Ubuntu 20.04 LTS)
- Procesador: Intel i7 o más reciente / AMD Ryzen 7 o más reciente
- Memoria RAM: 32GB
- Tarjeta gráfica: NVIDIA RTX 2060 o más reciente (con al menos 8GB de memoria GPU)
- Espacio en disco: 50GB de espacio libre
Instalación de dependencias
En sistema Windows
-
Instalar controladores para la tarjeta gráfica:
- Descarga los controladores más recientes para tu tarjeta gráfica desde el sitio oficial de NVIDIA.
- Realiza la instalación siguiendo las instrucciones del fabricante.
-
Instalar Python:
- Descarga e instala Python 3.8 o más reciente desde el sitio oficial python.org.
- Asegúrate de marcar la opción "Add Python to PATH" durante la instalación.
-
Instalar Git:
- Descarga e instala Git desde el sitio oficial git-scm.com.
En sistema Linux (Ubuntu 20.04 LTS)
-
Actualizar el sistema:
sudo apt update && sudo apt upgrade -y -
Instalar controladores NVIDIA:
sudo apt install nvidia-driver-470 sudo reboot -
Instalar Python y Git:
sudo apt install python3 python3-pip git
Clonar el repositorio de Stable Beluga
- Abre la terminal (o la línea de comandos en Windows).
- Ejecuta el siguiente comando:
git clone https://github.com/stability-ai/stable-beluga.git cd stable-beluga
Instalación de dependencias de Python
-
Crea y activa un entorno virtual:
python -m venv venv source venv/bin/activate # En Windows: venv\Scripts\activate -
Instala los paquetes requeridos:
pip install -r requirements.txt
Configuración de Stable Beluga
-
Copia el archivo de configuración:
cp config.example.yaml config.yaml -
Edita el archivo
config.yamlen un editor de texto, por ejemplo VS Code:model: name: "stable-beluga" path: "models/stable-beluga.safetensors" device: "cuda" # Usa "cpu", si no tienes tarjeta gráfica precision: "fp16" # Puedes cambiar a "fp32", si tienes suficiente memoria
Descargar el modelo
- Descarga el modelo Stable Beluga desde el repositorio oficial:
(Reemplaza la URL con la del modelo actual.)wget https://example.com/models/stable-beluga.safetensors -P models/
Ejecutar Stable Beluga
-
Ejecuta el script principal:
python main.py -
En caso de problemas de memoria, intenta reducir el tamaño del lote en el archivo
config.yaml:batch_size: 1 # Por defecto 4, reduce si es necesario
Ejemplos de uso
Generar una imagen
from stable_beluga import StableBeluga
model = StableBeluga.from_config("config.yaml")
prompt = "Astronaut riding a horse on Mars"
image = model.generate(prompt)
image.save("output.png")
Generar una serie de imágenes
prompts = [
"Sunset over the ocean",
"Forest in autumn",
"City skyline at night"
]
for prompt in prompts:
image = model.generate(prompt)
image.save(f"{prompt.replace(' ', '_')}.png")
Optimización de memoria
Si encuentras problemas de memoria, prueba las siguientes soluciones:
-
Reducir el tamaño del lote:
batch_size: 1 -
Usar precisión fp32:
precision: "fp32" -
Desactivar gradientes:
enable_gradients: false
Solución de problemas
Error de memoria GPU
Si recibes un error de memoria GPU, prueba:
-
Reducir la resolución de salida:
output_size: [512, 512] # Reduce a [256, 256], si es necesario -
Usar un modelo más pequeño:
model: name: "stable-beluga-small"
Error de dependencias
Si encuentras problemas con las dependencias, prueba:
-
Actualizar pip:
pip install --upgrade pip -
Instalar paquetes manualmente:
pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu113
Resumen
En esta guía, mostramos cómo ejecutar Stable Beluga en una computadora con 32GB de RAM. Recuerda que la optimización de memoria puede ser necesaria dependiendo de tu hardware. Con estos pasos, deberías poder generar imágenes de alta calidad usando Stable Beluga.
Si tienes preguntas adicionales o encuentras problemas, visita el foro oficial de Stable Beluga o el repositorio de GitHub.