A newer version of the Gradio SDK is available:
5.39.0
metadata
title: NTIA Space - Optimizado para H200
emoji: 🚀
colorFrom: indigo
colorTo: red
sdk: gradio
sdk_version: 5.38.2
app_file: app.py
pinned: false
license: mit
short_description: Modelos libres de IA optimizados para ZeroGPU H200
🚀 NTIA Space - Optimizado para ZeroGPU H200
Este es el repositorio del Space de Hugging Face para NTIA, que proporciona acceso a modelos libres de IA para generación de texto, imágenes y videos optimizado para ZeroGPU H200 del plan Pro.
⚡ Optimizaciones para H200
🚀 Rendimiento Optimizado:
- ✅ Mixed Precision (FP16) para máxima velocidad
- ✅ XFormers Memory Efficient Attention habilitado
- ✅ Attention Slicing para mejor gestión de memoria
- ✅ VAE Slicing para modelos grandes
- ✅ CUDA Optimizations (cudnn.benchmark, tf32)
🎯 Velocidad H200:
- ⚡ Hasta 10x más rápido que CPU
- ⚡ Generación en segundos en lugar de minutos
- ⚡ Optimizado para modelos grandes (FLUX, SDXL)
- ⚡ Batch processing para múltiples imágenes
🚀 Despliegue Rápido
Script de Push Automático
Para hacer commits y push rápidos, usa el script push.ps1
:
# Commit con mensaje personalizado
.\push.ps1 "tu mensaje de commit"
# Commit con mensaje por defecto "update"
.\push.ps1
Comandos Manuales
# Agregar todos los cambios
git add .
# Commit con mensaje
git commit -m "tu mensaje"
# Push a Hugging Face
git push
🔧 Configuración
Variables de Entorno
Para usar modelos gated como FLUX.1-dev y FLUX.1-schnell, necesitas configurar:
1. Obtener Token de Hugging Face
- Ve a Hugging Face Settings
- Crea un nuevo token con permisos de read
- Copia el token generado
2. Configurar Token en el Space
- Ve a tu Space: https://huggingface.co/spaces/Ntdeseb/ntia
- Haz clic en Settings (⚙️)
- En la sección Variables and secrets
- Agrega una nueva variable:
- Name:
HF_TOKEN
- Value:
hf_tu_token_aqui
- Type:
Secret
✅
- Name:
- Guarda los cambios
- Reinicia el Space
3. Verificar Acceso a Modelos FLUX
- Ve a FLUX.1-dev
- Haz clic en Access para solicitar acceso
- Acepta los términos de licencia
- Repite para FLUX.1-schnell
Dependencias
Ver requirements.txt
para la lista completa de dependencias.
📋 Modelos Disponibles
Texto
- DialoGPT (Medium, Large, Small)
- GPT-2 (Base, Medium, Large)
- GPT-Neo (125M, 1.3B)
- OPT (125M, 350M)
- BLOOM (560M, 1B1)
- Traductores (ES-EN, EN-ES)
- Voxtral Mini 3B
- Falcon 7B Instruct
- Flan-T5 Base
Imágenes
- Stable Diffusion v1.4
- Stable Diffusion 2.1
- SDXL Base
- SD 3 Medium
- OpenJourney (Midjourney Style)
- Orange Mixs
- Waifu Diffusion
- FLUX.1 Schnell ⭐
- FLUX.1 Dev ⭐
- LDM Text2Im 256
- ⚡ SDXL Turbo (Rápido)
- ⚡ SD Turbo (Rápido)
- ⚡ SDXL Lightning (Rápido)
- 🎨 Kohaku V2.1 (Estilo anime)
Videos
- Text-to-Video MS 1.7B
- Zeroscope v2 (576w, XL)
- AnimateDiff Lightning
- CogVideoX 5B
- Pyramid Flow SD3
- ModelScope Text-to-Video
🎨 Uso
- Accede al Space en: https://huggingface.co/spaces/Ntdeseb/ntia
- Selecciona el tipo de generación (texto, imagen, video)
- Elige el modelo deseado
- Ingresa tu prompt
- ¡Genera contenido!
🔄 Actualizaciones
Para actualizar el Space:
- Haz tus cambios en el código
- Usa el script de push:
.\push.ps1 "descripción de cambios"
- El Space se actualizará automáticamente en Hugging Face
🐛 Solución de Problemas
FLUX Models
- Los modelos FLUX requieren
sentencepiece
(ya incluido en requirements.txt) - Configuración optimizada con parámetros recomendados
- Seed aleatorio para generar imágenes diferentes
Errores Comunes
- "Cannot instantiate tokenizer": Verifica que
sentencepiece
esté instalado - "enable_model_cpu_offload requires accelerator": Normal en entornos sin GPU
- "Value not in list of choices": Verifica que el modelo esté en la lista de MODELS
📝 Logs
El Space incluye logs detallados para debugging:
- Carga de modelos
- Parámetros de generación
- Errores y fallbacks
- Estado de conexión
🤝 Contribuciones
- Fork el repositorio
- Crea una rama para tu feature
- Haz tus cambios
- Usa
.\push.ps1 "descripción"
para commit - Crea un Pull Request
📄 Licencia
Este proyecto está bajo la licencia MIT.