ntia / README.md
Ntdeseb's picture
Optimizado para ZeroGPU H200 con Advanced Settings completos
41120c1

A newer version of the Gradio SDK is available: 5.39.0

Upgrade
metadata
title: NTIA Space - Optimizado para H200
emoji: 🚀
colorFrom: indigo
colorTo: red
sdk: gradio
sdk_version: 5.38.2
app_file: app.py
pinned: false
license: mit
short_description: Modelos libres de IA optimizados para ZeroGPU H200

🚀 NTIA Space - Optimizado para ZeroGPU H200

Este es el repositorio del Space de Hugging Face para NTIA, que proporciona acceso a modelos libres de IA para generación de texto, imágenes y videos optimizado para ZeroGPU H200 del plan Pro.

⚡ Optimizaciones para H200

🚀 Rendimiento Optimizado:

  • Mixed Precision (FP16) para máxima velocidad
  • XFormers Memory Efficient Attention habilitado
  • Attention Slicing para mejor gestión de memoria
  • VAE Slicing para modelos grandes
  • CUDA Optimizations (cudnn.benchmark, tf32)

🎯 Velocidad H200:

  • Hasta 10x más rápido que CPU
  • Generación en segundos en lugar de minutos
  • Optimizado para modelos grandes (FLUX, SDXL)
  • Batch processing para múltiples imágenes

🚀 Despliegue Rápido

Script de Push Automático

Para hacer commits y push rápidos, usa el script push.ps1:

# Commit con mensaje personalizado
.\push.ps1 "tu mensaje de commit"

# Commit con mensaje por defecto "update"
.\push.ps1

Comandos Manuales

# Agregar todos los cambios
git add .

# Commit con mensaje
git commit -m "tu mensaje"

# Push a Hugging Face
git push

🔧 Configuración

Variables de Entorno

Para usar modelos gated como FLUX.1-dev y FLUX.1-schnell, necesitas configurar:

1. Obtener Token de Hugging Face

  1. Ve a Hugging Face Settings
  2. Crea un nuevo token con permisos de read
  3. Copia el token generado

2. Configurar Token en el Space

  1. Ve a tu Space: https://huggingface.co/spaces/Ntdeseb/ntia
  2. Haz clic en Settings (⚙️)
  3. En la sección Variables and secrets
  4. Agrega una nueva variable:
    • Name: HF_TOKEN
    • Value: hf_tu_token_aqui
    • Type: Secret
  5. Guarda los cambios
  6. Reinicia el Space

3. Verificar Acceso a Modelos FLUX

  1. Ve a FLUX.1-dev
  2. Haz clic en Access para solicitar acceso
  3. Acepta los términos de licencia
  4. Repite para FLUX.1-schnell

Dependencias

Ver requirements.txt para la lista completa de dependencias.

📋 Modelos Disponibles

Texto

  • DialoGPT (Medium, Large, Small)
  • GPT-2 (Base, Medium, Large)
  • GPT-Neo (125M, 1.3B)
  • OPT (125M, 350M)
  • BLOOM (560M, 1B1)
  • Traductores (ES-EN, EN-ES)
  • Voxtral Mini 3B
  • Falcon 7B Instruct
  • Flan-T5 Base

Imágenes

  • Stable Diffusion v1.4
  • Stable Diffusion 2.1
  • SDXL Base
  • SD 3 Medium
  • OpenJourney (Midjourney Style)
  • Orange Mixs
  • Waifu Diffusion
  • FLUX.1 Schnell
  • FLUX.1 Dev
  • LDM Text2Im 256
  • ⚡ SDXL Turbo (Rápido)
  • ⚡ SD Turbo (Rápido)
  • ⚡ SDXL Lightning (Rápido)
  • 🎨 Kohaku V2.1 (Estilo anime)

Videos

  • Text-to-Video MS 1.7B
  • Zeroscope v2 (576w, XL)
  • AnimateDiff Lightning
  • CogVideoX 5B
  • Pyramid Flow SD3
  • ModelScope Text-to-Video

🎨 Uso

  1. Accede al Space en: https://huggingface.co/spaces/Ntdeseb/ntia
  2. Selecciona el tipo de generación (texto, imagen, video)
  3. Elige el modelo deseado
  4. Ingresa tu prompt
  5. ¡Genera contenido!

🔄 Actualizaciones

Para actualizar el Space:

  1. Haz tus cambios en el código
  2. Usa el script de push: .\push.ps1 "descripción de cambios"
  3. El Space se actualizará automáticamente en Hugging Face

🐛 Solución de Problemas

FLUX Models

  • Los modelos FLUX requieren sentencepiece (ya incluido en requirements.txt)
  • Configuración optimizada con parámetros recomendados
  • Seed aleatorio para generar imágenes diferentes

Errores Comunes

  • "Cannot instantiate tokenizer": Verifica que sentencepiece esté instalado
  • "enable_model_cpu_offload requires accelerator": Normal en entornos sin GPU
  • "Value not in list of choices": Verifica que el modelo esté en la lista de MODELS

📝 Logs

El Space incluye logs detallados para debugging:

  • Carga de modelos
  • Parámetros de generación
  • Errores y fallbacks
  • Estado de conexión

🤝 Contribuciones

  1. Fork el repositorio
  2. Crea una rama para tu feature
  3. Haz tus cambios
  4. Usa .\push.ps1 "descripción" para commit
  5. Crea un Pull Request

📄 Licencia

Este proyecto está bajo la licencia MIT.