Trasgu-1.5B — llionés (Qwen2.5 + Unsloth, FP16 · PyTorch)
   
Finetuning de Qwen2.5-1.5B con Unsloth en Google Colab, entrenado y evaluado con el dataset
unileon-robotics/lliones-dict-tr(pares input→output).
Este repositorio publica pesos FP16 en formato Transformers (PyTorch).
La variante GGUF (incluye F16 y Q5_K_M) está en Trasgu-1.5B-GGUF.
Descripción
Trasgu-1.5B es un modelo conversacional en llionés (leonés). Se ha realizado finetuning supervisado sobre pares input→output de lliones-dict-tr.
Al tratarse de datos estructurados, la señal es explícita y permite evaluación objetiva en la misma distribución de tareas.
Archivos de utilidad
- Banner: Utils/Banner-Trasgu.PNG
- Logo: Utils/Logo-Trasgu.png
- Training notebook: Utils/Training_Notebook.ipynb
- Testing notebook (evaluación): Utils/Testing_Notebook.ipynb
- Configuración de entrenamiento (hiperparámetros y chat template): Utils/config_entrenamiento.json
Dataset
- Principal (entrenamiento/evaluación): unileon-robotics/lliones-dict-tr— dataset estructurado de pares input–output (traducciones, vocabulario, significados llionés↔español).
 Cada ejemplo se formatea como turno de chat con la chat template de Qwen 2.5 (instrucción → respuesta) antes del finetuning.
- Corpus adicional (no usado en el finetuning): unileon-robotics/lliones-corpus— texto no estructurado en llionés. No se utilizó aquí por no aportar señal supervisada comolliones-dict-tr, pero queda disponible para quien lo necesite.
Metodología de evaluación
Para cada ejemplo del dataset (N = 3000):
- Se consulta el modelo con la entrada (instrucción/pregunta).
- Se compara la salida con la respuesta de referencia mediante dos medidas (0–100):
- Fuzzy (mean_fuzzy): fuzzy ratio (coincidencia textual aproximada).
- Semantic (mean_semantic): cosine similarity de embeddings consentence-transformers/all-MiniLM-L6-v2.
Puntuación final por ejemplo: score_ejemplo = max(fuzzy, semantic)
Agregados: mean_fuzzy, mean_semantic y mean_similarity (media de score_ejemplo, métrica final).
Resultados (todas las variantes · 3.000 ejemplos)
Este repositorio corresponde a: Trasgu-1.5B (F16).
Las variantes -GGUF contienen dos artefactos: F16 y Q5_K_M.
| Modelo / Cuantización | Repositorio | mean_similarity (final) | mean_fuzzy | mean_semantic | 
|---|---|---|---|---|
| Trasgu-0.5B (F16) | Trasgu-0.5B | 77.01 | 55.21 | 76.86 | 
| Trasgu-0.5B (Q5_K_M) | Trasgu-0.5B-GGUF | 77.10 | 55.16 | 76.94 | 
| Trasgu-1.5B (F16) | Trasgu-1.5B | 79.50 | 58.48 | 79.39 | 
| Trasgu-1.5B (Q5_K_M) | Trasgu-1.5B-GGUF | 79.51 | 58.51 | 79.37 | 
| Trasgu-3B (F16) | Trasgu-3B | 83.26 | 64.86 | 83.15 | 
| Trasgu-3B (Q5_K_M) | Trasgu-3B-GGUF | 82.93 | 64.04 | 82.84 | 
Entrenamiento (resumen)
- Base model: unsloth/Qwen2.5-1.5B· Framework: Unsloth (LoRA) en Google Colab
- Épocas: 3 · max_seq_length: 4096
- Optimización: paged_adamw_8bit· learning_rate: 2e-4 · lr_scheduler: linear · warmup_ratio: 0.1 · weight_decay: 0.01
- Precisión: FP16
- LoRA: r=128, α=256, dropout=0.1, bias=none; target_modules = q_proj,k_proj,v_proj,o_proj,gate_proj,up_proj,down_proj,embed_tokens,lm_head
- Gradient checkpointing: unsloth
- Quantization (para exportar a GGUF): F16 y Q5_K_M (publicados en el repo -GGUF)
- Chat template: Qwen 2.5; campos: input, output→text(+append_eos_token=true)
- Config detallada: Utils/config_entrenamiento.json
Notas
- Dominio: métricas en la distribución de lliones-dict-tr; fuera de ella, el rendimiento puede variar.
- Formato: este repo publica FP16 (PyTorch); el repo -GGUF incluye F16 y Q5_K_M.
- Downloads last month
- -
