PyTorch
Spanish
qwen2

Trasgu Banner

Trasgu-3B — llionés (Qwen2.5 + Unsloth, FP16 · PyTorch)

Trasgu Logo

Finetuning de Qwen2.5-3B con Unsloth en Google Colab, entrenado y evaluado con el dataset
unileon-robotics/lliones-dict-tr (pares input→output).
Este repositorio publica pesos FP16 en formato Transformers (PyTorch).
La variante GGUF (incluye F16 y Q5_K_M) está en Trasgu-3B-GGUF.


Descripción

Trasgu-3B es un modelo conversacional en llionés (leonés). Se ha realizado finetuning supervisado sobre pares input→output de lliones-dict-tr.
Al tratarse de datos estructurados, la señal es explícita y permite evaluación objetiva en la misma distribución de tareas.


Archivos de utilidad

  • Banner: Utils/Banner-Trasgu.PNG
  • Logo: Utils/Logo-Trasgu.png
  • Training notebook: Utils/Training_Notebook.ipynb
  • Testing notebook (evaluación): Utils/Testing_Notebook.ipynb
  • Configuración de entrenamiento (hiperparámetros y chat template): Utils/config_entrenamiento.json

Dataset

  • Principal (entrenamiento/evaluación): unileon-robotics/lliones-dict-trdataset estructurado de pares input–output (traducciones, vocabulario, significados llionés↔español).
    Cada ejemplo se formatea como turno de chat con la chat template de Qwen 2.5 (instrucción → respuesta) antes del finetuning.
  • Corpus adicional (no usado en el finetuning): unileon-robotics/lliones-corpus — texto no estructurado en llionés. No se utilizó aquí por no aportar señal supervisada como lliones-dict-tr, pero queda disponible para quien lo necesite.

Metodología de evaluación

Para cada ejemplo del dataset (N = 3000):

  1. Se consulta el modelo con la entrada (instrucción/pregunta).
  2. Se compara la salida con la respuesta de referencia mediante dos medidas (0–100):

Puntuación final por ejemplo: score_ejemplo = max(fuzzy, semantic)
Agregados: mean_fuzzy, mean_semantic y mean_similarity (media de score_ejemplo, métrica final).


Resultados (todas las variantes · 3.000 ejemplos)

Este repositorio corresponde a: Trasgu-3B (F16).
Las variantes -GGUF contienen dos artefactos: F16 y Q5_K_M.

Modelo / Cuantización Repositorio mean_similarity (final) mean_fuzzy mean_semantic
Trasgu-0.5B (F16) Trasgu-0.5B 77.01 55.21 76.86
Trasgu-0.5B (Q5_K_M) Trasgu-0.5B-GGUF 77.10 55.16 76.94
Trasgu-1.5B (F16) Trasgu-1.5B 79.50 58.48 79.39
Trasgu-1.5B (Q5_K_M) Trasgu-1.5B-GGUF 79.51 58.51 79.37
Trasgu-3B (F16) Trasgu-3B 83.26 64.86 83.15
Trasgu-3B (Q5_K_M) Trasgu-3B-GGUF 82.93 64.04 82.84

Entrenamiento (resumen)

  • Base model: unsloth/Qwen2.5-3B · Framework: Unsloth (LoRA) en Google Colab
  • Épocas: 3 · max_seq_length: 4096
  • Optimización: paged_adamw_8bit · learning_rate: 2e-4 · lr_scheduler: linear · warmup_ratio: 0.1 · weight_decay: 0.01
  • Precisión: FP16
  • LoRA: r=128, α=256, dropout=0.1, bias=none; target_modules = q_proj,k_proj,v_proj,o_proj,gate_proj,up_proj,down_proj,embed_tokens,lm_head
  • Gradient checkpointing: unsloth
  • Quantization (para exportar a GGUF): F16 y Q5_K_M (publicados en el repo -GGUF)
  • Chat template: Qwen 2.5; campos: input, outputtext (+ append_eos_token=true)
  • Config detallada: Utils/config_entrenamiento.json

Notas

  • Dominio: métricas en la distribución de lliones-dict-tr; fuera de ella, el rendimiento puede variar.
  • Idioma: orientado a llionés; si la instrucción es ambigua puede responder en español.
  • Formato: este repo publica FP16 (PyTorch); el repo -GGUF incluye F16 y Q5_K_M.
Downloads last month
2
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for unileon-robotics/Trasgu-3B

Base model

Qwen/Qwen2.5-3B
Finetuned
unsloth/Qwen2.5-3B
Finetuned
(35)
this model
Quantizations
1 model

Dataset used to train unileon-robotics/Trasgu-3B

Collection including unileon-robotics/Trasgu-3B