Modelo de Análisis de Sentimiento IMDb - DistilBERT

Este modelo ha sido entrenado para la tarea de análisis de sentimiento sobre reseñas de películas del dataset IMDb.

Arquitectura

  • Modelo base: distilbert-base-uncased (de Hugging Face Transformers)
  • Tarea: Clasificación binaria (positivo/negativo)
  • Tokenizador: DistilBERT uncased

Datos de entrenamiento

  • Dataset: IMDb (25,000 reseñas de películas)
  • Split: 60% entrenamiento, 40% validación
  • Test: 25,000 ejemplos (conjunto original de test)

Proceso de entrenamiento

  • Épocas: 3
  • Batch size: 16
  • Optimización: AdamW, weight decay 0.01
  • Warmup steps: 500
  • Métricas: Accuracy, F1, Precision, Recall
  • Hardware: Entrenado en GPU (NVIDIA GeForce GTX 960M)

Uso

Puedes cargar este modelo con Hugging Face Transformers:

from transformers import AutoTokenizer, AutoModelForSequenceClassification

tokenizer = AutoTokenizer.from_pretrained("juancmamacias/jd-jcms")
model = AutoModelForSequenceClassification.from_pretrained("juancmamacias/jd-jcms")

Autor

Notas

  • El modelo es adecuado para tareas de análisis de sentimiento en inglés.
Downloads last month
4
Safetensors
Model size
67M params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for juancmamacias/jd-jcms

Finetuned
(9163)
this model

Space using juancmamacias/jd-jcms 1