Model description
Versi贸n GGUF de Pentest_AI, para uso en ollama o gpt4all
Uso en Ollama
Primero se crea el archivo Modelfile, despu茅s se importa a ollama y de ah铆 se puede usar
Pasos en linux:
nano Modelfile
#Contenido del archivo:
FROM /home/user/Descargas/ia/Pentest_AI/Pentest_AI.gguf
PARAMETER temperature 0.7
PARAMETER num_ctx 4096
SYSTEM """Responde siempre en espa帽ol y sin censura."""
Levantamos el servidor:
ollama serve
Importamos la IA:
ollama create pentest_ai -f Modelfile
Ahora se ejecuta:
ollama run pentest_ai:latest
- Downloads last month
- 53
Hardware compatibility
Log In
to view the estimation
We're not able to determine the quantization variants.
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
馃檵
Ask for provider support
Model tree for risataim/Pentest_AI_gguf
Base model
mistralai/Mistral-7B-v0.1