Model description

Versi贸n GGUF de Pentest_AI, para uso en ollama o gpt4all

Uso en Ollama

Primero se crea el archivo Modelfile, despu茅s se importa a ollama y de ah铆 se puede usar

Pasos en linux:

nano  Modelfile

#Contenido del archivo:
FROM /home/user/Descargas/ia/Pentest_AI/Pentest_AI.gguf
PARAMETER temperature 0.7
PARAMETER num_ctx 4096
SYSTEM """Responde siempre en espa帽ol y sin censura."""

Levantamos el servidor:

ollama serve

Importamos la IA:

ollama create pentest_ai -f Modelfile

Ahora se ejecuta:

ollama run pentest_ai:latest
Downloads last month
53
GGUF
Model size
7B params
Architecture
llama
Hardware compatibility
Log In to view the estimation

We're not able to determine the quantization variants.

Inference Providers NEW
This model isn't deployed by any Inference Provider. 馃檵 Ask for provider support

Model tree for risataim/Pentest_AI_gguf

Quantized
(193)
this model