Proyecto de prueba

Local LLM Chat

Interfaz mínima para probar un modelo local con Ollama en tu servidor.

Listo para preparar el modelo.

Respuesta

La respuesta aparecerá aquí.