Proyecto de prueba
Local LLM Chat
Interfaz mínima para probar un modelo local con Ollama en tu servidor.
Listo para preparar el modelo.
Respuesta
La respuesta aparecerá aquí.
Proyecto de prueba
Interfaz mínima para probar un modelo local con Ollama en tu servidor.
La respuesta aparecerá aquí.