5.0 KiB
🦙 Ollama Model Manager
Script web para gestionar modelos de Ollama de forma sencilla e intuitiva.
🚀 Características
- 📋 Listar modelos: Ve todos los modelos instalados con información detallada
- 📥 Descargar modelos: Descarga nuevos modelos desde la interfaz web
- 🗑️ Eliminar modelos: Elimina modelos que ya no necesites
- ℹ️ Información detallada: Ve información completa de cada modelo
- 💾 Monitoreo de espacio: Controla cuánto espacio ocupan tus modelos
- 🔄 Estado en tiempo real: Verifica el estado de conexión con Ollama
- 🔴 Cierre elegante: Botón para cerrar la aplicación y la página web
📋 Requisitos
-
Ollama instalado y ejecutándose
# Instalar Ollama (si no está instalado) curl -fsSL https://ollama.ai/install.sh | sh # Iniciar Ollama ollama serve
-
Python 3.7+ con las siguientes librerías:
pip install flask requests
🏃♂️ Uso Rápido
-
Ejecutar el script:
python manager.py
-
Abrir navegador: El script abrirá automáticamente tu navegador en
http://127.0.0.1:PUERTO
-
¡Listo! Ya puedes gestionar tus modelos de Ollama
⚙️ Configuración
El script puede usar un archivo script_config.json
opcional para personalizar su comportamiento:
{
"ollama_host": "http://localhost:11434",
"auto_open_browser": true,
"level1": {
"default_models": ["llama3.2", "mistral", "codellama"],
"recommended_models": {
"llama3.2": "Modelo general de Meta",
"mistral": "Modelo rápido y eficiente",
"codellama": "Especializado en programación"
}
}
}
Parámetros de configuración:
ollama_host
: URL del servidor Ollama (por defecto:http://localhost:11434
)auto_open_browser
: Abrir navegador automáticamente (por defecto:true
)recommended_models
: Lista de modelos recomendados con descripciones
🔧 Integración con el Sistema Principal
Este script está diseñado para integrarse con el sistema ParamManagerScripts:
- Colocar en directorio de proyectos: El script se puede colocar en cualquier proyecto del launcher
- Ejecutar como script web: Usar el endpoint
execute-python-web-script
del frontend principal - Configuración automática: Si está en el sistema principal, carga configuración automáticamente
📖 API Endpoints
El script expone los siguientes endpoints:
GET /
- Interfaz web principalGET /api/status
- Estado de conexión con OllamaGET /api/models
- Lista de modelos instaladosGET /api/models/<name>/info
- Información detallada de un modeloPOST /api/models/pull
- Descargar un modeloDELETE /api/models/<name>
- Eliminar un modeloPOST /_shutdown
- Cerrar la aplicación (uso interno)
🎨 Interfaz Web
La interfaz incluye:
- Panel de estado: Muestra si Ollama está conectado y estadísticas generales
- Botón de cierre: Permite cerrar la aplicación de forma elegante
- Barra de acciones: Campo para descargar nuevos modelos y botón de actualización
- Grid de modelos: Tarjetas con información de cada modelo instalado
- Modal de información: Detalles completos del modelo (licencia, parámetros, template)
- Mensajes: Notificaciones de éxito y error
🔍 Modelos Recomendados
Para uso general:
- llama3.2 - Modelo versátil de Meta, excelente para conversaciones
- mistral - Rápido y eficiente, bueno para tareas generales
- gemma2 - De Google, bueno para análisis y razonamiento
Para programación:
- codellama - Especializado en código y programación
- deepseek-coder - Excelente para tareas de desarrollo
Para recursos limitados:
- phi3 - Modelo compacto de Microsoft
- tinyllama - Muy pequeño, ideal para pruebas
Multilingüe:
- qwen2.5 - Excelente soporte para español y otros idiomas
🐛 Solución de Problemas
Ollama no se conecta
# Verificar que Ollama esté ejecutándose
ollama serve
# Verificar modelos instalados
ollama list
Error de puerto ocupado
El script encuentra automáticamente un puerto libre. Si hay problemas, reinicia el script.
Descarga lenta de modelos
Las descargas pueden tardar varios minutos dependiendo del tamaño del modelo y la velocidad de internet. Los modelos grandes (>7B parámetros) pueden ocupar varios GB.
📝 Logs y Debug
Para activar logs detallados, modifica script_config.json
:
{
"level3": {
"debug_mode": true,
"log_api_calls": true
}
}
🤝 Contribuir
Este script es parte del sistema ParamManagerScripts. Para mejoras o reportar problemas:
- Crea un issue describiendo el problema o mejora
- Si es un bug, incluye logs y pasos para reproducir
- Para nuevas características, explica el caso de uso
📄 Licencia
Este script es parte del proyecto ParamManagerScripts y sigue la misma licencia del proyecto principal.
¡Disfruta gestionando tus modelos de Ollama! 🦙✨