ParamManagerScripts/backend/script_groups/OllamaTools/README.md

160 lines
5.0 KiB
Markdown
Raw Permalink Blame History

This file contains invisible Unicode characters

This file contains invisible Unicode characters that are indistinguishable to humans but may be processed differently by a computer. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

# 🦙 Ollama Model Manager
Script web para gestionar modelos de Ollama de forma sencilla e intuitiva.
## 🚀 Características
- **📋 Listar modelos**: Ve todos los modelos instalados con información detallada
- **📥 Descargar modelos**: Descarga nuevos modelos desde la interfaz web
- **🗑️ Eliminar modelos**: Elimina modelos que ya no necesites
- ** Información detallada**: Ve información completa de cada modelo
- **💾 Monitoreo de espacio**: Controla cuánto espacio ocupan tus modelos
- **🔄 Estado en tiempo real**: Verifica el estado de conexión con Ollama
- **🔴 Cierre elegante**: Botón para cerrar la aplicación y la página web
## 📋 Requisitos
1. **Ollama instalado y ejecutándose**
```bash
# Instalar Ollama (si no está instalado)
curl -fsSL https://ollama.ai/install.sh | sh
# Iniciar Ollama
ollama serve
```
2. **Python 3.7+** con las siguientes librerías:
```bash
pip install flask requests
```
## 🏃‍♂️ Uso Rápido
1. **Ejecutar el script**:
```bash
python manager.py
```
2. **Abrir navegador**: El script abrirá automáticamente tu navegador en `http://127.0.0.1:PUERTO`
3. **¡Listo!** Ya puedes gestionar tus modelos de Ollama
## ⚙️ Configuración
El script puede usar un archivo `script_config.json` opcional para personalizar su comportamiento:
```json
{
"ollama_host": "http://localhost:11434",
"auto_open_browser": true,
"level1": {
"default_models": ["llama3.2", "mistral", "codellama"],
"recommended_models": {
"llama3.2": "Modelo general de Meta",
"mistral": "Modelo rápido y eficiente",
"codellama": "Especializado en programación"
}
}
}
```
### Parámetros de configuración:
- `ollama_host`: URL del servidor Ollama (por defecto: `http://localhost:11434`)
- `auto_open_browser`: Abrir navegador automáticamente (por defecto: `true`)
- `recommended_models`: Lista de modelos recomendados con descripciones
## 🔧 Integración con el Sistema Principal
Este script está diseñado para integrarse con el sistema ParamManagerScripts:
1. **Colocar en directorio de proyectos**: El script se puede colocar en cualquier proyecto del launcher
2. **Ejecutar como script web**: Usar el endpoint `execute-python-web-script` del frontend principal
3. **Configuración automática**: Si está en el sistema principal, carga configuración automáticamente
## 📖 API Endpoints
El script expone los siguientes endpoints:
- `GET /` - Interfaz web principal
- `GET /api/status` - Estado de conexión con Ollama
- `GET /api/models` - Lista de modelos instalados
- `GET /api/models/<name>/info` - Información detallada de un modelo
- `POST /api/models/pull` - Descargar un modelo
- `DELETE /api/models/<name>` - Eliminar un modelo
- `POST /_shutdown` - Cerrar la aplicación (uso interno)
## 🎨 Interfaz Web
La interfaz incluye:
- **Panel de estado**: Muestra si Ollama está conectado y estadísticas generales
- **Botón de cierre**: Permite cerrar la aplicación de forma elegante
- **Barra de acciones**: Campo para descargar nuevos modelos y botón de actualización
- **Grid de modelos**: Tarjetas con información de cada modelo instalado
- **Modal de información**: Detalles completos del modelo (licencia, parámetros, template)
- **Mensajes**: Notificaciones de éxito y error
## 🔍 Modelos Recomendados
### Para uso general:
- **llama3.2** - Modelo versátil de Meta, excelente para conversaciones
- **mistral** - Rápido y eficiente, bueno para tareas generales
- **gemma2** - De Google, bueno para análisis y razonamiento
### Para programación:
- **codellama** - Especializado en código y programación
- **deepseek-coder** - Excelente para tareas de desarrollo
### Para recursos limitados:
- **phi3** - Modelo compacto de Microsoft
- **tinyllama** - Muy pequeño, ideal para pruebas
### Multilingüe:
- **qwen2.5** - Excelente soporte para español y otros idiomas
## 🐛 Solución de Problemas
### Ollama no se conecta
```bash
# Verificar que Ollama esté ejecutándose
ollama serve
# Verificar modelos instalados
ollama list
```
### Error de puerto ocupado
El script encuentra automáticamente un puerto libre. Si hay problemas, reinicia el script.
### Descarga lenta de modelos
Las descargas pueden tardar varios minutos dependiendo del tamaño del modelo y la velocidad de internet. Los modelos grandes (>7B parámetros) pueden ocupar varios GB.
## 📝 Logs y Debug
Para activar logs detallados, modifica `script_config.json`:
```json
{
"level3": {
"debug_mode": true,
"log_api_calls": true
}
}
```
## 🤝 Contribuir
Este script es parte del sistema ParamManagerScripts. Para mejoras o reportar problemas:
1. Crea un issue describiendo el problema o mejora
2. Si es un bug, incluye logs y pasos para reproducir
3. Para nuevas características, explica el caso de uso
## 📄 Licencia
Este script es parte del proyecto ParamManagerScripts y sigue la misma licencia del proyecto principal.
---
**¡Disfruta gestionando tus modelos de Ollama! 🦙✨**