ParamManagerScripts/backend/script_groups/OllamaTools/README.md

5.0 KiB
Raw Permalink Blame History

🦙 Ollama Model Manager

Script web para gestionar modelos de Ollama de forma sencilla e intuitiva.

🚀 Características

  • 📋 Listar modelos: Ve todos los modelos instalados con información detallada
  • 📥 Descargar modelos: Descarga nuevos modelos desde la interfaz web
  • 🗑️ Eliminar modelos: Elimina modelos que ya no necesites
  • Información detallada: Ve información completa de cada modelo
  • 💾 Monitoreo de espacio: Controla cuánto espacio ocupan tus modelos
  • 🔄 Estado en tiempo real: Verifica el estado de conexión con Ollama
  • 🔴 Cierre elegante: Botón para cerrar la aplicación y la página web

📋 Requisitos

  1. Ollama instalado y ejecutándose

    # Instalar Ollama (si no está instalado)
    curl -fsSL https://ollama.ai/install.sh | sh
    
    # Iniciar Ollama
    ollama serve
    
  2. Python 3.7+ con las siguientes librerías:

    pip install flask requests
    

🏃‍♂️ Uso Rápido

  1. Ejecutar el script:

    python manager.py
    
  2. Abrir navegador: El script abrirá automáticamente tu navegador en http://127.0.0.1:PUERTO

  3. ¡Listo! Ya puedes gestionar tus modelos de Ollama

⚙️ Configuración

El script puede usar un archivo script_config.json opcional para personalizar su comportamiento:

{
    "ollama_host": "http://localhost:11434",
    "auto_open_browser": true,
    "level1": {
        "default_models": ["llama3.2", "mistral", "codellama"],
        "recommended_models": {
            "llama3.2": "Modelo general de Meta",
            "mistral": "Modelo rápido y eficiente",
            "codellama": "Especializado en programación"
        }
    }
}

Parámetros de configuración:

  • ollama_host: URL del servidor Ollama (por defecto: http://localhost:11434)
  • auto_open_browser: Abrir navegador automáticamente (por defecto: true)
  • recommended_models: Lista de modelos recomendados con descripciones

🔧 Integración con el Sistema Principal

Este script está diseñado para integrarse con el sistema ParamManagerScripts:

  1. Colocar en directorio de proyectos: El script se puede colocar en cualquier proyecto del launcher
  2. Ejecutar como script web: Usar el endpoint execute-python-web-script del frontend principal
  3. Configuración automática: Si está en el sistema principal, carga configuración automáticamente

📖 API Endpoints

El script expone los siguientes endpoints:

  • GET / - Interfaz web principal
  • GET /api/status - Estado de conexión con Ollama
  • GET /api/models - Lista de modelos instalados
  • GET /api/models/<name>/info - Información detallada de un modelo
  • POST /api/models/pull - Descargar un modelo
  • DELETE /api/models/<name> - Eliminar un modelo
  • POST /_shutdown - Cerrar la aplicación (uso interno)

🎨 Interfaz Web

La interfaz incluye:

  • Panel de estado: Muestra si Ollama está conectado y estadísticas generales
  • Botón de cierre: Permite cerrar la aplicación de forma elegante
  • Barra de acciones: Campo para descargar nuevos modelos y botón de actualización
  • Grid de modelos: Tarjetas con información de cada modelo instalado
  • Modal de información: Detalles completos del modelo (licencia, parámetros, template)
  • Mensajes: Notificaciones de éxito y error

🔍 Modelos Recomendados

Para uso general:

  • llama3.2 - Modelo versátil de Meta, excelente para conversaciones
  • mistral - Rápido y eficiente, bueno para tareas generales
  • gemma2 - De Google, bueno para análisis y razonamiento

Para programación:

  • codellama - Especializado en código y programación
  • deepseek-coder - Excelente para tareas de desarrollo

Para recursos limitados:

  • phi3 - Modelo compacto de Microsoft
  • tinyllama - Muy pequeño, ideal para pruebas

Multilingüe:

  • qwen2.5 - Excelente soporte para español y otros idiomas

🐛 Solución de Problemas

Ollama no se conecta

# Verificar que Ollama esté ejecutándose
ollama serve

# Verificar modelos instalados
ollama list

Error de puerto ocupado

El script encuentra automáticamente un puerto libre. Si hay problemas, reinicia el script.

Descarga lenta de modelos

Las descargas pueden tardar varios minutos dependiendo del tamaño del modelo y la velocidad de internet. Los modelos grandes (>7B parámetros) pueden ocupar varios GB.

📝 Logs y Debug

Para activar logs detallados, modifica script_config.json:

{
    "level3": {
        "debug_mode": true,
        "log_api_calls": true
    }
}

🤝 Contribuir

Este script es parte del sistema ParamManagerScripts. Para mejoras o reportar problemas:

  1. Crea un issue describiendo el problema o mejora
  2. Si es un bug, incluye logs y pasos para reproducir
  3. Para nuevas características, explica el caso de uso

📄 Licencia

Este script es parte del proyecto ParamManagerScripts y sigue la misma licencia del proyecto principal.


¡Disfruta gestionando tus modelos de Ollama! 🦙