hosting, entrenamiento, despliegue y comunidad Runtime para ejecutar modelos LLM en tu máquina Modelos disponibles +500k modelos (LLM, visión, audio, multimodal, embeddings, etc.) Enfocado en LLMs populares (Llama, Mistral, Gemma, Phi, etc.) Facilidad de uso APIs, SDKs en Python, integración con PyTorch, TensorFlow y Transformers Instalar cliente y usar comandos ollama run <modelo> Y su propia API local