Ollama consolidó como standard para LLMs locales. Features 2024, models catalog, integración apps y cuándo usar vs vLLM.
Leer másEtiqueta: ollama
Cómo instalar Ollama en macOS con Apple Silicon
Instalar Ollama en un Mac con Apple Silicon, elegir el modelo adecuado según la RAM disponible y exponer la API local para integrarla con tus aplicaciones.
Leer másLM Studio: explorar modelos de IA desde el escritorio
LM Studio convierte cualquier portátil moderno en laboratorio de LLMs locales. Para quién es y cuándo supera a Ollama u OpenWebUI.
Leer másCómo instalar Ollama para ejecutar LLM en tu ordenador
Ollama hace trivial ejecutar modelos como Llama 2 o Mistral en local. Instalación en macOS, Linux y Windows, y una lectura honesta de qué se puede y qué no en agosto de 2023.
Leer más