Aplicación Ollama Local AI Simplifica el Uso en MacOS
19 de mayo de 2025
PaulMartínez
0
Si quieres mantener tus datos privados y evitar alimentar perfiles o conjuntos de entrenamiento de terceros, usar una IA instalada localmente para tu investigación es una decisión inteligente. He estado usando Ollama de código abierto en mi sistema Linux, mejorado con una extensión de navegador útil para una experiencia más fluida. Pero cuando cambio a mi MacOS, opto por una aplicación gratuita y directa llamada Msty.
También: Cómo convertir Ollama de una herramienta de terminal en una IA basada en navegador con esta extensión gratuita
Msty es versátil, permitiéndote acceder tanto a modelos de IA instalados localmente como en línea. Personalmente, me mantengo con la opción local para máxima privacidad. Lo que distingue a Msty de otras herramientas de Ollama es su simplicidad: no necesitas contenedores, terminales ni pestañas adicionales del navegador.
La aplicación está llena de funciones que la hacen muy fácil de usar. Puedes ejecutar múltiples consultas simultáneamente con chats divididos, regenerar respuestas del modelo, clonar chats e incluso agregar múltiples modelos. Hay una invocación de datos en tiempo real (aunque es específica del modelo), y puedes crear Knowledge Stacks para entrenar tu modelo local con archivos, carpetas, bóvedas de Obsidian, notas y más. Además, hay una biblioteca de prompts para ayudarte a sacar el máximo provecho de tus consultas.
Msty es, sin duda, una de las mejores formas de interactuar con Ollama. Aquí te explico cómo empezar:
Instalación de Msty
Lo que necesitarás: Solo un dispositivo MacOS y Ollama instalado y en funcionamiento. Si aún no has configurado Ollama, sigue los pasos aquí. No olvides descargar también un modelo local.
Descarga el instalador
Ve al sitio web de Msty, haz clic en el menú desplegable Descargar Msty, elige Mac y luego selecciona Silicon de Apple o Intel según tu dispositivo.
Instala Msty
Una vez que termine la descarga, haz doble clic en el archivo y arrastra el icono de Msty a la carpeta de Aplicaciones cuando se te pida.
Uso de Msty
Abre Msty
Lanza Msty desde el Launchpad en tu MacOS.
Conecta tu modelo local de Ollama
Cuando abras Msty por primera vez, haz clic en Configurar IA local. Descargará los componentes necesarios y configurará todo por ti, incluido la descarga de un modelo local diferente de Ollama.
Para vincular Msty con Ollama, ve a Modelos de IA local en la barra lateral y haz clic en el botón de descarga junto a Llama 3.2. Después de que se haya descargado, selecciónalo del menú desplegable de modelos. Para otros modelos, necesitarás una clave de API de tu cuenta para ese modelo específico. Ahora Msty debería estar conectado a tu LLM local de Ollama.

Prefiero mantenerme con el modelo local de Ollama para mis consultas.
Instrucciones del modelo
Una de mis funciones favoritas en Msty es la capacidad de personalizar las instrucciones del modelo. Ya sea que necesites que la IA actúe como un médico, un escritor, un contador, un antropólogo alienígena o un asesor artístico, Msty te tiene cubierto.
Para ajustar las instrucciones del modelo, haz clic en Editar instrucciones del modelo en el centro de la aplicación, luego presiona el pequeño botón de chat a la izquierda del icono de la escoba. Desde el menú emergente, elige las instrucciones que deseas y haz clic en "Aplicar a este chat" antes de ejecutar tu primera consulta.

Hay muchas instrucciones de modelo para elegir, ayudándote a refinar tus consultas para necesidades específicas.
Esta guía debería ayudarte a comenzar rápidamente con Msty. Empieza con lo básico y, a medida que te familiarices más con la aplicación, explora sus funciones más avanzadas. Es una herramienta poderosa que puede realmente mejorar tu experiencia con IA local en MacOS.
Artículo relacionado
Las 5 Mejores Herramientas para Conversaciones Online Privadas y Anónimas
La privacidad se ha convertido en algo más que un término de moda; está profundamente arraigado en el tejido de nuestra sociedad. Pero la gran pregunta sigue siendo: ¿Están los con
Agentes de IA en TI: 60% de Tareas Diarias Reveladas
El auge de los agentes de IA en las empresasLos agentes de IA están convirtiendo en la próxima gran novedad en el mundo de la tecnología, y parece que todos quieren participar. Per
Impacto de la IA en Empleos y Economía Global: Perspectiva de Negocios
En el mundo acelerado de hoy, el panorama empresarial global está siendo remodelado por una variedad de tendencias económicas y sociales. Desde los sutiles efectos de la inteligenc
comentario (0)
0/200






Si quieres mantener tus datos privados y evitar alimentar perfiles o conjuntos de entrenamiento de terceros, usar una IA instalada localmente para tu investigación es una decisión inteligente. He estado usando Ollama de código abierto en mi sistema Linux, mejorado con una extensión de navegador útil para una experiencia más fluida. Pero cuando cambio a mi MacOS, opto por una aplicación gratuita y directa llamada Msty.
También: Cómo convertir Ollama de una herramienta de terminal en una IA basada en navegador con esta extensión gratuita
Msty es versátil, permitiéndote acceder tanto a modelos de IA instalados localmente como en línea. Personalmente, me mantengo con la opción local para máxima privacidad. Lo que distingue a Msty de otras herramientas de Ollama es su simplicidad: no necesitas contenedores, terminales ni pestañas adicionales del navegador.
La aplicación está llena de funciones que la hacen muy fácil de usar. Puedes ejecutar múltiples consultas simultáneamente con chats divididos, regenerar respuestas del modelo, clonar chats e incluso agregar múltiples modelos. Hay una invocación de datos en tiempo real (aunque es específica del modelo), y puedes crear Knowledge Stacks para entrenar tu modelo local con archivos, carpetas, bóvedas de Obsidian, notas y más. Además, hay una biblioteca de prompts para ayudarte a sacar el máximo provecho de tus consultas.
Msty es, sin duda, una de las mejores formas de interactuar con Ollama. Aquí te explico cómo empezar:
Instalación de Msty
Lo que necesitarás: Solo un dispositivo MacOS y Ollama instalado y en funcionamiento. Si aún no has configurado Ollama, sigue los pasos aquí. No olvides descargar también un modelo local.
Descarga el instalador
Ve al sitio web de Msty, haz clic en el menú desplegable Descargar Msty, elige Mac y luego selecciona Silicon de Apple o Intel según tu dispositivo.
Instala Msty
Una vez que termine la descarga, haz doble clic en el archivo y arrastra el icono de Msty a la carpeta de Aplicaciones cuando se te pida.
Uso de Msty
Abre Msty
Lanza Msty desde el Launchpad en tu MacOS.
Conecta tu modelo local de Ollama
Cuando abras Msty por primera vez, haz clic en Configurar IA local. Descargará los componentes necesarios y configurará todo por ti, incluido la descarga de un modelo local diferente de Ollama.
Para vincular Msty con Ollama, ve a Modelos de IA local en la barra lateral y haz clic en el botón de descarga junto a Llama 3.2. Después de que se haya descargado, selecciónalo del menú desplegable de modelos. Para otros modelos, necesitarás una clave de API de tu cuenta para ese modelo específico. Ahora Msty debería estar conectado a tu LLM local de Ollama.
Prefiero mantenerme con el modelo local de Ollama para mis consultas.
Instrucciones del modelo
Una de mis funciones favoritas en Msty es la capacidad de personalizar las instrucciones del modelo. Ya sea que necesites que la IA actúe como un médico, un escritor, un contador, un antropólogo alienígena o un asesor artístico, Msty te tiene cubierto.
Para ajustar las instrucciones del modelo, haz clic en Editar instrucciones del modelo en el centro de la aplicación, luego presiona el pequeño botón de chat a la izquierda del icono de la escoba. Desde el menú emergente, elige las instrucciones que deseas y haz clic en "Aplicar a este chat" antes de ejecutar tu primera consulta.
Hay muchas instrucciones de modelo para elegir, ayudándote a refinar tus consultas para necesidades específicas.
Esta guía debería ayudarte a comenzar rápidamente con Msty. Empieza con lo básico y, a medida que te familiarices más con la aplicación, explora sus funciones más avanzadas. Es una herramienta poderosa que puede realmente mejorar tu experiencia con IA local en MacOS.












