Aplicativo Ollama Local AI Simplifica Uso no MacOS
19 de Maio de 2025
PaulMartínez
0
Se você está procurando manter seus dados privados e evitar alimentar perfis de terceiros ou conjuntos de treinamento, usar uma IA instalada localmente para sua pesquisa é uma jogada inteligente. Tenho usado o Ollama de código aberto no meu sistema Linux, aprimorado com uma extensão de navegador útil para uma experiência mais suave. Mas quando mudo para o meu MacOS, opto por um aplicativo simples e gratuito chamado Msty.
Além disso: Como transformar o Ollama de uma ferramenta de terminal em uma IA baseada em navegador com esta extensão gratuita
Msty é versátil, permitindo que você acesse tanto modelos de IA instalados localmente quanto online. Pessoalmente, fico com a opção local para máxima privacidade. O que diferencia o Msty de outras ferramentas Ollama é sua simplicidade - não há necessidade de contêineres, terminais ou abas adicionais de navegador.
O aplicativo está cheio de recursos que o tornam fácil de usar. Você pode executar várias consultas simultaneamente com chats divididos, regenerar respostas do modelo, clonar chats e até adicionar vários modelos. Há invocação de dados em tempo real (embora seja específico do modelo), e você pode criar Pilhas de Conhecimento para treinar seu modelo local com arquivos, pastas, cofres do Obsidian, notas e muito mais. Além disso, há uma biblioteca de prompts para ajudá-lo a obter o máximo de suas consultas.
Msty é, sem dúvida, uma das melhores maneiras de interagir com o Ollama. Aqui está como você pode começar:
Instalando o Msty
O que você precisará: Apenas um dispositivo MacOS e o Ollama instalado e em execução. Se você ainda não configurou o Ollama, siga os passos aqui. Não se esqueça de baixar um modelo local também.
Baixar o Instalador
Vá ao site do Msty, clique no menu suspenso Baixar Msty, escolha Mac e depois selecione Apple Silicon ou Intel, dependendo do seu dispositivo.
Instalar o Msty
Quando o download terminar, clique duas vezes no arquivo e arraste o ícone do Msty para a pasta Aplicativos quando solicitado.
Usando o Msty
Abrir o Msty
Inicie o Msty a partir do Launchpad no seu MacOS.
Conectar seu Modelo Ollama Local
Quando você abrir o Msty pela primeira vez, clique em Configurar IA Local. Ele baixará os componentes necessários e configurará tudo para você, incluindo o download de um modelo local além do Ollama.
Para vincular o Msty com o Ollama, navegue até Modelos de IA Local na barra lateral e clique no botão de download ao lado do Llama 3.2. Após o download, selecione-o no menu suspenso de modelos. Para outros modelos, você precisará de uma chave de API da sua conta para esse modelo específico. Agora, o Msty deve estar conectado ao seu LLM Ollama local.

Prefiro ficar com o modelo local do Ollama para minhas consultas.
Instruções do Modelo
Um dos meus recursos favoritos no Msty é a capacidade de personalizar as instruções do modelo. Se você precisa que a IA atue como médico, escritor, contador, antropólogo alienígena ou conselheiro artístico, o Msty tem você coberto.
Para ajustar as instruções do modelo, clique em Editar Instruções do Modelo no centro do aplicativo, depois clique no pequeno botão de chat à esquerda do ícone da vassoura. No menu pop-up, escolha as instruções que deseja e clique em "Aplicar a este chat" antes de executar sua primeira consulta.

Há muitas instruções de modelo para escolher, ajudando você a refinar suas consultas para necessidades específicas.
Este guia deve ajudá-lo a começar a usar o Msty rapidamente. Comece com o básico e, à medida que se sentir mais confortável com o aplicativo, explore seus recursos mais avançados. É uma ferramenta poderosa que pode realmente melhorar sua experiência com IA local no MacOS.
Artigo relacionado
Impacto da IA nos Empregos e Economia Global: Perspectiva de Negócios
No mundo atual, acelerado, o cenário empresarial global está sendo remodelado por uma variedade de tendências econômicas e sociais. Desde os efeitos sutis da inteligência artificia
Criação de Miniatura Impulsionada por IA: Estilo YouTube do MrBeast
Criar miniaturas atraentes para o YouTube é essencial se você quer atrair espectadores e aumentar a taxa de cliques do seu vídeo. Inspirar-se no MrBeast pode realmente dar um impul
Contratos Gerados por IA: Decisão Inteligente ou Arriscada?
AI e Contratos Empresariais: Navegando pela Nova FronteiraNo ambiente empresarial atual, rápido e competitivo, eficiência e custo-benefício são mais cruciais do que nunca. A Inteli
Comentários (0)
0/200






Se você está procurando manter seus dados privados e evitar alimentar perfis de terceiros ou conjuntos de treinamento, usar uma IA instalada localmente para sua pesquisa é uma jogada inteligente. Tenho usado o Ollama de código aberto no meu sistema Linux, aprimorado com uma extensão de navegador útil para uma experiência mais suave. Mas quando mudo para o meu MacOS, opto por um aplicativo simples e gratuito chamado Msty.
Além disso: Como transformar o Ollama de uma ferramenta de terminal em uma IA baseada em navegador com esta extensão gratuita
Msty é versátil, permitindo que você acesse tanto modelos de IA instalados localmente quanto online. Pessoalmente, fico com a opção local para máxima privacidade. O que diferencia o Msty de outras ferramentas Ollama é sua simplicidade - não há necessidade de contêineres, terminais ou abas adicionais de navegador.
O aplicativo está cheio de recursos que o tornam fácil de usar. Você pode executar várias consultas simultaneamente com chats divididos, regenerar respostas do modelo, clonar chats e até adicionar vários modelos. Há invocação de dados em tempo real (embora seja específico do modelo), e você pode criar Pilhas de Conhecimento para treinar seu modelo local com arquivos, pastas, cofres do Obsidian, notas e muito mais. Além disso, há uma biblioteca de prompts para ajudá-lo a obter o máximo de suas consultas.
Msty é, sem dúvida, uma das melhores maneiras de interagir com o Ollama. Aqui está como você pode começar:
Instalando o Msty
O que você precisará: Apenas um dispositivo MacOS e o Ollama instalado e em execução. Se você ainda não configurou o Ollama, siga os passos aqui. Não se esqueça de baixar um modelo local também.
Baixar o Instalador
Vá ao site do Msty, clique no menu suspenso Baixar Msty, escolha Mac e depois selecione Apple Silicon ou Intel, dependendo do seu dispositivo.
Instalar o Msty
Quando o download terminar, clique duas vezes no arquivo e arraste o ícone do Msty para a pasta Aplicativos quando solicitado.
Usando o Msty
Abrir o Msty
Inicie o Msty a partir do Launchpad no seu MacOS.
Conectar seu Modelo Ollama Local
Quando você abrir o Msty pela primeira vez, clique em Configurar IA Local. Ele baixará os componentes necessários e configurará tudo para você, incluindo o download de um modelo local além do Ollama.
Para vincular o Msty com o Ollama, navegue até Modelos de IA Local na barra lateral e clique no botão de download ao lado do Llama 3.2. Após o download, selecione-o no menu suspenso de modelos. Para outros modelos, você precisará de uma chave de API da sua conta para esse modelo específico. Agora, o Msty deve estar conectado ao seu LLM Ollama local.
Prefiro ficar com o modelo local do Ollama para minhas consultas.
Instruções do Modelo
Um dos meus recursos favoritos no Msty é a capacidade de personalizar as instruções do modelo. Se você precisa que a IA atue como médico, escritor, contador, antropólogo alienígena ou conselheiro artístico, o Msty tem você coberto.
Para ajustar as instruções do modelo, clique em Editar Instruções do Modelo no centro do aplicativo, depois clique no pequeno botão de chat à esquerda do ícone da vassoura. No menu pop-up, escolha as instruções que deseja e clique em "Aplicar a este chat" antes de executar sua primeira consulta.
Há muitas instruções de modelo para escolher, ajudando você a refinar suas consultas para necessidades específicas.
Este guia deve ajudá-lo a começar a usar o Msty rapidamente. Comece com o básico e, à medida que se sentir mais confortável com o aplicativo, explore seus recursos mais avançados. É uma ferramenta poderosa que pode realmente melhorar sua experiência com IA local no MacOS.












