Application Ollama d'IA Locale Simplifie l'Utilisation sur MacOS
19 mai 2025
PaulMartínez
0
Si vous cherchez à garder vos données privées et à éviter de nourrir des profils tiers ou des ensembles de formation, utiliser une IA installée localement pour vos recherches est une décision judicieuse. J'utilise l'Ollama open-source sur mon système Linux, amélioré par une extension de navigateur pratique pour une expérience plus fluide. Mais quand je passe sur mon MacOS, j'opte pour une application simple et gratuite appelée Msty.
Aussi : Comment transformer Ollama d'un outil terminal en une IA basée sur le navigateur avec cette extension gratuite
Msty est polyvalent, vous permettant d'accéder à la fois à des modèles d'IA installés localement et en ligne. Personnellement, je reste sur l'option locale pour une confidentialité maximale. Ce qui distingue Msty des autres outils Ollama, c'est sa simplicité - pas besoin de conteneurs, de terminaux ou d'onglets de navigateur supplémentaires.
L'application est remplie de fonctionnalités qui la rendent facile à utiliser. Vous pouvez exécuter plusieurs requêtes simultanément avec des discussions fractionnées, régénérer les réponses du modèle, cloner des discussions et même ajouter plusieurs modèles. Il y a une invocation de données en temps réel (bien que spécifique au modèle), et vous pouvez créer des Piles de Connaissances pour entraîner votre modèle local avec des fichiers, des dossiers, des voûtes Obsidian, des notes, et plus encore. De plus, il y a une bibliothèque de prompts pour vous aider à tirer le meilleur parti de vos requêtes.
Msty est sans aucun doute l'un des meilleurs moyens d'interagir avec Ollama. Voici comment vous pouvez commencer :
Installation de Msty
Ce dont vous aurez besoin : Juste un appareil MacOS et Ollama installé et en cours d'exécution. Si vous n'avez pas encore configuré Ollama, suivez les étapes ici. N'oubliez pas de télécharger également un modèle local.
Téléchargement de l'installateur
Rendez-vous sur le site web de Msty, cliquez sur le menu déroulant Télécharger Msty, choisissez Mac, puis sélectionnez soit Apple Silicon soit Intel en fonction de votre appareil.
Installation de Msty
Une fois le téléchargement terminé, double-cliquez sur le fichier et faites glisser l'icône Msty dans le dossier Applications quand vous y êtes invité.
Utilisation de Msty
Ouvrir Msty
Lancez Msty depuis Launchpad sur votre MacOS.
Connecter votre modèle Ollama local
Quand vous ouvrez Msty pour la première fois, cliquez sur Configurer l'IA locale. Cela téléchargera les composants nécessaires et configurera tout pour vous, y compris le téléchargement d'un modèle local autre que Ollama.
Pour lier Msty avec Ollama, allez dans Modèles d'IA locaux dans la barre latérale et cliquez sur le bouton de téléchargement à côté de Llama 3.2. Une fois téléchargé, sélectionnez-le dans le menu déroulant des modèles. Pour d'autres modèles, vous aurez besoin d'une clé API de votre compte pour ce modèle spécifique. Maintenant, Msty devrait être connecté à votre LLM Ollama local.

Je préfère rester avec le modèle local Ollama pour mes requêtes.
Instructions du modèle
L'une de mes fonctionnalités préférées dans Msty est la possibilité de personnaliser les instructions du modèle. Que vous ayez besoin que l'IA agisse en tant que médecin, écrivain, comptable, anthropologue extraterrestre ou conseiller artistique, Msty vous couvre.
Pour ajuster les instructions du modèle, cliquez sur Modifier les instructions du modèle au centre de l'application, puis cliquez sur le petit bouton de discussion à gauche de l'icône du balai. Dans le menu contextuel, choisissez les instructions que vous souhaitez et cliquez sur "Appliquer à cette discussion" avant d'exécuter votre première requête.

Il y a beaucoup d'instructions de modèle à choisir, vous aidant à affiner vos requêtes pour des besoins spécifiques.
Ce guide devrait vous aider à démarrer rapidement avec Msty. Commencez par les bases et, à mesure que vous vous familiarisez avec l'application, explorez ses fonctionnalités plus avancées. C'est un outil puissant qui peut vraiment améliorer votre expérience d'IA locale sur MacOS.
Article connexe
Top 5 des outils pour des conversations en ligne privées et anonymes
La vie privée est devenue bien plus qu'un terme à la mode ; elle est profondément ancrée dans le tissu de notre société. Mais la grande question reste : les consommateurs sont-ils
Agents IA dans les départements IT : 60% des tâches quotidiennes révélées
La montée des agents IA dans les entreprisesLes agents IA deviennent le prochain grand phénomène dans le monde de la technologie, et il semble que tout le monde veuille en profiter
Impact de l'IA sur les emplois et l'économie mondiale : Perspectives commerciales
Dans le monde actuel en pleine effervescence, le paysage économique mondial est remodelé par divers courants économiques et sociétaux. De l'impact subtil de l'intelligence artifici
commentaires (0)
0/200






Si vous cherchez à garder vos données privées et à éviter de nourrir des profils tiers ou des ensembles de formation, utiliser une IA installée localement pour vos recherches est une décision judicieuse. J'utilise l'Ollama open-source sur mon système Linux, amélioré par une extension de navigateur pratique pour une expérience plus fluide. Mais quand je passe sur mon MacOS, j'opte pour une application simple et gratuite appelée Msty.
Aussi : Comment transformer Ollama d'un outil terminal en une IA basée sur le navigateur avec cette extension gratuite
Msty est polyvalent, vous permettant d'accéder à la fois à des modèles d'IA installés localement et en ligne. Personnellement, je reste sur l'option locale pour une confidentialité maximale. Ce qui distingue Msty des autres outils Ollama, c'est sa simplicité - pas besoin de conteneurs, de terminaux ou d'onglets de navigateur supplémentaires.
L'application est remplie de fonctionnalités qui la rendent facile à utiliser. Vous pouvez exécuter plusieurs requêtes simultanément avec des discussions fractionnées, régénérer les réponses du modèle, cloner des discussions et même ajouter plusieurs modèles. Il y a une invocation de données en temps réel (bien que spécifique au modèle), et vous pouvez créer des Piles de Connaissances pour entraîner votre modèle local avec des fichiers, des dossiers, des voûtes Obsidian, des notes, et plus encore. De plus, il y a une bibliothèque de prompts pour vous aider à tirer le meilleur parti de vos requêtes.
Msty est sans aucun doute l'un des meilleurs moyens d'interagir avec Ollama. Voici comment vous pouvez commencer :
Installation de Msty
Ce dont vous aurez besoin : Juste un appareil MacOS et Ollama installé et en cours d'exécution. Si vous n'avez pas encore configuré Ollama, suivez les étapes ici. N'oubliez pas de télécharger également un modèle local.
Téléchargement de l'installateur
Rendez-vous sur le site web de Msty, cliquez sur le menu déroulant Télécharger Msty, choisissez Mac, puis sélectionnez soit Apple Silicon soit Intel en fonction de votre appareil.
Installation de Msty
Une fois le téléchargement terminé, double-cliquez sur le fichier et faites glisser l'icône Msty dans le dossier Applications quand vous y êtes invité.
Utilisation de Msty
Ouvrir Msty
Lancez Msty depuis Launchpad sur votre MacOS.
Connecter votre modèle Ollama local
Quand vous ouvrez Msty pour la première fois, cliquez sur Configurer l'IA locale. Cela téléchargera les composants nécessaires et configurera tout pour vous, y compris le téléchargement d'un modèle local autre que Ollama.
Pour lier Msty avec Ollama, allez dans Modèles d'IA locaux dans la barre latérale et cliquez sur le bouton de téléchargement à côté de Llama 3.2. Une fois téléchargé, sélectionnez-le dans le menu déroulant des modèles. Pour d'autres modèles, vous aurez besoin d'une clé API de votre compte pour ce modèle spécifique. Maintenant, Msty devrait être connecté à votre LLM Ollama local.
Je préfère rester avec le modèle local Ollama pour mes requêtes.
Instructions du modèle
L'une de mes fonctionnalités préférées dans Msty est la possibilité de personnaliser les instructions du modèle. Que vous ayez besoin que l'IA agisse en tant que médecin, écrivain, comptable, anthropologue extraterrestre ou conseiller artistique, Msty vous couvre.
Pour ajuster les instructions du modèle, cliquez sur Modifier les instructions du modèle au centre de l'application, puis cliquez sur le petit bouton de discussion à gauche de l'icône du balai. Dans le menu contextuel, choisissez les instructions que vous souhaitez et cliquez sur "Appliquer à cette discussion" avant d'exécuter votre première requête.
Il y a beaucoup d'instructions de modèle à choisir, vous aidant à affiner vos requêtes pour des besoins spécifiques.
Ce guide devrait vous aider à démarrer rapidement avec Msty. Commencez par les bases et, à mesure que vous vous familiarisez avec l'application, explorez ses fonctionnalités plus avancées. C'est un outil puissant qui peut vraiment améliorer votre expérience d'IA locale sur MacOS.












