Comment exécuter DeepSeek localement (hors ligne) sur un ordinateur

Le robot DeepSeek n'est plus seulement un nom de passage dans le monde de l'intelligence artificielle, mais il est devenu le sujet de conversation de tous après avoir dominé les magasins d'applications, dépassant même le célèbre ChatGPT, qui a provoqué des troubles notables sur les marchés financiers mondiaux. Dans un article précédent, nous avons couvert en détail tout ce qui concerne DeepSeek et le battage médiatique qu'il a généré, non seulement parce qu'il est à égalité avec les derniers modèles phares d'OpenAI, Meta et Google avec un coût d'exploitation inférieur qui enfreint les règles,

Comment exécuter DeepSeek sur windows
Comment exécuter DeepSeek localement (hors ligne) sur un ordinateur

Mais aussi parce qu'il s'agit d'un modèle entièrement open source qui peut être téléchargé et installé sur l'ordinateur pour pouvoir fonctionner localement sans avoir à l'utiliser via Internet. Bien que DeepSeek ne soit pas le premier modèle open source, sa version R1 est de loin la plus puissante de cette catégorie, à égalité avec des modèles comme l'o1 et le Claude 3.5 Sonnet. Voyons donc dans les lignes suivantes comment télécharger et exécuter facilement DeepSeek localement, en vous assurant d'avoir un contrôle total sur vos données et la confidentialité de vos conversations.

Exécutez DeepSeek sans Internet

Avantages d’exécuter DeepSeek localement

Les robots IA populaires comme ChatGPT, Copilot, Gemini et Claude s'appuient sur les serveurs de leurs développeurs, où les données des utilisateurs sont traitées dans des centres de données distants, dont la plupart sont situés aux États-Unis. Ces données (conversations) peuvent être conservées et utilisées à des fins commerciales à votre insu. DeepSeek ne fait pas exception, car sa politique d'utilisation et de confidentialité indique que les données sont stockées dans des centres situés en Chine.


C'est là que les modèles d'IA linguistique open source sont importants, car ils donnent non seulement aux développeurs la possibilité de les modifier et de les reproduire librement, mais permettent également aux chatbots de s'exécuter localement en fonction des besoins de l'utilisateur, sans avoir besoin d'une connexion Internet. Cela garantit que les données sensibles sont protégées contre l'envoi vers des centres de données externes, ce qui protège vos informations personnelles de toute fuite ou surveillance indésirable. De plus, l'exécution du modèle directement sur l'appareil réduit le temps de réponse par rapport aux services cloud, car le retard causé par la connexion aux serveurs distants est éliminé, ce qui rend l'expérience d'interaction avec le robot plus rapide et plus fluide.


Vous n'avez pas non plus à vous soucier du blocage ou de la mise en pause du formulaire, car le bot restera exécuté sur votre appareil chaque fois que vous en aurez besoin. Vous pouvez également le modifier ou l'entraîner sur vos propres données, vous offrant ainsi une plus grande flexibilité pour contrôler sa réponse et optimiser ses performances en fonction de vos besoins. En gardant ces points à l’esprit, voici les étapes nécessaires pour exécuter DeepSeek R1 localement et entièrement gratuitement.

Le moyen le plus simple d'exécuter DeepSeek localement


Comment exécuter DeepSeek sur windows


La première étape consiste à installer un logiciel capable d’héberger et de traiter localement les données du modèle d’IA. Il existe actuellement de nombreuses options, mais Ollama reste le meilleur candidat pour tous les utilisateurs. Ce logiciel open source facilite l'installation et l'exécution de modèles d'IA linguistiques localement sur des ordinateurs, qu'ils exécutent macOS, Linux ou Windows. Le programme ne nécessite pas que l'utilisateur définisse des paramètres prédéfinis, car Ollama utilisera automatiquement les ressources informatiques disponibles - telles que la carte graphique et la RAM - et les utilisera efficacement pour exécuter ces modèles. Mais la réponse et la vitesse de traitement restent dépendantes des capacités de votre ordinateur.


Bien que le nom du programme soit inspiré du célèbre modèle « Meta Llama », il prend en charge l'exécution de nombreux autres modèles open source, dont DeepSeek R1 dans ses différentes versions. Tout ce que vous avez à faire est de télécharger le programme depuis son site officiel et de l'installer en appuyant sur le bouton « Installer », puis en entrant la commande appropriée pour télécharger le formulaire requis. Il convient de noter qu'Ollama ne fournit pas d'interface utilisateur graphique, mais s'appuie entièrement sur l'invite de commande (CMD) pour interagir avec les formulaires, mais il existe des moyens de contourner ce problème dont nous discuterons plus tard.

Après avoir terminé l'installation du programme, accédez à la page ollama.com/library/deepseek-r1 via le navigateur de votre appareil, puis cliquez sur le menu déroulant à côté de « Balises », comme indiqué dans l'image ci-dessus. Dans cette liste, vous trouverez des « modèles distillés » disponibles du modèle de raisonnement DeepSeek R1. La société chinoise a fourni six modèles open source plus petits en plus du modèle de base, avec des capacités allant de 1,5 à 70 milliards de paramètres, tandis que le modèle de base contient 671 milliards de variables.


Généralement, l’idée ici est que des modèles plus grands signifient une IA plus compétente, mais qu’en retour, ils nécessitent une puissance de traitement graphique incroyable. Autrement dit, chaque version de ces modèles nécessite des ressources informatiques spéciales. Par exemple, les grands modèles tels que 32B et 70B nécessitent des cartes graphiques puissantes, tandis que le modèle de base « 671B » nécessite des super serveurs dédiés à l'exécution de grands modèles linguistiques. Il est donc préférable de commencer par essayer les modèles plus petits pour tester comment votre appareil les gère. Ne vous inquiétez pas, même les petites versions de DeepSeek offrent de solides performances sur diverses tâches. Ainsi, une fois que vous avez choisi le modèle que vous souhaitez exécuter localement, sélectionnez-le dans la liste et copiez la commande nécessaire pour le charger, telle que "ollama run deepseek-r1:8b" pour charger le modèle Distill-Llama-8B dérivé de R1.



Après avoir copié la commande, exécutez l'outil d'invite de commande sous Windows en utilisant l'une des méthodes que nous avons examinées précédemment, sauf que le moyen le plus simple est d'appuyer simultanément sur les touches Win + la lettre S du clavier pour ouvrir la barre de recherche, puis de taper « CMD » ou « Windows Terminal » si vous utilisez Windows 11, puis dans les résultats de la recherche, appuyez sur Ouvrir. Dans la fenêtre qui apparaît, collez la commande et appuyez sur Entrée. Ollama téléchargera automatiquement le modèle d'IA et les fichiers nécessaires à son exécution, et une barre de progression apparaîtra, ce qui peut prendre un certain temps. Par exemple, lorsque vous téléchargez le modèle Distill-Llama-8B, le programme devra télécharger environ 5 Go de données, ce qui fait de la vitesse de votre connexion Internet un facteur dans le temps d'attente.




Une fois le téléchargement terminé, le modèle DeepSeek R1 fonctionnera à 100 % sur votre appareil, ce qui signifie que vous pourrez l'utiliser même sans connexion Internet. Tout ce que vous avez à faire est d'ouvrir une invite de commande et de taper la même commande que celle que vous avez utilisée pour télécharger le formulaire – qui dans notre cas est ollama run deepseek-r1:8b – mais cette fois, aucun fichier ne sera téléchargé. Au lieu de cela, vous verrez un indicateur « Envoyer un message » dans lequel vous pouvez taper votre requête et appuyer sur Entrée pour obtenir la réponse directement dans l'invite de commande.


Vous pouvez également copier et coller du texte à l'aide de la souris, comme vous le feriez lorsque vous travaillez avec un formulaire via le navigateur. Mais comme DeepSeek R1 est un modèle de raisonnement logique, vous remarquerez peut-être que la réponse n'apparaît pas immédiatement, mais vous verrez plutôt un indicateur « penser/ » qui indique que le modèle analyse et comprend la demande avant de fournir la réponse finale.




Étant donné que le modèle DeepSeek R1 - ou plutôt sa version miniature - fonctionne entièrement sur votre machine, vous remarquerez peut-être une consommation élevée de ressources immédiatement après l'avoir exécuté via l'invite de commande, et cette consommation augmente considérablement lors de la génération de réponses. Comme le montre l'image ci-dessus, le modèle Distill-Llama-8B consomme environ 40 % de la puissance du GPU pendant le processus de génération de la réponse - dans notre cas, il s'agit du RTX 3050 Ti - en plus de plus de 3 Go de RAM. Cette consommation reflète l'efficacité du modèle dans la gestion des ressources, qui est l'un des points forts actuels de DeepSeek. En général, vous pouvez tester des modèles plus petits ou plus grands en fonction des capacités de votre appareil pour garantir des performances fluides et une réponse rapide.




Mais exécuter le formulaire via l'invite de commande n'offre pas une expérience idéale, d'autant plus que la langue arabe n'est pas prise en charge par programmation, ce qui signifie que les conversations doivent avoir lieu uniquement en anglais. De plus, appeler le formulaire via CMD à chaque fois n'est pas pratique et les conversations ne sont pas enregistrées comme elles le sont dans la version Web. Pour résoudre ce problème, on peut s'appuyer sur des outils qui fournissent une interface graphique pour faciliter l'utilisation du modèle localement. 


Parmi ces outils, nous recommandons Chatbox, en raison de la flexibilité et de la facilité d'utilisation qu'il offre, en plus de sa prise en charge de plusieurs systèmes d'exploitation, dont Windows, et de la possibilité de l'utiliser dans différentes langues, dont l'arabe.


Tout ce que vous avez à faire est de télécharger et d'installer le programme sur votre appareil, puis lorsque vous l'exécutez pour la première fois, la fenêtre « Paramètres » apparaîtra devant vous. Si elle n'apparaît pas, cliquez sur l'icône en forme d'engrenage (⚙️) sur le côté gauche. Après cela, cliquez sur le menu « Fournisseur de modèles » et sélectionnez « API OLLAMA ». Il n'est pas nécessaire de modifier d'autres paramètres, sélectionnez simplement le nom du modèle dans la liste « Modèle », puis appuyez sur « Enregistrer ».


Ainsi, vous pouvez désormais bénéficier du modèle DeepSeek de manière native via une interface utilisateur familière, où vous pouvez saisir vos requêtes ou demandes dans n'importe quelle langue et vous obtiendrez la réponse – une fois la phase d'idéation terminée – qui peut être modifiée et copiée ou demandée de générer à nouveau la réponse. De plus, vous pouvez insérer des images pour extraire du texte ou intégrer des documents dans la conversation pour demander un résumé. Dans tous les cas, le modèle s'appuie uniquement sur les capacités de votre appareil, vous permettant de travailler sans avoir besoin d'une connexion Internet.


Enregistrer un commentaire

Plus récente Plus ancienne

نموذج الاتصال