2 sept. 2025

Comment installer ChatGPT en local : guide complet avec LM Studio et alternatives

Data & IA

Portrait collaborateur.

Terry

Malik

Miniature Chatgpt sur LM Studio.

2 sept. 2025

Comment installer ChatGPT en local : guide complet avec LM Studio et alternatives

Data & IA

Portrait collaborateur.

Terry

Malik

Miniature Chatgpt sur LM Studio.

2 sept. 2025

Comment installer ChatGPT en local : guide complet avec LM Studio et alternatives

Data & IA

Portrait collaborateur.

Terry

Malik

Miniature Chatgpt sur LM Studio.

Ce que vous allez retenir

Dans cet article, vous découvrirez comment :

  • Installer LM Studio

  • Configurer ChatGPT en local via LM Studio

  • Utiliser ChatGPT localement

  • Survoler MCP, les agents et le futur des LLM locaux

Introduction : pourquoi vouloir installer ChatGPT en local ?

Depuis l’explosion de ChatGPT, beaucoup d’utilisateurs se sont heurtés aux mêmes limites :

  • la confidentialité des données, car chaque requête transite par les serveurs d’OpenAI ;

  • les restrictions de la version gratuite, avec un accès bridé et parfois lent ;

  • le besoin d’expérimenter librement avec l’intelligence artificielle, sans dépendre d’une connexion permanente au cloud.

Installer ChatGPT en local est une alternative séduisante : vous gardez le contrôle de vos données, vous choisissez vos modèles et vous testez leurs performances en fonction de votre machine.

Mais attention : quand on parle de « ChatGPT en local », il faut distinguer deux réalités :

  1. ChatGPT d’OpenAI : le modèle original (GPT-4, GPT-4o, GPT-3.5, GPT5, …), que l’on peut utiliser via ChatGPT directement ou l’API officielle d’OpenAI. On ne peut pas installer ces modèles localement, car ils restent propriétaires. En revanche, il est possible de développer une interface locale connectée à l’API pour recréer une expérience ChatGPT « maison ».

Dans cet article, nous verrons comment installer gpt-oss-20b et gpt-oss-120b dont voici un récapitulatif :

Modèle

Paramètres totaux

Paramètres actifs par jeton

Experts (total / actifs)

Context max

Matériel typique requis

Performance notable

gpt-oss-20b

~21 B

~3,6 B

32 / 4

128 k

~16 Go (RAM/VRAM)

Comparable à o3-mini, local sur PC grand public

gpt-oss-120b

~117 B

~5,1 B

128 / 4

128 k

~80 Go GPU (H100/A100, etc.)

Rivalise ou dépasse o4-mini en codage, math, santé

  1. Les modèles open source similaires à ChatGPT : LLaMA de Meta, Mistral, Gemma de Google, DeepSeek, Grok ou encore Phi-3 de Microsoft. Ces LLM (Large Language Models) peuvent être téléchargés et exécutés directement sur votre ordinateur, grâce à des outils comme LM Studio ou Ollama.

Dans cet article, nous allons explorer ces deux approches, mais surtout vous montrer pas à pas comment installer un ChatGPT en local avec LM Studio.

Les solutions pour installer ChatGPT en local

Il existe plusieurs manières de recréer une expérience ChatGPT localement :

  • Via l’API OpenAI : vous installez une interface locale (par exemple une app en Python ou un client web) qui se connecte à l’API d’OpenAI. Vous bénéficiez du vrai GPT-4 ou GPT-4o, mais attention, avec cette méthode vos données continuent de transiter par les serveurs OpenAI !

  • Avec des LLM open source : vous exécutez directement des modèles alternatifs qui imitent ChatGPT. Certains sont très performants et gratuits :

    • gpt-oss-20b : premier modèle open-weight publié par OpenAI sous licence Apache 2.0, basé sur une architecture Mixture-of-Experts. Conçu pour être exécutable sur des machines haut de gamme (≥16 Go VRAM), il est particulièrement performant en génération de code, raisonnement

    • Meta LLaMA : excellent pour le raisonnement et les tâches complexes.

    • Mistral 7B / Mixtral : rapide, léger et open-source.

    • Google Gemma : optimisé pour l’efficacité.

    • DeepSeek : spécialisé dans le raisonnement logique et les mathématiques.

    • Microsoft Phi-3 : petits modèles performants, idéals pour PC modestes.

C’est la solution qui nous intéresse aujourd’hui. Pour les faire tourner, deux logiciels se distinguent :

  • Ollama (plutôt orienté développeurs, usage via terminal, même si une interface visuelle vient d’être publiée).

  • LM Studio (interface graphique simple, multiplateforme).

C’est sur LM Studio que nous allons nous concentrer, car il représente la solution la plus accessible pour installer un ChatGPT en local.

Pré-requis techniques pour installer ChatGPT en local avec LM Studio

Le choix du modèle et de ses capacités dépend directement de la puissance de votre machine. Voici une estimation selon vos ressources :

  • Ordinateur modeste (CPU seul, 8 Go de RAM, pas de GPU)

    • Modèles recommandés : Phi-3, Mistral 7B quantisé.

    • Usage possible : génération de texte simple, rédaction d’articles, petites tâches de code.

    • Limites : lenteur sur les réponses longues, pas d’image ni de multimodal.

  • PC milieu de gamme (CPU + GPU 4-6 Go VRAM, 16 Go RAM)

    • Modèles recommandés : Mistral 7B, LLaMA 13B.

    • Usage possible : génération de texte, code plus avancé, chat contextuel.

    • Limites : modèles trop grands (70B) difficiles à charger.

  • Machine puissante (GPU 12-24 Go VRAM, 32 Go RAM ou plus)

    • Modèles recommandés : LLaMA 70B, Mixtral 8x7B, DeepSeek.

    • Usage possible : conversations complexes, génération de code avancée, intégration avec outils externes.

    • Limites : consommation énergétique et espace disque (plusieurs dizaines de Go).

  • Workstation ou serveur avec GPU dernière génération (A100, H100, RTX 4090)

    • Usage possible : IA multimodale (texte + images), expérimentation avec des modèles type GPT-4o-like.

    • Exemple : génération de code, d’images via extensions (Stable Diffusion, flux multimodaux).

En résumé : oui, vous pouvez faire tourner un « ChatGPT local » sur un simple laptop, mais ses capacités dépendront du matériel. Pour du texte basique, un CPU suffit. Pour générer du code fiable, un GPU moyen est recommandé. Pour générer des images ou tester des agents complexes, il faut une machine très puissante.

Tutoriel : installer LM Studio

L’installation de LM Studio est volontairement simple pour démocratiser l’usage des LLM :

  1. Télécharger LM Studio :
    Rendez-vous sur le site officiel LM Studio et récupérez l’installeur adapté à votre système (Windows, macOS ou Linux).

  2. Installer le logiciel :
    Lancez l’installeur et suivez les étapes classiques. Quelques minutes suffisent.

  3. Ouvrir LM Studio :
    Une fois installé, ouvrez l’application. Vous arrivez sur une interface claire où vous pouvez chercher des modèles et lancer vos sessions locales.

Tutoriel : installer ChatGPT en local avec LM Studio

Voici comment transformer LM Studio en votre propre ChatGPT local :

  1. Rechercher un modèle (icone loupe à gauche)

    Dans l’onglet de recherche de LM Studio, tapez le modèle LLM que vous souhaitez installer. Dans notre cas : gpt-oss-20b. Vous pouvez taper également “OpenAi”



    De la même manière, vous pouvez aussi par exemple rechercher : Mistral 7B Instruct, Meta LLaMA ou Google Gemma.


  2. Télécharger le modèle choisi

    Cliquez sur Download et patientez. Le fichier peut peser de 5 à 20 Go selon la taille. Assurez-vous d’avoir le petite badge ✅ pour obtenir une version officielle.

La même procédure fonctionne pour d’autres modèles, qu’ils viennent de Meta, Google, Microsoft ou DeepSeek.

Comment utiliser ChatGPT en local avec LM Studio

Une fois LM Studio installé et un modèle téléchargé, vous pouvez commencer à l’utiliser comme une version locale de ChatGPT. L’application se présente sous la forme d’une interface de chat claire et intuitive, qui facilite la prise en main même pour un utilisateur débutant.

Lancer une session de chat

Lorsque vous ouvrez LM Studio, la page d’accueil affiche une barre de recherche pour explorer et télécharger de nouveaux modèles. Une fois un modèle installé, il apparaît dans la liste de vos modèles disponibles.

  • Cliquez simplement sur le modèle souhaité.

  • Appuyez ensuite sur “Start Chat”, le petit “+” en haut à gauche pour ouvrir une nouvelle fenêtre de conversation.

  • Vous accédez alors à une interface proche de ChatGPT classique : une zone de saisie en bas pour vos questions et une zone principale qui affiche les réponses du modèle.

C’est ici que vous pouvez dialoguer en langage naturel, exactement comme avec ChatGPT en ligne, mais cette fois-ci directement sur votre machine.


Les menus et paramètres essentiels

Dans le bandeau à droite, LM Studio vous permet d’ajuster plusieurs paramètres qui influencent fortement la génération des réponses. Dans le menu situé à droite ou en haut de la fenêtre (selon la version), vous trouverez notamment :

  • Température : ce curseur règle le degré de créativité du modèle. Plus la valeur est basse (0–0,3), plus les réponses sont précises et rigides. Plus elle est élevée (0,7–1), plus les réponses sont variées et créatives.

  • Max tokens (longueur maximale) : définit le nombre de mots ou symboles que le modèle peut générer. Utile pour limiter une réponse courte ou, au contraire, autoriser un texte long et détaillé.

  • Top-p et Top-k : contrôlent la diversité de génération. La plupart des utilisateurs laissent ces paramètres par défaut, mais ils peuvent être affinés si vous voulez tester différentes variations.

  • Context window (fenêtre de contexte) : montre la quantité de texte que le modèle peut “retenir” dans la conversation. Plus elle est grande, plus le modèle peut prendre en compte vos échanges passés.

  • Profil ou rôle du modèle : certaines versions de LM Studio permettent d’ajouter un message de configuration initial, appelé system prompt. Cela permet de donner une personnalité au modèle (par exemple : “Tu es un assistant spécialisé en développement Python”).

Sauvegarder et comparer vos sessions

Chaque conversation peut être sauvegardée pour y revenir plus tard. LM Studio permet également de :

  • Basculer rapidement entre plusieurs modèles pour comparer la qualité des réponses.

  • Créer plusieurs sessions en parallèle (par exemple, une pour de la rédaction, une autre pour du code).

  • Exporter vos résultats pour les utiliser dans vos projets (articles, rapports, extraits de code).

Et après ? MCP, agents et avenir des LLM locaux

Installer ChatGPT (OpenAI) en local est une première étape, mais l’écosystème évolue rapidement :

  • MCP (Model Context Protocol) : une norme qui permet aux modèles locaux de se connecter à vos outils (fichiers, API, bases de données).

  • Agents IA : des assistants autonomes capables d’exécuter des tâches complexes, orchestrés par des LLM locaux ou hybrides.

  • Multimodalité : texte, code, images, audio, bientôt vidéo, avec des modèles de plus en plus puissants.

Ces sujets méritent un article dédié, car ils ouvrent la voie à une véritable infrastructure d’agents intelligents locaux, qui dépassent largement l’usage de ChatGPT seul.

Conclusion

Installer ChatGPT ou d’autres LLM en local avec LM Studio permet de franchir une nouvelle étape dans l’appropriation de l’intelligence artificielle. C’est une solution simple, efficace et respectueuse de vos données.

Selon votre matériel, vous pouvez démarrer avec des modèles légers pour générer du texte, évoluer vers des LLM plus puissants pour coder, et même explorer la génération multimodale.

Que vous soyez développeur, consultant, chercheur, entrepreneur ou simplement passionné, LM Studio est une porte d’entrée idéale pour explorer le monde des LLM locaux.

Voici un récapitulatif des différents modèles que vous pouvez installer et leurs meilleurs usages si vous souhaitez en installer d’autres :

Famille de modèles

Variantes disponibles (paramètres)

Contexte max.

Licence

Points forts

GPT-OSS (OpenAI)

20B / 120B (Mixture-of-Experts)

128k tokens

Apache 2.0

Premiers modèles open-weight d’OpenAI ; très performants en code, math, santé. Le 20B peut tourner sur PC haut de gamme, le 120B vise data centers.

Mistral

7B dense, Mixtral 8×7B (≈45B actifs), futurs 22B+

65k–128k tokens

Apache 2.0

Ultra-efficace, très bonne vitesse et qualité. Leader open source européen. Excellents en raisonnement et génération de code.

LLaMA 3.1 (Meta)

8B / 70B / 405B

128k tokens

Licence Meta

Grande famille très répandue, communauté active. Le 8B pour PC modestes, 70B pour serveurs, 405B pour HPC/cloud.

Qwen-2.5 (Alibaba)

7B / 14B / 32B / 72B + versions MoE (>110B)

jusqu’à 128k tokens

Apache 2.0

Fort en multilingue, très utilisé en Chine mais aussi internationalement. Montée en puissance rapide, excellents résultats sur benchmarks.

Grok (xAI / Elon Musk)

Paramètres non détaillés, plusieurs tailles (dense et MoE)

>128k (selon versions)

Open-weight (permissive)

Modèle orienté multimodalité (texte, image, code), conçu pour X (Twitter). Moins académique mais en forte évolution.

DeepSeek V3.1

~671B MoE (≈37B actifs par jeton)

128k tokens

Open licence

Très grand modèle, optimisé pour raisonnement, mathématiques et recherche scientifique. Nécessite cluster/GPU massif.