NVIDIA vient de franchir une étape majeure avec le DGX Station, un supercalculateur de bureau capable de faire tourner des modèles d’IA d’un trillion de paramètres sans connexion cloud.
Cette machine, annoncée au GTC 2026, promet de redéfinir l’écosystème de l’IA en rapprochant la puissance des centres de données du bureau des développeurs.
Avec ses 748 gigaoctets de mémoire cohérente et ses 20 petaflops de calcul, le DGX Station marque un tournant dans l’autonomie des équipes IA.
Une puissance de calcul révolutionnaire dans un format compact
Le DGX Station repose sur la nouvelle puce GB300 Grace Blackwell Ultra Desktop Superchip, qui fusionne un processeur Grace 72 cœurs et un GPU Blackwell Ultra via l’interconnexion NVLink-C2C.
Cette architecture offre 1,8 téraoctets par seconde de bande passante cohérente entre les deux processeurs, soit sept fois la vitesse du PCIe Gen 6.
Les 20 petaflops de puissance de calcul auraient classé cette machine parmi les supercalculateurs les plus puissants du monde il y a moins d’une décennie.
À titre de comparaison, le système Summit d’Oak Ridge National Laboratory, numéro un mondial en 2018, délivrait environ dix fois cette performance mais occupait l’espace de deux terrains de basketball.
La mémoire, le véritable atout concurrentiel
Les 748 GB de mémoire unifiée constituent l’élément le plus stratégique du DGX Station.
Les modèles d’un trillion de paramètres nécessitent d’être entièrement chargés en mémoire pour fonctionner, rendant cette capacité cruciale.
L’architecture cohérente élimine les pénalités de latence liées au transfert de données entre les pools de mémoire CPU et GPU, un goulet d’étranglement majeur des systèmes desktop traditionnels.
Sans mémoire suffisante, même une puissance de traitement illimitée devient inutile, car le modèle ne peut tout simplement pas être chargé.
NemoClaw : l’écosystème logiciel pour agents autonomes
NVIDIA accompagne le DGX Station de NemoClaw, une pile logicielle open-source qui combine les modèles Nemotron avec OpenShell.
OpenShell fournit un environnement d’exécution sécurisé qui applique des garde-fous de sécurité, réseau et confidentialité pour les agents autonomes.
Jensen Huang, PDG de NVIDIA, compare directement OpenClaw à Mac et Windows, le positionnant comme « le système d’exploitation de l’IA personnelle ».
Cette approche répond à l’évolution de l’IA vers des agents qui raisonnent, planifient, écrivent du code et exécutent des tâches de manière continue, plutôt que de simples systèmes réactifs.
De l’autonomie locale au passage à l’échelle cloud
L’un des aspects les plus astucieux du DGX Station réside dans sa continuité architecturale.
Les applications développées sur cette machine migrent sans réécriture vers les systèmes GB300 NVL72 de centre de données de NVIDIA.
Cette approche élimine les coûts cachés de développement IA, où la réécriture de code pour différentes configurations matérielles représente souvent le principal frein à la mise en production.
NVIDIA propose ainsi un pipeline intégré : prototypage local, puis montée en charge cloud quand la solution est mûre.
Clustering desktop : quand quatre machines en font une
NVIDIA a également étendu les capacités du DGX Spark, la version plus compacte du Station, avec un support de clustering.
Jusqu’à quatre unités Spark peuvent désormais fonctionner comme un système unifié avec une montée en performance quasi-linéaire.
Cette configuration crée un « centre de données de bureau » tenant sur une table de conférence, sans infrastructure rack ni ticket IT.
Pour les équipes qui doivent fine-tuner des modèles de taille moyenne ou développer des agents à échelle réduite, les Spark en cluster offrent une plateforme IA départementale crédible.
Un marché diversifié révélateur des tendances
Les premiers clients adopteurs du DGX Station illustrent la diversification de l’IA entreprise.
Snowflake l’utilise pour tester localement son framework Arctic, tandis que l’Electric Power Research Institute (EPRI) l’emploie pour des prévisions météorologiques appliquées à la fiabilité du réseau électrique.
Medivis intègre des modèles de vision-langage dans les flux de travail chirurgicaux, et Microsoft Research déploie les systèmes pour la formation IA à grande échelle.
Cornell University utilise également ces systèmes pour des formations pratiques en IA, démontrant l’intérêt pédagogique de disposer de puissance de calcul frontier localement.
Écosystème ouvert et support multi-modèles
Le DGX Station prend en charge une gamme étendue de modèles : OpenAI gpt-oss-120b, Google Gemma 3, Qwen3, Mistral Large 3, DeepSeek V3.2 et les modèles Nemotron de NVIDIA.
Cette approche agnostique positionne la machine comme une « Suisse matérielle » dans un secteur où les alliances modèles évoluent rapidement.
Les constructeurs ASUS, Dell Technologies, GIGABYTE, MSI et Supermicro proposeront le système dans les mois à venir, HP rejoignant plus tard dans l’année.
Bien que NVIDIA n’ait pas divulgué le prix, les composants GB300 et l’historique des tarifs DGX suggèrent un investissement à six chiffres.
Stratégie verticale : de l’orbite au bureau
Le DGX Station s’inscrit dans une stratégie plus large annoncée au GTC 2026, avec la plateforme Vera Rubin pour les centres de données et même un module spatial pour les centres de données orbitaux.
La plateforme Vera Rubin intègre 72 GPU Rubin de nouvelle génération et revendique jusqu’à 10x plus de débit d’inférence par watt comparé à la génération Blackwell actuelle.
NVIDIA vise ainsi à contrôler chaque couche de la pile IA, du matériel aux modèles, à toutes les échelles physiques.
Cette intégration verticale renforce la position de l’entreprise face à la concurrence d’Intel, AMD et des géants cloud.
L’IA locale comme alternative crédible au cloud
Bien que le cloud reste dominant pour l’entraînement de modèles frontier, le DGX Station crée une alternative locale viable pour des cas d’usage spécifiques.
Le fine-tuning de modèles d’un trillion de paramètres sur des données propriétaires, l’inférence pour agents internes traitant des documents sensibles, ou le prototypage avant engagement cloud deviennent accessibles localement.
Cette approche répond aux préoccupations croissantes de sécurité, latence et coûts d’egress des solutions cloud.
Les configurations air-gapped pour environnements classifiés ou réglementés, où les données ne peuvent jamais quitter le bâtiment, deviennent également possibles.
Impact économique et concurrentiel
Le DGX Station transforme l’économie de l’IA en déplaçant certains coûts récurrents vers un investissement initial.
Plutôt que de louer des GPU cloud à l’heure, les organisations peuvent désormais amortir un système haute performance sur plusieurs années.
Cette approche devient particulièrement attractive pour les workloads d’inférence à long terme ou les expérimentations intensives.
Pour NVIDIA, cela diversifie les sources de revenus tout en renforçant l’écosystème logiciel propriétaire.
Vers une nouvelle ère de l’informatique personnelle
Le DGX Station actualise le slogan de la révolution PC « un ordinateur sur chaque bureau » en proposant « un supercalculateur sur chaque bureau ».
Avec NemoClaw, NVIDIA ajoute la dimension d’agents autonomes fonctionnant en permanence, écrivant du code et exécutant des tâches même lorsque l’utilisateur est absent.
Cette évolution marque potentiellement le début d’une nouvelle ère où l’infrastructure IA de pointe devient accessible au niveau individuel, redéfinissant les rapports de force dans l’écosystème technologique.
La question n’est plus de savoir si l’IA locale peut rivaliser avec le cloud, mais dans quels segments elle va s’imposer comme l’option de référence.




