Qu’est-ce qu’OpenGradient ?

OpenGradient est un réseau d'infrastructure décentralisé conçu pour héberger, exécuter et vérifier l'inférence de modèles d'IA à grande échelle, où chaque calcul produit une preuve cryptographique qui peut être vérifiée en chaîne sans faire confiance à un seul opérateur.
Le projet se décrit comme le réseau pour l'intelligence ouverte et a récemment lancé $OPG comme jeton natif pour alimenter les opérations du réseau. À la base, OpenGradient fonctionne comme un coprocesseur d'IA, une couche dédiée vers laquelle d'autres agents, blockchains et applications peuvent acheminer les charges de travail d'IA plutôt que de s'appuyer sur des fournisseurs d'API centralisés.
Aujourd'hui, $OPG est lancé en tant que jeton natif alimentant le réseau d'IA vérifiable d'OpenGradient. Cela marque le réseau pleinement opérationnel, apportant au monde une infrastructure d'IA sans autorisation avec une exécution sécurisée et vérifiable en chaîne. 🧵👇🏻 pic.twitter.com/suQGK0L6F1
– OpenGradient (∇, ∇) (@OpenGradient) 21 avril 2026
Quel problème OpenGradient résout-il ?
Aujourd’hui, chaque application d’IA repose sur un seul point de confiance. Lorsqu'un agent IA gère un portefeuille, approuve un prêt ou modère un contenu, il n'existe actuellement aucun moyen de vérifier de manière indépendante quel modèle a été exécuté, quelle invite a été utilisée ou si le résultat a été modifié avant d'atteindre l'utilisateur final.
Selon la documentation d'OpenGradient, l'infrastructure d'IA se regroupe en une poignée de fournisseurs, ce qui crée trois problèmes spécifiques.
Opacité : lorsqu'un grand modèle linguistique prend une décision affectant l'argent, la santé ou la gouvernance, il n'existe aucun moyen de prouver ce qui s'est passé à l'intérieur du système. Les versions du modèle peuvent changer silencieusement, des invites système peuvent être injectées et les réponses peuvent être filtrées sans que l'utilisateur ne le sache.
Points de défaillance uniques : si le fournisseur tombe en panne, limite le débit d'accès ou modifie le comportement du modèle, les applications dépendantes s'interrompent sans aucune solution de repli ni recours.
Confiance sans vérification : les opérateurs peuvent échanger des modèles, injecter du contenu ou enregistrer des invites sans divulgation. Pour les agents financiers, les outils de raisonnement médical ou les pistes d’audit, accepter cela de foi n’est pas une approche viable.
OpenGradient répond à ces trois critères en faisant de la vérification la vérification par défaut et non un module complémentaire facultatif.
Comment fonctionne OpenGradient ?
OpenGradient est construit sur une architecture de calcul IA hybride, abrégée en HACA, qui sépare l'exécution de l'inférence IA de sa vérification. Cette séparation est la décision architecturale clé qui rend le système pratique.
Lorsqu'une requête arrive, elle est directement transmise à un nœud d'inférence spécialisé et revient avec une latence de niveau Web2. La preuve cryptographique est ensuite soumise et validée de manière asynchrone par les nœuds complets, avant d'être enregistrée définitivement sur la chaîne compatible EVM du réseau. L'utilisateur n'attend pas la confirmation du blocage pour recevoir une réponse, mais chaque réponse est finalement réglée et auditable.
Quels sont les différents types de nœuds ?
Au lieu d'utiliser un seul ensemble de validateurs où chaque nœud effectue chaque tâche, OpenGradient utilise des types de nœuds spécialisés.
Les nœuds complets génèrent un consensus, gèrent le grand livre, vérifient les preuves et gèrent le règlement des paiements. Ils n'exécutent pas de modèles et n'utilisent pas de GPU.
Les nœuds d'inférence sont des processeurs GPU apatrides qui exécutent des modèles. Ceux-ci se présentent sous deux formes : des nœuds proxy LLM qui acheminent les requêtes vers des fournisseurs comme OpenAI et Anthropic via des enclaves TEE (Trusted Execution Environment), et des nœuds d'inférence locaux qui exécutent des modèles open source directement sur le matériel.
Les nœuds de données fonctionnent dans des enclaves sécurisées pour fournir un accès fiable aux données externes telles que les flux de prix et les API, avec des attestations confirmant que les données n'ont pas été falsifiées.
Le stockage décentralisé sur un système appelé Walrus conserve les fichiers modèles et les grandes épreuves hors chaîne, référencés par des identifiants enregistrés dans le grand livre.
Cette division du travail signifie que chaque type de nœud peut être mis à l'échelle et sécurisé indépendamment pour sa charge de travail spécifique.
Que peuvent construire les développeurs sur OpenGradient ?
Le réseau prend en charge une gamme de cas d'utilisation dans les applications d'entreprise, financières et grand public. Plusieurs sont disponibles dès maintenant et d’autres sont en développement sur l’alpha testnet.
Actuellement disponible :
Agents d'IA où chaque appel LLM est signé cryptographiquement avec l'invite exacte utilisée, rendant la chaîne de raisonnement vérifiable en chaîne
Accès vérifiable aux modèles, notamment GPT-4, Claude, Grok et Gemini via une API unifiée avec vérification TEE
Applications préservant la confidentialité dans lesquelles les nœuds TEE traitent les invites à l'intérieur d'enclaves matérielles, empêchant l'opérateur du nœud de voir ou d'enregistrer les demandes.
Mémoire persistante pour les applications d'IA via MemSync, qui gère l'extraction de mémoire, la classification et la génération de profils utilisateur sur une infrastructure vérifiée
En développement sur alpha testnet :
Intégration de contrats intelligents permettant d'appeler des modèles d'IA de manière native depuis Solidity via des précompilations
Transactions d'IA atomique où l'inférence de modèle s'exécute dans le cadre d'une transition d'état plutôt que comme un appel Oracle externe
Workflows d'IA composables qui enchaînent plusieurs modèles avec des méthodes de vérification mixtes en une seule transaction
Quoi