Nesa s'associe à Billions Network pour rendre responsable chaque agent d'IA exécuté sur son infrastructure

Nesa, la blockchain d'IA d'entreprise qui traite un million de demandes d'inférence chaque jour via un réseau de plus de 30 000 mineurs dans le monde, s'est associée à Billions Network pour apporter une identité vérifiée à chaque humain et agent d'IA opérant sur son infrastructure.
Les clients exécutant l'IA sur Nesa incluent P&G, Cisco, Gap et Royal Caribbean. L’IA gérée par ces entreprises a toujours été privée de par sa conception. Ce qui lui a manqué jusqu’à présent, c’est la responsabilité. Billions Network corrige ce problème, à deux niveaux.
Le problème auquel Nesa se heurtait
La véritable IA d’entreprise à grande échelle crée un déficit de responsabilité que la plupart des fournisseurs d’infrastructures ne reconnaissent pas ouvertement. Lorsque des milliers d’agents d’IA traitent des demandes, prennent des décisions et interagissent avec les systèmes d’une organisation, la question de savoir qui est responsable du comportement de chaque agent devient véritablement difficile à répondre. L'agent a couru. Quelque chose s'est produit. Mais qui l’a construit, qui l’a autorisé et qui sera responsable si quelque chose tourne mal ?
Cette question est plus importante à l’échelle de l’entreprise que dans les petits déploiements où une seule équipe peut suivre chaque agent manuellement. L’infrastructure de Nesa gère l’IA pour certaines des plus grandes entreprises de la planète. Avec un million de demandes d'inférence par jour sur 30 000 mineurs, la responsabilité manuelle n'est pas une approche réalisable.
Le niveau de responsabilité doit être structurel, intégré au mode de fonctionnement des agents plutôt que ajouté via une documentation et des processus internes qui peuvent être contournés ou oubliés.
Ce que fait Billions Network
Billions Network est construit autour de deux problèmes de vérification distincts. La première est la vérification humaine. À l’aide d’un téléphone et d’une pièce d’identité gouvernementale, sans scanner oculaire ni matériel biométrique requis, Billions vérifie qu’une personne réelle et responsable se cache derrière chaque agent IA.
Le réseau a déjà vérifié 2,3 millions d'humains dans le monde et compte HSBC et Sony Bank parmi ses partenaires institutionnels. Cet historique dans des environnements financiers à enjeux élevés est important car il démontre que le processus de vérification répond aux normes que les institutions réglementées ont jugées acceptables.
La seconde est la vérification des agents IA via le framework Know Your Agent, que Billions appelle KYA. Chaque agent qui opère sur un réseau compatible KYA obtient une identité vérifiée qui enregistre qui l'a construit, qui en est propriétaire et qui est responsable de son comportement. Dans un écosystème où des milliers d'agents fonctionnent simultanément, KYA rend chaque interaction traçable.
Si un agent produit un mauvais résultat, prend une décision non autorisée ou interagit avec un système qu’il ne devrait pas, la chaîne de responsabilité est enregistrée dès le début plutôt que d’être reconstruite après coup à partir de journaux incomplets.
La combinaison de la vérification humaine et de la vérification des agents crée une image complète de la responsabilité dans le cadre d’un déploiement d’IA en entreprise, ce qui est décrit comme nécessaire depuis des années mais rarement mis en œuvre à grande échelle.
Ce que le partenariat produit pour les entreprises clientes de Nesa
L’infrastructure d’IA de Nesa reste privée. Cette confidentialité est inhérente à la conception et constitue une fonctionnalité destinée aux entreprises clientes qui ne peuvent pas exposer de modèles propriétaires, de données de formation ou de résultats d'inférence à des parties externes.
L’intégration de Billions n’y change rien. Ce qu'il ajoute, c'est une couche de responsabilité qui fonctionne sans compromettre les propriétés de confidentialité dont dépendent les entreprises clientes.
Pour des entreprises comme P&G et Cisco qui exécutent l’IA de production via l’infrastructure de Nesa, le résultat pratique est que chaque agent opérant dans leur environnement dispose désormais d’une identité vérifiée. Les équipes de conformité internes, les régulateurs et les auditeurs peuvent demander qui est responsable du comportement d’un agent spécifique et obtenir une réponse traçable plutôt qu’un haussement d’épaules. Cette responsabilité n’est de plus en plus facultative.
Les cadres réglementaires autour de la gouvernance de l’IA se développent rapidement, et les entreprises qui ne peuvent pas démontrer leur responsabilité dans leurs déploiements d’IA vont faire face à la pression des régulateurs, des conseils d’administration et des assureurs, quel que soit le fonctionnement de la technologie sous-jacente.
Pourquoi la vérification mobile-first est importante à cette échelle
L’approche mobile de Billions Network en matière de vérification humaine mérite d’être notée en particulier car elle détermine le degré d’accessibilité du processus de vérification à grande échelle.
Les systèmes de vérification qui nécessitent du matériel spécial, des orbes ou des processus d’inscription compliqués ralentissent tout et excluent discrètement les personnes qui ne peuvent pas y accéder. Des milliards évitent complètement cela. Un téléphone et une pièce d'identité gouvernementale. C’est le processus d’inscription. Dans un contexte d’entreprise, tous ceux qui doivent être vérifiés possèdent déjà les deux.
Avec 2,3 millions d’humains vérifiés déjà sur le réseau, l’infrastructure pour cette vérification est prouvée plutôt que théorique.
Derniers mots
L’infrastructure d’IA d’entreprise de Nesa dispose désormais d’une couche d’identité qui couvre à la fois les humains autorisant les agents d’IA et les agents eux-mêmes. L’IA privée avec responsabilité vérifiée est une combinaison dont les déploiements en entreprise avaient besoin et qui manquaient pour la plupart.
Des milliards de réseaux