Cryptonews

Un chercheur solo annonce une percée dans la protection du Bitcoin contre les vulnérabilités de l'informatique quantique

Source
cryptonewstrend.com
Publié
Un chercheur solo annonce une percée dans la protection du Bitcoin contre les vulnérabilités de l'informatique quantique

Dans le cadre d'une avancée majeure, le développeur indépendant Avihu Levy a dévoilé une nouvelle approche pour protéger les transactions Bitcoin de la menace imminente des ordinateurs quantiques, le tout sans nécessiter une refonte du protocole. Cette solution innovante évite la nécessité d’un soft fork ou d’un consensus à l’échelle du réseau, ce qui la distingue des mises à jour post-quantiques longuement débattues qui ont été présentées comme un effort de plusieurs années. La méthode de Levy exploite intelligemment la puissance de la cryptographie basée sur le hachage, en exploitant l'algorithme RIPEMD-160 qui fait partie intégrante de l'infrastructure de Bitcoin depuis sa création.

La récente résurgence des inquiétudes concernant le potentiel des ordinateurs quantiques à perturber les systèmes cryptographiques a suscité un regain d'intérêt pour l'atténuation de ce que l'on appelle la « menace quantique ». Une étude de Google a révélé que le seuil de puissance de traitement quantique requis pour compromettre le cadre cryptographique de Bitcoin pourrait être considérablement inférieur à ce que l'on pensait auparavant, ravivant les craintes d'un scénario « Q-Day » dans lequel les ordinateurs quantiques pourraient potentiellement démanteler les systèmes de cryptage existants. La dépendance du réseau Bitcoin à l'algorithme de signature numérique à courbe elliptique (ECDSA) le rend théoriquement vulnérable aux attaques d'un ordinateur quantique suffisamment puissant, qui pourrait exploiter l'algorithme de Shor pour accéder aux clés privées à partir des clés publiques.

Les propositions actuelles de mises à niveau post-quantiques, telles que BIP 360, nécessitent un vaste consensus sur le réseau, ce qui rend leur mise en œuvre longue et complexe. En revanche, l'approche de Levy offre une solution plus simple en abandonnant les courbes elliptiques au profit d'une structure basée sur le hachage. En utilisant une méthodologie de signature fondée sur des fonctions de hachage, en particulier l'algorithme RIPEMD-160, les transactions peuvent être vérifiées à l'aide de signatures uniques générées à partir de ces fonctions de hachage. Cette méthodologie intègre également le système HORS (Hash-based One-time Signature), qui fournit théoriquement un cadre robuste pour résister aux attaques quantiques, étant donné l'hypothèse selon laquelle les ordinateurs quantiques sont inefficaces pour inverser les fonctions de hachage.

Les experts notent que même si les ordinateurs quantiques peuvent cibler les courbes elliptiques à l'aide de l'algorithme de Shor, leurs capacités contre les fonctions de hachage sont limitées à des méthodes comme l'algorithme de Grover, qui, bien que moins efficaces, posent néanmoins un défi important. Bien que cette approche puisse réduire le niveau de sécurité, elle rend extrêmement difficile toute violation dans la pratique. Notamment, la solution de Levy fonctionne entièrement dans les limites existantes du protocole Bitcoin, adhérant aux limites de script du réseau sans nécessiter un nouvel opcode ou un changement de protocole.

L'étude, actuellement considérée comme une « preuve de concept », souligne le potentiel du Bitcoin à être plus résistant aux menaces quantiques qu'on ne le pensait initialement, déclenchant une dichotomie d'opinions au sein de la communauté. Alors que certains considèrent ces préoccupations comme du « FUD » (peur, incertitude et doute), d'autres soutiennent que des précautions doivent être prises pour atténuer les risques potentiels. Cependant, la faisabilité de la solution est entravée par des tailles et des coûts de transaction importants, qui varient de 75 à 150 dollars par transaction utilisant des GPU cloud, ce qui rend difficile son déploiement sur un réseau standard. De plus, des tests en chaîne à grande échelle n’ont pas encore été effectués, ce qui laisse place à un développement et à un perfectionnement ultérieurs.