Les analystes de Wall Street exhortent les investisseurs à acheter Micron (MU) et Sandisk après la baisse de Google TurboQuant

Table des matières Les fabricants de puces mémoire Micron et Sandisk ont connu de fortes baisses la semaine dernière suite à la publication par Google de détails techniques concernant TurboQuant, une technologie de compression innovante qui réduit les besoins en mémoire des modèles d'IA d'un facteur minimum de six. L'algorithme améliore simultanément les performances d'inférence jusqu'à huit fois tout en maintenant les niveaux de précision du modèle. Les investisseurs ont interprété cette évolution de manière négative pour les producteurs de mémoires à semi-conducteurs. La perspective d'une réduction de la consommation de mémoire par modèle d'intelligence artificielle a suscité des inquiétudes quant à l'affaiblissement de la demande de puces pour les acteurs du secteur, notamment Micron et Sandisk. Les deux actions ont reculé d’au moins 15 % par rapport aux valorisations record atteintes à la fin du mois dernier. L'activité commerciale de jeudi a montré que Sandisk a chuté de 5,9% à 652 dollars, tandis que Micron a chuté de 5,5% pour atteindre 347,78 dollars. Sandisk Corporation, SNDK Le sentiment du marché a été encore plus touché lorsque les remarques du président Trump mercredi soir n'ont pas réussi à clarifier le calendrier de résolution du conflit iranien, créant une incertitude qui s'est répercutée sur les échanges de jeudi. Les chercheurs de Google ont initialement exploré les concepts TurboQuant en 2025, avec des résultats mis à jour sur les capacités d'inférence de l'IA publiés dans des articles de recherche ultérieurs. Vijay Rakesh, analyste chez Mizuho Securities, a contré le sentiment dominant du marché dans ses communications avec ses clients. Il a maintenu les notes de surperformance pour Micron et Sandisk tout en préservant les objectifs de prix de 530 $ et 710 $ respectivement. Rakesh a conseillé à ses clients « d’acheter le retrait de mémoire TurboQuant », qualifiant les inquiétudes concernant la demande maximale de mémoire d’« exagérées ». Sa thèse centrale suggère que les améliorations de l’efficacité de l’intelligence artificielle ont systématiquement entraîné une augmentation des dépenses plutôt qu’une réduction des dépenses. Ce principe économique, reconnu comme le paradoxe de Jevons, décrit comment l’amélioration de l’efficacité ou la réduction du coût d’une ressource stimule généralement une consommation globale plus élevée. Rakesh a fait référence à trois précédents historiques. On s'attendait à ce que la technologie des machines virtuelles réduise les exigences en matière de serveur, mais elle a généré le résultat inverse. L’introduction de DeepSeek en 2025 a suscité des inquiétudes quant à la demande de GPU, mais les investissements dans les infrastructures d’IA ont continué de croître. La transition de l’infrastructure de réseau en cuivre vers l’infrastructure de réseau optique, malgré l’amélioration de la bande passante par 10, a entraîné une augmentation des investissements en capital dans les serveurs d’IA plutôt qu’une réduction des coûts. Rakesh a observé que l'intégration de la mémoire NAND dans les architectures de serveurs IA a doublé au cours des douze mois précédents. Les valorisations du marché au comptant ont maintenu une dynamique haussière tout au long des trimestres consécutifs. Il a soutenu que les technologies de compression de type TurboQuant «permettraient des modèles de langage plus grands, une inférence plus rapide et une meilleure tokenomics, stimulant ainsi davantage de dépenses» dans l'ensemble de l'écosystème de l'IA. Avec une appréciation simultanée des prix et une dynamique fondamentale robuste de la demande, Mizuho prévoit que Micron et Sandisk pourraient dépasser les prévisions de bénéfices déjà élevées au cours des périodes à venir. Sandisk se négocie actuellement à près de 652 $, positionné en dessous de l'objectif de valorisation de 710 $ de Mizuho. Micron oscille autour de 347 $, par rapport à l’objectif de prix de 530 $ de l’entreprise.