- Le nouvel APU de GSI (puce compute-in-memory) égale le débit du GPU NVIDIA A6000 sur des tâches d’IA à grande échelle tout en utilisant « plus de 98 % d’énergie en moins » [1]. Il accélère également les tâches de recherche ~5× plus rapidement que les CPU standards (jusqu’à 80 % de temps de traitement en moins) [2].
- Validation Cornell : Les résultats proviennent d’une étude dirigée par Cornell (MICRO ’25) qui a rigoureusement évalué l’APU Gemini-I de GSI sur des charges de travail RAG (Retrieval-Augmented Generation) [3]. Le PDG de GSI, Lee-Lean Shu, a salué les résultats : cela « confirme… que le compute-in-memory a le potentiel de bouleverser le marché de l’inférence IA de 100 milliards de dollars », offrant des « performances de classe GPU à une fraction du coût énergétique » [4].
- Efficacité énergétique : En intégrant mémoire et calcul, l’APU atteint une consommation d’énergie 50 à 118× inférieure à celle d’un GPU (selon la recherche) [5]. Cela répond à un besoin critique : « un matériel qui consomme moins d’énergie réduira l’appétit de l’IA pour l’énergie », note Nature, soulignant l’urgence d’un matériel IA plus écologique [6].
- Contexte industriel : La puce de GSI vise l’IA en périphérie (défense, drones, IoT) où l’énergie est rare. Les analystes estiment que le marché de l’edge-AI atteindra environ 57 milliards de dollars d’ici 2030 [7]. D’autres entreprises avancent dans la même direction : par exemple, le nouveau CPU Dimensity de MediaTek intègre une NPU compute-in-memory qui réduit la consommation d’énergie de l’IA always-on de ~42–56 % [8].
- Réaction du marché : Les actions NASDAQ:GSIT ont explosé d’environ 200 % le 20 octobre 2025 – passant d’environ 5 $ à ~15 $ en séance (autour de 14,80 $ en milieu de matinée) [9]. Cela reflète l’enthousiasme des investisseurs pour la percée en IA économe en énergie.
- Mise en garde des analystes : Malgré l’engouement, les indicateurs financiers restent fragiles. Les revenus de GSI sont faibles (≈22,1 M$) et en baisse (croissance sur 3 ans : −16,3 %), avec des marges nettes très négatives (~−63 %) [10]. Certaines prévisions estiment même que l’action pourrait chuter après ce pic (CoinCodex prévoit une baisse à ~5 $/action prochainement [11]). Les investisseurs notent que si les nouveaux contrats IA ouvrent des opportunités, ils comportent aussi un risque spéculatif [12].
Performance révolutionnaire confirmée par Cornell
L’annonce de GSI Technology du 20 octobre a dévoilé les résultats d’une étude de l’Université Cornell qui a comparé le Gemini-I APU de GSI à du matériel conventionnel. L’équipe de Cornell a exécuté de vraies charges de travail IA (RAG à grande échelle) sur la puce in-memory de GSI, un CPU multi-cœur standard et un GPU Nvidia haut de gamme (A6000). Résultat : le Gemini-I APU a atteint un débit comparable à celui du GPU Nvidia A6000 [13]. Surtout, il l’a fait en consommant « plus de 98 % d’énergie en moins » que le GPU sur de grands ensembles de données [14]. Concrètement, l’étude a montré que l’APU utilisait environ 1 à 2 % de l’énergie requise par un GPU [15] [16]. Ce gain d’efficacité massif soutient l’argument clé de GSI.
En revanche, sur les CPU traditionnels, l’APU était bien plus rapide. GSI rapporte que l’APU a réduit le temps de traitement de récupération jusqu’à 80 % par rapport aux CPU [17], ce qui signifie que les tâches s’exécutaient plus de 5 fois plus vite. Le PDG Lee-Lean Shu a souligné ces résultats : « le compute-in-memory a le potentiel de bouleverser le marché de l’inférence IA de 100 milliards de dollars », a-t-il déclaré [18]. « L’APU offre des performances de classe GPU pour une fraction du coût énergétique », grâce à son architecture centrée sur la mémoire [19]. Ces déclarations, directement issues du communiqué de presse, indiquent la confiance de GSI dans cette technologie. Les auteurs de Cornell ont également introduit de nouvelles méthodes d’optimisation pour exploiter pleinement l’intégration mémoire-calcul, soulignant qu’il ne s’agit pas d’un succès ponctuel mais d’une plateforme pour de futures améliorations [20] [21].
Pourquoi le Compute-in-Memory est important
Les puces IA traditionnelles (CPU/GPU) séparent la mémoire et le calcul, entraînant d’énormes transferts de données et une forte consommation d’énergie. Le compute-in-memory (CIM) regroupe le traitement au sein même des matrices de mémoire pour éliminer ce goulet d’étranglement. Comme le notent les éditeurs de Nature, la faim énergétique de l’IA est une crise croissante, et « un matériel qui consomme moins d’énergie réduira l’appétit de l’IA pour l’énergie » [22]. L’APU Gemini I illustre cette approche avec des « unités de traitement associatif » à base de SRAM. Il effectue essentiellement des opérations de produit scalaire et de recherche directement dans la SRAM, utilisant beaucoup moins d’énergie par opération.
Les résultats détaillés de l’étude de Cornell confirment la promesse du matériel CIM. Ils rapportent que le dispositif CIM de GSI « égale les performances d’un GPU NVIDIA A6000 pour le RAG tout en étant nettement plus économe en énergie (réduction de 54,4× à 117,9×) » [23]. Concrètement, l’APU pourrait traiter des tâches d’inférence IA avec environ 2 % de la consommation d’énergie du GPU. Une telle efficacité pourrait être transformatrice : les centres de données et les systèmes en périphérie utilisant des centaines de GPU pourraient réduire leurs besoins énergétiques de plusieurs ordres de grandeur.
Ce concept gagne du terrain au-delà de GSI. Par exemple, la puce mobile Dimensity 9500 récemment annoncée par MediaTek inclut une NPU « Super Efficiente » qui utilise des techniques CIM. MediaTek affirme que ce cœur exécute de l’IA toujours active (par exemple, annulation du bruit, traitement des capteurs) avec environ 42 à 56 % d’énergie en moins qu’auparavant [24]. La vision est la même : décharger les petites tâches d’IA sur du matériel ultra-basse consommation. Dans le domaine des smartphones, ces NPU CIM permettent aux téléphones de faire fonctionner en continu les assistants IA et les fonctions de vision sans vider la batterie.
Impact sur le marché et avis d’experts
GSI est un acteur minuscule dans les semi-conducteurs (capitalisation boursière d’environ 148 M$ [25]), donc de grands progrès sont nécessaires pour avoir un impact. Pourtant, l’entreprise se concentre stratégiquement sur la défense et l’aérospatiale (marchés à forte marge et contraints en énergie). Les analystes du secteur notent que le marché des puces Edge AI pourrait atteindre 56 à 57 milliards de dollars d’ici 2030 [26], porté par la croissance de la 5G/IoT et les dépenses gouvernementales. Le dernier APU Gemini-II de GSI (déjà finalisé) vise explicitement des cas d’usage embarqués d’IA à faible latence comme les drones autonomes et les satellites [27]. AInvest note que les partenaires de GSI incluent des sous-traitants de la défense pour l’imagerie satellite/drone, ce qui correspond à cette niche de l’edge-AI [28].
Côté investissement, l’action GSI (NASDAQ:GSIT) a bondi à l’annonce. Les données de marché montraient GSIT en hausse d’environ 191 % en séance le 20 octobre (se négociant autour de 14,80 $ à 10h02) [29]. Les traders ont cité la surprise de telles affirmations d’efficacité. Cependant, les experts appellent à la prudence. Les finances de GSI sont faibles : chiffre d’affaires annuel ≈22,1 millions de dollars (en baisse de plus de 16 % en 3 ans) et pertes nettes avec des marges autour de –63 % [30]. CoinCodex, un site de prévisions techniques, prévoit même que l’action pourrait rapidement corriger – prédisant une chute à environ 5,08 $ en quelques jours [31]. En effet, les microcaps peu liquides connaissent souvent des variations spectaculaires à la suite d’annonces.
De plus, certains analystes établissent des parallèles avec d’autres actions liées à la défense et à l’IA. Les médias technologiques notent que les envolées des actions défense-IA (par exemple, les récents gains de 22 % de BigBear.ai grâce à des contrats avec le Pentagone) sont une arme à double tranchant [32]. « La couverture de la croissance des contrats IA-défense met en avant à la fois les opportunités et la spéculation excessive », avertit un rapport [33]. En d’autres termes, même si la technologie est prometteuse, la conversion en profits et l’adoption prennent du temps. Le PDG de GSI a repris ce point de vue équilibré en présentant une feuille de route (Gemini-II et une future puce “Plato”) visant une consommation réduite et un débit supérieur [34] [35], indiquant que l’entreprise pense au-delà du communiqué du jour.
Perspectives et prévisions des analystes
Pour la suite, GSI publiera ses résultats du deuxième trimestre de l’exercice 2026 le 30 octobre, ce qui permettra d’évaluer la demande réelle pour ses puces. Le communiqué de presse et l’étude sont des signaux positifs, mais beaucoup dépendra de l’exécution. Pour l’instant, les indicateurs techniques sont partagés : le sentiment sur l’action est haussier, mais la volatilité est extrême. Le modèle de CoinCodex a classé GSIT comme « très forte volatilité » et a conseillé une position courte car la hausse du cours était jugée intenable [36].
Malgré tout, la réussite principale est claire : l’APU compute-in-memory de GSI franchit concrètement le mur de la consommation des GPU. Si la technologie passe à l’échelle, elle pourrait forcer les concurrents à repenser la conception des puces IA. Comme l’a dit un analyste du secteur à propos d’efforts similaires, la gestion de la consommation compte souvent plus que les scores bruts de performance. La question est de savoir si GSI pourra transformer cette innovation en ventes massives. Pour les investisseurs comme pour les ingénieurs, cette annonce marque une étape : une puce IA à mémoire associative a passé un test en conditions réelles, et pour la première fois, des performances IA de classe GPU pourraient être accessibles à une consommation de centre de données.
Sources: Communiqué de presse de GSI Technology (20 oct. 2025) [37] [38] ; Étude Cornell APU (Micro ’25) [39] ; Données de marché GuruFocus, StockAnalysis, CoinCodex [40] [41] [42] ; Analyses de puces TechStock² (TS2.tech) [43] [44] [45] ; Nature (article sur l’énergie IA) [46].
References
1. www.globenewswire.com, 2. www.globenewswire.com, 3. www.globenewswire.com, 4. www.globenewswire.com, 5. arxiv.org, 6. www.nature.com, 7. www.ainvest.com, 8. ts2.tech, 9. stockanalysis.com, 10. www.gurufocus.com, 11. coincodex.com, 12. www.ainvest.com, 13. www.globenewswire.com, 14. www.globenewswire.com, 15. arxiv.org, 16. www.globenewswire.com, 17. www.globenewswire.com, 18. www.globenewswire.com, 19. www.globenewswire.com, 20. arxiv.org, 21. www.globenewswire.com, 22. www.nature.com, 23. arxiv.org, 24. ts2.tech, 25. www.gurufocus.com, 26. www.ainvest.com, 27. www.ainvest.com, 28. www.ainvest.com, 29. stockanalysis.com, 30. www.gurufocus.com, 31. coincodex.com, 32. www.ainvest.com, 33. www.ainvest.com, 34. www.stocktitan.net, 35. www.globenewswire.com, 36. coincodex.com, 37. www.globenewswire.com, 38. www.globenewswire.com, 39. arxiv.org, 40. www.gurufocus.com, 41. stockanalysis.com, 42. coincodex.com, 43. ts2.tech, 44. www.ainvest.com, 45. www.ainvest.com, 46. www.nature.com


