RISC-V vs ARM vs x86 : Le grand affrontement des architectures silicium en 2025

La bataille pour la suprématie informatique s’intensifie en 2025, alors que trois grandes architectures de processeurs – RISC-V, ARM et x86 – se disputent la domination. Ces architectures de jeu d’instructions sont à la base de tout, des minuscules capteurs IoT aux superordinateurs. x86 règne sur les PC et serveurs depuis des décennies, ARM alimente désormais pratiquement tous les smartphones (et même les Mac d’Apple), et le nouveau venu RISC-V connaît une popularité fulgurante en tant qu’alternative ouverte. Chacune possède des atouts uniques : x86 offre des performances brutes et un immense héritage logiciel, ARM se distingue par son efficacité et un écosystème mobile/embarqué mature, et le design ouvert de RISC-V promet une flexibilité et une innovation sans précédent eetimes.eu eetimes.eu. Ce rapport propose une comparaison approfondie des trois architectures – couvrant les bases techniques, les performances, l’efficacité énergétique, la flexibilité, les licences, la maturité de l’écosystème, la sécurité, les implémentations matérielles et les dernières tendances à la mi-2025. Nous mettrons également en avant des analyses d’experts, des citations du secteur et les produits à venir. L’enjeu est de taille : celui qui prendra la tête de ce « duel des architectures silicium » façonnera l’avenir de l’informatique, des appareils mobiles aux centres de données cloud, en passant par l’IA en périphérie et au-delà.
Fondements techniques : RISC vs CISC et philosophie de conception
À un niveau élevé, l’architecture x86 est l’exemple classique d’un design CISC (Complex Instruction Set Computer), tandis qu’ARM et RISC-V suivent tous deux les principes RISC (Reduced Instruction Set Computer). En pratique, les processeurs modernes brouillent les frontières – mais les philosophies de conception influencent toujours le cœur de chaque architecture.
- x86 (développé par Intel dans les années 1970) est une ISA CISC avec un jeu d’instructions riche et dense, comprenant de nombreuses opérations complexes et héritées. Au fil des années, x86 a accumulé beaucoup de « bagages » pour la rétrocompatibilité, depuis le mode réel 16 bits jusqu’aux extensions modernes 64 bits. Cela rend les puces x86 puissantes et polyvalentes, mais aussi gonflées par des fonctionnalités héritées. Les microarchitectures x86 modernes traduisent en interne les instructions CISC en micro-opérations plus simples (essentiellement des opérations de type RISC) pour l’exécution, ce qui atténue certaines inefficacités mais au prix d’une logique de décodage supplémentaire tomshardware.com tomshardware.com. Intel a même exploré une variante x86 simplifiée, uniquement 64 bits (baptisée x86-S), qui abandonnerait la prise en charge des anciens modes 16/32 bits pour rationaliser les futures puces tomshardware.com tomshardware.com. Cependant, la force de x86 reste sa robustesse et ses performances brutes, ainsi qu’une base logicielle héritée inégalée – vous pouvez encore exécuter des applications PC vieilles de plusieurs décennies sur les processeurs x86 actuels. Ce support de l’héritage est à la fois une bénédiction et une malédiction, offrant à x86 un immense écosystème mais aussi une architecture plus lourde et moins élégante (d’où une consommation d’énergie historiquement plus élevée) dfrobot.com tomshardware.com.
- ARM (à l’origine Acorn RISC Machine, puis Advanced RISC Machine) est né dans les années 1980 comme une architecture RISC pure. Les instructions ARM sont de taille fixe et relativement simples, permettant un pipeline efficace et une faible consommation d’énergie – idéal pour les usages mobiles et embarqués. Au fil du temps, ARM a ajouté des fonctionnalités (comme les instructions compressées Thumb, le SIMD NEON, l’ARMv8 64 bits, etc.) et maintenant, avec ARMv9, il intègre des fonctionnalités avancées comme le traitement vectoriel SVE2 et une sécurité renforcée, mais il est resté une architecture load/store de style RISC à son cœur. La philosophie de conception d’ARM privilégie un rapport performance par watt élevé, ce qui explique sa domination dans les appareils alimentés par batterie dfrobot.com dfrobot.com. Comparé à x86, les cœurs ARM ont généralement un jeu d’instructions plus petit et plus épuré, avec beaucoup moins de vieilles scories héritées. L’inconvénient est qu’historiquement, ARM nécessitait des logiciels très optimisés et ne pouvait pas égaler les performances maximales du x86 sur PC – mais cet écart s’est rapidement réduit (comme l’ont prouvé les puces Apple M-series à base d’ARM). ARM est propriétaire ; Arm Holdings accorde des licences pour son ISA et ses conceptions de cœurs aux fabricants de puces. Cependant, plusieurs entreprises peuvent implémenter des cœurs ARM, ce qui conduit à un écosystème riche en fournisseurs et en innovations. En résumé, ARM offre l’efficacité du RISC avec des décennies de maturité de l’écosystème, équilibrant extrêmement bien performance et consommation pour une large gamme d’appareils.
- RISC-V est le plus récent acteur – une architecture RISC de cinquième génération issue de l’UC Berkeley (présentée pour la première fois en 2010). Elle a été conçue de zéro pour être propre, modulaire et extensible, sans le fardeau de l’héritage. L’ISA de base de RISC-V ne comporte que quelques dizaines d’instructions simples, puis elle définit des extensions optionnelles (pour la multiplication, les opérations atomiques, le calcul en virgule flottante, les vecteurs, etc.) que les concepteurs peuvent inclure selon les besoins dfrobot.com dfrobot.com. Cette approche modulaire permet à RISC-V de s’étendre des microcontrôleurs minuscules jusqu’aux processeurs serveurs super-scalaires en n’ajoutant que les composants nécessaires. Fait important, RISC-V est une norme ouverte – l’ISA est gratuite et non grevée par des droits de licence. Cela rappelle l’esprit des logiciels open source, mais appliqué au matériel. En conséquence, les puces RISC-V peuvent être conçues par n’importe qui sans payer de frais de licence, et des instructions personnalisées peuvent être ajoutées pour des cas d’utilisation spécifiques. La philosophie de conception met l’accent sur la simplicité, l’efficacité énergétique et l’absence de contraintes héritées dfrobot.com dfrobot.com. Le vétéran de l’industrie David Patterson (co-créateur de RISC-V et des premières conceptions RISC) a souligné la pureté de RISC-V : il évite la « surcharge de complexité » accumulée par x86 et même ARM, aboutissant à une ISA minimaliste qui atteint la performance par l’efficacité plutôt que par le simple nombre d’instructions dfrobot.com dfrobot.com. Concrètement, la base technique de RISC-V lui confère des avantages de table rase – plus facile à mettre en œuvre et à innover – mais étant nouveau, il reste encore en retard en matière d’optimisation et de support logiciel (pour l’instant).
Jeu d’instructions et flexibilité : L’ensemble d’instructions de RISC-V est modulaire par conception, ce qui est unique. Il existe une petite base obligatoire (par exemple, opérations entières 32 bits) et de nombreuses extensions standard (désignées par des lettres comme M pour la multiplication/division entière, A pour les atomiques, F/D pour la virgule flottante, V pour le vectoriel/SIMD, etc.). Les développeurs peuvent également créer des extensions personnalisées pour des accélérateurs spécifiques, ce qui le rend hautement flexible et personnalisable eetimes.eu eetimes.eu. L’ISA d’ARM est plus monolithique – par exemple, ARMv8-A pour le 64 bits inclut un ensemble de fonctionnalités fixes – bien qu’Arm offre une certaine flexibilité via sa licence d’architecture (permettant à des entreprises comme Apple ou Qualcomm de concevoir des cœurs personnalisés qui implémentent l’ISA ARM, et récemment même des instructions personnalisées limitées via sa “Scalable Vector Extension”). x86 est le moins flexible – il est entièrement contrôlé par Intel/AMD, et bien qu’il possède de nombreuses extensions (SSE, AVX, etc.), les tiers ne peuvent pas ajouter les leurs. En termes de densité de code, les trois proposent des options pour des instructions compressées (instructions à longueur variable pour x86, ARM Thumb, extension “C” de RISC-V), donc l’empreinte mémoire est comparable, même si les concepteurs de RISC-V ont cherché à être compétitifs sur la taille du code en tirant des leçons de leurs prédécesseurs. En résumé, l’ISA de RISC-V est la plus simple et la plus extensible, celle d’ARM est riche mais soigneusement gérée, et celle de x86 est puissante mais alourdie par la complexité héritée.
Performance et efficacité énergétique
En termes de performance brute, x86 a traditionnellement mené la course dans l’informatique haut de gamme – mais ARM a considérablement réduit l’écart, et RISC-V rattrape rapidement dans certains domaines. Voici comment ils se comparent à la mi-2025 :
- Performance x86 : Des décennies de perfectionnement ont rendu les processeurs x86 d’Intel et d’AMD extrêmement puissants. Les puces x86 haut de gamme (comme l’Intel Core i9 ou l’AMD Ryzen 9 pour les ordinateurs de bureau, et Xeon/EPYC pour les serveurs) offrent des vitesses monocœur de pointe et un débit multi-cœur élevé. Elles excellent dans les charges de travail lourdes qui peuvent exploiter leurs pipelines agressifs hors ordre, leurs grandes mémoires cache et leurs fréquences d’horloge élevées. Par exemple, dans les benchmarks serveurs, les processeurs x86 à 64 ou 96 cœurs fixent encore souvent la référence en matière de performance absolue. Cependant, cette rapidité s’accompagne d’une consommation électrique élevée – les puces x86 ont historiquement été gourmandes en énergie, nécessitant un refroidissement robuste, surtout en charge maximale. L’efficacité s’est améliorée (notamment avec les architectures hybrides combinant des cœurs « performance » et « efficacité » comme le fait désormais Intel), mais les puces x86 consomment généralement plus d’énergie par opération que les conceptions ARM équivalentes dfrobot.com. Dans les contextes mobiles ou ultra-basse consommation, le x86 a eu du mal (les tentatives d’Intel pour les puces de smartphones ont échoué principalement à cause du manque d’efficacité énergétique). Cela dit, en 2025, le x86 reste le roi de la performance héritée – pour des tâches comme le trading à haute fréquence, certains calculs scientifiques et l’exécution de logiciels anciens, la force brute et les optimisations mûries du x86 lui donnent un avantage. Pourtant, le coût énergétique est plus élevé, et les appareils sur batterie ont pour la plupart abandonné le x86.
- Performance ARM : ARM était autrefois considéré comme « plus lent mais peu gourmand en énergie », adapté uniquement aux téléphones et appareils embarqués. Cette vision est dépassée. Les processeurs ARM actuels peuvent rivaliser avec les x86 en termes de performance – tout en les surpassant souvent en efficacité. Un moment décisif a été la puce M1 d’Apple (2020) et ses successeurs (M2, etc.), qui ont montré qu’une conception ARM pouvait surpasser des CPU x86 comparables dans les ordinateurs portables/de bureau tout en consommant une fraction de leur énergie dfrobot.com dfrobot.com. En 2025, les SoC de la série M d’Apple (avec des conceptions ARM64 personnalisées à 8–10 cœurs) continuent de placer la barre très haut en matière de performance par watt, surpassant de nombreuses puces x86 pour ordinateurs portables tout en consommant très peu. Dans le domaine des serveurs, les puces ARM comme Graviton3 d’Amazon et les processeurs d’Ampere offrent des dizaines à plus de 128 cœurs, assurant un débit compétitif avec un TDP bien inférieur à celui des Xeon. En fait, l’efficacité d’ARM est telle que pour un même budget énergétique, un serveur ARM peut embarquer plus de cœurs et souvent un débit total supérieur – une raison clé pour laquelle les fournisseurs cloud adoptent ARM pour les charges de travail à grande échelle. Cela dit, en performance absolue par cœur, les cœurs x86 les plus rapides (par exemple Golden Cove d’Intel ou Zen 4 d’AMD) dépassent encore légèrement les cœurs ARM les plus rapides (comme la série ARM Cortex-X ou les cœurs Apple) sur certains critères, grâce à des fréquences plus élevées et une microarchitecture agressive. Mais la différence est faible, et la progression d’ARM est très rapide. L’efficacité énergétique est le point fort d’ARM : son héritage mobile fait que même les cœurs ARM hautes performances sont optimisés pour effectuer plus de travail par watt. Cela rend les puces ARM idéales pour tout ce qui est sensible à l’énergie – des téléphones (où ARM domine) aux centres de données cherchant un meilleur rapport performance/prix de l’électricité. En résumé, ARM offre désormais des performances presque équivalentes à x86 dans le haut de gamme, avec une efficacité énergétique supérieure. Le passage de toute la gamme Mac de x86 à ARM en est la preuve : Apple a démontré que les puces ARM peuvent gérer des charges professionnelles traditionnellement réservées au x86, sans sacrifier la vitesse dfrobot.com.
- Performance RISC-V : RISC-V est le nouveau venu qui doit encore faire ses preuves en matière de performance. Les premières implémentations de RISC-V étaient axées sur les microcontrôleurs et les cœurs simples, elles étaient donc bien en retard sur x86/ARM en termes de vitesse. Cependant, cela évolue rapidement. Au cours des dernières années, des entreprises ont lancé des processeurs RISC-V de classe serveur conçus pour rivaliser avec les CPU grand public. Par exemple, Ventana Micro Systems a annoncé sa puce RISC-V Veyron V2 avec jusqu’à 192 cœurs, ciblant les charges de travail cloud et IA servethehome.com servethehome.com. Bien que chaque cœur RISC-V n’atteigne pas encore l’IPC (instructions par cycle) des meilleurs cœurs x86/ARM, ces puces misent sur un nombre massif de cœurs et des conceptions en chiplet pour obtenir un débit élevé. Ventana revendique des performances par watt compétitives pour certaines tâches de centre de données, en mettant l’accent sur l’accélération spécifique à un domaine en plus des cœurs généraux servethehome.com. Une autre startup, SiFive, a développé des cœurs RISC-V haute performance (la série U8, etc.) destinés aux appareils clients et aux accélérateurs. L’écart de performance en mono-thread se réduit à mesure que les conceptions RISC-V adoptent des techniques comme l’exécution hors ordre, de grands caches et des fréquences élevées – rattrapant ainsi des décennies de savoir-faire architectural. Un avantage de RISC-V est la liberté de spécialisation : une puce RISC-V peut inclure des extensions personnalisées pour des algorithmes spécifiques (par exemple, traitement IA, cryptographie), ce qui peut surpasser les cœurs généralistes dans ces domaines. Par exemple, des accélérateurs vectoriels et IA spécialisés sur RISC-V peuvent offrir d’énormes gains de vitesse pour ces charges de travail. En résumé, la performance brute n’est pas encore le point fort de RISC-V pour l’instant, mais elle progresse rapidement. Pour de nombreux usages embarqués et IoT, les cœurs RISC-V sont déjà « suffisamment rapides » avec un coût ou une consommation bien inférieurs. Dans les domaines haut de gamme, 2025 marque la première vague d’offres RISC-V véritablement compétitives (comme des SoC multi-cœurs, multi-GHz) arrivant sur le marché eetasia.com eetasia.com. Le consensus parmi les experts est que les performances de RISC-V continueront de faire des bonds en avant à mesure que davantage d’entreprises investiront dans des conceptions avancées – pouvant potentiellement rivaliser avec ARM et x86 dans davantage de domaines d’ici quelques années. Comme l’a dit un analyste du secteur, la conversation est passée de « si et quand » RISC-V sera viable à « quand et comment » il sera adopté, les cœurs gagnant en puissance à chaque génération eetasia.com.
Performance par watt : S’il y a un indicateur où ARM (et potentiellement RISC-V) surpasse nettement x86, c’est bien l’efficacité. La conception RISC d’ARM et des décennies d’optimisation pour le mobile lui donnent un avantage clair en termes de performance délivrée par watt consommé. Les puces x86 se sont améliorées (notamment avec la nouvelle approche de cœurs hybrides d’Intel et les nœuds de gravure 7nm/5nm d’AMD), mais elles consomment encore souvent plus d’énergie en charge. C’est pourquoi les serveurs basés sur ARM peuvent offrir une plus grande densité de calcul dans des environnements contraints en énergie, et pourquoi les ordinateurs portables utilisant des puces ARM (par exemple les Mac Apple Silicon, ou les futurs appareils Windows sur ARM) bénéficient d’une meilleure autonomie pour des performances similaires. Les conceptions RISC-V, étant légères et personnalisables, affichent également une excellente efficacité sur des tâches spécifiques – de nombreux microcontrôleurs RISC-V peuvent fonctionner sur de toutes petites batteries pendant de longues périodes. En 2025, ARM domine en efficacité énergétique pour le traitement à usage général, avec la promesse que RISC-V atteindra une efficacité similaire, voire supérieure, une fois que ses cœurs haute performance seront matures. x86 reste généralement réservé aux scénarios où la performance absolue est requise et où la consommation d’énergie est secondaire (PC de jeu, stations de travail, besoins logiciels hérités), ou encore là où des années d’optimisations spécifiques à x86 lui donnent toujours un avantage pour certaines applications.
Flexibilité et personnalisation
L’une des différences les plus marquantes entre ces architectures est leur flexibilité et personnalisation :
- RISC-V : Une flexibilité sans précédent. L’ISA ouverte et modulaire de RISC-V a été explicitement conçue pour la flexibilité. Les entreprises et même les amateurs peuvent prendre l’ISA de base et ajouter leurs propres instructions ou accélérateurs pour optimiser des charges de travail particulières, sans avoir besoin de l’autorisation d’une autorité centrale. Cela a conduit certains à surnommer RISC-V « le Linux du matériel », car, comme les logiciels open source, il permet à une communauté mondiale de collaborer et d’innover sur une base commune. Par exemple, une entreprise fabriquant une puce de capteur IoT peut inclure uniquement la base entière de RISC-V et peut-être un petit multiplicateur – minimisant ainsi la surface de silicium – tandis qu’une entreprise développant un accélérateur IA pourrait ajouter une instruction de multiplication matricielle personnalisée pour accélérer les réseaux neuronaux. Cette capacité à adapter le processeur à la tâche est quelque chose qu’ARM et x86 n’offrent pas au même degré. Comme le note RISC-V International, l’ISA ouverte permet « un plus grand contrôle » et une spécialisation que les ISA propriétaires ne peuvent égaler eetimes.eu eetimes.eu. Une illustration frappante est la façon dont Nvidia utilise les cœurs RISC-V : Nvidia a intégré des dizaines de processeurs de contrôle RISC-V personnalisés dans ses GPU pour gérer les tâches plus efficacement que les contrôleurs standards eetimes.eu. De tels ajustements internes seraient difficiles avec des cœurs ARM verrouillés. RISC-V permet même différentes largeurs de données (par exemple, variantes 32 bits, 64 bits, 128 bits) et dispose de profils standard pour différents domaines (le profil RVA23 récent pour les applications inclut les vecteurs et la virtualisation pour les usages haut de gamme eetasia.com eetasia.com). Le revers de la médaille est qu’une grande liberté comporte un risque de fragmentation – si chacun crée ses propres extensions, la compatibilité logicielle pourrait en pâtir. La communauté RISC-V répond à cela en ratifiant des profils standard pour garantir une compatibilité de base eetasia.com. Néanmoins, en 2025, RISC-V offre clairement la plus grande liberté aux concepteurs de puces, ce qui est un atout majeur dans des secteurs comme les accélérateurs personnalisés, la recherche, et tout domaine où les CPU universels ne conviennent pas à tous.
- ARM : configurable mais contrôlé. ARM se situe entre les deux – Arm Holdings fournit une variété de cœurs IP et quelques options configurables, mais au final Arm contrôle l’ISA et son évolution. Les grands licenciés peuvent obtenir une licence d’architecture, ce qui leur permet de concevoir des microarchitectures personnalisées qui implémentent le jeu d’instructions ARM (les CPU d’Apple en sont un exemple phare, tout comme les futurs cœurs Oryon de Qualcomm). Mais ils ne peuvent pas modifier l’ISA ARM elle-même – toute nouvelle instruction ou extension doit être approuvée et publiée par Arm Holdings. Il y a eu des programmes limités pour des instructions personnalisées (Arm a annoncé une extension Custom Instructions pour les microcontrôleurs Cortex-M ces dernières années), mais ceux-ci sont très encadrés. En général, ARM propose un large portefeuille de produits – des petits cœurs Cortex-M0 jusqu’aux cœurs Neoverse de niveau serveur – donc les clients choisissent le cœur le plus proche de leurs besoins et l’intègrent. Cela offre une certaine flexibilité dans le choix du bon cœur, mais pas dans la modification de ses comportements fondamentaux. Cela dit, comme tant d’entreprises licencient ARM, il existe une grande diversité d’écosystème dans les puces basées sur ARM : par exemple, une entreprise peut se concentrer sur l’ajout d’un gros GPU ou NPU à côté du CPU ARM, une autre peut privilégier une implémentation ultra-basse consommation. L’approche d’Arm pourrait être décrite comme « configuré, pas personnalisé » – vous pouvez configurer des paramètres (tailles de cache, nombre de cœurs, etc.) et choisir parmi des ensembles de fonctionnalités standard, mais vous ne pouvez généralement pas aller trop loin avec de nouvelles fonctionnalités ISA. L’avantage de cette flexibilité contrôlée est une forte compatibilité logicielle entre les puces ARM et un niveau garanti de support de la part d’Arm Holdings pour les outils et l’IP. Cela signifie aussi qu’ARM peut imposer un certain niveau de cohérence et de qualité (important pour des choses comme les certifications de sécurité dans l’automobile). En résumé, ARM offre une flexibilité modérée grâce à la variété de ses cœurs et à ses licences d’architecture, mais cela reste une plateforme propriétaire avec Arm comme gardien des changements majeurs eetimes.eu eetimes.eu.
- x86 : Le moins flexible (écosystème fermé). L’architecture x86 est entièrement détenue et définie par Intel (et dans une certaine mesure co-développée avec AMD). Aucune autre entité ne peut implémenter des CPU x86 à partir de zéro sans licence (et en pratique, le seul producteur x86 tiers ces dernières années a été VIA/Zhaoxin en Chine via d’anciennes licences). Cela fait de x86 un écosystème fermé – essentiellement un duopole d’Intel et AMD contrôlant sa direction. Si vous voulez un processeur x86, vous achetez une puce Intel ou AMD (ou celles de leurs rares licenciés). Il n’y a aucune opportunité de personnalisation par des entreprises extérieures ; même de grandes entreprises comme Google ou Apple n’ont pas pu fabriquer leurs propres puces x86 (ce qui explique en partie pourquoi Apple est passé à ARM pour plus de contrôle). Intel et AMD ajoutent de nouvelles instructions (comme AVX-512, ou les récents concurrents AVX-512 d’AMD, etc.), mais cela dépend du bon vouloir des fournisseurs et conduit souvent à de la fragmentation (par exemple, certaines puces prennent en charge une nouvelle extension, d’autres non, obligeant les logiciels à détecter les capacités). Dans l’ensemble, la rigidité de x86 a un avantage : un programme compilé pour x86 fonctionnera sur n’importe quel processeur x86 (avec la même largeur de bits) depuis de nombreuses années – la plateforme est très stable. Mais cela signifie aussi que x86 ne peut pas facilement intégrer des innovations spécifiques à un domaine provenant de l’industrie au sens large. À l’inverse, avec RISC-V, par exemple, des groupes de recherche ont créé des extensions expérimentales pour la sécurité et l’IA et peuvent réellement les prototyper sur du silicium RISC-V réel. Avec x86, l’innovation est limitée à ce qu’Intel/AMD choisissent de faire en interne. C’est une raison clé pour laquelle beaucoup considèrent le modèle ouvert de RISC-V comme un changement de paradigme ; comme le dit RISC-V International, les ISA propriétaires « ont freiné le progrès de la R&D » en verrouillant l’écosystème, alors qu’une ISA ouverte « facilite les solutions collaboratives » et une innovation plus rapide eetimes.eu eetimes.eu.
En résumé, RISC-V offre une flexibilité maximale (ouvert à la personnalisation), ARM offre une flexibilité encadrée (de nombreuses options mais dans un cadre contrôlé), et x86 offre la cohérence au prix de la flexibilité (fermé, « ce que vous voyez est ce que vous obtenez »). Selon l’application, cela peut être un facteur décisif – par exemple, si un programme national veut développer un processeur unique pour le calcul haute performance ou un usage militaire sans contrôle extérieur, RISC-V est attrayant ; si un fabricant de PC grand public veut simplement une plateforme standard fiable, x86 ou ARM peuvent être plus simples.
Modèles de licence : ouvert vs propriétaire
Les modèles de licence et commerciaux derrière ces architectures sont aussi différents que le jour et la nuit, et ils ont de grandes implications sur le coût, l’innovation, et même la géopolitique.
- RISC-V – Ouvert et sans redevance : RISC-V est une norme ouverte, gérée par RISC-V International (une fondation à but non lucratif). L’utilisation de l’ISA RISC-V ne nécessite pas de payer de frais de licence ou de redevances. N’importe qui peut télécharger la spécification, concevoir un processeur, et tant qu’il respecte la spécification, l’appeler un processeur RISC-V. C’est similaire à la façon dont n’importe qui peut utiliser les normes Ethernet ou Wi-Fi. Les implémentations de conception peuvent être propriétaires ou open source, mais l’ISA elle-même est ouverte. Ce modèle réduit considérablement les barrières à l’entrée – startups, universités et entreprises des pays en développement peuvent toutes créer des puces sans les coûts initiaux qu’ARM ou x86 imposeraient eetimes.eu eetimes.eu. Il favorise également une communauté : les entreprises partagent des idées sur les extensions, collaborent dans des groupes de travail, etc., à l’image d’une communauté de logiciels open source. Cependant, ouvert ne signifie pas sans gouvernance – la fondation RISC-V (dont le siège est en Suisse pour la neutralité) gère la standardisation de l’ISA pour éviter une fragmentation excessive eetimes.eu. Le modèle ouvert signifie aussi qu’il n’existe pas une seule entreprise fournissant des cœurs RISC-V “officiels” – à la place, de nombreux fournisseurs (SiFive, Andes, Tenstorrent, T-Head d’Alibaba, etc.) proposent de l’IP ou des puces RISC-V. Ce marché concurrentiel peut faire baisser les coûts pour les clients. En revanche, le support et la responsabilité sont distribués – contrairement à ARM, il n’existe pas une entité unique garantissant le bon fonctionnement de tous les cœurs RISC-V ; c’est aux implémenteurs d’assurer la qualité (même si des initiatives comme les suites de tests de compatibilité RISC-V et les programmes de certification émergent eetimes.eu). Une implication importante de la licence ouverte de RISC-V se voit sur le plan géopolitique : les pays ou entreprises souhaitant l’indépendance vis-à-vis du contrôle étranger de la propriété intellectuelle se sont tournés vers RISC-V. Par exemple, l’UE et la Chine ont toutes deux beaucoup investi dans RISC-V comme moyen de renforcer leurs capacités nationales en puces sans dépendre d’Arm (une société liée au Royaume-Uni/États-Unis) ou x86 (États-Unis) eetimes.eu eetimes.eu. En fait, RISC-V International a délibérément déménagé en Suisse en 2020 pour rester neutre et accessible à tous, après des inquiétudes selon lesquelles les contrôles à l’exportation américains pourraient restreindre une ISA basée aux États-Unis dfrobot.com. La licence ouverte se traduit donc à la fois par des avantages de coût et une autonomie stratégique. Comme l’a plaisanté un défenseur de RISC-V, « Personne ne peut imposer d’embargo sur RISC-V – c’est ouvert à tous », soulignant son attrait à l’ère des tensions commerciales technologiques eetimes.eu eetimes.eu.
- ARM – Licence propriétaire : Le modèle d’ARM est propriétaire mais largement adopté. Arm Ltd. (l’entreprise) possède l’ISA ARM et tous ses designs. Les entreprises doivent signer des accords de licence pour utiliser la technologie ARM. Il existe généralement deux types de licences :
- Une licence de cœur IP, où le client utilise les conceptions de cœurs prêtes à l’emploi d’Arm (comme Cortex-A78, Cortex-M55, etc.). Ils les intègrent dans leurs puces. Cela implique des frais de licence initiaux et des redevances par puce vendue. Le montant peut être important (de centaines de milliers à plusieurs millions de dollars) et les redevances peuvent aller de quelques centimes à quelques dollars par appareil selon le volume et la complexité du cœur. Ces frais contribuent au coût des puces basées sur ARM.
- Une licence d’architecture, où de très grands acteurs (comme Apple, Qualcomm, Samsung, etc.) licencient le jeu d’instructions ARM et conçoivent leurs propres cœurs à partir de zéro qui exécutent du code ARM. Ils paient toujours des frais importants pour cela, mais cela leur accorde plus de liberté pour se différencier. Même dans ce cas, ils doivent des redevances pour l’utilisation de l’ISA. Un récent procès a révélé certains détails : Qualcomm, par exemple, paie plus de 300 millions de dollars par an en redevances à Arm (environ 10 % du chiffre d’affaires d’Arm) tomshardware.com. Cela donne une idée de l’échelle – ce ne sont pas des coûts négligeables pour les grands fournisseurs.
- x86 – Fermé et exclusif : L’architecture x86 est celle dont la licence est la plus restrictive. Essentiellement, seuls Intel et AMD (et leurs partenaires proches) peuvent fabriquer des processeurs x86. Intel a historiquement protégé férocement la propriété intellectuelle x86 – les droits x86 d’AMD proviennent d’un échange technologique dans les années 1980, et les deux entreprises se sont mutuellement accordé des licences croisées de brevets depuis. Quelques autres (Cyrix, VIA) ont eu des licences par le passé, mais aujourd’hui cela se limite principalement à Intel et AMD. Si un tiers voulait une puce x86, il devrait soit utiliser une puce Intel/AMD, soit obtenir un accord spécial (ce qui est extrêmement improbable). Il n’y a pas de marché de propriété intellectuelle x86 tiers comme il en existe pour les cœurs ARM ou RISC-V. Cette exclusivité a mené au duopole x86 sur les marchés des PC et des serveurs. Le côté positif est la cohérence – les PC Windows et les logiciels ciblant x86 ont une cible stable, et les profits d’Intel/AMD issus des ventes x86 financent une R&D continue sur l’architecture. Mais le côté négatif est le manque de concurrence et de flexibilité dans l’octroi de licences. Si Intel augmente les prix des puces ou privilégie certains marchés, les clients ont peu d’alternatives, sauf à changer complètement d’ISA (ce qui s’est produit dans le mobile – personne ne pouvait obtenir une licence x86 à bas prix pour les téléphones, donc l’industrie est passée à ARM). De plus, le modèle x86 ne permet pas facilement la personnalisation ou les variantes régionales. Cela signifie aussi que les innovations x86 sont liées aux intérêts commerciaux de deux entreprises. Par exemple, si ni Intel ni AMD ne se concentrent sur les microcontrôleurs ultra-basse consommation, x86 ne sera tout simplement pas présent dans ce domaine (en effet, on ne trouve pas de x86 dans les petits nœuds IoT – il n’est pas proposé là-bas). D’un point de vue coût, les assembleurs de systèmes ne paient pas de frais de licence pour x86 (ils achètent simplement les puces), mais indirectement, le monopole x86 peut imposer des prix de puces plus élevés. La tendance générale de l’industrie s’éloigne de ces écosystèmes fermés, c’est pourquoi beaucoup considèrent le modèle de licence x86 comme une relique d’une époque révolue. Conséquences de l’ouverture vs du propriétaire : Le modèle ouvert RISC-V favorise une démocratisation de la conception de puces – encourageant de nouveaux entrants, l’expérimentation académique et potentiellement des cycles d’innovation plus rapides eetimes.eu. C’est analogue à la façon dont les logiciels open source (Linux, etc.) ont réduit les coûts et stimulé la créativité dans le logiciel. Le modèle propriétaire d’ARM, en revanche, offre une évolution plus gérée et stable – l’innovation a lieu, mais de manière plus centralisée et avec des motivations de profit pour Arm Holdings qui orientent les priorités. Le fait qu’ARM et x86 soient tous deux propriétaires a aussi des implications internationales : par exemple, les contrôles à l’exportation américains peuvent (et ont déjà) restreint l’accès aux technologies ARM et x86 haut de gamme pour certains pays. RISC-V, étant ouvert, est vu par certains gouvernements (comme la Chine) comme un moyen de réduire la dépendance aux fournisseurs technologiques étrangers eetimes.eu nasdaq.com. Cela a suscité des débats politiques – fin 2023, certains législateurs américains ont même envisagé d’imposer des limites à la collaboration autour de RISC-V, craignant que cela ne favorise les ambitions chinoises dans les semi-conducteurs nasdaq.com nasdaq.com. Les dirigeants de la communauté RISC-V ont soutenu que freiner la collaboration ouverte nuirait à l’innovation occidentale et ne ferait que pousser le développement de RISC-V à l’étranger nasdaq.com nasdaq.com. Notamment, le PDG d’Arm, Rene Haas, a commenté que construire un écosystème logiciel comme celui d’Arm prend des décennies, et selon lui, RISC-V a encore un long chemin à parcourir – il a laissé entendre que toute réglementation ralentissant RISC-V ne ferait que le maintenir « dans le rétroviseur d’Arm » plus longtemps nasdaq.com. En d’autres termes, les acteurs en place reconnaissent que le modèle ouvert représente une véritable menace s’il arrive à maturité.
En résumé, la licence ouverte de RISC-V signifie un faible coût et une liberté au prix potentiel d’un support « guichet unique », la licence ARM signifie payer pour un écosystème fiable et un support, mais accepter une dépendance aux conditions d’Arm, et le modèle x86 signifie que vous achetez essentiellement un produit sans possibilité de licencier ou de modifier la technologie vous-même. Cette différence fondamentale est un facteur clé pour les entreprises lors du choix d’une ISA pour un nouveau projet de puce.
Maturité de l’écosystème et support logiciel
Une architecture de processeur vit ou meurt par son écosystème – les compilateurs, systèmes d’exploitation, bibliothèques logicielles, outils de développement et connaissances communautaires disponibles. Voici comment notre trio se compare :
- Écosystème x86 : Incontestablement le plus mature en matière d’informatique généraliste. Des décennies de domination dans les PC et serveurs signifient que pratiquement tous les principaux systèmes d’exploitation, langages et applications prennent en charge x86 (souvent comme cible principale). Microsoft Windows a été conçu autour de x86 (et x64) depuis le début ; la plupart des logiciels de bureau sont uniquement x86 ou x86 d’abord (même si cela évolue lentement). Les piles logicielles d’entreprise, des bases de données aux plateformes cloud, sont profondément optimisées pour x86. Les outils de développement pour x86 sont riches – chaque compilateur (GCC, LLVM, MSVC, etc.) dispose de backends x86 de premier ordre avec de nombreuses années d’optimisation. Il existe également un vaste vivier de talents d’ingénieurs familiers de l’assembleur x86, de l’optimisation des performances et des particularités de sécurité. De plus, la rétrocompatibilité est un atout majeur : un programme compilé pour x86_64 en 2010 fonctionnera sur un CPU x86_64 en 2025 sans effort particulier. Cela signifie que la base logicielle accumulée est énorme. En revanche, l’écosystème x86 est quelque peu chargé d’héritage. Par exemple, beaucoup de vieux codes (y compris des parties de Windows) fonctionnent encore en 32 bits ou utilisent des instructions héritées qui compliquent la prise en charge moderne. Mais des entreprises comme Intel ont investi dans des outils pour faciliter les transitions (comme la traduction binaire pour déplacer des applications 32 bits vers 64 bits). En 2025, si vous devez exécuter quelque chose comme Adobe Photoshop ou un outil d’ingénierie spécifique, il y a de fortes chances que le choix le plus sûr soit une machine x86 (ou une émulation de x86 sur un autre système). Même avec le passage d’Apple à ARM, macOS conserve la virtualisation et l’émulation x86 pour faire tourner d’anciennes applications, montrant à quel point les racines logicielles x86 sont profondes. Globalement, l’écosystème logiciel x86 est vaste et éprouvé – une raison clé pour laquelle il reste bien ancré, notamment dans l’informatique d’entreprise et certains domaines professionnels.
- Écosystème ARM : L’écosystème ARM a connu une croissance exponentielle depuis la révolution des smartphones. Les systèmes d’exploitation mobiles comme Android et iOS sont conçus par défaut pour ARM, avec des millions d’applications compilées pour les puces ARM (ARMv8-A 64 bits de nos jours). Sur les systèmes embarqués, les systèmes d’exploitation temps réel (FreeRTOS, Zephyr, ThreadX, etc.) et les middlewares prennent en charge de manière approfondie les microcontrôleurs ARM Cortex-M et Cortex-R. Linux offre un excellent support ARM – en fait, le noyau Linux sur ARM est bien maintenu, et de nombreux équipements réseau modernes et passerelles IoT fonctionnent sous Linux ARM. Côté bureau/serveur, l’écosystème était historiquement en retard, mais il rattrape rapidement son retard : les versions récentes de Windows 11 prennent en charge les PC ARM64 (Windows on ARM) et peuvent même émuler des applications x86 pour la compatibilité. Bien que l’écosystème applicatif Windows-on-ARM ne soit pas encore aussi riche, la volonté de Microsoft et l’arrivée prochaine de puces ARM plus rapides de Qualcomm pourraient changer la donne. Dans le monde des serveurs, toutes les grandes distributions Linux proposent des versions ARM (Ubuntu, Red Hat, SUSE offrent toutes des éditions ARM64). Les fournisseurs de cloud comme AWS proposent des instances ARM (basées sur Graviton), et de nombreuses applications cloud-native (bases de données, moteurs d’analyse, etc.) ont été recompilées ou optimisées pour ARM – AWS a noté que de nombreux clients exécutent des charges de travail courantes sur des instances ARM pour économiser des coûts et de l’énergie. Les outils de développement pour ARM sont très performants : GCC et LLVM disposent de backends ARM entièrement optimisés (principalement grâce au mobile), et Arm propose également ses propres chaînes d’outils. L’écosystème ARM bénéficie aussi du grand nombre de développeurs qui le connaissent grâce au développement d’applications mobiles. Un domaine notable est l’écosystème Apple : avec macOS désormais sur ARM, Apple a apporté un vaste écosystème logiciel de bureau. Les développeurs ont rapidement porté la plupart des applications Mac sur ARM, et le traducteur Rosetta2 d’Apple exécute sans problème la plupart des applications Mac x86 sur les Mac ARM, facilitant la transition. Cela a prouvé qu’un écosystème ARM sur desktop peut prospérer. Une lacune concernait certains anciens logiciels d’entreprise et jeux non disponibles sur ARM, mais même cela diminue à mesure que les couches de compatibilité et les options cloud se développent. L’écosystème Android pourrait bientôt croiser celui de RISC-V (puisque Google a annoncé qu’Android prendra en charge RISC-V comme plateforme), mais jusque-là il reste fermement ARM (avec quelques versions x86 historiquement, mais elles disparaissent) dfrobot.com dfrobot.com. En résumé, l’écosystème logiciel ARM est extrêmement robuste sur mobile/embarqué, solide et en croissance sur cloud/desktop, mais reste encore en retrait par rapport à x86 pour certaines applications de bureau et jeux anciens. La dynamique, cependant, est clairement en faveur d’ARM pour tout ce qui est nouveau ou sensible à la consommation d’énergie.
- Écosystème RISC-V : Étant le plus récent, l’écosystème de RISC-V est le moins mature, mais il se développe à un rythme effréné – surtout ces dernières années. Du côté de la chaîne d’outils, le support est essentiellement là : GCC et LLVM prennent tous deux en charge RISC-V (avec des optimisations en cours à mesure que les extensions de l’ISA, comme vector, sont ratifiées). Linux a été porté sur RISC-V et fait partie du noyau principal – il est donc possible de démarrer un système Linux sur du matériel RISC-V aujourd’hui. En fait, plusieurs distributions Linux (Fedora, Debian, openSUSE, etc.) proposent des éditions RISC-V ou au moins un support expérimental. Début 2023, il y a eu des avancées majeures comme un système RISC-V faisant tourner un bureau KDE Plasma sous Linux, démontrant la viabilité pour un usage PC basique. Cependant, de nombreux logiciels nécessaires au quotidien peuvent nécessiter une recompilation ou des ajustements. La grande nouvelle est le support d’Android pour RISC-V : Google a annoncé qu’il fait de RISC-V une « plateforme de premier rang » pour Android, avec un support officiel en cours de déploiement (probablement avec Android 14 ou 15) dfrobot.com opensource.googleblog.com. Google a même démontré Android 13/14 fonctionnant sur du matériel RISC-V et travaille avec des partenaires industriels pour l’optimiser opensource.googleblog.com opensource.googleblog.com. C’est énorme car cela signifie qu’à terme, les fabricants pourraient proposer des téléphones ou tablettes Android équipés de puces RISC-V. De même, le Projet RISE – un consortium incluant Google, Intel, Nvidia, Qualcomm, Samsung et d’autres – travaille activement à accélérer l’écosystème logiciel RISC-V (Android, Linux, compilateurs, etc.) opensource.googleblog.com opensource.googleblog.com. Ce niveau de collaboration industrielle garantit que d’ici quelques années, RISC-V bénéficiera d’un support de premier ordre pour les outils et systèmes d’exploitation dans de nombreuses applications. Déjà, le segment IoT et embarqué est bien servi : FreeRTOS, Zephyr et d’autres OS légers prennent en charge les microcontrôleurs RISC-V, et de nombreuses cartes de développement (HiFive, cartes Arduino RISC-V, etc.) permettent aux amateurs de s’amuser. Pour l’informatique haut de gamme, RISC-V manque encore de certains logiciels commerciaux aboutis – par exemple, vous ne trouverez pas Adobe ou AutoCAD sur RISC-V de sitôt, et les bases de données d’entreprise n’ont peut-être pas encore de portages officiels. Mais dans les milieux open source et académiques, c’est actif. Le défi qui reste pour l’écosystème est l’étendue : s’assurer que toutes les bibliothèques, pilotes et outils spécialisés que l’on considère comme acquis sur x86/ARM soient disponibles sur RISC-V. Des efforts sont en cours – par exemple, fin 2024, plus de 10 000 paquets de logiciels populaires avaient été compilés pour RISC-V Linux dans certains dépôts de distributions. Un avantage de RISC-V est qu’étant nouveau, il n’est pas liéà n’importe quel système d’exploitation hérité particulier – il peut adopter des paradigmes modernes dès le départ. Et comme de grands acteurs (comme Intel et Nvidia) sont investis, ils veillent à ce que leurs piles logicielles (compilateurs, frameworks d’IA, etc.) prennent en charge RISC-V. Nvidia, par exemple, utilise RISC-V dans ses contrôleurs GPU, donc sa chaîne d’outils inclut ce support. L’aspect communauté est également fort : des universités du monde entier utilisent RISC-V pour l’enseignement, ce qui signifie qu’une nouvelle génération de développeurs y est à l’aise. RISC-V International a souligné que des milliers d’ingénieurs et plus de 10 milliards de cœurs RISC-V sur le marché stimulent une croissance rapide de l’écosystème riscv.org riscv.org. Cependant, comme l’a souligné le PDG d’Arm, construire un écosystème comme celui d’ARM a pris des décennies, et RISC-V a encore du chemin à parcourir pour reproduire le même niveau d’optimisation et de convivialité dans tous les domaines nasdaq.com. Mais étant donné la trajectoire – avec Linux, Android et les principales chaînes d’outils à bord – il est largement attendu que RISC-V atteindra la parité logicielle grand public dans de nombreux domaines d’ici la fin des années 2020. Les observateurs de l’industrie affirment désormais que le support logiciel de RISC-V est passé du théorique au pratique ; comme l’a noté un dirigeant de SiFive, les discussions portent désormais sur le “quand et comment” les entreprises feront la transition, ce qui implique la confiance que la pile logicielle sera prête lorsqu’elles le feront eetasia.com.
Résumé de la maturité de l’écosystème : x86 est comme un chêne adulte – profondément enraciné, largement étendu, mais quelque peu rigide. ARM est une forêt florissante – répandue, encore en expansion vers de nouveaux domaines (comme les PC/serveurs), et bénéficiant d’un fort soutien de la part d’Arm et de ses partenaires. RISC-V est un jeune arbre à croissance rapide – pas encore aussi haut, mais très vigoureux et fertilisé par de nombreux contributeurs à travers le monde. Du point de vue d’un développeur en 2025 : si vous écrivez du code pour Linux ou Android, vous pouvez cibler les trois architectures (il suffit de recompiler pour chacune). Si vous avez du code Windows, x86 (et maintenant ARM64) sont vos cibles – Windows sur RISC-V n’est pas encore là (même s’il y a eu des rumeurs intéressantes selon lesquelles Microsoft expérimenterait RISC-V en interne, rien d’officiel). Les chaînes d’outils comme GCC/LLVM ont en grande partie effacé les différences pour le code multiplateforme. Les véritables lacunes concernent la disponibilité des logiciels propriétaires et la maturité des outils de l’écosystème (profileurs, débogueurs, etc.) sur RISC-V. Ces écarts se réduisent régulièrement à mesure que des entreprises comme Intel, Google et Red Hat contribuent activement au support de RISC-V. Un signe révélateur de la maturité de l’écosystème est le support de plateformes canoniques : par exemple, Canonical a annoncé des images officielles d’Ubuntu Linux pour certaines cartes de développement RISC-V, ce qui indique une confiance dans la capacité de RISC-V à faire tourner un OS complet de manière fiable riscv.org riscv.org. Un autre signe est la normalisation industrielle : RISC-V vient de ratifier des profils comme RVA23 pour garantir que les logiciels peuvent supposer un certain ensemble d’instructions sur toutes les puces RISC-V haut de gamme, ce qui facilitera la compatibilité eetasia.com eetasia.com. En résumé, ARM et x86 gardent encore l’avantage en termes de richesse logicielle, mais le support de l’écosystème RISC-V en 2025 est suffisamment robuste pour de nombreux usages concrets et en bonne voie pour atteindre la parité dans un avenir proche.
Fonctionnalités et préoccupations en matière de sécurité
La sécurité est un aspect crucial de toute architecture aujourd’hui, surtout avec des menaces comme les attaques par exécution spéculative et le besoin d’environnements d’exécution de confiance. Chacune de nos architectures possède ses propres fonctionnalités de sécurité – et vulnérabilités :
- Sécurité x86 : Étant largement utilisé, le x86 a été le premier à faire face à de nombreux vecteurs d’attaque modernes. Notamment, les vulnérabilités Meltdown et Spectre (révélées publiquement en 2018) ont durement touché les processeurs x86 (surtout Intel) – exploitant l’exécution spéculative pour divulguer des données à travers les frontières de privilèges. Ces failles matérielles ont forcé Intel et d’autres à publier des correctifs microcode et logiciels, souvent au prix de performances. Les cœurs ARM ont également été affectés par Spectre, mais certaines variantes de Meltdown étaient moins efficaces sur ARM ; cependant, aux yeux du public, le x86 a essuyé l’essentiel de la tempête. En réponse, Intel et AMD ont depuis ajouté des mesures d’atténuation (isolement renforcé lors de la spéculation, etc.). En dehors des attaques spéculatives, le x86 a traditionnellement pris en charge une gamme de fonctionnalités de sécurité : bit NX (mémoire non exécutable) adopté très tôt, randomisation de l’agencement de l’espace d’adressage est standard, et Intel comme AMD ont introduit des fonctionnalités innovantes. Le SGX (Software Guard eXtensions) d’Intel permet des enclaves de mémoire sécurisée pour des calculs sensibles, visant à protéger les données même si l’OS est compromis. Cependant, SGX a subi certaines attaques et n’est pas largement utilisé en dehors d’applications de niche. L’approche d’AMD, SEV (Secure Encrypted Virtualization), chiffre la mémoire des machines virtuelles pour la protéger d’autres VM ou même d’un hyperviseur malveillant – un atout majeur pour la sécurité dans le cloud. AMD propose aussi SME (Secure Memory Encryption) pour le chiffrement général de la mémoire. Une autre technologie de sécurité est le Control-Flow Enforcement Technology (CET) d’Intel, qui introduit des piles d’ombre et le suivi des branches indirectes pour contrecarrer les attaques de type return-oriented et jump-oriented programming. AMD a mis en œuvre des concepts similaires (par exemple, Supervisor Mode Execution Prevention, etc., pour bloquer certaines élévations de privilèges). En somme, les fournisseurs x86 disposent d’une boîte à outils de fonctionnalités matérielles de sécurité accumulée au fil des années, visant à protéger entreprises et particuliers. Cependant, la complexité du x86 (pipelines profonds, astuces spéculatives) a aussi ouvert une large surface d’attaque, comme l’a montré Spectre. À l’avenir, Intel et AMD se concentrent sur des conceptions « sécurisées par conception » (par exemple, une nouvelle microarchitecture moins vulnérable aux fuites temporelles). Mais on peut dire que la sécurité est une bataille permanente pour le x86, corrigeant les problèmes hérités tout en ajoutant de nouvelles protections. La nature fermée du x86 signifie aussi que l’audit de sécurité est entre les mains de ces deux entreprises et de chercheurs externes, et non d’une large communauté comme pour les conceptions ouvertes. Point positif, la prise en charge de l’héritage peut être abandonnée pour la sécurité – par exemple, le x86S proposé par Intel supprimerait les modes hérités en partie pour réduire la surface d’attaque tomshardware.com. Globalement, les puces x86 en 2025 sont raisonnablement sécurisées si elles sont correctement configurées (pratiquement toutes ont désormais les mesures d’atténuation activées par défaut pour les problèmes connus), et des fonctionnalités comme le chiffrement de la virtualisation donnent au x86 un avantage dans certains scénarios de confiance dans le cloud. Mais l’histoire de l’architecture signifie qu’elle portera toujours un certain héritage.
- Sécurité ARM : ARM, en particulier dans le domaine mobile, a été pionnier de certains concepts de sécurité importants. La plupart des processeurs ARM incluent TrustZone, un environnement sécurisé imposé par le matériel qui fonctionne en parallèle du système d’exploitation normal. TrustZone (dans ARMv8 et v9 pour les profils A et M) permet à du code sensible (comme les clés cryptographiques, l’authentification biométrique, la gestion des droits numériques) de s’exécuter dans un environnement isolé que le système d’exploitation principal ne peut pas altérer. Cela a été une pierre angulaire de la sécurité mobile – par exemple, les appareils Apple et Android s’appuient sur TrustZone pour des fonctions comme les paiements sécurisés et le keystore. Dans la récente ARMv9, Arm a introduit le concept de Realm Management Extension (RME), qui crée des « realms » comme nouvel environnement d’exécution sécurisé pour la virtualisation (un peu analogue à Intel SGX/AMD SEV, visant à isoler les machines virtuelles entre elles et de l’hyperviseur pour la sécurité dans le cloud). ARM a également mis en œuvre l’authentification des pointeurs (PAC) et le marquage de la mémoire dans le matériel. PAC ajoute des signatures cryptographiques aux pointeurs pour rendre beaucoup plus difficile pour un attaquant d’exécuter des attaques de réutilisation de code (en modifiant les adresses de retour ou les pointeurs de fonction) – les processeurs ARM d’Apple utilisent notamment PAC pour empêcher de nombreuses techniques d’exploitation. Memory Tagging Extension (MTE) aide à détecter les bugs de sécurité mémoire (débordements, use-after-free) à l’exécution en marquant les allocations mémoire – une avancée majeure pour un usage plus sûr du C/C++. Ces fonctionnalités placent ARM à la pointe de la sécurité assistée par le matériel. Comme x86, ARM a été affecté par les attaques d’exécution spéculative (variantes de Spectre) – les cœurs haute performance ARMv8-A ont dû mettre en place des mesures d’atténuation. Mais les cœurs ARM plus simples en ordre (comme dans les microcontrôleurs) étaient immunisés par conception contre ces attaques temporelles, ce qui mérite d’être noté – les cœurs RISC plus simples peuvent avoir intrinsèquement moins de canaux auxiliaires. Une préoccupation dans l’univers ARM est la complexité de la chaîne d’approvisionnement : les conceptions ARM se retrouvent dans de nombreux appareils avec de nombreuses variantes, donc s’assurer que tous disposent de micrologiciels/mises à jour de sécurité à jour est un défi (par exemple, certains appareils Android bon marché pourraient ne pas recevoir rapidement de correctifs pour les vulnérabilités TrustZone d’ARM). Cependant, l’architecture elle-même est robuste et a bénéficié des leçons tirées des erreurs de x86 – de nombreux cœurs ARMv8+ ont été conçus après que les chercheurs aient découvert les problèmes de spéculation, ils ont donc pu être pensés avec des mesures d’atténuation dès le départ. Le modèle de licence ARM signifie aussi qu’il est plus facile d’inspecter l’ISA pour détecter des failles (Arm travaille souvent avec ses partenaires de l’écosystème sur les standards de sécurité). Avec la prévalence d’ARM dans les domaines critiques (automobile, dispositifs médicaux), il y a une forte exigence de fiabilité et de certifications (par exemple, ARM propose des packages de sécurité pour l’automobile). En résumé, ARM dispose d’un ensemble solide de fonctionnalités de sécurité (TrustZone, Authentification des pointeurs, etc.), et son efficacité intrinsèque se traduit parfois par des conceptions plus simples qui évitent certaines classes de vulnérabilités. L’architecture n’est pas invulnérable (Spectre l’a prouvé, et certains cœurs ARM ont aussi eu des problèmes similaires à Meltdown), mais l’industrie s’est mobilisée pour y répondre. L’arrivée d’ARM sur le marché des serveurs a aussi apporté plus de sécurité de classe serveur, comme des options de chiffrement mémoire et une parité avec x86 sur la sécurité de la virtualisation. La tendance avec ARM est d’ajouter de la sécurité sans lourdes pénalités de performance – par exemple, l’authentification des pointeurs ajoute un surcoût minimal mais déjoue de nombreuses exploitations de corruption mémoire.
- Sécurité RISC-V : En tant qu’architecture plus récente, RISC-V a bénéficié d’être arrivée à maturité dans un monde post-Spectre. Son design de base (étant un RISC simple) évite certains pièges hérités du passé. Mais les cœurs RISC-V haute performance utiliseront inévitablement la spéculation et pourraient donc être vulnérables à des attaques temporelles similaires s’ils ne sont pas prudents – ce n’est pas l’ISA qui a causé Spectre, mais la façon dont les CPU modernes sont conçus. Ainsi, les implémenteurs RISC-V mènent activement des recherches sur les techniques de microarchitecture sécurisée. Au niveau de l’ISA, RISC-V a intégré des extensions axées sur la sécurité : par exemple, un mécanisme optionnel de Protection de la Mémoire Physique (PMP) (notamment pour l’embarqué) qui peut appliquer un contrôle d’accès sur des régions mémoire (un peu comme un MPU pour des enclaves sécurisées bare-metal). Plus ambitieux encore, des projets amènent CHERI (Capability Hardware Enhanced RISC Instructions) sur RISC-V, une extension ISA de recherche pour une protection mémoire fine (CHERI ajoute des « capacités » qui incluent des bornes et des permissions, afin d’éliminer de nombreux débordements de tampon et bugs de pointeur). En fait, le programme Innovate UK du Royaume-Uni et d’autres testent des prototypes CHERI-RISC-V. L’ouverture de RISC-V signifie aussi qu’il peut adopter librement des idées d’autres architectures – par exemple, si l’authentification de pointeur est bénéfique, RISC-V pourrait ajouter une extension similaire (il existe déjà un brouillon pour des capacités cryptographiques dans RISC-V). Autre exemple : enclaves sécurisées open source – des projets comme Keystone Enclave créent un cadre ouvert pour des fonctionnalités de type TrustZone/SGX sur RISC-V, permettant à un gestionnaire d’enclave d’isoler des régions de calcul sécurisé sur un système RISC-V. Puisque RISC-V est modulaire, on peut inclure une extension « N » pour les interruptions au niveau utilisateur ou le mode hyperviseur afin d’aider à mettre en œuvre une isolation similaire à TrustZone. Il convient de noter que la nature ouverte pourrait faciliter l’audit de sécurité : avec RISC-V, la spécification ISA et de nombreuses implémentations de cœurs sont ouvertes, invitant le monde académique et industriel à examiner et à vérifier formellement certains aspects. Par exemple, plusieurs groupes travaillent sur des cœurs RISC-V formellement vérifiés pour des systèmes critiques. L’inconvénient, c’est qu’en 2025, RISC-V ne dispose pas encore de certaines solutions de sécurité prêtes à l’emploi et abouties qu’ARM et x86 possèdent. Il n’existe pas d’équivalent officiel de TrustZone intégré à chaque cœur RISC-V (à la place, les concepteurs peuvent implémenter MultiZone ou d’autres noyaux de séparation utilisant PMP). Et des fonctionnalités comme les extensions vectorielles pour la cryptographie (pour accélérer le chiffrement) sont nouvelles et en cours de développement sur RISC-V, alors qu’ARM dispose de NEON crypto et x86 d’AES-NI depuis des années. RISC-V rattrape donc son retard sur les extensions spécifiques à la sécurité. Un avantage très concret de RISC-V en matière de sécurité est la transparence : les gouvernements ou entreprises préoccupés par d’éventuelles portes dérobées cachées peuvent préférer RISC-V car ils peuvent inspecter le RTL (s’ils utilisent des implémentations ouvertes comme les cœurs OpenHW ou autres) ou au moins savoir que l’ISA ne comporte pas d’instructions secrètes. Cela a été cité par des organisations comme le CSIS, notant que RISC-V permet une approche plus collaborative et transparente du matériel, ce qui peut renforcer la confiance dans les chaînes d’approvisionnement csis.org. Par exemple, les développements RISC-V en cours à l’Agence Spatiale Européenne citent l’indépendance et l’auditabilité comme raisons d’adopter RISC-V pour les futurs processeurs de vaisseaux spatiaux.
En termes d’adoption de la sécurité dans le monde réel : RISC-V est déjà utilisé dans des rôles sensibles à la sécurité. Western Digital utilise RISC-V dans les contrôleurs de disques et a développé un cœur de sécurité ouvert (OpenTitan) avec RISC-V pour les fonctions cryptographiques. La NSA aux États-Unis a exploré RISC-V pour certaines applications en raison de sa flexibilité à ajouter de la cryptographie personnalisée. Et surtout, le prochain processeur spatial de nouvelle génération de la NASA (HPSC), qui sera utilisé lors de futures missions, est une conception RISC-V à 8 cœurs par Microchip/Sifive – la NASA a choisi RISC-V en partie pour sa fiabilité « suffisante pour la NASA » et la possibilité de le personnaliser pour le durcissement contre les radiations theregister.com theregister.com. Cette approbation témoigne de la confiance dans la maturité et la sécurité de RISC-V pour des usages critiques.
Globalement, chaque architecture dispose d’options de sécurité robustes, mais aucune n’est invulnérable. x86 et ARM ont une longueur d’avance en matière de fonctionnalités de sécurité déployées (et aussi d’avoir été éprouvées par des attaquants). La jeunesse de RISC-V signifie qu’il y a moins d’attaques connues dans la nature – ce qui pourrait être un avantage temporaire, mais à mesure qu’il gagne en popularité, il attirera plus d’attention malveillante. Ce qui est encourageant, c’est que les concepteurs de RISC-V intègrent la sécurité dès le départ, plutôt que de l’ajouter après coup. Parallèlement, ARM et x86 convergent désormais vers de nombreuses pratiques de sécurité similaires : mémoire chiffrée, zones d’exécution de confiance, authentification des pointeurs, etc. Là où ils diffèrent, c’est l’exposition à l’héritage (x86 en a le plus, ARM modérément, RISC-V aucune) et l’ouverture (RISC-V permettant une revue ouverte, x86/ARM étant des conceptions propriétaires). Certains prévoient que la sécurité sera un facteur décisif majeur – par exemple, les projets gouvernementaux ouverts pourraient privilégier RISC-V pour la transparence, tandis que les fournisseurs de cloud commerciaux pourraient rester sur ARM/x86 où ils connaissent le modèle de menace et bénéficient du support des fournisseurs. Il est également possible de les utiliser ensemble : par exemple, un processeur Intel pourrait utiliser un microcontrôleur interne (Management Engine ou Platform Security Processor) qui pourrait être basé sur RISC-V, mariant ainsi les avantages de sécurité des deux mondes. En fait, Apple serait en train de transférer certains de ses contrôleurs de gestion internes dans ses SoC des cœurs ARM vers des cœurs RISC-V, probablement pour des raisons d’efficacité et de contrôle theregister.com theregister.com – un développement intrigant qui brouille les frontières.
En résumé, x86 et ARM se sont renforcés après des vulnérabilités passées et offrent de nombreuses fonctionnalités de sécurité (SGX/SEV, TrustZone, PAC, etc.), tandis que RISC-V met rapidement en œuvre des fonctionnalités comparables avec l’avantage du recul et de l’ouverture. Aucune architecture n’est intrinsèquement « plus sécurisée » en soi – cela dépend de la mise en œuvre – mais les choix architecturaux (comme la simplicité et la modularité de RISC-V) peuvent faciliter une analyse de sécurité plus directe.
Segments de marché et cas d’usage : mobile, serveurs, edge, IoT et au-delà
Chaque architecture s’est taillé des niches où elle excelle, et des domaines où elle est à la traîne. Comparons leurs forces et faiblesses dans les principaux domaines :
Appareils mobiles et grand public
Smartphones & Tablettes : Ce domaine est un bastion d’ARM. Près de 100 % des smartphones actuels fonctionnent sur des SoC basés sur ARM (Qualcomm Snapdragon, Apple série A, Samsung Exynos, puces MediaTek – tous ARM). La conception à faible consommation d’ARM et sa haute performance par watt, combinées à son investissement de longue date dans l’intégration GPU mobile et modem, l’ont rendu imbattable ici. x86 a tenté sa chance (processeurs Intel Atom dans certains téléphones vers 2012–2015), mais a échoué principalement à cause de l’inefficacité énergétique et du manque de LTE intégré. Les puces iPhone et iPad d’Apple ont toujours été ARM, et grâce à l’expertise d’Apple, elles surpassent même certains CPU d’ordinateurs portables. La domination d’ARM dans le mobile est si totale que même Microsoft, pour sa Surface Pro X, s’est tourné vers des puces ARM de Qualcomm pour bénéficier de la connectivité cellulaire et de l’autonomie pour une tablette. Les consommateurs attendent une autonomie d’une journée et des formats fins – ARM répond à ces attentes.
RISC-V dans le mobile n’est pas encore présent dans les processeurs d’application principaux. Cependant, il progresse dans des rôles secondaires au sein des appareils mobiles. Par exemple, les smartphones Pixel de Google utilisent des unités de traitement Tensor (TPU) personnalisées et d’autres contrôleurs ; il est plausible que certains contrôleurs ou unités de gestion d’alimentation puissent être RISC-V. En 2023, Google a publiquement déclaré vouloir faire fonctionner Android sur RISC-V et a encouragé l’écosystème, ce qui laisse penser que de futurs appareils mobiles d’entrée de gamme ou spécialisés pourraient utiliser des CPU RISC-V pour Android dfrobot.com opensource.googleblog.com. Il existe déjà des smartphones RISC-V conceptuels/prototypes présentés par des passionnés, mais aucun n’est commercialisé à grande échelle. La première apparition probable sera dans les wearables et gadgets IoT grand public : RISC-V est très adapté aux montres connectées, bracelets de fitness, écouteurs sans fil, etc. Qualcomm, par exemple, a annoncé une collaboration pour utiliser RISC-V dans des puces pour wearables (montres connectées) dans un avenir proche opensource.googleblog.com. Le profil ultra-basse consommation des cœurs RISC-V et l’absence totale de royalties les rendent attractifs pour l’électronique grand public sensible au coût et qui n’exécute pas d’applications lourdes.
PC (ordinateurs portables et de bureau) : Historiquement, un territoire x86 (les PC Windows et les ordinateurs portables traditionnels sont majoritairement Intel/AMD). Cependant, cela évolue : la gamme Mac d’Apple est désormais entièrement basée sur ARM, ce qui constitue un changement majeur sur le marché des PC. Apple a prouvé qu’ARM peut offrir des performances de premier plan pour les ordinateurs de bureau, et pas seulement pour le mobile. Du côté Windows, des ordinateurs portables ARM (utilisant des puces Qualcomm) existent mais restent de niche en raison d’écarts de performance. Fin 2024/2025, les nouveaux cœurs Oryon de Qualcomm (issus de l’acquisition de Nuvia) devraient considérablement améliorer les performances des PC portables ARM sous Windows, pouvant rogner sur la part de marché des portables x86. Une prévision du secteur est que ARM gagnera des parts de marché aux dépens du x86 dans les ordinateurs portables, en particulier les modèles fins et légers, en offrant une meilleure autonomie et une intégration 5G eetimes.eu eetimes.eu. L’optimisation de Windows 11 pour ARM par Microsoft est un signal fort de cette tendance. Le x86 reste dominant dans de nombreux ordinateurs portables de jeu et hautes performances en raison du couplage GPU et de l’inertie logicielle, mais même le jeu voit une percée d’ARM (par exemple, les M-series d’Apple peuvent désormais faire tourner des jeux AAA, et les développeurs portent des titres sur macOS ARM). Pour les ordinateurs de bureau, au-delà du Mac, on pourrait voir des Chromebooks ou mini-PC sous ARM (il existe déjà quelques Chromebooks ARM). Les PC RISC-V en sont au stade embryonnaire – une société appelée Xcalibur a annoncé un ordinateur portable développeur nommé « ROMA » avec un CPU RISC-V pour 2023, principalement comme preuve de concept. Et des organisations comme Sifive ont conçu des cartes PC RISC-V hautes performances (HiFive Unmatched, etc.). Mais comme l’a commenté un expert, le RISC-V ne sera pas présent dans les ordinateurs portables Windows dans un avenir immédiat eetimes.eu – l’écosystème et les performances ne sont pas encore prêts à concurrencer x86/ARM à ce niveau. Les premiers ordinateurs portables RISC-V viseront donc les développeurs ou des niches spécifiques (enthousiastes open source, etc.) sous Linux. Il est concevable qu’à la fin 2025 ou en 2026, on voie un ordinateur portable grand public basique sous RISC-V pour l’éducation ou les marchés émergents (peut-être sous un OS basé sur Linux ou un fork de ChromeOS). Cependant, le grand public ne croisera pas encore le RISC-V dans les PC. Dans les PC, le x86 offre toujours la plus large compatibilité logicielle (notamment pour les applications Windows), et ARM propose désormais une alternative convaincante pour ceux qui privilégient l’efficacité et l’intégration (comme l’a démontré Apple).
Serveurs et centres de données cloud
C’est un domaine longtemps dominé par le x86, mais qui connaît actuellement le plus de bouleversements :
x86 dans les serveurs : Les processeurs Intel Xeon et AMD EPYC alimentent actuellement la majorité des serveurs dans le monde, en particulier dans l’informatique d’entreprise et le calcul haute performance. Ils offrent des performances monothread très élevées et jusqu’à 64–128 cœurs (l’EPYC d’AMD dispose de 128 cœurs dans la variante « Bergamo » utilisant Zen4c). Des années d’optimisation pour les charges de travail des centres de données (prise en charge de la virtualisation, bande passante mémoire, E/S comme PCI Express, etc.) font des serveurs x86 un choix sûr. Et des logiciels comme VMware, Oracle DB, etc., ciblaient traditionnellement x86_64. Cependant, la domination du x86 dans les serveurs s’érode pour la première fois, principalement à cause des serveurs basés sur ARM. AMD et Intel réagissent tous deux en innovant (comme l’ajout d’accélérateurs IA sur puce, l’utilisation de cache empilé en 3D pour augmenter les performances, etc.). De plus, les difficultés de fabrication d’Intel il y a quelques années ont ouvert la porte à des alternatives, et les préoccupations d’efficacité énergétique dans les immenses centres de données ont rendu ARM attractif.
ARM dans les serveurs : Au cours des cinq dernières années, ARM est passé d’une présence quasi nulle dans les serveurs à un acteur significatif. AWS d’Amazon a conçu ses propres processeurs serveurs ARM (série Graviton) et annonce environ 40 % de meilleur rapport prix/performance par rapport à des x86 comparables pour les charges de travail extensibles, capturant une part importante des instances AWS. Ampere Computing propose des puces serveurs ARM à grand nombre de cœurs (l’Altra à 80 cœurs, l’Altra Max à 128 cœurs et le futur AmpereOne à plus de 192 cœurs), utilisées par Oracle Cloud et d’autres. Microsoft aurait également testé des serveurs ARM pour Azure. Même dans le supercalcul, ARM s’est illustré : le supercalculateur le plus rapide du monde en 2020, Fugaku au Japon, fonctionne avec les puces ARM A64FX à 48 cœurs de Fujitsu, démontrant la capacité d’ARM dans le HPC avec d’excellentes performances en virgule flottante et en vecteur (il a introduit la Scalable Vector Extension). Les avantages d’ARM dans les serveurs incluent une consommation d’énergie par cœur plus faible, un nombre élevé de cœurs et souvent une gestion thermique plus simple – tout cela se traduisant par des économies à grande échelle. En conséquence, de nombreux fournisseurs de cloud et hyperscalers adoptent une stratégie hybride : utiliser x86 pour certaines tâches, ARM pour d’autres. Selon un expert, en 2025, en dehors de la Chine, on observerait peu de remplacement du CPU principal dans les centres de données par du RISC-V (encore trop tôt), mais une adoption rapide du RISC-V dans les sous-systèmes pour l’accélération eetimes.eu eetimes.eu. Pour ARM, il suggérait qu’ARM continuerait à gagner des parts dans les centres de données, surtout dans le cloud, au détriment du x86 eetimes.eu eetimes.eu. C’est déjà en cours : certaines estimations indiquent que les serveurs ARM pourraient approcher les deux chiffres en pourcentage des CPU cloud d’ici 2025. Une autre dimension concerne les serveurs télécoms et edge (comme les contrôleurs de stations de base, l’infrastructure 5G) – ceux-ci utilisent souvent des SoC ARM (comme l’OCTEON de Marvell ou le Graviton d’AWS en edge) pour les avantages en consommation et en intégration, grignotant encore la part du x86.
RISC-V dans les serveurs : À l’horizon, RISC-V se positionne pour des rôles futurs dans les serveurs et le HPC, mais à la mi-2025, il reste principalement utilisé de façon expérimentale ou spécialisée. Cela dit, la dynamique est forte, notamment dans des régions comme la Chine où l’autonomie technologique stimule le développement de serveurs RISC-V. En Chine, des entreprises comme Alibaba (T-Head) et Huawei explorent activement RISC-V pour les centres de données afin de réduire la dépendance à l’IP importée. Il existe des rapports sur des prototypes de puces serveurs RISC-V avec des performances respectables. De plus, des startups occidentales comme Ventana et Esperanto ciblent les accélérateurs et coprocesseurs pour les centres de données. Le Veyron V2 de Ventana, par exemple, vise explicitement les fournisseurs de cloud souhaitant un calcul personnalisable et spécifique à un domaine. Il s’agit d’un CPU RISC-V basé sur des chiplets pouvant atteindre 192 cœurs par socket et s’intégrer à des accélérateurs spécialisés via l’interface UCIe servethehome.com servethehome.com. L’idée est de mixer : des cœurs RISC-V standards plus des chiplets accélérateurs IA/ML, le tout dans un seul package – une approche très moderne qui correspond à l’évolution du matériel cloud (conceptions désagrégées, basées sur les chiplets). Le fait que le PDG de Ventana parle d’un « réel engouement » et de clients investissant des dizaines de millions dans leurs solutions RISC-V eetasia.com eetasia.com suggère que certains déploiements de niche mais réels ne sont pas loin. De plus, l’EPI (European Processor Initiative) en Europe a un projet d’accélérateur appelé EPAC basé sur RISC-V, destiné à fonctionner aux côtés d’un CPU principal basé sur Arm pour le HPC. Cela montre un modèle hybride : processeurs principaux x86 ou ARM, avec des accélérateurs RISC-V pour des tâches spécifiques (comme l’IA, l’analyse de données). Avec le temps, si ces accélérateurs RISC-V continuent de gagner en capacité, on peut imaginer des systèmes tout-RISC-V. Mais pour les serveurs d’entreprise grand public en 2025, x86 et ARM restent les choix principaux ; RISC-V a plus de chances d’apparaître comme un moteur secondaire (par exemple, une smart NIC ou un processeur de stockage, où des contrôleurs RISC-V gèrent des tâches déportées, ce qui se fait déjà). Vers 2030, on pourrait voir des CPU principaux RISC-V plus courants dans les centres de données si l’écosystème logiciel (Linux, virtualisation, middleware cloud) s’avère à la hauteur et que les performances répondent aux besoins. L’intérêt est bien là – le financement public dans l’UE (270 millions d’euros réservés aux puces RISC-V) et les investissements massifs de la Chine laissent présager l’arrivée de puces serveurs RISC-V eetimes.eu eetimes.eu. En 2025, on peut résumer ainsi : x86 – toujours très utilisé, surtout pour les applications d’entreprise héritées et la meilleure performance par thread ; ARM – en forte croissance pour le cloud et le scale-out grâce à son efficacité ; RRISC-V – émergent, avec des déploiements initiaux probablement comme accélérateurs ou dans des régions nécessitant une propriété intellectuelle ouverte, prêt à jouer un rôle plus important plus tard.
IoT, Embarqué et Edge Computing
Il s’agit d’une catégorie large allant des microcontrôleurs 8 bits minuscules jusqu’aux dispositifs « edge AI » modérément puissants.
Microcontrôleurs (MCU) : Ce sont les petites puces présentes dans les appareils électroménagers, les jouets, les voitures (de nombreux microcontrôleurs pour les capteurs, etc.), exécutant généralement des programmes simples ou un système d’exploitation temps réel. Traditionnellement, la série Cortex-M d’ARM domine les MCU 32 bits, remplaçant dans de nombreuses applications les anciens ISA propriétaires 8/16 bits (comme 8051 ou PIC). Les ARM Cortex-M0/M3/M4, etc. se retrouvent dans d’innombrables appareils, avec un vaste écosystème de fournisseurs (STMicro, NXP, Microchip, Texas Instruments, pour n’en citer que quelques-uns). Ils sont populaires grâce à la standardisation (cœurs et jeu d’instructions ARM bien connus) et à l’écosystème de support (logiciels comme Keil, IAR, etc., tous compatibles avec les MCU ARM). Cependant, RISC-V fait des percées majeures dans le domaine des MCU. L’attrait est que les petites entreprises, voire les grandes, peuvent utiliser RISC-V sans payer de royalties, ce qui est très attractif sur les marchés des MCU sensibles au coût où les marges sont faibles et les volumes élevés. En fait, pour les microcontrôleurs 32 bits simples, les cœurs RISC-V peuvent souvent rivaliser directement avec ARM Cortex-M en termes de performances et sont moins chers. Nous avons vu des entreprises comme Espressif (connue pour ses SoC Wi-Fi/Bluetooth comme l’ESP8266/ESP32) passer à RISC-V pour leurs nouvelles puces (l’ESP32-C3 a un cœur RISC-V, remplaçant un cœur Tensilica dans les versions précédentes). Des fabricants chinois de MCU comme GigaDevice, Allwinner et d’autres ont lancé des microcontrôleurs RISC-V. Même des entreprises occidentales : Microchip propose une gamme de SoC FPGA basée sur RISC-V (PolarFire SoC) qui inclut des cœurs RISC-V pour la partie microcontrôleur ; Western Digital a créé un cœur RISC-V personnalisé (SweRV) pour ses contrôleurs de stockage. Selon certaines estimations, des milliards de cœurs RISC-V sont déjà expédiés chaque année dans les appareils IoT et embarqués – une statistique avance plus de 10 milliards de cœurs RISC-V sur le marché d’ici fin 2023 riscv.org riscv.org. Dans l’embarqué industriel et automobile, RISC-V est attractif pour des raisons similaires, ainsi que pour la possibilité de personnaliser pour des E/S ou des fonctions de sécurité spécifiques. ARM ne reste pas inactif – il pousse de nouveaux Cortex-M et essaie de faciliter la licence pour l’IoT – mais la dynamique est du côté de RISC-V. Nous pourrions bientôt voir RISC-V atteindre un pourcentage à deux chiffres du marché des microcontrôleurs (si ce n’est pas déjà le cas, ce sera peu après 2025) car tant de nouveaux entrants le choisissent. Un exemple d’adoption communautaire : la plateforme Arduino populaire a sorti une carte (Arduino Cinque et d’autres) avec RISC-V, et le Canonical Ubuntu Core prend désormais en charge certaines SBC RISC-V (single-board computers) qui sont essentiellement des microcontrôleurs puissants avec Linux riscv.org riscv.org. x86 est essentiellement absent dans ce domaine – vous ne trouverez pas de cœurs Intel ou AMD dans de petits MCU (leur gamme la plus basse est Atom ou l’ancien Quark, qui n’a jamais percé dans l’IoT à cause de la consommation et du coût).
Edge Computing / Passerelles IoT : Ce sont des dispositifs qui se situent entre les capteurs et le cloud – par exemple, un hub domotique, une passerelle IoT industrielle ou des boîtiers d’inférence IA sur site. Ils nécessitent plus de puissance qu’un simple MCU et fonctionnent souvent sous Linux. Ici, ARM est très courant (pensez aux puces de type Raspberry Pi ou aux SoC IoT de Qualcomm). La série Cortex-A d’ARM ou les SoC de milieu de gamme conviennent bien grâce à leur combinaison de bonnes performances et de faible consommation. De nombreux routeurs réseau, NAS, etc., fonctionnent sur ARM (souvent des SoC de Broadcom ou Marvell). x86 apparaît aussi à la périphérie lorsque les besoins en performance sont plus élevés et que l’alimentation est disponible – par exemple, un serveur IA en edge pourrait utiliser un Intel Xeon-D ou Atom, surtout s’il exécute des analyses complexes ou doit s’intégrer à des frameworks logiciels existants basés sur x86. Intel a positionné certains processeurs de classe Atom pour l’edge (avec des plages de température étendues, etc.). Mais de plus en plus, des accélérateurs spécialisés (souvent basés sur ARM ou même des DSP) prennent en charge les tâches lourdes à la périphérie pour plus d’efficacité. Le rôle de RISC-V à la périphérie pourrait devenir important à l’avenir grâce à la personnalisation : un appareil edge faisant de l’IA pourrait utiliser un cœur RISC-V avec des extensions tensor personnalisées pour faire de l’inférence plus efficacement. Des entreprises comme Esperanto Technologies conçoivent des puces avec des dizaines de cœurs RISC-V destinés à l’inférence IA, visant explicitement les serveurs edge où la puissance est limitée mais où un calcul important est nécessaire. La conception d’Esperanto (ET-SoC-1 avec plus de 1 000 mini-cœurs RISC-V) est une approche novatrice pour l’IA économe en énergie, même si le succès commercial reste à démontrer. De plus, comme les dispositifs edge sont souvent déployés dans des environnements variés, disposer d’une ISA ouverte permet aux acteurs locaux de créer des solutions sur mesure (par exemple, une entreprise européenne pourrait développer un processeur edge RISC-V optimisé pour les stations de base 5G sans dépendre d’un fournisseur américain). Dans l’IoT industriel, la réactivité en temps réel et la sécurité sont essentielles ; RISC-V peut être adapté à des profils temps réel spécifiques et à des certifications de sécurité selon les besoins. Pour l’instant, cependant, ARM est la norme pour l’edge sauf si la compatibilité x86 est nécessaire ou si des performances extrêmement élevées sont requises. RISC-V est une alternative montante, susceptible de coexister en occupant des niches où ses avantages spécifiques (ouverture, personnalisation, coût) sont importants.
Automobile : Cela va des contrôleurs simples (qui gèrent vos vitres électriques ou l’unité de contrôle moteur) aux puces avancées pour la conduite autonome. Historiquement, les ECU automobiles (unités de contrôle électronique) ont utilisé un mélange – beaucoup sont des MCU ou SoC basés sur ARM, certains utilisent des ISA spécialisées comme le TriCore d’Infineon ou le RH850 de Renesas pour des tâches temps réel spécifiques. Mais ARM progresse ici, avec les Cortex-M et Cortex-R utilisés dans les systèmes critiques pour la sécurité (Arm propose des versions avec documentation de sécurité ISO 26262). Pour l’infodivertissement et les tableaux de bord numériques, on trouve des puces ARM haut de gamme ou même x86 (l’ancien Media Control Unit de Tesla était un x86 Intel Atom ; leurs nouveaux sont des AMD Ryzen pour l’infodivertissement, mais l’ordinateur de conduite autonome utilise des cœurs ARM et des accélérateurs neuronaux). Les piles de conduite autonome utilisent souvent du silicium personnalisé – les plateformes DRIVE de Nvidia utilisent des SoC ARM avec de gros GPU/IA, l’ordinateur FSD de Tesla utilise un SoC personnalisé à 12 cœurs ARM plus des réseaux neuronaux. Ici, la performance par watt est cruciale en raison de la puissance et de la chaleur limitées dans la voiture, donc ARM a un avantage. RISC-V dans l’automobile est très prometteur à long terme. En 2022, un consortium de géants de l’automobile (dont Bosch, NXP, Denso, et d’autres) s’est formé pour créer OpenHW et d’autres initiatives autour de RISC-V, et plus récemment des entreprises ont formé une coentreprise (mentionnée sous le nom de Quintauris GmbH en Europe) spécifiquement pour faire avancer RISC-V dans l’automobile et l’industrie eetimes.eu. Leur objectif est probablement de développer des cœurs RISC-V standard qui répondent aux exigences strictes de sécurité fonctionnelle et de fiabilité des voitures. Les délais dans l’automobile sont longs (les puces conçues maintenant pourraient être intégrées dans les voitures à partir de 2027+), mais on peut s’attendre à ce que RISC-V commence à apparaître dans de nouveaux modèles pour certains sous-systèmes (surtout ceux hors groupe motopropulseur ou modules ADAS) dans les prochaines années. L’avantage est l’absence de risque lié à un fournisseur unique (les constructeurs automobiles craignent la dépendance à un seul fournisseur de puces/IP – RISC-V leur donne plus de contrôle). Un défi est l’écosystème – l’automobile exige des compilateurs certifiés, des outils éprouvés, etc., ce qu’ARM fournit actuellement via ses programmes automobiles. Mais avec de nombreux acteurs comme Qualcomm (avec des cœurs Nuvia prévus pour l’automobile) et même l’ex-Arm China (dont l’ancien PDG a fondé une startup RISC-V) qui se concentrent sur ce secteur, le support devrait se matérialiser. À court terme, ARM reste dominant dans les SoC automobiles, x86 est rare (peut-être pour certains PC IVI/infodivertissement haut de gamme ou pour des raisons d’héritage), et RISC-V est surtout en phase de R&D/pilote. D’ici 2030, on pourrait voir une présence RISC-V bien plus importante à mesure que ces efforts de développement porteront leurs fruits.
IA en périphérie & Accélérateurs spécialisés : De nombreux appareils en périphérie intègrent désormais des accélérateurs IA (pour la reconnaissance d’images, le traitement vocal). L’écosystème ARM inclut des NPU (unités de traitement neuronal) et des blocs de propriété intellectuelle pour l’apprentissage automatique (cœurs Arm Ethos, etc.) que les licenciés peuvent intégrer. Nvidia utilise un CPU ARM + leur GPU pour les modules Jetson edge AI. Edge TPU de Google (Coral Dev Board) utilise en fait un CPU ARM NXP i.MX avec un ASIC conçu par Google pour l’IA. Mais, fait intéressant, certains accélérateurs IA utilisent des cœurs RISC-V pour orchestrer les tâches. Par exemple, la puce de station de base 5G EdgeQ (un produit à venir) combine un contrôleur RISC-V avec des blocs DSP pour le traitement du signal. De nombreuses startups IA incluent des contrôleurs RISC-V dans leurs cartes accélératrices (car il est facile d’intégrer un cœur CPU gratuit pour la gestion générale sur la puce). La synergie de RISC-V avec des siliciums spécialisés par domaine est une tendance : on obtient un processeur de plan de contrôle gratuit à côté de ses accélérateurs personnalisés, ce qui est idéal. En conséquence, RISC-V est discrètement omniprésent comme cœur compagnon même dans des systèmes qui pourraient être commercialisés comme des “solutions ARM ou x86”. En 2024, Nvidia expédiait de l’ordre d’un milliard de cœurs RISC-V par an à l’intérieur de ses GPU et SoC (tous produits confondus) eetasia.com eetasia.com. Ce chiffre montre comment RISC-V peut profiter de l’essor de l’IA. Ainsi, dans les appareils IA en périphérie, on peut avoir un CPU principal x86 ou ARM, mais la carte IA à l’intérieur pourrait avoir des cœurs RISC-V en arrière-plan. Avec le temps, si les cœurs RISC-V deviennent suffisamment puissants, ils pourraient également prendre en charge davantage de tâches de traitement principales.
Calcul haute performance (HPC) et superordinateurs
x86 dans le HPC : La plupart des superordinateurs utilisaient historiquement des CPU x86 (souvent combinés à des GPU ou d’autres accélérateurs). Par exemple, le Frontier des États-Unis (superordinateur exascale) utilise des CPU AMD EPYC plus des GPU AMD. La maturité du x86 et l’excellent support des compilateurs pour le code scientifique (Fortran, etc.) en ont fait un choix sûr pour le HPC.
ARM dans le HPC : Le succès notable dans le HPC est le Fugaku japonais, qui a pris la première place du Top500 et utilise des CPU ARM A64FX (sans GPU). Il a prouvé qu’ARM peut gérer des charges de travail HPC avec une grande efficacité (il a introduit l’extension vectorielle SVE, excellente pour les calculs denses). L’Europe explore également ARM pour le HPC (le projet européen Mont-Blanc s’est penché sur Arm, et Atos a construit un superordinateur basé sur ARM en France). Avec SVE2 d’ARMv9, les futures puces serveurs ARM pourraient aussi très bien convenir au HPC. Le Graviton d’AWS est même envisagé pour certains usages HPC dans le cloud. Les prochaines puces d’Ampere pourraient viser des installations HPC où l’efficacité énergétique est primordiale.
RISC-V dans le HPC : Les centres de calcul haute performance (HPC) s’intéressent aux architectures ouvertes pour éviter la dépendance à un fournisseur et pour personnaliser selon leurs applications spécifiques. L’Initiative Européenne pour le Processeur, comme mentionné, propose un accélérateur basé sur RISC-V (EPAC) axé sur le calcul vectoriel. L’idée est de l’associer à un CPU généraliste dans un nœud de supercalculateur hétérogène. Il y a aussi des travaux en Inde (projet SHAKTI de l’IIT Madras) et en Chine (qui, selon les rapports, développe des puces HPC indigènes en raison des sanctions) impliquant RISC-V. Bien qu’aucun supercalculateur de tête ne fonctionne encore entièrement sur RISC-V, les bases sont en train d’être posées. Par exemple, en 2023, un prototype de cluster de supercalculateur RISC-V a été annoncé par le Barcelona Supercomputing Center utilisant du silicium RISC-V prototype. On s’attend à ce qu’à la fin des années 2020, certains laboratoires nationaux déploient des supercalculateurs RISC-V, surtout s’ils souhaitent du matériel totalement ouvert (pour des raisons de sécurité ou d’indépendance). Une étape intermédiaire consiste à utiliser des FPGA ou des cœurs RISC-V reconfigurables pour tester des noyaux HPC. De plus, l’agence spatiale chinoise et d’autres s’intéressent à RISC-V pour des charges de travail de type HPC dans l’espace, car l’ISA ouverte permet des modifications pour la résistance aux radiations sans nécessiter d’approbation étrangère.
Pour l’instant, x86 et ARM se disputent le HPC, avec x86 légèrement en avance grâce à son ancienneté et à des outils comme oneAPI, mais ARM fait ses preuves (remportant la première place, et le CPU Grace de Nvidia est basé sur ARM et vise les supercalculateurs, notamment pour la convergence IA + HPC). RISC-V est l’outsider – les spécialistes du HPC aiment l’idée de concevoir une ISA adaptée à leurs besoins, et RISC-V leur offre cette liberté. Le défi est d’optimiser et de stabiliser les logiciels (toutes ces bibliothèques scientifiques, etc.) sur RISC-V. Étant donné que le code HPC est souvent open source ou du moins très spécialisé, le portage est faisable s’il y a la volonté et le financement. Ainsi, le HPC pourrait être l’un des premiers domaines où les puces RISC-V haut de gamme (avec unités vectorielles, etc.) démontreront leur valeur, probablement dans un système hybride avec GPU ou autres accélérateurs.
Résumé des forces et faiblesses par architecture
Pour clarifier la comparaison, voici un aperçu rapide des forces et faiblesses de chaque architecture selon les domaines :
- Forces du x86 : Meilleure implantation dans les PC et serveurs, avec un support logiciel hérité inégalé (notamment Windows et les applications d’entreprise). Performances mono-thread extrêmement élevées sur les CPU phares. Large disponibilité de développeurs qualifiés et d’optimisations existantes. Dans les serveurs, offre une forte rétrocompatibilité et des fonctionnalités comme la virtualisation et le chiffrement puissants (par exemple, AVX-512 pour le calcul intensif, SGX/TDX/SEV pour la sécurité). Actuellement adapté au HPC grâce à des compilateurs matures et des performances denses, et pour tout cas d’usage nécessitant des décennies de rétrocompatibilité.
Faiblesses du x86 : L’efficacité énergétique est inférieure à celle d’ARM dans la plupart des cas (le rendant inadapté aux téléphones, difficile dans les serveurs à consommation limitée). L’architecture est alourdie par l’héritage (complexe à concevoir et à vérifier, plus de surface silicium pour le décodage, etc.). Écosystème fermé – le manque de flexibilité ou de fournisseurs alternatifs peut entraîner des coûts plus élevés et une innovation plus lente. Moins de nouveaux entrants (seuls Intel et AMD le développent). De plus, la grande complexité a conduit à des vulnérabilités d’exécution spéculative plus fréquentes. Dans les domaines émergents comme l’IoT et les microcontrôleurs, le x86 est quasiment absent, abandonnant toute cette catégorie. - Forces d’ARM : Performance économe en énergie – excellente performance par watt, ce qui le rend idéal pour le mobile et l’embarqué. Adoption large signifie écosystèmes riches : Android/iOS sur mobile, Windows et Linux en croissance sur d’autres appareils. Très grande scalabilité – du minuscule Cortex-M dans un capteur jusqu’aux énormes puces serveurs à 128 cœurs – en utilisant essentiellement les mêmes principes d’architecture. Flexibilité de licence (de nombreux vendeurs et implémentations personnalisées) encourage la concurrence et fait baisser le coût des puces (plusieurs fournisseurs de puces ARM au choix pour un besoin donné). Les fonctionnalités de sécurité comme TrustZone sont largement déployées, renforçant son attrait dans le grand public et l’automobile. Gagne rapidement en crédibilité dans les serveurs et les PC, avec des succès concrets (Macs d’Apple, cloud d’AWS, etc.). Dans l’IoT et l’automobile, déjà profondément ancré avec une vaste communauté de développeurs.
Faiblesses d’ARM : Toujours pas aussi enraciné dans les logiciels PC hérités – par exemple, certaines applications ou jeux Windows uniquement x86 pourraient ne pas fonctionner nativement (même si l’émulation comble partiellement ce manque). Dans les serveurs, certains logiciels d’entreprise ne sont pas encore optimisés ou certifiés pour ARM, ce qui provoque une hésitation à l’adoption pour l’informatique d’entreprise conservatrice (même si cela diminue chaque année). Les licences peuvent être coûteuses pour les startups ou les produits à faible marge ; de plus, la dépendance à Arm Ltd représente un risque stratégique (comme vu dans le litige Arm-Qualcomm – rappelant qu’Arm peut appliquer strictement ses conditions) tomshardware.com tomshardware.com. Bien qu’ARM soit ouvert à de nombreux licenciés, l’ISA reste propriétaire, donc au final Arm contrôle son développement – si Arm venait à changer ses conditions commerciales (certains craignent une hausse des prix après l’introduction en bourse ou des modèles de licence différents), cela pourrait impacter tout l’écosystème. De plus, personnaliser ARM au-delà des options fournies n’est pas possible – pour des tâches très spécialisées, il faut attendre qu’Arm publie un cœur ou une extension appropriée, plutôt que de l’implémenter soi-même. - Forces de RISC-V : Flexibilité et personnalisation ultimes – peut être adapté à toute application, permettant des optimisations spécifiques à un domaine et l’innovation par n’importe qui eetimes.eu eetimes.eu. Aucuns frais de licence – réduit le coût par puce et abaisse la barrière d’entrée pour les entreprises souhaitant se lancer dans le secteur des puces. Un écosystème ouvert mondial favorise la collaboration ; de nombreuses entreprises peuvent apporter des améliorations (par exemple, plusieurs entreprises ont collaboré sur l’extension vectorielle RISC-V pour répondre aux besoins de l’IA). Déjà éprouvé dans l’IoT et les microcontrôleurs avec des performances compétitives et un coût ultra-bas. Le choix privilégié pour les organisations recherchant la souveraineté technologique (l’Europe, la Chine investissent massivement, car cela les libère de la dépendance à la propriété intellectuelle étrangère) eetimes.eu eetimes.eu. Les conceptions RISC-V peuvent être très petites et économes en énergie si nécessaire (idéal pour l’embarqué miniature), mais aussi évoluer – l’ISA modulaire signifie qu’il n’y a pas de fardeau inutile dans une implémentation donnée. De plus, la possibilité d’ajouter des instructions personnalisées peut offrir de meilleures performances ou une meilleure efficacité pour des tâches spécialisées que les cœurs généralistes (par exemple, une puce RISC-V avec une instruction FFT personnalisée pourrait surpasser une ARM/x86 standard pour les FFT). L’élan communautaire est fort – il y a un sentiment d’inévitabilité (« RISC-V est inévitable ! » comme le dit la communauté riscv.org) avec de grands acteurs technologiques impliqués et contribuant au support logiciel. En matière de sécurité, l’ouverture et la simplicité peuvent faciliter la vérification et la confiance.
Faiblesses de RISC-V : Immaturité de l’écosystème – bien qu’il s’améliore rapidement, il reste en retard en matière de support logiciel prêt à l’emploi pour de nombreuses applications commerciales (pas de Windows, et certains logiciels Linux peuvent nécessiter un portage). L’absence d’une base d’utilisateurs massive et héritée signifie que toute adoption nécessite un portage proactif des logiciels (ce qui peut convenir pour de nouveaux designs). Moins de conceptions hautes performances éprouvées – en 2025, il n’existe pas de « CPU RISC-V » dans un ordinateur portable ou un serveur grand public pouvant servir de référence de performance (le premier pourrait apparaître bientôt, mais c’est encore tôt). Cela entraîne un risque de perception (« est-ce prêt pour le grand public ? ») pour les décideurs. Préoccupations de fragmentation : si chaque fournisseur crée ses propres extensions, cela pourrait fragmenter l’écosystème logiciel (des initiatives comme le profil RVA23 cherchent à y remédier en fixant des standards communs eetasia.com). De plus, le support et la responsabilité incombent à l’implémenteur – il n’y a pas de fournisseur unique garantissant le cœur (contrairement à ARM où, si un cœur a un bug, Arm Ltd. assiste les licenciés). Les petites entreprises peuvent s’en inquiéter, même si elles peuvent choisir de licencier des cœurs auprès de sociétés IP RISC-V reconnues pour atténuer ce risque. Dans le très haut de gamme (2025), RISC-V ne peut probablement pas égaler les conceptions x86/ARM les plus performantes avant quelques générations de rattrapage (c’est en cours, mais il faut attendre les résultats). Donc, pour les besoins de performance les plus élevés actuellement – par exemple un PC de jeu de pointe ou un supercalculateur du top 10 – RISC-V ne serait pas encore le choix (mais peut-être bientôt pour un supercalculateur du top 500). Essentiellement, la faiblesse de RISC-V est d’être le petit nouveau – beaucoup de potentiel, mais il doit encore cocher toutes les cases d’un écosystème mature pour être une solution clé en main dans tous les domaines.
Tendances récentes et actualités (2024–2025)
À la mi-2025, l’industrie technologique connaît des évolutions rapides autour de ces architectures. Voici quelques-uns des événements et tendances marquants qui façonnent le paysage RISC-V vs ARM vs x86 :
- Introduction en bourse d’ARM et nouvelles stratégies : En septembre 2023, Arm Holdings a réalisé une introduction en bourse réussie, soulignant la confiance des investisseurs dans le rôle omniprésent de la propriété intellectuelle ARM. Après l’IPO, Arm réévalue apparemment ses modèles économiques pour stimuler la croissance – il est question d’augmenter les taux de royalties ou de facturer des frais par appareil (ce qui a inquiété certains partenaires) et de pousser plus loin dans des marchés comme l’automobile et les centres de données où elle voit un fort potentiel. Le PDG d’Arm, Rene Haas, a publiquement reconnu RISC-V comme un concurrent en pleine ascension, mais il a souvent, dans le même souffle, mis en avant l’énorme écosystème logiciel d’Arm comme un atout majeur nasdaq.com. Arm a également mené une opération de communication inhabituelle : fin 2022, elle a lancé (puis retiré) un site web comparant ARM et RISC-V (“Arm Flexible Access vs RISC-V : Get The Facts”), qui semblait être une campagne marketing défensive mettant en avant les avantages d’ARM. Le retrait rapide de ce site (apparemment après des réticences internes) a laissé entendre que même au sein d’ARM, l’approche vis-à-vis de RISC-V faisait débat – mais cela montrait que Arm perçoit RISC-V comme une menace suffisante pour l’affronter directement reddit.com news.ycombinator.com. Sur le plan technique, Arm a dévoilé ses dernières conceptions de cœurs (Cortex-A720, Cortex-X4 en 2024 pour le mobile ; Neoverse V2 et les prochains cœurs E pour les serveurs). Le Neoverse V2 (nom de code “Demeter”) vise les serveurs haute performance et constitue le cœur du CPU Grace de NVIDIA et du Graviton3 d’Amazon – Arm revendique des améliorations significatives de l’IPC par cœur et continue de se concentrer sur de meilleures performances par watt pour le cloud newsroom.arm.com techzine.eu. Arm travaille également sur Neoverse V3 et au-delà, ainsi qu’une variante destinée au HPC/IA avec de grandes unités vectorielles. Les prochains smartphones (fin 2024 à 2025) devraient intégrer le cœur principal Cortex-X4, soulignant qu’ARM reste la référence pour les CPU mobiles de pointe. Autre tendance stratégique : Arm s’étend au-delà de la simple vente de propriété intellectuelle – des rumeurs évoquent la conception de ses propres puces prototypes pour démontrer ses capacités (mais pas pour les vendre commercialement, plutôt comme design de référence). Tous ces mouvements visent à renforcer l’écosystème ARM alors que les alternatives gagnent du terrain.
- Le succès continu d’Apple avec ARM : La transition d’Apple vers ARM (Apple Silicon) dans les Macs a été un franc succès, et d’ici la mi-2025, nous nous attendons à ce que la prochaine génération (peut-être la puce “M3” en gravure 3 nm) fasse ses débuts, repoussant encore les limites de performance et d’efficacité. Les puces d’Apple n’ont pas seulement suivi le rythme du x86, elles ont obligé les fabricants de PC x86 à réagir (par exemple, on voit désormais les vendeurs d’ultrabooks mettre davantage en avant l’autonomie). La domination d’Apple sur le segment des ordinateurs portables haut de gamme a validé ARM pour les usages à haute performance. Il y a aussi des spéculations selon lesquelles Apple pourrait finir par concevoir ses propres puces serveurs (pour ses centres de données) basées sur ARM – rien de confirmé, mais dans le sillage du succès d’AWS, d’autres grands licenciés ARM comme Apple, Oracle, Microsoft pourraient envisager du silicium ARM maison pour les serveurs. Du côté de RISC-V, comme mentionné, Apple utiliserait RISC-V pour certains contrôleurs internes dans ses SoC theregister.com theregister.com (possiblement dans les contrôleurs Bluetooth ou de stockage). Un rapport de 2022 de Semianalysis affirmait qu’Apple remplaçait certains petits cœurs ARM par des cœurs RISC-V personnalisés dans de futurs SoC d’iPhone theregister.com. Si cela s’avère vrai, c’est une grande victoire psychologique pour RISC-V (même si ces cœurs ne sont pas visibles par l’utilisateur, cela montre la confiance accordée à RISC-V même dans une puce haut de gamme). Apple n’a pas commenté publiquement RISC-V, mais est membre de RISC-V International. Quoi qu’il en soit, le succès d’Apple maintient ARM sous les projecteurs et met la pression à la fois sur Intel (x86) et sur l’ensemble du monde logiciel PC pour optimiser pour ARM.
- Réponse d’Intel et adoption de multiples ISA : Intel, en tant que principal défenseur du x86, adopte une double stratégie : continuer à faire progresser le x86 (leur feuille de route avec Meteor Lake, Arrow Lake en 2024, puis Lunar Lake et au-delà avec de nouveaux nœuds de gravure comme 20A, 18A promettant de grands gains d’efficacité), et en même temps, Intel se positionne comme partenaire de fabrication et de propriété intellectuelle pour ARM et RISC-V. Dans un mouvement surprenant mais stratégique, Intel est devenu un allié important de RISC-V : il a rejoint RISC-V International, investi dans des startups RISC-V (comme SiFive et d’autres via son fonds d’innovation fonderie de 1 milliard de dollars), et propose de fabriquer des puces RISC-V et ARM pour des clients via ses Intel Foundry Services intc.com intc.com. Le PDG d’Intel, Pat Gelsinger, a déclaré ouvertement qu’Intel souhaite « soutenir toutes les principales ISA » dans sa fonderie intc.com. Intel comprend que même si le x86 perd du terrain, ils peuvent toujours gagner de l’argent en produisant les puces des autres. En 2023, Intel a annoncé un partenariat avec ARM pour permettre la fabrication de cœurs ARM sur le procédé 18A d’Intel d’ici 2025, destiné aux clients de SoC mobiles. Pour RISC-V, Intel travaille avec des entreprises comme Andes, SiFive et Ventana pour s’assurer que leur propriété intellectuelle fonctionne bien sur les fabs Intel intc.com. Intel construit également un écosystème ouvert de chiplets (Universal Chiplet Interconnect Express, UCIe) où l’on pourrait mélanger des chiplets x86, ARM, RISC-V dans un même package, et veut devenir la fonderie de référence pour ce futur modulaire intc.com intc.com. Côté x86, Intel a eu un incident notable : ils ont proposé x86-S (64 bits uniquement) pour simplifier les futurs CPU, mais début 2025, la nouvelle est tombée qu’Intel abandonnait les plans x86-S après les retours de l’industrie steamcommunity.com hwcooling.net. Cela montre que même si abandonner l’héritage semble une bonne idée, l’écosystème (en particulier les OEM PC et les clients entreprises qui dépendent du BIOS/16 bits) n’était pas prêt à rompre la compatibilité. Donc le x86 va porter son héritage encore un moment. AMD, de son côté, continue d’innover avec les microarchitectures Zen ; d’ici mi-2025, les CPU Zen 5 d’AMD seront probablement sortis (améliorant les performances, ajoutant possiblement des instructions d’accélération IA comme ils l’ont signalé), et Zen 6 en développement. AMD a également laissé entendreà adopter l’hétérogénéité – par exemple, il y a des rumeurs concernant un APU « hybride » d’AMD avec un composant basé sur ARM pour des tâches spécialisées (une rumeur portant le nom de code « SoundWave » suggérait qu’AMD travaillait sur un cœur basse consommation basé sur Arm pour un APU Microsoft Surface tomshardware.com tomshardware.com, mais AMD ne l’a pas confirmé). Que AMD utilise ou non ARM, ils s’assurent au moins de soutenir les efforts non-x86 d’une certaine manière – par exemple, AMD contribue à l’open source pour RISC-V dans des domaines périphériques (comme l’équipe de pilotes AMD ajoutant la prise en charge de RISC-V pour certains composants de pilotes graphiques riscv.org riscv.org). Cela montre que même les entreprises x86 prennent des précautions en direction de RISC-V.
- NVIDIA et l’angle IA : Nvidia a tenté de racheter Arm en 2020–21, ce qui aurait été un changement majeur, mais cet accord a été bloqué par les régulateurs début 2022. Après l’acquisition avortée, Nvidia s’est tournée vers le plan B : ils sont devenus membre Premier de RISC-V International et ont utilisé RISC-V en interne de nombreuses façons. Les contrôleurs GPU de Nvidia utilisant jusqu’à 40 cœurs RISC-V en sont un exemple eetimes.eu. En 2022, Nvidia a lancé son Grace CPU, un processeur pour centres de données utilisant des cœurs ARM Neoverse, souvent associé à leurs GPU pour des superordinateurs d’IA (par exemple, le système combo Grace+Hopper). Nvidia est donc désormais présent sur le marché des CPU avec ARM, tout en exploitant RISC-V pour des processeurs auxiliaires. Avec le boom de l’IA de 2023–2025, Nvidia vend chaque puce qu’elle fabrique (principalement des GPU), mais il est intéressant de noter que sa feuille de route inclut désormais les CPU et peut-être une intégration accrue. Les observateurs de l’industrie se demandent si Nvidia pourrait finir par concevoir ses propres cœurs ARM personnalisés ou même des cœurs RISC-V pour le calcul spécifique à l’IA. Le fait que Hyundai et Samsung aient investi 100 M$ dans Tenstorrent – une startup développant des puces IA basées sur RISC-V – en 2023 riscv.org riscv.org suggère qu’ils croient que RISC-V peut jouer un rôle dans le domaine des puces IA, où la personnalisation de l’architecture pour les charges de travail ML est essentielle. Les accélérateurs IA ont souvent besoin d’un couplage étroit entre des cœurs généralistes (pour la flexibilité) et des unités matricielles personnalisées ; l’approche ouverte de RISC-V est idéale dans ce cas. Il est possible que de futurs produits Nvidia intègrent des cœurs RISC-V dans des rôles plus importants (par exemple, un futur DPU – data processing unit – de Nvidia pourrait utiliser RISC-V comme processeur principal, car les DPU nécessitent de nombreux petits cœurs pour les tâches réseau).
- Chine et souveraineté technologique : Une tendance majeure influençant RISC-V vs ARM vs x86 est le découplage technologique géopolitique. Avec les États-Unis restreignant l’accès de la Chine aux x86 avancés (et même aux conceptions ARM avancées via des contrôles à l’exportation), la Chine a massivement investi dans le RISC-V local comme solution de sortie. Les entreprises chinoises ont lancé des dizaines de puces RISC-V pour tout, des appareils électroménagers aux serveurs. Par exemple, la division semi-conducteurs T-Head d’Alibaba propose une gamme de cœurs RISC-V (la série Xuantie) et a même démontré un Android fonctionnant sur leur SoC RISC-V. Huawei, empêché de fabriquer des puces ARM Kirin de pointe pour les téléphones 5G en raison des sanctions, se serait penché sur des architectures alternatives (même si récemment, ils ont de nouveau utilisé des cœurs ARM dans un nouveau SoC 7nm surprenant, montrant qu’ils ont encore un certain accès). Mais à plus long terme, la Chine considère clairement RISC-V comme une technologie stratégique où elle peut atteindre la parité ou le leadership – c’est ouvert, donc personne ne peut les couper de la conception, et ils peuvent y contribuer. Le déménagement de RISC-V International en Suisse visait en partie à rassurer les membres chinois qu’ils ne seraient pas soudainement exclus dfrobot.com. L’article de Nasdaq ci-dessus met en avant les inquiétudes des législateurs américains selon lesquelles « RISC-V pourrait aider les objectifs de Pékin » nasdaq.com nasdaq.com – certains à Washington ont même proposé de limiter la contribution des entreprises américaines à l’open source RISC-V comme s’il s’agissait d’une exportation de technologie. C’est un sujet controversé : les défenseurs de RISC-V ont répondu que de telles restrictions seraient contre-productives pour les États-Unis, car les entreprises américaines sont parmi les plus grands bénéficiaires et contributeurs de RISC-V (par exemple, Western Digital, Google, NVIDIA, et même des fournisseurs militaires comme Microchip). Le rapport du CSIS a noté que RISC-V renforce la compétitivité des entreprises américaines de conception de puces en créant une plateforme de collaboration à faible coût csis.org – arguant essentiellement que les États-Unis devraient adopter l’ouverture pour garder leur avance, plutôt que d’essayer de la freiner. En 2025, aucune interdiction sur RISC-V n’a été mise en place ; à la place, les États-Unis se concentrent sur la restriction des outils de fabrication de puces et autres. Mais la discussion souligne que l’essor de RISC-V est lié aux intérêts nationaux. On peut s’attendre à ce que la Chine investisse massivement dans l’avancement de RISC-V – par exemple, d’ici 2025, il se pourrait qu’un supercalculateur exascale chinois avec accélérateurs RISC-V soit révélé (ils gardent parfois leurs supercalculateurs secrets par crainte des sanctions). De plus, les entreprises chinoises d’électronique grand public (comme Xiaomi ou Alibaba) pourraient surprendre avec un produit grand public basé sur RISC-V plus tôt que les entreprises occidentales, car pour elles, c’est un choix patriotique autant qu’économique.
- Collaborations communautaires et industrielles : Les événements du RISC-V Summit (conférences annuelles) ont pris de l’ampleur chaque année, avec le sommet d’Amérique du Nord 2024 mettant en avant des étapes majeures comme la ratification du profil d’application RVA23 eetasia.com et plusieurs keynotes de grandes entreprises technologiques. Nous avons vu des entreprises former des alliances : par exemple, en Europe, dix entreprises technologiques européennes (dont Bosch, Infineon, Siemens, etc.) ont lancé des initiatives “EPI RISC-V”, aux États-Unis, la DARPA a financé des programmes de matériel ouvert utilisant RISC-V, et l’Inde a annoncé son ambition de créer des puces basées sur RISC-V pour ses programmes numériques (le premier cœur 64 bits indigène de l’Inde, Shakti, est basé sur RISC-V). Même la Linux Foundation a lancé le projet RISC-V Software Ecosystem (RISE) pour coordonner le support logiciel à travers l’industrie opensource.googleblog.com. Toute cette activité collaborative suggère que RISC-V a rassemblé un groupe diversifié qui voit de la valeur dans un avenir matériel ouvert. Cela rappelle un peu les débuts de Linux – de nombreuses entreprises coopérant sur un noyau commun tout en étant en concurrence sur les produits. Cela est de bon augure pour la longévité de RISC-V.
- Feuilles de route produits à venir : Un rapide aperçu de ce qui est attendu ou supposé pour chacun :
- x86 : Meteor Lake d’Intel (2023) a introduit une conception en tuiles (chiplet) et intégré un accélérateur IA (moteur neuronal) sur la puce ; Arrow Lake (attendu en 2024) affinera cela, et Lunar Lake (~2025) vise la basse consommation, tous utilisant de nouveaux nœuds de fabrication Intel, avec l’objectif de retrouver le leadership en efficacité. Zen 5 d’AMD (fin 2024) alimentera les Ryzen 8000 et EPYC Genoa-X, etc., promettant des gains d’IPC, et Zen 6 (~2025–26) est en conception, avec un possible passage à l’empilement 3D avancé, plus d’instructions IA, et encore plus de cœurs. Les deux poussent DDR5, PCIe5/6, CXL interconnect en serveur – pertinent car la mémoire et l’interconnexion sont cruciales pour concurrencer les nouvelles architectures. On parle aussi de l’intégration de FPGA Xilinx (pour AMD) et de cœurs IA personnalisés (équipe Gaudi d’Intel) fusionnant avec x86 dans les futures puces pour plus de polyvalence. Côté client, x86 est aussi challengé par les Chromebooks (principalement ARM désormais) et Apple (ARM), donc Intel en particulier travaille sur des SoC mobiles spécialisés (avec 5G intégrée, etc.) pour tenter de regagner du terrain – par exemple, le projet au nom de code Panther Lake autour de 2025 devrait être une architecture mobile-first pour Intel hardwaretimes.com hardwaretimes.com.
- ARM : Pour le mobile, la série Cortex-X (X4 en 2024, probablement X5 d’ici 2025) mène la course aux cœurs Android haute performance. Nous verrons l’adoption de l’ARMv9 devenir universelle dans les nouvelles puces, apportant des fonctionnalités comme une sécurité renforcée et la nouvelle architecture du système mémoire d’ARM. Côté serveur, feuille de route ARM Neoverse : Neoverse V2 est disponible (NVIDIA Grace l’utilise), Neoverse V3 devrait suivre avec de nouveaux bonds de performance pour concurrencer directement x86 dans le cloud/HPC d’ici 2025 newsroom.arm.com techzine.eu. La prochaine puce d’Ampere après AmpereOne serait, selon les rumeurs, capable de dépasser 192 cœurs, peut-être avec une microarchitecture personnalisée d’ici 2025 – ce qui pourrait établir un record du nombre de cœurs sur un seul socket, mettant en avant la scalabilité des cœurs ARM. De plus, Qualcomm est un joker : son équipe Nuvia concevait un cœur ARM de classe serveur (avant que Qualcomm ne les recentre sur le PC/mobile). Si Qualcomm relance ses ambitions serveurs, on pourrait aussi voir une puce serveur ARM de leur part. Les puces ARM pour l’automobile de fabricants comme NXP et Renesas, avec plus de capacités IA, arrivent pour gérer les tâches autonomes (ils utilisent ARM pour le calcul général plus des accélérateurs). Par ailleurs, une tendance est l’ARM dans les équipements réseau – l’Octeon 10 de Marvell (basé sur ARM Neoverse) est en cours de déploiement dans les stations de base 5G, remplaçant les anciens MIPS/PPC. On verra probablement davantage cela d’ici 2025, où chaque nouvelle infrastructure aura un cerveau ARM.
- RISC-V : De nombreuses puces RISC-V prévues pour 2024/2025 : la Veyron V2 de Ventana (comme discuté) sera livrée en 2025 avec des clients construisant des serveurs spécifiques à un domaine eetasia.com eetasia.com. SiFive lance la HiFive Pro P550 carte de développement eetasia.com eetasia.com, qui ressemble à un mini PC permettant aux développeurs de faire tourner Linux sur une puce RISC-V rapide – une étape vers le grand public. Andes et d’autres fournisseurs d’IP sortent des IP de cœur à plus haute performance – par exemple, Andes a annoncé ses séries AX45 et AX65 pour des applications compatibles Linux et même un peu de traitement vectoriel eetasia.com. Côté GPU, il y a des travaux intéressants sur les GPU RISC-V (comme un projet appelé LibreGPU) afin qu’une pile matérielle/logicielle totalement ouverte puisse exister. On pourrait bientôt voir RISC-V associé à un GPU open source dans certains créneaux (peut-être militaire ou recherche). Il faut mentionner l’aspect Open Hardware : le groupe OpenHW, qui développe des cœurs RISC-V open source (comme la famille CORE-V), a annoncé des mises à niveau qui les rapprochent des performances des cœurs commerciaux. Cet écosystème de cœurs ouverts signifie qu’en 2025 il y aura des conceptions totalement libres disponibles pour des cœurs RISC-V de milieu de gamme que n’importe qui pourra fabriquer (par exemple, en 2024 ils ont finalisé un cœur RISC-V 64 bits compatible Linux sur GlobalFoundries 22nm). Cela peut élargir considérablement l’adoption dans l’éducation et les startups. Un autre produit à venir vient de Alibaba’s T-Head : ils ont démontré une puce RISC-V 16 cœurs à 2,5 GHz en 12 nm, et ont laissé entendre qu’une prochaine génération en 5 nm approcherait les performances de la classe Arm Cortex-A76 – celles-ci pourraient être utilisées dans l’infrastructure cloud en Chine. Et du côté des microcontrôleurs, Espressif prépare un ESP32-P4 (RISC-V double cœur à 400 MHz) pour l’IoT, ce qui est significatif car leurs puces définissent souvent les tendances de l’IoT (elles sont populaires mondialement pour le DIY et l’IoT commercial). Le processeur spatial RISC-V de la NASA (HPSC) devrait être livré vers 2025 pour des tests – un RISC-V 8 cœurs tolérant aux pannes par Microchip, probablement utilisé dans les missions lunaires Artemis et au-delà theregister.com theregister.com. Son succès validera encore davantage RISC-V dans l’aérospatial et la défense.
Tous ces événements dressent un tableau : la concurrence entre RISC-V, ARM et x86 s’intensifie, stimulant une innovation rapide. On ressent une sorte de réalignement architectural en cours – après des décennies d’hégémonie Wintel (Windows+Intel), nous avons désormais un environnement beaucoup plus pluraliste. Chaque mois apporte des titres comme « La société X passe à RISC-V pour le produit Y » ou « Un superordinateur basé sur ARM établit un record » ou encore « Intel ajoute la prise en charge de RISC-V dans l’outil Z ». Pour les consommateurs, cela se traduira par plus de choix (par exemple, des ordinateurs portables avec différents types de CPU au choix) et, espérons-le, de meilleures performances et un meilleur rapport qualité-prix à mesure que ces architectures se poussent mutuellement. Pour l’industrie, c’est une période d’adaptation – les développeurs de logiciels apprennent à écrire et à optimiser du code pour plusieurs cibles (d’où l’appréciation de frameworks comme LLVM IR, et le regain d’intérêt pour des langages comme Java ou .NET, qui sont indépendants de l’ISA, dans des scénarios multiplateformes).
Une dernière tendance actuelle à noter : la virtualisation logicielle et l’émulation atténuent les différences. Rosetta2 d’Apple, l’émulation x86-sur-ARM de Microsoft, et des projets comme Box64 pour exécuter des applications Linux x86 sur ARM/RISC-V, facilitent le mélange des architectures sans perdre tout le support des anciens logiciels. Cela signifie que la barrière à l’adoption d’une nouvelle architecture est plus basse qu’il y a dix ans. Si un ordinateur portable RISC-V peut émuler sans accroc la plupart des applications x86 à une vitesse décente, les consommateurs pourraient ne pas se soucier de l’ISA à l’intérieur. On le voit avec Apple – de nombreux utilisateurs n’ont même pas réalisé que leur Mac avait changé d’ISA, à part remarquer une meilleure autonomie et de meilleures performances, grâce à Rosetta. Cette tendance pourrait aider RISC-V et ARM à empiéter sur le territoire x86 avec moins de friction.
Conclusion et perspectives
À la mi-2025, la rivalité entre RISC-V, ARM et x86 s’est transformée en une course à trois, chaque architecture mettant en avant sa philosophie dans l’informatique moderne. x86, le vétéran, s’appuie sur son héritage de haute performance et une immense base logicielle, mais il fait face à une pression sans précédent pour innover en matière d’efficacité et d’ouverture. ARM, le concurrent adaptatif, a tiré parti de son efficacité pour passer de roi du mobile à un véritable challenger dans les PC et serveurs, tout en consolidant sa position dans l’embarqué et l’automobile. Et RISC-V, l’insurgé, est passé rapidement de curiosité académique à perturbateur industriel – prouvant qu’une approche open source du matériel peut galvaniser la collaboration mondiale et engendrer des produits compétitifs en un temps record.
Sur le plan technique, le design RISC-V, conçu à partir de zéro et ses extensions modulaires, lui confèrent une agilité à long terme qui s’annonce prometteuse alors que l’informatique se diversifie (du cloud à l’edge en passant par les puces IA spécialisées). Les décennies de raffinement RISC d’ARM et son vaste catalogue de propriété intellectuelle offrent un équilibre entre performance et efficacité, ce qui explique son adoption des smartphones aux superordinateurs. L’héritage CISC de x86 n’est plus un obstacle grâce aux techniques modernes de microarchitecture, mais son « bagage » reste visible – les propres expériences d’Intel avec x86-S illustrent la volonté de se débarrasser d’un certain poids historique, même si l’écosystème n’est pas prêt à lâcher prise tomshardware.com tomshardware.com.
En termes de performance et d’efficacité, le terrain de jeu est bien plus nivelé qu’auparavant : les puces ARM prouvent désormais que Watt pour Watt elles peuvent surpasser x86, et même rivaliser en performance absolue dans de nombreux cas dfrobot.com dfrobot.com. x86 s’efforce de rattraper son retard en matière d’efficacité (avec de nouveaux designs hybrides de cœurs et des nœuds de fabrication avancés) tout en misant sur sa puissance brute et sa montée en fréquence pour garder un avantage dans les tâches spécialisées. Les performances de RISC-V, quant à elles, progressent à toute vitesse d’année en année, principalement grâce à la prise de conscience que des cœurs “suffisamment bons” associés à un parallélisme massif ou à des accélérateurs peuvent offrir un excellent débit. Nous n’avons probablement pas encore vu le véritable potentiel haut de gamme de RISC-V – mais les premiers signes (comme un CPU cloud à 192 cœurs servethehome.com ou NVIDIA livrant des milliards de RISC-V dans ses GPU eetasia.com) laissent penser qu’il surprendra les sceptiques plus tôt que prévu. Comme l’a dit un partisan de RISC-V, une fois que les fournisseurs migreront et que les écosystèmes se développeront, les entreprises auront “l’excuse parfaite pour changer de camp”, déclenchant une “ère d’innovation et de conception expérimentale à faible coût” dans les puces eetimes.eu eetimes.eu. Cela résume l’optimisme autour de RISC-V : l’idée que se libérer des chaînes propriétaires ouvrira une nouvelle ère dorée de créativité dans le silicium – tout comme l’open source l’a fait pour le logiciel.
Les différences de licences et d’écosystèmes signifient également que la concurrence n’est pas purement technique mais aussi économique et politique. Le modèle ouvert de RISC-V remet en cause les modèles de revenus en place – Arm ajuste sa façon d’accorder des licences (peut-être en facturant par appareil ou par période, sachant que les entreprises disposent désormais d’une alternative), et même Intel/AMD doivent justifier le coût premium de leurs puces face à des solutions RISC-V ou ARM potentiellement moins chères qui répondent au besoin. Le résultat pourrait être des conditions de licence plus favorables ou des collaborations (on voit Arm lui-même rejoindre d’autres acteurs pour former des coentreprises afin de diffuser sa technologie de manière ouverte, et Intel s’associer à des entreprises RISC-V – des alliances inhabituelles il y a quelques années). Sur le plan géopolitique, il est clair que l’indépendance architecturale fait désormais partie des stratégies nationales : l’Europe finance le développement de RISC-V pour l’autosuffisance eetimes.eu, la Chine considère RISC-V comme une pierre angulaire pour éviter les sanctions, les États-Unis réfléchissent à la manière de maintenir leur leadership dans un monde de standards ouverts – tout cela indique que RISC-V vs ARM vs x86 est plus qu’un choix d’ingénierie ; c’est lié à la façon dont les pays et les entreprises s’assurent de ne pas “être freinés par les feuilles de route lentes des concepteurs propriétaires”, comme l’a dit EETimes eetimes.eu. En ce sens, l’essor de RISC-V pourrait conduire à un paysage technologique plus démocratisé, où aucune entreprise ou pays ne peut monopoliser la technologie CPU.Parallèlement, la sécurité reste une arme à double tranchant : x86 et ARM ont beaucoup investi pour renforcer leurs architectures, tirant les leçons des failles passées (avec des fonctionnalités comme Intel CET, ARM PAC, etc.), tandis que RISC-V peut intégrer bon nombre de ces enseignements dès le départ. Les prochaines années mettront à l’épreuve l’architecture qui saura le mieux équilibrer performance et sécurité – une question particulièrement pertinente alors que de plus en plus d’appareils en périphérie (pensez aux voitures autonomes ou aux dispositifs médicaux implantés) exigent une fiabilité absolue. Les standards ouverts comme RISC-V pourraient accélérer les progrès en matière de sécurité en invitant à un examen et une innovation plus larges (par exemple, l’intégration des capacités CHERI pour la sécurité mémoire). Mais les architectures établies bénéficient de nombreuses années de tests sur le terrain et de perfectionnement, ce que RISC-V n’acquerra qu’avec le temps.
À l’avenir, on peut anticiper certains développements probables :
- Convergence et systèmes hybrides : Il ne serait pas surprenant de voir des systèmes intégrant plusieurs ISA dans une même solution – par exemple, un futur ordinateur portable pourrait avoir un CPU x86 pour la compatibilité avec les anciens logiciels et un coprocesseur RISC-V pour un traitement IA efficace, ou un serveur pourrait avoir des cœurs principaux ARM et des accélérateurs RISC-V partageant la charge. Avec les conceptions basées sur les chiplets et des interconnexions rapides, le mélange des types de cœurs pourrait devenir la norme, mettant effectivement fin à tout scénario “un-ISA-pour-les-gouverner-tous”. La vision de fonderie d’Intel soutient explicitement ce futur hétérogène intc.com intc.com.
- Adaptation des logiciels : L’industrie logicielle s’adapte rapidement à un monde multi-architectures. Les outils de développement et les langages sont de plus en plus multiplateformes. L’informatique en nuage abstrait l’ISA sous-jacente (les conteneurs et l’orchestration ne se soucient pas vraiment si l’hôte est x86 ou ARM). Le .NET de Microsoft, par exemple, fonctionne désormais sur ARM ; Java fonctionne partout ; même les moteurs de jeux sont en cours de portage. Cela signifie que la friction du changement d’architecture continuera de diminuer, permettant des transitions plus rapides si une architecture offre un avantage. Par exemple, si RISC-V atteint un point de bascule où il est « suffisamment bon » et bien moins cher, les éditeurs de logiciels pourraient recompiler et migrer rapidement.
- Confrontation ARM vs RISC-V : ARM et RISC-V semblent se diriger vers un affrontement plus direct, notamment dans l’embarqué et l’IoT. L’initiative d’ARM visant à orienter les petits clients vers des packages fixes (et peut-être à augmenter les prix) pourrait involontairement pousser ces acteurs vers RISC-V. Il y a une citation notable d’un cadre d’ARM reconnaissant que RISC-V est excellent pour les contrôleurs à bas coût où l’on peut simplement insérer un design existant à moindre coût news.ycombinator.com – un aveu franc que, dans le domaine des microcontrôleurs, RISC-V propose un argument très convaincant sur le plan du coût. Arm misera probablement sur la force et le support de son écosystème (l’argument « on en a pour son argent »). On pourrait aussi voir Arm réagir en introduisant plus de flexibilité (peut-être en laissant les clients ajouter de petites instructions personnalisées ou en open-sourçant une partie de sa propriété intellectuelle) – rien de confirmé, mais la concurrence peut pousser à de telles évolutions.
- Futur rôle du x86 : Le x86 n’est pas près de disparaître ; sa position dominante dans les PC/serveurs et la compatibilité ascendante lui garantissent une longue durée de vie. Mais son rôle pourrait évoluer vers des niches spécialisées à haute performance. La PDG d’AMD, Lisa Su, a évoqué le concept de coexistence entre x86 et ARM, chacun adapté à des charges de travail différentes. On pourrait voir le x86 davantage dans le jeu haut de gamme, certaines charges de travail d’entreprise difficiles à migrer, et peut-être dans le domaine des très hautes performances en mono-thread (puisqu’Intel et AMD continueront à augmenter les fréquences et l’IPC pour certaines applications comme les logiciels d’ingénierie, les simulations, etc.). De plus, le x86 pourrait trouver une seconde vie en tant que x86-as-a-service : si, à terme, les appareils clients typiques deviennent ARM ou RISC-V, le x86 pourrait fonctionner dans des instances cloud pour fournir une compatibilité héritée à la demande (un peu comme l’architecture mainframe d’IBM existe toujours, mais souvent accessible via la virtualisation). Intel et AMD se diversifient également dans les GPU, FPGA et accélérateurs personnalisés pour ne pas dépendre uniquement des CPU – montrant qu’ils anticipent un avenir informatique hétérogène et se repositionnent en conséquence (Intel avec Habana/Movidius pour l’IA, AMD avec les FPGA Xilinx).
- Montée des architectures spécifiques à un domaine : Avec RISC-V qui abaisse les barrières, nous pourrions voir apparaître davantage de processeurs spécifiques à un domaine (par exemple, une ISA GPU open source, ou un CPU optimisé pour la VR/AR) qui rompent avec le modèle d’une seule ISA généraliste pour tout. RISC-V lui-même pourrait se décliner en profils qui ressemblent presque à des niches distinctes (par exemple, RISC-V pour le supercalcul vectoriel contre RISC-V pour les microcontrôleurs partagent une base mais sont très différents en pratique). Si cela est fait de manière contrôlée (pour éviter une fragmentation excessive), cela pourrait permettre des gains d’efficacité importants pour certaines tâches. La grande question est de savoir si une telle spécialisation dépassera les améliorations des cœurs généralistes avec accélérateurs. Mais des événements comme la création de profils standards par RISC-V International montrent une tentative d’obtenir le meilleur des deux mondes : spécialisation avec un certain niveau de standardisation.
En conclusion, la mi-2025 trouve le monde de l’informatique à un point d’inflexion. RISC-V, ARM et x86 ont chacun des voies claires vers le succès, et leur concurrence profite à l’ensemble du secteur. Pour les consommateurs et les entreprises, cela signifie de meilleures performances, des coûts plus bas et plus de choix. Une citation de David Patterson, l’un des créateurs de RISC-V, résume cet optimisme : « Je suis ravi qu’Intel… soit désormais membre de RISC-V International », a-t-il déclaré, soulignant à quel point il est historique que le pionnier du microprocesseur ait adopté l’avenir de l’ISA ouverte intc.com. Cela souligne que même les anciens acteurs comprennent la tendance : l’ouverture et la collaboration (illustrées par RISC-V) sont les moteurs de la prochaine ère d’innovation dans les semi-conducteurs. À l’inverse, le PDG d’Arm, Rene Haas, a tempéré l’enthousiasme en soulignant la difficulté de construire des écosystèmes, laissant entendre que l’ascension de RISC-V valide simplement la valeur du parcours d’Arm nasdaq.com. Et comme l’a dit un vice-président d’Arm, la concurrence « nous aide tous à rester concentrés et à nous assurer que nous faisons mieux » theregister.com. En effet, chaque architecture pousse les autres à évoluer – x86 s’allège et intègre de nouvelles technologies, ARM se développe dans tous les domaines, et RISC-V accélère la standardisation et la qualité pour répondre aux attentes des entreprises.
En fin de compte, le « gagnant » ne sera peut-être pas une architecture, mais plutôt les consommateurs et les industries bénéficiant de cette abondance technologique. Nous nous dirigeons probablement vers un monde hétérogène où les trois (et peut-être d’autres) trouveront des rôles durables. Les architectures pourraient même coopérer au sein de systèmes uniques d’une manière qui brouille les frontières. Il est donc logique qu’en 2025, la question ne soit pas « Quelle architecture ouvrira la voie ? » mais plutôt « Dans combien de temps l’approche à standard ouvert s’imposera-t-elle, et sous quelle forme ? » eetimes.eu eetimes.eu. Les prochaines années apporteront la réponse, et si les tendances actuelles se poursuivent, cette réponse pourrait bien arriver plus tôt que prévu. Le paysage des puces est en train d’être remodelé sous nos yeux – un véritable affrontement du silicium – et quelle que soit l’ISA qui équipera votre prochain appareil, il sera nettement meilleur parce que RISC-V, ARM et x86 sont engagés dans cette compétition féroce mais féconde.
Sources :
- Emily Newton, « Arm vs. RISC-V in 2025: Which Architecture Will Lead the Way? » – EE Times Europe, déc. 2024 eetimes.eu eetimes.eu eetimes.eu
- Tobias Mann, « Arm execs: We respect RISC-V but it’s not a rival in the datacenter » – The Register, sept. 2022 theregister.com theregister.com
- DFRobot Blog, « Can RISC-V surpass X86 and ARM? » – nov. 2023 dfrobot.com dfrobot.com
- Tom’s Hardware, « Qualcomm remporte une bataille juridique contre Arm — le fabricant de puces n’a pas violé la licence Arm » – déc. 2024 tomshardware.com tomshardware.com tomshardware.com
- RISC-V International, « RISC-V met en avant ses progrès et sa traction sur le marché » – Nitin Dahad, EE Times Asia, nov. 2024 eetasia.com eetasia.com eetasia.com
- Google Open Source Blog, « Android et RISC-V : Ce que vous devez savoir » – oct. 2023 opensource.googleblog.com opensource.googleblog.com
- Nasdaq/Benzinga, « RISC-V vs. ARM : Comment les tensions technologiques entre les États-Unis et la Chine pourraient redéfinir l’innovation dans les puces » – oct. 2023 nasdaq.com nasdaq.com
- Communiqué de presse d’Intel Corporation, « Intel lance un fonds d’un milliard de dollars pour développer l’écosystème RISC-V et Foundry » – fév. 2022 intc.com intc.com intc.com
- Ian Ferguson (cadre chez Arm) commente sur EE Times, déc 2024 eetimes.eu eetimes.eu
- Arm Newsroom, « Mises à jour de la feuille de route Neoverse » – 2023 newsroom.arm.com techzine.eu
- Tom’s Hardware, « Intel optimise le jeu d’instructions X86S allégé » – sept 2024 tomshardware.com tomshardware.com
- RISC-V International Newsletter, « Message de RISC-V : RISC-V est inévitable ! » – 2023 riscv.org