Résumé de l’actualité de l’IA en juin 2025 : avancées majeures, surprises et développements mondiaux

Juin 2025 a été un mois historique pour l’intelligence artificielle, marqué par des avancées majeures et des événements inattendus dans les domaines de l’IA générative, la robotique, la santé, la défense, la régulation et les affaires. Des modèles d’IA de nouvelle génération et des robots entrant dans les usines aux nouveaux outils d’IA pour la santé et aux appels à une plus grande supervision, le paysage de l’IA a connu une évolution rapide. Voici un rapport complet, de style journalistique, résumant les principales actualités et surprises liées à l’IA durant ce mois.
Progrès majeurs de l’IA générative et nouveaux modèles
OpenAI a annoncé un nouveau saut dans l’IA générative avec la déclaration de son PDG Sam Altman : GPT-5 est en préparation. Lors d’un podcast officiel, Altman a indiqué que GPT-5 devrait être lancé à l’été 2025 (pas encore de date précise) adweek.com. Les premiers testeurs affirment qu’il est « nettement meilleur » que GPT-4 adweek.com, ce qui laisse présager une amélioration significative de ses capacités. OpenAI explore également de nouveaux modes de monétisation : Altman a révélé qu’il n’est « pas totalement opposé » à la publicité sur ChatGPT, mais insiste sur le fait que modifier les réponses du modèle selon les paiements d’annonceurs serait « un moment destructeur de confiance » adweek.com. Selon lui, toute publicité apparaîtrait probablement en dehors des réponses du chatbot afin de préserver son intégrité.
Parallèlement, la concurrence sur l’IA générative s’intensifie dans tous les domaines. L’entreprise d’IA créative Midjourney a dévoilé son tout premier système de génération vidéo à partir de texte, Model V1, permettant aux utilisateurs de créer de courts clips animés à partir de simples instructions crescendo.ai. Les premiers utilisateurs indiquent que les vidéos de 16 secondes offrent un contrôle avancé sur le mouvement et le style, plaçant Midjourney en concurrence avec Runway et le modèle vidéo expérimental de OpenAI (« Sora ») crescendo.ai. Côté open source, la startup chinoise MiniMax a lancé son nouveau M1 comme concurrent libre. MiniMax affirme que M1 offre des performances de pointe avec beaucoup moins de puissance de calcul, et l’a publié sous licence Apache 2.0 pour stimuler une large adoption industrielle winbuzzer.com. Quant au nouveau modèle générationnel de Meta, LLaMA 4 “Behemoth”, il est reporté à fin 2025 en raison de problèmes de performance winbuzzer.com winbuzzer.com. Malgré tout, l’écosystème bouillonne d’arrivées et de mises à jour.
Percées en robotique et automatisation
En juin, l’IA a franchi un cap en s’imposant dans le monde physique. Google DeepMind a présenté Gemini Robotics On-Device, un modèle d’IA robotique qui s’exécute localement sur les robots, sans passer par le cloud deepmind.google. Ce modèle performant, combinant vision, langage et action, démontre une habileté polyvalente – il suit des instructions en langage naturel et réalise des tâches complexes comme ouvrir des sacs ou plier des vêtements, entièrement de façon embarquée deepmind.google. Fonctionnant sans connexion internet, il garantit faible latence et fiabilité, même dans des environnements mal connectés. Google propose un kit pour permettre aux développeurs d’affiner le modèle sur de nouvelles tâches avec seulement 50 démonstrations, ouvrant la voie à des robots plus adaptatifs et autonomes deepmind.google deepmind.google.
Les robots investissent également les lignes d’usine. Dans une première mondiale remarquable, le Taïwanais Foxconn et le fabricant américain de puces Nvidia ont annoncé des plans pour déployer des robots humanoïdes sur une chaîne de production électronique reuters.com. Des sources précisent que la nouvelle usine de Foxconn à Houston, qui commencera à assembler les serveurs IA de Nvidia l’an prochain, fera appel à des robots à apparence humaine pour aider à l’assemblage et à la manutention. Ce serait la première fois que des produits Nvidia sont construits avec l’aide de robots humanoïdes et la première expérimentation de Foxconn en fabrication robotisée reuters.com. L’objectif est de faire travailler ces robots dès le 1er trimestre 2026, après les avoir formés à la manipulation de pièces, à l’insertion de câbles et aux tâches d’assemblage répétitives reuters.com reuters.com. Les observateurs estiment qu’il s’agit d’une étape susceptible de transformer l’industrie manufacturière, alors que les entreprises évaluent si des machines humanoïdes bipèdes ou à roues pourraient compléter ou remplacer des ouvriers humains.
Dans un registre plus ludique, des robots assistés par IA se sont même aventurés sur les terrains de sport. Des chercheurs chinois ont présenté un robot quadrupède capable de jouer au badminton contre des humains, s’appuyant sur la vision et la prise de décision en temps réel pour renvoyer et faire des échanges crescendo.ai. Sa capacité à anticiper les coups et à ajuster sa stratégie montre le degré croissant de sophistication de l’IA pour des tâches physiques. Bien qu’il ne s’agisse que d’une expérimentation, cela donne un aperçu des futures collaborations homme-robot dans le loisir, l’entraînement et au-delà – une illustration prometteuse de robots maîtrisant l’agilité et la coordination œil-main dans des environnements dynamiques crescendo.ai.
L’IA dans la santé et la biotechnologie
Le secteur de la santé a connu d’importantes mises en œuvre et recommandations liées à l’IA en juin. L’agence américaine des médicaments (FDA) a mis en service son premier système d’IA interne, un large modèle de langage baptisé « Elsa ». Selon la FDA, Elsa est conçu pour résumer les rapports d’effets indésirables de médicaments, comparer des notices et même générer du code informatique pour l’analyse des données pharmaceutiques – autrement dit, aider les régulateurs à extraire des informations pertinentes de larges ensembles de données médicales healthcare-brew.com. Il s’agit de la première incursion de la FDA dans l’utilisation de l’IA pour ses propres opérations, dans le cadre d’une stratégie élargie d’innovation au service de la santé publique.
Les instances médicales poussent aussi à une IA plus sûre et plus transparente. Le 11 juin, l’American Medical Association (AMA) a adopté une nouvelle politique exigeant que les outils d’IA clinique soient « explicables ». L’AMA demande aux développeurs de fournir aux praticiens des informations claires sur la sécurité, l’efficacité et le fonctionnement des IA healthcare-brew.com. Cette ligne reflète l’inquiétude croissante de la profession, qui souhaite comprendre les recommandations des IA – et non se contenter de résultats algorithmiques – pour garantir la sécurité des patients. Un appel à la transparence, alors que les outils d’aide au diagnostic ou à la décision basés sur l’IA se généralisent à l’hôpital.
Dans le secteur privé, les entreprises de santé ont également élargi l’usage de l’IA au service des patients. Par exemple, le géant de l’assurance Cigna a déployé un assistant virtuel sur son application pour aider les assurés à naviguer dans les couvertures et les parcours de soins healthcare-brew.com. Les startups de la santé numérique s’emparent aussi de l’IA : Hinge Health a lancé une plateforme dopée à l’IA pour orienter les patients vers des spécialistes en orthopédie, et l’application de santé mentale Wysa a créé une “AI Gateway”, chatbot facilitant la mise en relation entre thérapeutes et assureurs healthcare-brew.com. Ces outils visent à simplifier l’administratif et à personnaliser le suivi, illustrant la place croissante de l’IA dans l’expérience patient.
L’IA accélère également la découverte de médicaments. Début juin, le MIT et la société de biotechnologie Recursion ont publié Boltz-2, un modèle IA open-source pour soutenir la recherche pharmaceutique healthcare-brew.com. Boltz-2 prédit l’efficacité potentielle d’une molécule candidate, aidant les scientifiques à concevoir des médicaments plus performants. En mettant cet outil en open source, les chercheurs espèrent accélérer le développement de nouveaux traitements dans toute l’industrie. Ce projet fait partie de nombreuses initiatives exploitant l’IA pour analyser des données biochimiques et découvrir de nouveaux traitements plus rapidement et à moindre coût.
Défense, Sécurité et Mauvais usages de l’IA
L’influence de l’IA sur la sécurité nationale et la criminalité a fait les gros titres – avec des aspects à la fois stratégiques et préoccupants. Dans la zone de conflit d’Europe de l’Est, des rapports ont révélé que l’Ukraine a déployé des essaims de drones augmentés par IA lors d’une opération clandestine contre une cible militaire de grande valeur. La mission, baptisée “Opération Toile d’Araignée”, a utilisé des drones semi-autonomes attaquant un bombardier russe à long rayon d’action, chaque drone ne coûtant, semble-t-il, guère plus qu’un iPhone crescendo.ai. Si cela est confirmé, cela indiquerait une nouvelle ère de guerre à bas coût, pilotée par l’IA, où des armes autonomes abordables peuvent rivaliser avec des équipements militaires coûteux. Des analystes militaires notent que cela pourrait bouleverser les tactiques militaires, les drones guidés par IA permettant des frappes précises sans exposer de pilotes, et donnant potentiellement un avantage asymétrique à de plus petites forces armées.
Les entreprises technologiques occidentales s’impliquent également de plus en plus dans la défense. En effet, Meta (la maison mère de Facebook) développerait des lunettes de combat à réalité augmentée, dopées à l’IA pour l’armée américaine crescendo.ai. Ces casques AR spécialisés offriraient aux soldats des données de champ de bataille en temps réel et une assistance à la décision via l’IA, fusionnant la technologie AR grand public avec les exigences militaires. Ce projet – s’il aboutit – souligne l’incursion des Big Tech dans la technologie de défense, brouillant les frontières entre la Silicon Valley et le Pentagone. Il reflète aussi l’intérêt croissant des militaires pour le recours à de l’IA avancée (vision par ordinateur, AR…) afin d’accroître la conscience de situation et la communication sur le terrain.
Sur le front de la sécurité intérieure, l’IA est utilisée à la fois pour lutter contre le crime – et pour en commettre de nouveaux. Au Canada, un hôpital de Nouvelle-Écosse a installé un système de détection d’armes alimenté par l’IA à ses entrées pour prévenir les actes de violence crescendo.ai. Le système repose sur la vision par ordinateur pour repérer en temps réel les armes à feu ou les couteaux sur les visiteurs, permettant un contrôle non intrusif et des alertes rapides à la sécurité. Cette expérimentation vise à renforcer la sécurité hospitalière sur fond de préoccupations croissantes concernant la violence dans le secteur de la santé, et montre comment l’IA peut contribuer à la sécurité publique sans recourir aux détecteurs de métaux traditionnels.
À l’inverse, un cas inquiétant aux États-Unis a illustré la face sombre de l’IA dans la criminalité : un adolescent de 17 ans a été victime d’une escroquerie “séxtorsion par IA”. Des criminels ont utilisé l’IA pour générer de fausses images de lui nu et l’ont fait chanter par SMS – une attaque psychologique qui a tragiquement mené au suicide du jeune en février. En juin, après l’émoi public, des parlementaires américains se sont emparés du dossier pour faire avancer le “Take It Down Act”, une proposition de loi visant les abus de l’IA générative dans le chantage et la production de contenus explicites crescendo.ai. Le texte prévoit de renforcer les sanctions pour la sextorsion assistée par IA et d’améliorer les procédures pour retirer les images illicites générées. Cet événement tragique, et la réaction politique bipartite qui s’ensuit, soulignent l’urgence de mettre en place des garanties contre les abus de l’IA dans la cybercriminalité.
Grandes manœuvres business et guerre des talents dans l’IA
Le business de l’IA en juin 2025 a été marqué par d’énormes investissements, des mouvements de talents et des alliances stratégiques, alors que les entreprises se disputent la place de leader dans la nouvelle économie de l’IA. L’événement le plus marquant fut peut-être l’accusation de Sam Altman selon laquelle Meta tenterait de débaucher les meilleurs ingénieurs d’OpenAI avec des primes de 100 millions de dollars winbuzzer.com. Dans un entretien à la mi-juin, le PDG d’OpenAI affirme que Meta (la maison mère de Facebook) offre des montants astronomiques pour attirer ses talents, Meta ayant du mal à suivre dans la course à l’IA. « Meta nous considère comme son plus grand concurrent », a déclaré Altman, ajoutant qu’à sa connaissance, aucun de ses « meilleurs éléments » n’avait accepté de telles offres winbuzzer.com winbuzzer.com. Cette accusation met en lumière la guerre des talents à enjeux majeurs dans l’IA, où les chercheurs expérimentés sont désormais aussi prisés que les stars du sport professionnel, avec des contrats à neuf chiffres.
L’offensive de recrutement de Meta coïncide avec ses gros investissements pour rattraper son retard technologique. À la mi-juin, l’entreprise a investi 14 milliards $ pour acquérir 49% de Scale AI, un leader de l’annotation de données winbuzzer.com. En s’associant à l’infrastructure cruciale des données d’IA, Meta a également placé le fondateur de Scale à la tête d’une nouvelle équipe “super-intelligence” winbuzzer.com. Un pari audacieux pour sécuriser plus de données d’entraînement et de talents. Mais ce mouvement a eu des répercussions : dès le lendemain, on annonçait que Google, l’un des plus gros clients de Scale, prévoyait de rompre le partenariat, craignant pour la neutralité de Scale avec une telle participation de Meta winbuzzer.com. L’épisode illustre comment les grands laboratoires d’IA se disputent désormais les données et les talents comme actifs stratégiques, quitte à fragiliser leurs partenariats. Il souligne aussi la flambée des coûts : de récentes analyses estiment que l’entraînement des modèles IA de dernière génération coûte désormais entre 100 et 200 millions de dollars chacun winbuzzer.com. Dans ce contexte, investir des milliards – ou offrir 100 millions à un chercheur – paraît presque rationnel (même si cela reste fascinant) pour s’assurer la domination future.
Dans cette course aux armements, de nouveaux acteurs et partenariats sont apparus. L’ancienne CTO d’OpenAI, Mira Murati, a fait sensation en levant 2 milliards de dollars pour sa nouvelle entreprise, Thinking Machines Lab, valorisée à 10 milliards de dollars crescendo.ai. Soutenue par les meilleurs fonds, la start-up veut créer des systèmes IA “agentiques” pour la prise de décision et le raisonnement autonome, preuve de la confiance des investisseurs dans l’IA de nouvelle génération, au-delà des chatbots. Sur le terrain de l’entreprise, le géant indien TCS a noué un partenariat avec Microsoft pour former 100 000 employés sur les services Azure OpenAI et développer des solutions business pilotées par l’IA crescendo.ai. Dans l’edtech, l’éditeur britannique Pearson s’est associé à Google pour intégrer des fonctionnalités IA de tutorat en salle de classe. Cet accord pluriannuel utilisera les modèles de Google pour générer des outils d’apprentissage personnalisés, adaptés aux besoins de chaque élève, et aider les enseignants à suivre les progrès reuters.com reuters.com. Selon le PDG de Pearson, l’IA pourrait remplacer l’enseignement uniforme par des parcours individualisés pour chaque enfant reuters.com. Ces collaborations montrent que les industries traditionnelles embrassent l’IA via des alliances et que les projets IA connaissent un financement record dans tous les secteurs.
Même les alliances fondamentales au niveau matériel évoluent. Dans un revirement surprenant, OpenAI a commencé à louer la capacité de puces IA de son rival Google pour alimenter ChatGPT et d’autres services reuters.com. Selon Reuters, OpenAI, jusqu’ici dépendant principalement du cloud Azure de Microsoft et des GPU Nvidia, exploite désormais aussi les puces TPU avancées (Tensor Processing Unit) de Google via Google Cloud reuters.com reuters.com. C’est la première utilisation significative de processeurs non-Nvidia par OpenAI et une rare collaboration entre deux concurrents IA. L’arrangement se veut gagnant-gagnant : OpenAI profite d’une puissance de calcul supplémentaire (peut-être à un coût moindre) pour répondre à la demande, et Google s’assure un client prestigieux pour ses TPUs (également proposés à Apple, Anthropic, etc.) reuters.com reuters.com. Cela prouve aussi que même les plus grands acteurs de l’IA doivent parfois coopérer dans l’ombre pour pallier la pénurie de puces et les besoins de serveurs dans la course au déploiement de l’IA à l’échelle.
L’impact de l’IA sur l’emploi a également été un point central. Amazon a fait la une en reconnaissant ouvertement que l’IA générative va éliminer certains emplois de cols blancs au sein de l’entreprise. Le PDG Andy Jassy a annoncé que les avancées en matière d’IA et d’automatisation devraient réduire les effectifs des bureaux d’Amazon dans les prochaines années crescendo.ai. Il a souligné que, si de nombreux postes seront remplacés par des systèmes pilotés par l’IA, d’autres rôles évolueront et nécessiteront que les employés se requalifient et collaborent avec l’IA crescendo.ai. Amazon a exhorté ses employés à adopter les outils et la formation liés à l’IA, reflétant une tendance plus large de restructuration et de reconversion induite par l’IA. Cette déclaration franche fait suite à des initiatives similaires dans les médias (par exemple, Insider a récemment supprimé 21% de ses effectifs tout en investissant dans la génération de contenu par IA), et souligne comment l’IA redéfinit les marchés du travail. Comme l’a exprimé sans détour Jensen Huang, PDG de Nvidia, lors d’un événement fin mai : « Vous allez perdre votre emploi au profit de quelqu’un qui utilise l’IA » – un avertissement pour ceux qui refuseraient de s’adapter crescendo.ai.
Éthique, politique et supervision de l’IA
Avec une progression aussi rapide de l’IA, l’éthique et la régulation ont été des sujets brûlants en juin. Une coalition de groupes pour la responsabilité technologique a lancé “The OpenAI Files”, une initiative pour exposer au grand jour la startup secrète à l’origine de l’essor de l’IA générative. Ce projet, mené par le Midas Project et le Tech Oversight Project, compile une documentation sur les préoccupations de gouvernance et d’éthique chez OpenAI – de son passage d’une structure à but non lucratif vers un modèle lucratif, à sa gestion des mesures de sécurité et l’influence des investisseurs techcrunch.com techcrunch.com. The OpenAI Files réclame plus de transparence et de responsabilité dans la course à l’intelligence artificielle générale de la part des entreprises. Ils mettent en avant les craintes selon lesquelles la recherche de profit aurait mené à une « évaluation précipitée de la sécurité » et à une « culture de la prise de risques » chez OpenAI techcrunch.com. Ils évoquent également les troubles internes – telle la tentative de renvoi du PDG Sam Altman par le personnel en 2023 – comme signe que le leadership de l’IA pose problème. « Je ne pense pas que Sam soit la personne à qui il faut confier la responsabilité de l’AGI, » aurait déclaré l’ancien directeur de la recherche chez OpenAI, Ilya Sutskever techcrunch.com. Bien qu’OpenAI conteste nombre de ces caractérisations, le fait que des organismes de surveillance publient désormais des « dossiers » sur les entreprises d’IA signale une demande croissante de supervision dans la course à l’IA.
Dans la même veine, un groupe d’anciens employés d’OpenAI a rendu publique une lettre accusant l’entreprise de sacrifier la sécurité au profit de la rapidité et du gain crescendo.ai. Ils affirment que la direction a ignoré les alertes éthiques internes et a même pris des mesures de rétorsion contre ceux qui ont tiré la sonnette d’alarme. Les lanceurs d’alerte réclament une meilleure protection pour les chercheurs qui osent s’exprimer, et appellent les autorités à tenir les entreprises d’IA responsables. Cela alimente les débats en cours à Washington et à Bruxelles sur la régulation de l’IA sans freiner l’innovation. Aux États-Unis, des voix de tout l’échiquier politique réclament un leadership et une sécurité accrus dans l’IA. L’un des conseillers technologiques de l’ancien président Trump a averti que l’Amérique pourrait perdre son avance sur l’IA au profit de la Chine en moins de dix ans si elle n’agit pas plus vite crescendo.ai. Et au Congrès, des commissions organisent des auditions sur les risques liés à l’IA allant des deepfakes à la suppression d’emplois, explorant de nouvelles lois pour encadrer l’utilisation de l’IA.
L’Europe s’apprête, quant à elle, à appliquer la première loi globale au monde sur l’IA – non sans controverse de dernière minute. La Loi sur l’IA de l’UE, cadre réglementaire ambitieux en matière d’intelligence artificielle, doit entrer en vigueur en août 2025. À l’approche de l’échéance, l’industrie s’inquiète d’un manque de préparation des entreprises et des autorités. Fin juin, l’Association européenne de l’informatique et des communications (CCIA Europe) a appelé les dirigeants européens à suspendre la mise en œuvre de la loi sur l’IA ccianet.org. « L’Europe ne peut pas diriger sur l’IA avec un pied sur le frein, » a déclaré Daniel Friedlaender de la CCIA, avertissant qu’en l’absence de directives précises à quelques semaines de l’entrée en vigueur, un déploiement précipité pourrait « complètement freiner l’innovation » ccianet.org. Les responsables européens reconnaissent certaines difficultés – par exemple, les normes détaillées pour certains systèmes IA à haut risque sont retardées – mais il n’est pas prévu pour l’instant de décaler le calendrier. La loi imposera des exigences aux IA dites « à haut risque » (comme en santé ou dans les transports) et interdira certaines pratiques comme la surveillance biométrique en temps réel. Les régulateurs européens mettent aussi en place un Office de l’IA et un panel d’experts pour superviser l’application. La rigueur de l’application et l’adaptation des entreprises seront à suivre de près dans les prochains mois.
Les batailles juridiques autour de l’IA se sont également intensifiées. Aux États-Unis, OpenAI affronte The New York Times devant les tribunaux sur la question du droit d’auteur et de la vie privée. En juin, un juge fédéral a ordonné à OpenAI de préserver tous les journaux de sortie de ChatGPT relatifs à l’affaire – y compris ceux que les utilisateurs avaient demandé à supprimer, même si normalement les lois sur la protection des données imposeraient leur effacement adweek.com. Cette injonction inhabituelle met en lumière les tensions juridiques autour des modèles IA formés sur de vastes quantités de textes en ligne (y compris du contenu de presse). Le procès du Times accuse ChatGPT de violer illicitement le droit d’auteur ; la demande de conservation des données suggère que la mémoire du chatbot sera une pièce clé du dossier. OpenAI estime que l’obligation de conserver des conversations supprimées par les utilisateurs va trop loin et a annoncé faire appel adweek.com adweek.com. Au-delà du droit d’auteur, l’affaire soulève des questions de confidentialité, car les interactions avec ChatGPT contiennent souvent des données sensibles. Altman lui-même a commenté que cette injonction portait atteinte à la vie privée des utilisateurs, qualifiant la démarche du journal de « déraisonnable » adweek.com. L’issue de ce bras de fer pourrait faire jurisprudence sur le traitement des données et de la propriété intellectuelle par les entreprises d’IA.
L’IA dans la société : empathie et usages inattendus
Au-delà des innovations et accords médiatisés, juin 2025 a aussi permis d’observer l’impact de l’IA sur la société et certains usages de niche. Une étude surprenante a révélé que l’IA pourrait dépasser les humains en empathie perçue. Lors d’une expérience en psychologie, les participants ont jugé les réponses générées par l’IA à des confessions personnelles comme plus bienveillantes et empathiques que les réponses données par d’autres humains crescendo.ai. Si une IA ne ressent bien sûr aucune émotion, il semble que les modèles de langage avancés puissent reproduire efficacement les codes de l’empathie – au point que certaines personnes préfèrent parfois le réconfort du chatbot. Cette découverte pose des questions fascinantes sur la façon dont nous percevons l’empathie et sur un possible rôle de l’IA dans la relation d’aide ou le soutien émotionnel. Elle rappelle aussi la nécessité d’encadrer l’usage éthique de ces systèmes auprès de publics vulnérables et en situations sensibles.
Dans le domaine de la préservation de la faune, l’IA a également démontré son potentiel positif. Le géant technologique Microsoft a annoncé que ses outils d’IA contribuent à la sauvegarde des girafes menacées d’Afrique crescendo.ai. Les défenseurs de l’environnement utilisent des modèles de vision par IA de Microsoft pour analyser les images de drones et de caméras, identifiant et suivant automatiquement les girafes à travers de vastes réserves. Cela permet d’obtenir des dénombrements précis et de mieux comprendre leurs déplacements, pour mieux lutter contre le braconnage ou la perte d’habitat. C’est un exemple encourageant d’une technologie conçue pour le monde des affaires, réinvestie dans la protection de la planète. De la surveillance des forêts tropicales à la dépollution des océans, les projets “AI for Good” se multiplient, offrant une alternative aux scénarios catastrophes en montrant comment l’IA peut contribuer à résoudre les problèmes humains et écologiques.
En résumé, juin 2025 a mis en évidence à quel point l’IA transforme le monde en profondeur et en largeur. Nous avons vu des modèles d’IA de pointe repousser les limites créatives et techniques, des robots devenir plus intelligents et plus utiles, et l’IA infiltrer des domaines critiques allant de la santé à la guerre. Les poids lourds de l’industrie ont investi des milliards dans l’IA, alors même que les inquiétudes liées à l’éthique, la sécurité et la régulation grandissaient. Les histoires surprenantes du mois – qu’il s’agisse d’un essaim de drones IA en combat, d’une escroquerie tragique alimentée par l’IA, ou d’un chatbot montrant de “l’empathie” – montrent que l’impact de l’IA n’est plus théorique ni confiné aux cercles technologiques ; il est désormais réel, mondial, et tangible. Les responsables politiques et le grand public tentent de suivre le rythme effréné du changement. Alors que la révolution de l’IA s’accélère pour la seconde moitié de 2025, le monde observe afin de voir si les bénéfices pourront être exploités et les risques maîtrisés, pour définir un avenir meilleur.
Sources :
- Les plans de GPT-5 d’OpenAI et les commentaires d’Altman adweek.com adweek.com ; Lancement du modèle vidéo Midjourney crescendo.ai ; Publication open-source du modèle MiniMax M1 winbuzzer.com ; Retards du LLaMA de Meta winbuzzer.com.
- Annonce “Gemini Robotics On-Device” de Google DeepMind deepmind.google deepmind.google ; Reuters – Robots humanoïdes Foxconn/Nvidia en usine reuters.com reuters.com ; Un robot IA joue au badminton crescendo.ai.
- Mises à jour IA santé de Healthcare Brew (LLM “Elsa” de la FDA, politique de l’AMA) healthcare-brew.com healthcare-brew.com ; IA Boltz-2 de MIT/Recursion pour la découverte de médicaments healthcare-brew.com.
- Récit des drones IA de l’opération “Spider Web” crescendo.ai ; IA de détection d’armes dans un hôpital de Nouvelle-Écosse crescendo.ai ; Cas de sextorsion IA et projet de loi associés crescendo.ai ; Rapport sur le casque AR militaire de Meta crescendo.ai.
- Winbuzzer – Guerre des talents Altman vs. Meta (recrutements agressifs) winbuzzer.com ; Investissement Meta de $14B dans Scale AI winbuzzer.com ; Réponse de Google winbuzzer.com ; Données Epoch AI sur le coût des entraînements winbuzzer.com ; Financement de la startup de Mira Murati crescendo.ai ; Amazon et les suppressions d’emplois IA crescendo.ai ; Partenariat Pearson-Google pour l’éducation reuters.com reuters.com ; Reuters – OpenAI loue des TPUs Google reuters.com reuters.com.
- TechCrunch – Projet de supervision “OpenAI Files” techcrunch.com techcrunch.com ; Citation d’Ilya Sutskever techcrunch.com ; Lettre des anciens d’OpenAI (AI News) crescendo.ai ; Avertissement d’un conseiller Trump (Fox Business) crescendo.ai ; CCIA sur la pause de l’AI Act UE ccianet.org ; Reuters – Jugement de préservation des données OpenAI vs. NYT adweek.com adweek.com.
- Étude sur l’empathie (Neuroscience News) crescendo.ai ; Microsoft IA pour la conservation des girafes crescendo.ai.