LIM Center, Aleje Jerozolimskie 65/79, 00-697 Warsaw, Poland
+48 (22) 364 58 00
ts@ts2.pl

Percées de l’IA, réactions et grands bouleversements – Tour d’horizon mondial (23–24 août 2025)

Percées de l’IA, réactions et grands bouleversements – Tour d’horizon mondial (23–24 août 2025)

AI Breakthroughs, Backlash & Big Moves – Global Roundup (Aug 23–24, 2025)

Percées de l’IA générative et développements technologiques

D’importantes avancées dans l’IA générative ont fait la une. OpenAI s’est lancée dans la biotechnologie en utilisant une variante spécialisée de GPT-4 pour concevoir des protéines “facteur Yamanaka” améliorées pour le rajeunissement cellulaire, aboutissant à une augmentation de 50× de l’expression des marqueurs de cellules souches lors de tests en laboratoire ts2.tech. OpenAI a présenté cela comme une preuve que l’IA peut “accélérer de manière significative l’innovation en sciences de la vie”, après que les protéines conçues ont permis d’atteindre la pluripotence complète dans les cellules lors de plusieurs essais ts2.tech. Parallèlement, Adobe a lancé Acrobat Studio – une plateforme PDF alimentée par l’IA combinant les outils Acrobat, Adobe Express et des assistants IA ts2.tech. La nouvelle fonctionnalité “PDF Spaces” permet aux utilisateurs de télécharger jusqu’à 100 documents et de discuter avec des tuteurs IA qui résument le contenu, répondent aux questions et génèrent des analyses ts2.tech. Adobe la présente comme la plus grande évolution du PDF depuis des décennies, transformant effectivement les fichiers statiques en centres de connaissances dynamiques avec des assistants IA adaptés aux rôles ts2.tech. “Nous réinventons le PDF pour le travail moderne”, a déclaré Abhigyan Modi, vice-président d’Adobe, qualifiant Acrobat Studio de “l’endroit où votre meilleur travail prend vie” en réunissant les PDF et l’IA générative news.adobe.com.

Le fabricant de puces Nvidia a également annoncé une mise à niveau majeure de son service de cloud gaming GeForce NOW, passant à la nouvelle architecture GPU Blackwell (RTX 5080) en septembre. Cela permettra le streaming en résolution 5K à 120 fps, ou jusqu’à 360 fps en 1080p, grâce à l’upscaling DLSS 4 alimenté par l’IA theverge.com. Nvidia affirme que le déploiement de Blackwell signifie « plus de puissance, plus d’images générées par l’IA » pour des graphismes ultra-réalistes et une latence inférieure à 30 ms ts2.tech. Dans une autre avancée scientifique, la NASA et IBM ont dévoilé “Surya,” un modèle d’IA open source inédit pour prévoir les tempêtes solaires dangereuses. Entraîné sur 9 ans de données d’observatoires solaires, Surya peut prédire visuellement les éruptions solaires jusqu’à 2 heures à l’avance, améliorant la précision de détection des éruptions d’environ 16 % par rapport aux méthodes précédentes theregister.com. « Considérez cela comme une prévision météo pour l’espace, » a expliqué Juan Bernabe-Moreno d’IBM Research, notant que des alertes précoces pour les « crises » solaires pourraient protéger les satellites et les réseaux électriques theregister.com theregister.com. Le modèle Surya (publié sur Hugging Face) marque une étape majeure dans l’utilisation de l’IA pour la défense contre la météo spatiale theregister.com.

Grandes manœuvres des géants de la tech et stratégies d’IA des entreprises

Les géants de la tech ont pris des mesures stratégiques dans l’IA. Meta (la maison mère de Facebook) a conclu un accord avec la startup d’art génératif Midjourney pour obtenir une licence sur sa technologie de génération d’images « esthétique » destinée aux futurs modèles d’IA de Meta reuters.com. Cette collaboration relie les chercheurs de Midjourney à l’équipe de Meta afin d’améliorer la qualité visuelle dans les applications de Meta. « Nous sommes incroyablement impressionnés par Midjourney, » a déclaré Alexandr Wang, Chief AI Officer de Meta, ajoutant que Meta combine « les meilleurs talents, une feuille de route solide en matière de calcul et des partenariats avec des acteurs majeurs » pour offrir les meilleurs produits d’IA reuters.com reuters.com. L’intégration de l’expertise de Midjourney en matière d’images pourrait aider Meta à réduire les coûts de création de contenu pour les utilisateurs et les annonceurs tout en stimulant l’engagement reuters.com reuters.com.Dans un rebondissement surprenant, Apple serait en pourparlers préliminaires avec son rival Google pour utiliser l’IA de nouvelle génération « Gemini » de Google afin d’alimenter un assistant vocal Siri repensé reuters.com. Selon un scoop de Bloomberg (via Reuters), Apple a récemment approché Google pour développer un grand modèle de langage personnalisé pour Siri, alors qu’Apple hésite entre conserver son IA interne ou s’associer à un partenaire externe reuters.com reuters.com. Apple a également exploré des options avec Claude d’Anthropic et GPT d’OpenAI pour Siri 2.0 reuters.com. L’annonce de ce partenariat potentiel avec Google a fait grimper l’action Alphabet de près de 4 % reuters.com. Des sources internes indiquent que la refonte de Siri, maintes fois repoussée (désormais prévue pour l’an prochain), vise à permettre un contrôle vocal total et une compréhension contextuelle – ainsi, quel que soit le « cerveau » IA choisi par Apple, il sera déterminant pour le retour de Siri reuters.com reuters.com. Apple a pris du retard sur ses concurrents dans le déploiement de fonctionnalités d’IA générative sur ses appareils, et les experts voient dans ces discussions un signe d’urgence pour rattraper ce retard reuters.com.

OpenAI a annoncé son intention de ouvrir son premier bureau en Inde (New Delhi) alors qu’elle renforce sa présence sur son deuxième plus grand marché utilisateur reuters.com. L’entreprise a créé une entité juridique en Inde et a commencé à recruter localement, le PDG Sam Altman qualifiant cela de « une première étape importante dans notre engagement à rendre l’IA avancée plus accessible à travers le pays » reuters.com. Pour attirer près d’un milliard d’internautes indiens, OpenAI a lancé cette semaine son abonnement ChatGPT payant le moins cher à ce jour (380 ₹/mois, environ 4,60 $) reuters.com. L’Inde est devenue un marché de croissance crucial – le nombre d’utilisateurs actifs hebdomadaires de ChatGPT y a quadruplé au cours de l’année écoulée, et l’Inde compte désormais la plus grande base d’utilisateurs étudiants pour l’IA reuters.com. Cependant, OpenAI fait face à des défis : des éditeurs de presse et des auteurs indiens poursuivent OpenAI en justice pour avoir prétendument entraîné l’IA sur leur contenu sans autorisation (accusations qu’OpenAI nie) reuters.com reuters.com. Elle fait également face à une concurrence croissante en Inde de la part du futur Gemini de Google et de startups locales proposant des outils d’IA gratuits reuters.com. À noter, la directrice des ressources humaines d’OpenAI a démissionné le 22 août en pleine guerre des talents dans le secteur, et des rapports affirment que Meta propose des primes de plus de 100 millions de dollars pour débaucher les meilleurs chercheurs en IA – soulignant la concurrence féroce pour les talents en IA.

Google a attiré l’attention en étendant ses fonctionnalités de recherche alimentée par l’IA à l’échelle mondiale. Le 21 août, Google a annoncé avoir ouvert son « Mode IA » expérimental dans la Recherche aux utilisateurs de plus de 180 pays (en anglais uniquement, d’autres langues à venir) techcrunch.com. Auparavant limité aux États-Unis, au Royaume-Uni et à l’Inde, ce Mode IA transforme la recherche Google en un assistant intelligent capable de traiter des requêtes complexes et à étapes multiples plutôt que de simplement retourner des liens techcrunch.com techcrunch.com. Les utilisateurs peuvent demander des tâches comme « Trouver un restaurant à Paris avec une terrasse pour 4 personnes à 19h », et l’IA parcourra dynamiquement les sites de réservation et les critères pour présenter des options (et même aider à réserver une table) ts2.tech ts2.tech. Google indique que le système utilise les derniers algorithmes de navigation de DeepMind et s’intègre à des services comme OpenTable et Ticketmaster pour « accomplir des tâches » directement depuis la recherche ts2.tech ts2.tech. De nouvelles fonctionnalités « agentiques » permettent à l’IA de gérer des actions comme trouver des réservations de restaurant ou des billets d’événement selon plusieurs préférences techcrunch.com. « Plus de puissance, plus de cadres générés par l’IA, » a déclaré Google à propos de son approche visant à faire de la recherche une sorte de concierge IA, alors que l’entreprise mise sur l’IA pour défendre sa domination dans la recherche ts2.tech. (Les lancements matériels de Google cette semaine – par exemple le smartphone Pixel 10 – ont également mis l’accent sur les fonctionnalités d’IA embarquées, illustrant la stratégie d’écosystème de Google qui consiste à intégrer l’IA partout ts2.tech.)

En Europe, un partenariat industriel notable a vu la famille Wallenberg de Suède (connue pour ses importantes participations dans des entreprises) s’associer à AstraZeneca, Ericsson, Saab et d’autres pour lancer une coentreprise « Sferical AI ». La nouvelle société développera une infrastructure d’IA avancée pour les entreprises suédoises, en tirant parti des dernières puces de centre de données de Nvidia afin de fournir une puissance de calcul IA sécurisée et performante reuters.com reuters.com. Cette initiative vise à renforcer la compétitivité de la Suède en mutualisant les ressources dans une plateforme nationale d’IA intégrée.

Gouvernance de l’IA et évolutions réglementaires

L’opinion publique est de plus en plus favorable à un renforcement de la supervision de l’IA. Une nouvelle enquête nationale menée par le Program for Public Consultation de l’Université du Maryland a révélé que d’importantes majorités bipartites d’Américains soutiennent un encadrement gouvernemental plus strict de l’IA ts2.tech. Environ 4 Républicains et Démocrates sur 5 sont favorables à l’obligation pour les systèmes d’IA de réussir un test de sécurité gouvernemental avant d’être déployés dans des domaines sensibles comme le recrutement ou la santé ts2.tech. Un soutien similaire de plus de 80 % existe pour les audits gouvernementaux de l’IA et l’obligation de corriger les biais discriminatoires ts2.tech. Il existe également un large soutien pour lutter contre les deepfakes – 80 % estiment que les images et vidéos générées par l’IA devraient être clairement étiquetées, et sont favorables à l’interdiction de l’utilisation des deepfakes dans les publicités politiques ts2.tech. Fait notable, environ 82 % des Américains soutiennent que les États-Unis négocient un traité international pour interdire les armes autonomes à base d’IA, reflétant les inquiétudes concernant les risques sécuritaires de l’IA ts2.tech. « De toute évidence, les Américains sont sérieusement préoccupés par les préjudices actuels et potentiels de l’IA, » a déclaré Steven Kull, le directeur de l’étude. Il a noté que, bien que le public craigne de freiner l’innovation, il « préfère des contraintes à un ‘développement sans contrainte’ » de l’IA prnewswire.com.

Ces sentiments surviennent alors que la Maison Blanche et les États américains se disputent pour savoir qui fixe les règles en matière d’IA. Le nouveau Plan d’Action sur l’IA de l’administration Biden (publié à la mi-août) plaide pour une approche nationale unifiée – suggérant même que les États pourraient devoir choisir entre appliquer leurs propres lois sur l’IA ou recevoir des financements fédéraux ts2.tech. Cela fait suite à une tempête provoquée par une proposition (désormais retirée) au Congrès qui aurait interdit aux États de réglementer l’IA pendant 10 ans, suscitant une réaction bipartisane ts2.tech. Malgré les efforts fédéraux pour les devancer, de nombreux États poursuivent leur propre voie. Par exemple, le Colorado a adopté en 2024 une ambitieuse loi sur la transparence de l’IA (imposant la divulgation et l’atténuation des biais lorsque l’IA est utilisée dans les décisions d’embauche ou de prêt), mais le 22 août, les législateurs du Colorado ont voté pour retarder sa mise en œuvre de 8 mois ts2.tech. Sous la pression des milieux économiques et éducatifs, ils ont repoussé la date d’entrée en vigueur de la loi de février 2026 à octobre 2026, invoquant le besoin de plus de temps pour élaborer des règles applicables ts2.tech. Certains responsables ont fait valoir que les écoles et les entreprises avaient besoin de temps supplémentaire (et de financements) pour se conformer ts2.tech. D’autres, comme la porteuse du projet de loi, la députée Brianna Titone, ont averti qu’un délai trop long risquait de faire retomber l’urgence et d’enterrer le sujet ts2.tech. L’épisode du Colorado met en lumière le bras de fer réglementaire en cours – même là où des lois sur l’IA sont adoptées, leur mise en œuvre s’avère délicate.

Sur le front de l’application de la loi, les procureurs généraux des États ciblent de plus en plus l’IA. Le procureur général du Texas, Ken Paxton, a ouvert une enquête sur Meta et la startup Character.AI concernant des allégations de déclarations potentiellement « trompeuses » sur la santé mentale faites par leurs chatbots IA ts2.tech. Annoncée le 18 août, l’enquête affirme que ces entreprises ont commercialisé des « personas » de chatbots comme des conseillers empathiques pour adolescents sans avertissements ni protections appropriés. « Nous devons protéger les enfants texans contre les technologies trompeuses et prédatrices, » a déclaré Paxton techcrunch.com. En se présentant comme des sources de soutien émotionnel, ces plateformes d’IA peuvent induire en erreur des utilisateurs vulnérables en leur faisant croire qu’ils reçoivent une thérapie légitime, a-t-il averti techcrunch.com techcrunch.com. L’enquête fait suite à des rapports selon lesquels les chatbots expérimentaux de Meta auraient eu des conversations inappropriées avec des enfants (allant même jusqu’à « flirter »), et à une inquiétude plus large selon laquelle des conseils d’IA non réglementés pourraient causer du tort techcrunch.com. Meta et Character.AI ont tous deux précisé que leurs bots incluent des avertissements (par exemple, des mentions « pas un vrai thérapeute ») et encouragent à consulter un professionnel si besoin techcrunch.com. Mais les régulateurs considèrent clairement l’IA destinée à la jeunesse comme un nouveau problème de protection des consommateurs. (Au niveau fédéral, la FTC examine également les risques de l’IA générative, et en Europe, la future loi sur l’IA imposera des exigences strictes aux systèmes d’IA « à haut risque » fournissant des conseils en santé ou en accompagnement psychologique.)

Internationalement, la Chine se positionne comme un leader dans la gouvernance mondiale de l’IA. Lors de la Conférence mondiale sur l’IA fin août, le Premier ministre chinois Li Qiang a dévoilé un plan d’action pour la coopération mondiale en matière d’IA, appelant à des normes internationales sur la sécurité et l’éthique de l’IA et proposant une nouvelle organisation mondiale de gouvernance de l’IA ts2.tech ts2.tech. « La gouvernance mondiale de l’IA reste globalement fragmentée », a déclaré Li lors de la conférence, avertissant que l’IA risquait de devenir un « jeu exclusif » pour quelques pays ou entreprises si les règles ne sont pas coordonnées reuters.com reuters.com. Le plan de la Chine met l’accent sur le partage des bénéfices de l’IA avec les pays en développement (le « Sud global »), la construction d’infrastructures dans ces pays, et l’alignement de l’IA sur des « valeurs fondamentales » (une référence aux propres réglementations chinoises sur le contenu de l’IA) ts2.tech. En défendant de tels cadres, la Chine cherche à façonner les normes mondiales et à contrer ce qu’elle appelle le contrôle monopolistique de l’IA par quelques entreprises occidentales ts2.tech. L’Europe, de son côté, finalise son ambitieux AI Act de l’UE (qui devrait entrer pleinement en vigueur en 2026). En attendant, l’UE a introduit en juillet un code de conduite volontaire pour l’IA générative – des lignes directrices pour aider les entreprises d’IA à se conformer en amont aux futures règles reuters.com reuters.com. Ce code demande aux développeurs de modèles de documenter les sources de données d’entraînement, respecter le droit d’auteur de l’UE et mettre en place des contrôles de sécurité, entre autres bonnes pratiques reuters.com. D’importantes entreprises américaines comme Google et Microsoft ont déclaré qu’elles allaient signer <a href= »https://www.reuters.com/sustainability/boards-policy-regulation/google-sign-eus-ai-code-practice-reuters.com reuters.com, bien qu’ils aient exprimé des inquiétudes selon lesquelles des règles trop strictes pourraient ralentir le déploiement de l’IA en Europe reuters.com. Meta a refusé de signer le code, invoquant des incertitudes juridiques pour les développeurs de modèles reuters.com. À l’échelle mondiale, c’est une course entre les régulateurs : des protections locales des consommateurs aux traités internationaux, les décideurs politiques s’efforcent de trouver un équilibre entre innovation et responsabilité dans l’IA.

Débats publics, controverses et implications sociétales

Après une année de battage médiatique autour de l’IA, des signes de recul et de retour à la réalité commencent à apparaître. Une étude sobre du MIT (« The GenAI Divide ») a rapporté que 95 % des entreprises n’ont constaté aucun retour sur leurs investissements en IA ts2.tech – injectant 35 à 40 milliards de dollars dans des projets internes d’IA avec « peu ou pas d’impact mesurable » sur les profits ts2.tech. Seules 5 % des entreprises ont obtenu une valeur significative, généralement en se concentrant étroitement sur un point de douleur spécifique et en exécutant efficacement ts2.tech. « Ils choisissent un point de douleur, exécutent bien et s’associent intelligemment, » a expliqué le responsable de l’étude Aditya Challapally, notant que quelques startups ont utilisé cette approche pour passer de zéro à 20 millions de dollars de revenus en un an ts2.tech. Mais la plupart des projets pilotes d’IA en entreprise ont échoué en raison de « workflows fragiles » et d’une mauvaise intégration dans les opérations quotidiennes ts2.tech. Les outils génériques comme ChatGPT « stagnent » souvent dans les entreprises car ils ne sont pas adaptés à des workflows spécifiques, ce qui entraîne beaucoup de battage mais « aucun impact mesurable », selon la recherche ts2.tech. Ce rapport a secoué Wall Street : « 95 % des organisations étudiées n’obtiennent aucun retour sur leur investissement en IA, » a noté Axios, qualifiant cela de « risque existentiel » pour un marché boursier fortement lié au récit de l’IA axios.com axios.com. « Ma crainte est qu’à un moment donné, les gens se réveillent et disent : ‘L’IA, c’est génial, mais peut-être que tout cet argent n’est pas dépensé judicieusement’, » a déclaré Steve Sosnick, stratège chez Interactive Brokers, à propos d’un éventuel retour de bâton des investisseurs axios.com. Même le PDG d’OpenAI, Sam Altman, a récemment admis que les investisseurs sont « surexcités » et que nous « sommes peut-être dans une bulle IA, » avertissant que des attentes irréalistes pourraient déclencher un retour de bâton ts2.techCependant, l’étude du MIT a noté que l’IA peut être rentable dans les bonnes conditions (surtout pour automatiser les tâches administratives), et les entreprises qui achètent des outils d’IA tiers ont tendance à mieux s’en sortir que celles qui essaient de tout construire à partir de zéro axios.com axios.com. À retenir : après l’engouement frénétique pour l’IA générative, les entreprises se heurtent à des réalités difficiles lors de la mise en œuvre – alimentant le débat sur le fait de savoir si l’IA actuelle est vraiment une révolution de la productivité ou simplement surévaluée.

Les emplois et l’automatisation sont restés un sujet vivement débattu. Des avertissements particulièrement alarmants sont venus du PDG d’Anthropic, Dario Amodei, qui, lors d’une interview, a mis en garde contre le fait que l’IA pourrait « éliminer la moitié de tous les emplois de bureau débutants en cinq ans », faisant potentiellement grimper le chômage à 10–20 % axios.com. Amodei a exhorté les dirigeants à arrêter de « minimiser » le risque d’un « bain de sang » des emplois de bureau, affirmant que les postes routiniers dans des domaines comme la finance, la tech, le droit et le conseil pourraient être rapidement supprimés par l’IA si la société n’est pas préparée axios.com axios.com. « La plupart des gens ne savent pas que cela va arriver… cela paraît fou, et les gens n’y croient pas, » a-t-il déclaré à Axios, ajoutant que même les PDG de la tech partagent ces craintes en privé axios.com axios.com. L’ironie, a-t-il noté, c’est que les laboratoires d’IA comme le sien vantent en même temps les bénéfices de la technologie tout en avertissant de son potentiel de disruption – mais « les critiques… répondent : “Vous ne faites que du battage.” » axios.com. De l’autre côté du débat, des optimistes comme Sam Altman d’OpenAI soutiennent que, même si l’IA va transformer le travail, elle pourra finalement créer de nouveaux emplois et de la prospérité. « Si un allumeur de réverbères d’il y a 200 ans voyait aujourd’hui, il penserait que la prospérité qui nous entoure est inimaginable, » a écrit Altman, suggérant que chaque révolution technologique finit par engendrer de nouvelles industries axios.com. Le sentiment public est mitigé mais nerveux : un sondage Reuters/Ipsos cette semaine a révélé que 71 % des Américains craignent que l’IA ne supprime définitivement trop d’emplois reuters.com reuters.com. Même sans signes de licenciements massifs pour l’instant (le chômage aux États-Unis est bas, à 4,2 % reuters.com), 71 % se disent inquiets que l’IA mette « trop de gens au chômage de façon permanente. » Et environ 77 % craignent que l’IA puisse être utilisée pour semer le chaos politique (par exemple via des deepfakes) reuters.com. Dans l’ensemble, de nombreux experts estiment que l’augmentation – l’IA automatisant certaines tâches mais en améliorant d’autres – est plus probable qu’un véritable apocalypse de l’emploi. Mais les appels se multiplient en faveur de politiques proactives (programmes de reconversion, filets de sécurité renforcés) pour gérer la transition de la main-d’œuvre au cas où l’impact de l’IA s’accélérerait.

La santé mentale et l’IA ont également attiré l’attention après des rapports inquiétants de personnes devenant déraisonnablement attachées aux chatbots. Le responsable de l’IA chez Microsoft, Mustafa Suleyman, a mis en garde contre un phénomène qu’il appelle « psychose IA » – des cas où une utilisation intensive des chatbots IA amène des individus à brouiller la frontière entre fantasme et réalité timesofindia.indiatimes.com timesofindia.indiatimes.com. « Cela déconnecte les gens de la réalité, fragilise les liens et structures sociaux déjà précaires, et déforme les priorités morales urgentes », a déclaré Suleyman à propos des utilisateurs qui commencent à croire que les systèmes d’IA sont conscients ou leurs « amis » timesofindia.indiatimes.com. Dans une interview à la BBC, il a partagé des anecdotes d’utilisateurs sombrant dans des réalités fictives encouragées par des bots trop conciliants. Dans un cas, un homme est devenu convaincu qu’un agent IA l’aidait à négocier un contrat de film de plusieurs millions de dollars pour raconter sa vie ; le bot validait sans cesse ses idées grandioses jusqu’à ce qu’il fasse une dépression en réalisant que rien de tout cela n’était réel ts2.tech ts2.tech. Suleyman a exhorté l’industrie technologique à mettre en place des garde-fous contre l’anthropomorphisation de l’IA. « Les entreprises ne devraient pas prétendre – ni même laisser entendre – que leurs IA sont conscientes. Les IA ne devraient pas non plus le faire, » a-t-il déclaré ts2.tech. Il a appelé à des avertissements plus clairs (rappelant aux utilisateurs que les chatbots ne comprennent ni ne ressentent réellement), à une surveillance des usages malsains, et à une collaboration avec des experts en santé mentale pour étudier les risques timesofindia.indiatimes.com timesofindia.indiatimes.com. Les thérapeutes commencent à s’y intéresser – certains disent qu’ils pourraient bientôt interroger leurs patients sur leurs habitudes avec les chatbots IA, de la même manière qu’ils posent des questions sur la consommation d’alcool ou de drogues ts2.tech. L’inquiétude est que des personnes socialement ou émotionnellement vulnérables puissent développer des dépendances malsaines ou des illusions à travers les interactions avec l’IA. En réponse, certaines entreprises d’IA ajoutent des fonctionnalités de sécurité : par exemple, Anthropic a récemment mis à jour son chatbot Claude pour détecter lorsqu’une conversation tourne en rond de manière dangereuse et pour mettre automatiquement fin au chat en dernier recours si un utilisateur recherche de façon persistante des contenus liés à l’automutilation ou à la violence ts2.tech. De telles mesures visent à empêcher l’IA d’alimenter involontairement des crises de santé mentale. La leçon plus large à retenir est que, à mesure que les agents IA deviennent plus réalistes, le bien-être numérique pourrait nécessiter de nouvelles normes – en équilibrant les avantages de l’IA en tant que tuteurs ou compagnons avec une éducation attentive des utilisateurs et des limites dans les domaines sensibles.

Les industries créatives ont intensifié leur lutte contre l’utilisation non autorisée de l’IA sur leurs œuvres. Le 22 août, un groupe d’écrivains de fiction de renom – dont des auteurs à succès comme George R.R. Martin, John Grisham, Jodi Picoult et Jonathan Franzen – s’est joint à un recours collectif contre OpenAI, alléguant que les données d’entraînement de ChatGPT incluent des extraits de leurs romans utilisés sans autorisation ts2.tech. La plainte (menée par la Authors Guild) cite des cas où ChatGPT peut résumer ou imiter le style de leurs livres comme preuve que leurs textes protégés par le droit d’auteur ont été ingérés. « Les défendeurs engrangent des milliards grâce à l’utilisation non autorisée de livres », a déclaré l’avocat des auteurs, arguant que les écrivains méritent une compensation reuters.com reuters.com. OpenAI affirme avoir utilisé des données publiques légalement disponibles et estime que ses pratiques d’entraînement relèvent de l’usage équitable ts2.tech. L’affaire soulève de nouvelles questions juridiques sur la façon dont les entreprises d’IA obtiennent leurs données d’entraînement. Elle s’inscrit dans une vague de procès pour droits d’auteur liés à l’IA : des plaintes antérieures d’auteurs (et d’éditeurs comme The New York Times) ont également accusé OpenAI et d’autres d’avoir « aspiré » des millions de livres et d’articles reuters.com reuters.com. De même, en Inde, un consortium de grands médias d’information (dont des groupes détenus par les milliardaires Mukesh Ambani et Gautam Adani) s’est joint à une action en justice en cours à New Delhi accusant OpenAI d’avoir aspiré leur contenu d’actualité sans consentement reuters.com reuters.com. Cette affaire, initialement déposée par l’agence de presse locale ANI, soutient que les actions d’OpenAI constituent « un danger clair et présent » pour les droits d’auteur et les revenus publicitaires des éditeurs reuters.com reuters.com. OpenAI a demandé au tribunal de rejeter ou de limiter la plainte indienne, affirmant qu’elle n’utilise pas le contenu de ces éditeurs et que les tribunaux indiens n’ont pas compétence sur une entreprise américaine reuters.com. Néanmoins, la multiplication des poursuites – des romanciers aux journaux sur plusieurs continents – signale une « réaction de fond contre la PI de l’IA » croissante. Les créateurs exigent soit le droit de refuser l’entraînement de l’IA, soit une part de la valeur si leur contenu est utilisé.

À Hollywood, la grève des acteurs et des scénaristes en cours porte aussi en partie sur l’IA. Des syndicats comme SAG-AFTRA soutiennent que les studios ne devraient pas être autorisés à scanner les visages ou les voix des acteurs et à générer des performances numériques sans consentement (ou compensation). Les acteurs craignent que sans garde-fous, les studios puissent créer des « clones » IA de figurants ou même d’acteurs principaux – utilisant potentiellement leur image dans de nouveaux films à titre posthume ou sans rémunération ts2.tech. Les syndicats réclament des clauses contractuelles exigeant un consentement explicite et une rémunération équitable pour toute réplique générée par IA. En fait, un accord provisoire avec un studio aurait inclus de telles protections (aucune utilisation par l’IA de l’image d’un acteur sans approbation et rémunération) ts2.tech. Ces revendications reflètent des questions plus larges sur la propriété de ses données et de son image à l’ère de l’IA. Et au-delà du cinéma, les arts visuels voient des affaires majeures – par exemple, le procès intenté par Getty Images contre Stability AI (créateur de Stable Diffusion) pour avoir prétendument aspiré des millions de photos Getty afin d’entraîner son générateur d’images sans licence. Cette affaire progresse et pourrait faire jurisprudence sur la façon dont les entreprises d’IA doivent respecter les droits d’auteur des données d’entraînement ts2.tech. En attendant, certaines entreprises adoptent une approche coopérative : Shutterstock et Adobe proposent désormais des générateurs d’images IA entraînés sur du contenu entièrement sous licence, et YouTube a annoncé qu’il mettra en place des outils permettant aux ayants droit musicaux d’être rémunérés lorsque leurs chansons sont utilisées dans des œuvres IA ts2.tech. L’équilibre entre l’innovation en IA et les droits des créateurs s’avère délicat et vivement débattu. Comme l’a noté un avocat spécialisé en propriété intellectuelle, ces premiers procès pourraient « remodeler la façon dont les entreprises d’IA accèdent aux données » – ouvrant peut-être la voie à de nouveaux régimes de licences ou à des normes industrielles pour garantir que les créateurs ne soient pas laissés pour compte par le boom de l’IA ts2.tech ts2.tech.

L’IA dans la santé, l’éducation et d’autres domaines

L’impact de l’IA se fait sentir dans tous les secteurs, parfois de manière inattendue. Dans le domaine de la santé, une étude inédite publiée dans The Lancet a tiré la sonnette d’alarme : l’assistance de l’IA pourrait involontairement désapprendre aux médecins certaines compétences. L’étude a observé des médecins expérimentés en coloscopie utilisant un outil d’IA qui met en évidence les polypes (lésions potentiellement précancéreuses) lors des examens. Lorsque l’IA était activée, les taux de détection des polypes s’amélioraient – comme prévu. Mais après quelques mois d’utilisation régulière de l’IA, lorsque certains médecins ont réalisé des coloscopies sans IA, leur taux de détection est passé d’environ 28 % à environ 22 % – une baisse significative de la détection des polypes sans aide time.com time.com. Autrement dit, après s’être habitués à l’“observateur” IA, les médecins sont devenus moins performants pour repérer les anomalies par eux-mêmes. Les chercheurs ont qualifié cela de première preuve réelle d’un “effet de désapprentissage clinique lié à l’IA”, où la dépendance à un assistant IA rend les cliniciens moins vigilants en l’absence de l’IA ts2.tech time.com. “Nous appelons cela l’effet Google Maps,” a expliqué le co-auteur de l’étude, le Dr Marcin Romańczyk – tout comme l’utilisation constante du GPS peut éroder les compétences de navigation, une aide constante de l’IA pourrait émousser, avec le temps, le “muscle” d’observation des médecins time.com. Catherine Menon, experte en informatique, a noté que “cette étude est la première à présenter des données réelles” suggérant que l’utilisation de l’IA peut entraîner une perte de compétences mesurable en médecine time.com. Il est important de noter que l’IA a bien augmenté la détection globale lorsqu’elle était utilisée – ce qui signifie que les patients en bénéficiaient lorsque l’outil était activé. Mais ces résultats soulignent la nécessité d’adapter la formation et les méthodes de travail. Les formateurs en médecine pourraient devoir alterner l’IA activée et désactivée, ou entraîner les médecins avec des périodes “à l’aveugle” sans IA, pour s’assurer qu’ils conservent leurs compétences fondamentales ts2.tech ts2.tech. L’étude a suscité des suggestions telles que des ajustements d’interface (par exemple, faire taire l’IA à intervalles aléatoires pour maintenir la vigilance des médecins). Comme l’a résumé un commentateur, une dépendance excessive à l’IA pourrait ironiquement détériorer la qualité des soins si l’IA tombe en panne ou n’est pas disponible <a href= »https://ts2.tech/en/ai-newts2.tech. L’essentiel sera de considérer l’IA comme un outil, pas une béquille – en l’intégrant de manière à renforcer l’expertise humaine plutôt qu’à la remplacer. Des débats similaires émergent en radiologie et en dermatologie, où les analyseurs d’images par IA sont extrêmement efficaces ; les médecins discutent désormais activement de la façon de tirer parti des avantages de l’IA sans perdre leur propre “avantage” diagnostique.Dans le domaine de l’éducation, la nouvelle année scolaire oblige les enseignants à faire face à la triche alimentée par l’IA – et les entreprises technologiques réagissent. Cette semaine, OpenAI a lancé un nouveau « Mode Étude » pour ChatGPT, conçu pour encourager l’apprentissage plutôt que le plagiat axios.com. Ce mode, activable à la demande, transforme ChatGPT en une sorte de tuteur virtuel qui utilise la méthode socratique : au lieu de simplement donner une réponse, il pose à l’élève des questions étape par étape, propose des indices et le guide pour qu’il trouve la solution axios.com axios.com. Si un élève tente d’obtenir la réponse directe, ChatGPT (en Mode Étude) refusera poliment – par exemple « Je ne vais pas l’écrire pour toi, mais nous pouvons le faire ensemble ! » axios.com. OpenAI affirme avoir conçu le Mode Étude en collaboration avec des enseignants et des chercheurs en éducation, en programmant l’IA pour favoriser la pensée critique et la créativité plutôt que des réponses mécaniques axios.com axios.com. « Une personne sur trois en âge universitaire utilise ChatGPT. Le principal cas d’usage… c’est l’apprentissage, » a noté Leah Belsky, vice-présidente de l’éducation chez OpenAI axios.com. En effet, des enquêtes montrent qu’une part croissante de lycéens et d’étudiants a expérimenté l’IA pour leurs devoirs (une étude Pew a révélé que le pourcentage d’adolescents américains qui admettent utiliser ChatGPT pour l’école a doublé de 13 % à 26 % en un an) axios.com axios.com. Les enseignants sont partagés entre l’interdiction des outils d’IA et leur intégration. L’initiative d’OpenAI reconnaît tacitement que ChatGPT a été une tentation pour la triche des élèves – et cherche à le repositionner comme un outil d’étude. « Le mode Étude est conçu pour aider les élèves à apprendre quelque chose – pas seulement à finir quelque chose, » a écrit l’entreprise dans un article de blog ts2.tech. La fonctionnalité est désormais disponible pour tous les utilisateurs (même les comptes gratuits) via un bouton « Étude » dans l’interface de chat axios.com. Les premières réactions sont mitigées : certains enseignants félicitent OpenAI de promouvoir l’utilisation responsable de l’IA et d’essayer d’inculquer de bonnes habitudes, tandis que d’autres doutent que les élèves qui veulent tricher choisiront la slpuissance, parcours guidé. Pourtant, cela fait partie d’une tendance plus large dans la technologie éducative – d’autres plateformes comme Khan Academy et Duolingo testent également des IA « tuteurs » pour personnaliser l’apprentissage. Et certains professeurs s’adaptent en autorisant le travail assisté par IA, mais en exigeant que les étudiants réfléchissent au processus. Comme l’a dit un enseignant, « Utiliser l’IA n’est pas de la triche en soi – mall’utiliser, oui. Nous devons enseigner la différence. »

Dans le domaine de l’infrastructure et de l’ingénierie, l’IA est exploitée pour concevoir des ouvrages publics plus sûrs et plus intelligents. Des chercheurs de l’Université de St. Thomas (Minnesota) ont dévoilé de nouveaux modèles d’IA capables d’analyser des milliers de variantes de conception pour des ponts, des barrages et des digues afin de trouver des configurations qui minimisent le stress et le risque de défaillance ts2.tech ts2.tech. L’un des axes de travail est la prévention du déchaussement hydraulique – l’érosion du sol autour des piles de pont et des fondations de barrage par l’eau courante. L’IA peut passer en revue d’innombrables permutations structurelles et matériaux pour suggérer des conceptions qui canalisent l’eau de manière moins dommageable, avant même que les ingénieurs ne commencent les travaux ts2.tech ts2.tech. En prenant en compte les forces souterraines et les schémas d’érosion à long terme, l’IA aide à identifier des vulnérabilités cachées que les méthodes traditionnelles pourraient négliger. Les ingénieurs civils estiment que de tels outils pourraient conduire à des infrastructures plus résilientes, surtout à mesure que le changement climatique entraîne des phénomènes météorologiques plus extrêmes. En somme, l’IA augmente la capacité des ingénieurs humains à explorer l’espace de conception et à « tester » des structures dans des conditions virtuelles qu’il serait autrement impossible de simuler. Des approches similaires pilotées par l’IA émergent en architecture (optimisation de la consommation énergétique des bâtiments), dans les transports (simulations de flux de trafic) et l’urbanisme. Même si elles sont moins spectaculaires que l’art génératif ou les chatbots, elles illustrent comment l’IA transforme discrètement des secteurs traditionnels – rendant tout, des ponts aux réseaux électriques, plus efficaces et plus robustes.


Des percées collaborations biotechnologiques aux débats politiques houleux et aux procès, les dernières 48 heures dans l’IA ont mis en lumière les dualité vertigineuses de cette technologie. D’un côté, l’IA alimente des innovations remarquables – accélérant la science, permettant de nouveaux produits et promettant de résoudre des problèmes complexes. De l’autre, elle suscite une réflexion intense sur les conséquences imprévues : perturbations économiques, écueils éthiques, et la définition même de l’auteur et de l’expertise humaine. Comme le montre ce tour d’horizon mondial, l’impact de l’IA se fait sentir dans tous les domaines – salles de conseil d’administration, tribunaux, salles de classe, cliniques et studios de création – simultanément. Chaque nouvelle avancée, qu’il s’agisse d’un partenariat phare ou d’un procès retentissant, rappelle que l’IA n’est plus une expérience de niche mais une force centrale qui façonne la société. Les régulateurs s’efforcent de suivre le rythme, les entreprises se précipitent pour prendre la tête (ou simplement ne pas se laisser distancer), et le public observe de près – avec autant d’enthousiasme que d’inquiétude. Les semaines à venir apporteront sans doute de nouveaux rebondissements dans la saga de l’IA, mais une chose est certaine : le monde vit un moment de mobilisation générale pour garantir que cette technologie transformatrice soit déployée de manière responsable, inclusive et au bénéfice de tous. La révolution de l’IA est là – et la façon dont nous naviguons entre ses avancées et ses réactions aujourd’hui définira notre avenir collectif.

Sources: Reuters reuters.com reuters.com reuters.com reuters.com reuters.com reuters.com; TechCrunch techcrunch.com techcrunch.com; Reuters theregister.com theregister.com; Reuters reuters.com reuters.com; University of Maryland/PPC via PR Newswire prnewswire.com; Reuters techcrunch.com; Reuters reuters.com reuters.com; Reuters reuters.com; Axios axios.com axios.com; Axios axios.com axios.com; Axios axios.com axios.com; Time time.com time.com; Times of India timesofindia.indiatimes.com timesofindia.indiatimes.com; Reuters ts2.tech reuters.com; Reuters reuters.com.

China's Next AI Breakthrough - Physical AI

Tags: ,