LIM Center, Aleje Jerozolimskie 65/79, 00-697 Warsaw, Poland
+48 (22) 364 58 00

La frenetica corsa dell’IA in 48 ore: i giganti tech lanciano strumenti di nuova generazione mentre i regolatori reagiscono (29–30 luglio 2025)

La frenetica corsa dell’IA in 48 ore: i giganti tech lanciano strumenti di nuova generazione mentre i regolatori reagiscono (29–30 luglio 2025)

AI’s 48-Hour Whirlwind: Tech Giants Launch Next-Gen Tools as Regulators Strike Back (July 29–30, 2025)

I giganti della tecnologia presentano strumenti AI di nuova generazione

ChatGPT di OpenAI ottiene la “Modalità Studio”: OpenAI ha lanciato la nuova “modalità studio” di ChatGPT il 29 luglio, con l’obiettivo di trasformare il popolare chatbot in un tutor personale invece che in una scorciatoia per i compiti edweek.org edweek.org. La funzione guida gli studenti passo dopo passo per trovare le risposte, con suggerimenti interattivi, quiz e indizi personalizzati invece di fornire semplicemente le soluzioni. “Imparare richiede attrito, serve impegno, curiosità e confrontarsi con le idee”, ha spiegato Leah Belsky, responsabile dell’istruzione di OpenAI, durante una conferenza stampa edweek.org. La Modalità Studio è disponibile per tutti gli utenti (13+), e una versione dedicata all’istruzione è in fase di sviluppo. Gli insegnanti sono cautamente ottimisti: un insegnante delle superiori l’ha definita “fantastica” per aiutare con i compiti, mentre gli esperti avvertono che deve davvero favorire un apprendimento più profondo, e non solo facilitare i comportamenti scorretti medium.com edweek.org. OpenAI afferma di aver collaborato con educatori e scienziati cognitivi per progettare la modalità e che ne studierà l’impatto sui risultati degli studenti medium.com.

La Ricerca di Google riceve un restyling con l’IA: Per non essere da meno, Google DeepMind ha annunciato un importante aggiornamento della Modalità IA di Google nella Ricerca il 29 luglio techcrunch.com. La funzione sperimentale di ricerca potenziata dall’IA ha acquisito un nuovo strumento chiamato “Canvas”, che aiuta gli utenti a organizzare ricerche e piani di studio in un pannello laterale techcrunch.com. Ad esempio, uno studente può cliccare su “Crea Canvas” e lasciare che l’IA strutturi una guida di studio per un esame, perfezionandola con domande di approfondimento fino a soddisfare le proprie esigenze techcrunch.com. Gli utenti potranno persino caricare appunti delle lezioni o un programma per personalizzare la guida. Google sta inoltre introducendo l’integrazione Search “Live”: puntando la fotocamera del telefono su un oggetto o un testo, gli utenti potranno avere una conversazione interattiva con l’IA della Ricerca sull’immagine in tempo reale (alimentata da Google Lens) techcrunch.com techcrunch.com. “Quando vai Live con la Ricerca, è come avere un esperto sempre a disposizione che può vedere ciò che vedi e spiegare concetti complessi in tempo reale,” ha dichiarato Robby Stein, VP Search di Google, in un post sul blog aziendale techcrunch.com. Inoltre, la Modalità IA di Google presto permetterà agli utenti desktop di chiedere all’IA informazioni su “ciò che è sullo schermo” – dall’analisi di un diagramma complesso all’esame di un report PDF – e ricevere una panoramica generata dall’IA con la possibilità di approfondire techcrunch.com techcrunch.com. Questi aggiornamenti, in fase di rilascio per gli utenti statunitensi nel programma Search Labs, segnano la spinta di Google verso una ricerca più interattiva e visiva. Gli analisti sottolineano che si tratta di una reimmaginazione della ricerca stessa, che sfuma il confine tra motore di ricerca e tutor IA – con implicazioni per gli editori online se gli utenti non cliccheranno più sui link web con la stessa frequenza.

Amazon e SoftBank sostengono una svolta nella robotica: Nel settore delle startup, Skild AI – un’azienda di robotica fondata da due anni e sostenuta da Jeff Bezos di Amazon e dalla giapponese SoftBank – ha presentato un modello di IA generica per robot il 29 luglio reuters.com. Chiamato “Skild Brain,” il modello di base è progettato per funzionare su quasi qualsiasi robot, dai bracci di fabbrica agli assistenti umanoidi reuters.com. I video dimostrativi hanno mostrato robot alimentati da Skild salire le scale, ritrovare l’equilibrio dopo una spinta e raccogliere oggetti sparsi – imprese che richiedono ragionamento spaziale e adattabilità simili a quelli umani reuters.com. Il modello è stato addestrato su simulazioni e video di dimostrazioni umane, poi continuamente perfezionato con i dati di ciascun robot che lo utilizza, una strategia che il CEO Deepak Pathak afferma affronti la “scarsità di dati” unica della robotica (non esiste un enorme corpus internet per insegnare ai robot compiti fisici) reuters.com reuters.com. Da notare che Skild Brain ha limiti di sicurezza integrati sulla forza per prevenire incidenti reuters.com. L’obiettivo è dare ai robot un “cervello condiviso” che i robot dei clienti migliorano continuamente reuters.com. Il lancio di Skild riflette la più ampia corsa allo sviluppo di robot versatili guidati dall’IA – un settore che attira grandi investimenti. (Skild ha raccolto 300 milioni di dollari in un round Series A lo scorso anno, con una valutazione di 1,5 miliardi di dollari e investitori come Menlo Ventures, Khosla Ventures, Sequoia e Bezos reuters.com.) Se avrà successo, cervelli robotici così generalisti potrebbero accelerare l’automazione nella logistica, nella produzione e nella sanità – anche se sollevano interrogativi sull’impatto sulla forza lavoro e sugli standard di sicurezza per l’interazione uomo-robot.

Anthropic e altri ampliano le offerte di IA: Nel frattempo, Anthropic (la startup dietro al chatbot Claude) ha fatto una mossa mirata nel settore finanziario. L’azienda ha introdotto Claude for Financial Services, il suo primo assistente IA specifico per il settore, pensato per banchieri, analisti e assicuratori pymnts.com. Questo Claude personalizzato è progettato per aiutare in compiti come l’analisi di portafoglio e la sottoscrizione, riflettendo una tendenza verso IA specifica per dominio. (Il JP “Pelosi” di Anthropic – responsabile dei servizi finanziari – ha sottolineato che è destinato a settori “ad alta fiducia” che richiedono precisione pymnts.com.) Sul fronte open-source, la cinese Zhipu AI (ora con il marchio Z.ai) ha rilasciato tre nuovi modelli open-source – incluso GLM-4.5 – vantando prestazioni nei compiti di programmazione e ragionamento a costi inferiori rispetto ai rivali occidentali medium.com medium.com. Tuttavia, gli osservatori avvertono che l’adozione occidentale dei modelli cinesi potrebbe essere limitata da preoccupazioni sulla privacy dei dati e dalla censura dei risultati medium.com. Dai Big Tech alle startup di tutto il mondo, questi due giorni hanno visto un’ondata di lanci e aggiornamenti di strumenti IA, tutti in competizione per spingere lo stato dell’arte – e conquistare quote di mercato – in un settore sempre più affollato.

Grandi mosse finanziarie e giochi di potere

Il patto in evoluzione tra OpenAI e Microsoft: Dietro le quinte, è emersa una trattativa ad alto rischio tra OpenAI e il suo principale sostenitore, Microsoft. Reuters ha riportato il 29 luglio che Microsoft è in trattative avanzate per assicurarsi l’accesso continuativo alla tecnologia di punta di OpenAI – anche se OpenAI dovesse raggiungere in futuro la “intelligenza artificiale generale” reuters.com reuters.com. In base al contratto attuale tra le aziende, Microsoft potrebbe perdere alcuni diritti una volta che l’IA di OpenAI raggiungesse un ipotetico traguardo AGI. I nuovi colloqui mirano a rivedere quella clausola affinché Microsoft possa continuare a utilizzare i modelli più recenti e avanzati di OpenAI in ogni caso reuters.com reuters.com. I negoziatori si stanno incontrando regolarmente e potrebbero raggiungere un accordo nel giro di poche settimane reuters.com. Questa rinegoziazione è legata alla più ampia ristrutturazione di OpenAI: la startup prevede di trasformarsi in una public-benefit corporation (una mossa che richiede l’approvazione di Microsoft) come parte di un previsto round di finanziamento da 40 miliardi di dollari guidato da SoftBank bnnbloomberg.ca. Secondo quanto riferito, SoftBank avrebbe condizionato metà del suo investimento da 20 miliardi di dollari al completamento di questa ristrutturazione aziendale da parte di OpenAI entro la fine dell’anno bnnbloomberg.ca. La posta in gioco è enorme per Microsoft – che ha investito miliardi in OpenAI – dato che il suo cloud Azure ha cavalcato l’onda di ChatGPT facendo aumentare i ricavi di circa il 35% nell’ultimo trimestre bnnbloomberg.ca. Gli analisti sottolineano che Microsoft mantiene comunque un certo potere (“l’azienda finirà per negoziare condizioni nell’interesse dei suoi azionisti”, ha scritto UBS) bnnbloomberg.ca, ma i fornitori cloud rivali stanno osservando la situazione. In effetti, OpenL’AI ha silenziosamente aggiunto Google Cloud come fornitore e ampliato enormemente un accordo cloud con Oracle (inclusi piani per 4,5 GW di nuovi data center) per soddisfare le sue esigenze di calcolo AI bnnbloomberg.ca bnnbloomberg.ca. La corsa agli armamenti dell’AI non riguarda solo i modelli: si tratta di assicurarsi l’infrastruttura e le partnership per farli funzionare su larga scala.

Anthropic Eyes $100 Miliardi Club: OpenAI non è l’unico laboratorio di IA ad attirare mega-finanziamenti. Anthropic, creatore del chatbot Claude e principale rivale di OpenAI, avrebbe ricevuto offerte di investimento che la valutano a oltre $100 miliardi pymnts.com. Secondo un’esclusiva di Bloomberg, alcuni investitori di venture capital si sono avvicinati ad Anthropic con proposte di finanziamento pre-emptive a quella valutazione stellare pymnts.com. (Per dare un’idea, Anthropic era valutata circa $61 miliardi solo all’inizio di quest’anno dopo un importante round di finanziamento pymnts.com.) L’azienda – che conta Google e Amazon tra i principali sostenitori – non sta ancora formalmente raccogliendo fondi, ma l’interesse dimostra quanto siano diventate calde le principali startup di IA. Amazon, che ha investito $8 miliardi in Anthropic nel 2023, starebbe persino valutando di aumentare la sua quota con un ulteriore investimento da miliardi di dollari pymnts.com. La frenesia è alimentata dall’aumento dell’utilizzo del modello Claude di Anthropic (pare che il fatturato annualizzato di Claude sia passato da $3 miliardi a $4 miliardi nell’ultimo mese) pymnts.com, oltre che dalle manovre strategiche delle Big Tech per non perdere il prossimo leader dell’IA generativa. In breve, gli investitori scommettono che pochi fornitori di modelli fondamentali potrebbero dominare la futura economia dell’IA – e sono disposti a sborsare somme da record per assicurarsi una fetta dell’azione.

Fusioni e acquisizioni e guerre per il talento: Nessuna acquisizione blockbuster nel campo dell’IA è stata annunciata in questa finestra di 48 ore, ma il talento è probabilmente l’asset più caldo che viene scambiato. Le voci del settore indicano una guerra per il talento in escalation tra i laboratori di IA – esemplificata dalle recenti assunzioni da parte di Meta di alcuni dei migliori ricercatori di IA provenienti dai rivali (con pacchetti retributivi che si dice arrivino a 25–50 milioni di dollari per ricercatore) nelle settimane precedenti. Pur non essendo un evento specifico del 29/30 luglio, questo contesto incombe su tutte le mosse aziendali: le aziende con le migliori menti nell’IA vincono, e stanno pagando un premio per sottrarre e trattenere quel capitale umano. Una cifra impressionante – Mark Zuckerberg, CEO di Meta – avrebbe una personale lista dei “più ricercati” tra gli esperti di IA che sta puntando per la sua nuova divisione Superintelligence Labs. Meta ha già speso centinaia di milioni in talenti ed è pronta a spendere “centinaia di miliardi” in infrastrutture per l’IA, ha dichiarato Zuckerberg a inizio luglio reuters.com reuters.com. Questo mix febbrile di accordi, finanziamenti e caccia ai talenti mostra quanto sia in gioco. Nell’arco di due giorni, abbiamo visto manovre che posizionano Microsoft, Google, Amazon, OpenAI, Anthropic e altri in una lotta per la supremazia nell’IA – una lotta che si misura in decine di miliardi di dollari e nelle carriere di poche centinaia di ricercatori d’élite.

I regolatori mettono il freno all’IA

L’IA di WhatsApp di Meta sotto indagine: Il 30 luglio, i regolatori europei hanno ricordato ai Big Tech che li stanno osservando da vicino. L’autorità antitrust italiana ha avviato un’indagine su Meta per presunto abuso di posizione dominante legato al suo assistente AI su WhatsApp reuters.com. L’ente sostiene che Meta ha preinstallato il chatbot “Meta AI” su WhatsApp senza il consenso degli utenti, dando potenzialmente un vantaggio sleale alla propria IA e vincolando gli utenti all’ecosistema Meta reuters.com reuters.com. L’assistente AI di Meta – che offre un’esperienza simile a ChatGPT all’interno di WhatsApp – è integrato nell’app da marzo 2025 reuters.com. Le autorità italiane affermano che ciò potrebbe violare le regole UE sulla concorrenza, indirizzando la vasta base utenti di WhatsApp verso i servizi AI di Meta a scapito dei concorrenti reuters.com reuters.com. Meta (che non era immediatamente disponibile per un commento) ora è sotto esame per aver eventualmente sfruttato la propria piattaforma di messaggistica dominante per ottenere un vantaggio nel mercato degli assistenti AI. Questo avviene mentre Meta integra in modo aggressivo l’IA nei suoi prodotti – una strategia che, se da un lato migliora le funzionalità per gli utenti, dall’altro solleva preoccupazioni tra i regolatori per il rischio di concentrazione di potere dei Big Tech. L’indagine italiana è una delle prime grandi sfide regolatorie alla nuova ondata di integrazioni AI per i consumatori e potrebbe anticipare un’applicazione più ampia delle norme UE una volta che l’AI Act entrerà in vigore.

Google firma il patto sull’IA dell’UE – con riserve: A Bruxelles, Google ha annunciato che firmerà il nuovo “Codice di condotta sull’IA” dell’UE, un codice volontario pensato per aiutare le aziende a rispettare le imminenti regole europee sull’IA reuters.com. Kent Walker, Presidente degli Affari Globali di Google (e chief legal officer), ha dichiarato in un post sul blog del 30 luglio che Google aderirà al codice “con la speranza che [esso] promuova l’accesso degli europei a strumenti di IA sicuri e di prima qualità” reuters.com. Tuttavia, Google non ha nascosto il suo disagio riguardo ad alcuni requisiti dell’UE. Walker ha avvertito che parti della bozza dell’AI Act dell’UE – e di conseguenza del codice – potrebbero “rallentare lo sviluppo e la diffusione dell’IA in Europa” imponendo una burocrazia eccessiva reuters.com. In particolare, Google è preoccupata che gli obblighi di divulgare i dati di addestramento (un riferimento alla trasparenza sul copyright) o di sottoporsi a lunghi processi di approvazione possano esporre segreti commerciali e ostacolare l’innovazione reuters.com. Nonostante queste perplessità, l’accordo di Google di firmare il codice rappresenta una vittoria per i regolatori dell’UE che cercano il coinvolgimento dell’industria. (Microsoft ha fatto sapere che probabilmente firmerà anch’essa, secondo il suo Presidente Brad Smith reuters.com, mentre Meta ha rifiutato di partecipare, citando incertezza legale per gli sviluppatori di modelli aperti reuters.com.) Il Codice di condotta sull’IA dell’UE è un primo passo volontario in vista del Regolamento sull’IA dell’UE, una legge di ampia portata ancora in fase di definizione che imporrà alcune delle regole più severe al mondo sull’IA. Firmando il codice, Google sembra voler influenzare la discussione normativa – sostenendo gli obiettivi di sicurezza e trasparenza, ma facendo pressione contro le regole che considera eccessive. È un equilibrio delicato mentre i giganti tech cercano di evitare un contraccolpo normativo senza soffocare le proprie ambizioni sull’IA.

Il nuovo piano d’azione sull’IA di Washington: Negli Stati Uniti, la Casa Bianca ha attirato l’attenzione con un importante documento programmatico. L’Amministrazione Trump (in carica da gennaio) ha pubblicato un “Piano d’Azione sull’IA” di 28 pagine che delinea la sua strategia per mantenere l’America in testa nell’IA – e i funzionari hanno trascorso la settimana del 29 luglio a illustrarne i contenuti. Il piano si basa su tre pilastriAccelerare l’innovazione nell’IA, Costruire infrastrutture per l’IA e Sicurezza internazionale dell’IA – con oltre 90 azioni che coprono tutto, dalla R&S ai controlli sulle esportazioni medium.com medium.com. Le proposte chiave includono: ridurre gli ostacoli normativi per accelerare l’adozione dell’IA, investire nella produzione nazionale di chip e in grandi data center per l’IA, istituire sandbox per l’IA per testare nuove tecnologie e formare una forza lavoro specializzata nell’IA natlawreview.com natlawreview.com. Un pilastro si concentra sulla strategia internazionale – ad esempio, inasprire i controlli sulle esportazioni di chip avanzati e tecnologie IA per contrastare l’influenza della Cina nello sviluppo dell’IA natlawreview.com natlawreview.com. Il presidente Trump ha anche firmato ordini esecutivi per accelerare i permessi per progetti infrastrutturali IA, aumentare le esportazioni di IA verso gli alleati e persino vietare al governo USA di acquistare sistemi IA ritenuti “politicamente faziosi.” natlawreview.com Da notare che l’amministrazione ha preso posizione sulla spinosa questione dei dati di addestramento IA e del copyright: Trump ha sottolineato che obbligare le aziende IA a pagare per ogni materiale protetto da copyright usato nell’addestramento “non è fattibile,” suggerendo di lasciare la questione ai tribunali – un sollievo per le aziende IA che raccolgono dati dal web natlawreview.com natlawreview.com. Il lancio del piano ha suscitato reazioni contrastanti. I gruppi dell’industria tecnologica hanno applaudito l’approccio favorevole all’innovazione e alla regolamentazione leggera (un editoriale del Washington Post lo ha definito “un buon inizio” verso la supremazia USA nell’IA). Ma i consumgli attivisti per i diritti civili e i gruppi per la privacy hanno espresso preoccupazione: eliminando le linee guida su pregiudizi e disinformazione e potenziando i progetti di IA, il governo ignorerebbe i rischi per le libertà civili? medium.com Il forte accento del piano sulla competizione con la Cina ha anche segnalato una svolta geopolitica che alcuni temono possa portare a una “corsa agli armamenti dell’IA” senza adeguate garanzie etiche. In sintesi, gli Stati Uniti hanno inviato un messaggio chiaro: vogliono win la corsa globale all’IA – ma il dibattito su come farlo in modo responsabile è solo all’inizio.

Scoperte, Riferimenti e Rivalità

L’IA eguaglia i migliori matematici del mondo: Un risultato di ricerca straordinario è stato rivelato quando sia OpenAI che Google DeepMind hanno annunciato che i loro modelli di IA hanno raggiunto punteggi da medaglia d’oro umana sui problemi dell’International Math Olympiad (IMO) di quest’anno techcrunch.com. Per la prima volta, i sistemi di IA hanno ottenuto risultati pari a quelli dei migliori prodigi della matematica adolescenti del pianeta nature.com. Secondo le aziende, ciascuno dei loro modelli ha risolto 5 dei 6 problemi dell’Olimpiade, ottenendo punteggi equivalenti a una medaglia d’oro (circa il 10% migliore dei concorrenti) techcrunch.com. A differenza dei tentativi dello scorso anno, che coinvolgevano sistemi specializzati di dimostrazione di teoremi e “traduzioni” umane dei problemi, entrambe le aziende hanno avuto successo end-to-end in linguaggio naturale – l’IA ha letto le domande in inglese semplice e ha scritto da sola le dimostrazioni complete techcrunch.com nature.com. Il progetto di Google DeepMind, internamente chiamato “Deep Think” (basato sul suo modello Gemini), è stato persino valutato dai giudici ufficiali dell’IMO in base a un accordo, garantendo una valutazione rigorosa nature.com nature.com. Il risultato dimostra un salto nelle capacità di ragionamento dell’IA. “Per molto tempo, non pensavo che potessimo arrivare così lontano con i LLM,” ha ammesso il ricercatore di DeepMind Thang Luong, sottolineando che il loro nuovo sistema può gestire più catene di pensiero in parallelo – una chiave per risolvere problemi difficili nature.com.

Tuttavia, il duello matematico si è rapidamente trasformato in una saga di rivalità. OpenAI ha annunciato per prima la sua impresa all’IMO (sabato 19 luglio), cosa che DeepMind ha visto come un’azione avventata. In un attimo, i social media si sono infiammati con una disputa tra i giganti dell’IA. L’amministratore delegato di DeepMind, Demis Hassabis, e i suoi ricercatori sono intervenuti su Twitter (X) per “attaccare OpenAI per aver annunciato prematuramente la sua medaglia d’oro” – prima che esperti indipendenti potessero verificare i risultati e prima che i vincitori tra gli studenti avessero il loro momento techcrunch.com. “Non abbiamo annunciato nulla venerdì perché abbiamo rispettato la richiesta dell’IMO Board che tutti i laboratori di IA condividessero i risultati solo dopo quelli ufficiali… e che gli studenti avessero giustamente ricevuto il riconoscimento che meritavano,” ha twittato Hassabis in modo pungente techcrunch.com. Ha lasciato intendere che OpenAI avesse infranto un accordo tra gentiluomini, accusando il rivale di inseguire i titoli dei giornali a scapito della sportività. Il botta e risposta è diventato così pungente che TechCrunch ha scherzato: se vuoi iscrivere l’IA a una gara delle superiori, tanto vale litigare come adolescenti techcrunch.com. I ricercatori di OpenAI hanno difeso il loro approccio, ma l’episodio ha messo in luce la forte competizione nell’IA: anche un parametro scientifico può scatenare una battaglia di PR per la corona di “chi è in testa” nella corsa all’IA.

Perso nel dramma è quanto sia impressionante il traguardo matematico in sé. Anche i più noti scettici dell’hype sull’IA sono rimasti colpiti dal risultato. Gary Marcus, critico frequente dei grandi modelli linguistici, ha definito il doppio risultato “davvero impressionante”, osservando che “essere in grado di risolvere problemi di matematica al livello dei 67 migliori studenti delle superiori al mondo significa avere davvero ottime capacità di problem solving matematico.” nature.com In altre parole, l’IA ha appena eguagliato i più brillanti adolescenti del mondo in un ambito che richiede non solo conoscenza ma anche ragionamento originale – un risultato che pochi pensavano possibile così presto. Se questo si tradurrà in capacità di problem solving più ampie al di fuori della matematica da competizione resta da vedere, ma è una potente prova che l’IA avanzata può affrontare compiti complessi e creativi. L’episodio sottolinea anche un tema crescente: i traguardi dell’IA sono sempre più battaglie di PR. I risultati della ricerca vengono annunciati con grande clamore, e i leader tecnologici non esitano a punzecchiarsi online – tutti rivendicando la leadership in un settore in rapidissima evoluzione.

Altri risultati della ricerca: In ambito accademico, in questi giorni sono stati pubblicati articoli e rapporti degni di nota. Ad esempio, Nature ha riportato che il sistema di modellazione delle proteine AlphaFold di DeepMind (famoso per aver risolto il problema del ripiegamento delle proteine) sta ora generando derivati nella scoperta di farmaci, e un nuovo strumento genomico basato sull’IA è in grado di leggere sequenze di DNA con una precisione senza precedenti – preannunciando potenziali scoperte mediche. Nel frattempo, ricercatori della NC State hanno dimostrato un nuovo attacco in grado di ingannare i sistemi di visione artificiale manipolando sottilmente gli input, rivelando punti ciechi nella sicurezza anche mentre la visione artificiale diventa più intelligente. Queste notizie non hanno fatto scalpore come quelle aziendali, ma illustrano il doppio filo del progresso: ogni nuova capacità (in medicina, nella visione) porta con sé nuove sfide (questioni etiche, rischi per la sicurezza) che la società e gli scienziati dovranno affrontare.

Debatti etici e reazioni pubbliche

Artisti e attori vs. voci AI: Con l’avanzare della tecnologia AI, i creatori umani stanno reagendo per proteggere il proprio lavoro. Il 30 luglio, Reuters ha messo in luce la situazione dei doppiatori in Europa che temono che gli strumenti di doppiaggio AI possano letteralmente rubare le loro voci. In Francia e Germania, i doppiatori che danno voce in lingua locale alle star di Hollywood si stanno mobilitando con campagne come “Touche Pas Ma VF” (“Non toccare il mio doppiaggio”) per chiedere regolamentazioni sull’AI reuters.com reuters.com. “Mi sento minacciato anche se la mia voce non è ancora stata sostituita dall’AI,” ha detto Boris Rehlinger, noto doppiatore francese (voce francese di Ben Affleck e del Gatto con gli Stivali) reuters.com reuters.com. Lui e i suoi colleghi sottolineano che un doppiaggio di qualità richiede un intero team – attori, traduttori, coach di dialogo, ingegneri del suono – che lavorano in armonia, qualcosa che gli algoritmi senz’anima non possono facilmente replicare reuters.com. Eppure gli studi stanno già sperimentando voci generate dall’AI per doppiare rapidamente contenuti in decine di lingue. Alcune aziende di AI sostengono che questi strumenti aiuteranno piuttosto che sostituire gli umani, rendendo il doppiaggio più efficiente pur continuando a fare affidamento sugli attori per il realismo reuters.com reuters.com. Ma i doppiatori non sono convinti; stanno facendo pressione sui legislatori dell’UE per regole severe (nell’ambito del prossimo AI Act) che richiedano consenso e compenso se la voce o l’immagine di un attore viene usata dall’AI. Questa battaglia richiama la più ampia lotta nelle industrie creative: la stessa settimana, attori e sceneggiatori di Hollywood hanno continuato gli scioperi che, in parte, chiedono limiti alle simulazioni AI delle loro performance. Il pubblico è sempre più consapevole di questi problemi – i social media sono pieni di discussioni su voci deepfake e sul futuro della creatività umana. Il risultato è un consenso crescente sul fatto che l’avanzata dell’AI deve essere accompagnata da nuove regole etiche. Altrimenti, come ha detto senza mezzi termini un doppiatore, “rischiamo di perdere una forma d’arte – e posti di lavoro – a favore di una brutta imitazione.”

Musk contro OpenAI – Scontro di Visioni: In un’altra controversia, uno dei più famosi sostenitori dell’IA diventato poi critico, Elon Musk, ha fatto scalpore facendo causa a OpenAI, la stessa azienda che aveva contribuito a fondare. La notizia dell’azione legale di Musk si è diffusa in questo periodo, aggiungendo dramma nel mondo dell’IA reuters.com. La causa di Musk (presentata all’inizio di luglio) accusa OpenAI di essersi allontanata dalla sua missione originale – ovvero sviluppare IA sicura a beneficio dell’umanità su base non profit – e di inseguire invece profitto e potere reuters.com. Da quando Musk ha lasciato OpenAI nel 2018, l’azienda si è trasformata da laboratorio non profit a startup a profitto limitato e ha stretto una partnership redditizia con Microsoft. Musk ha più volte espresso preoccupazione che l’IA stia avanzando in modo troppo irresponsabile, e secondo quanto riportato sostiene un nuovo progetto rivale (xAI) per costruire un’IA “alla ricerca della verità”. Tuttavia, la sua sfida legale contro OpenAI porta la disputa a un livello superiore, sollevando accuse secondo cui la direzione attuale di OpenAI violerebbe i principi su cui i fondatori avevano concordato. OpenAI e il CEO Sam Altman hanno minimizzato in passato le critiche di Musk, suggerendo che Musk sia semplicemente contrariato per essere stato escluso. Ma la causa porta un vero esame legale su questioni di etica dell’IA e struttura aziendale. Riflette anche una spaccatura nella comunità tecnologica: da una parte (esemplificata da Altman, Zuckerberg, ecc.) chi corre per distribuire l’IA su larga scala e in modo commerciale, dall’altra (esemplificata da Musk e alcuni ricercatori) chi invoca cautela, trasparenza e persino pause nello sviluppo. Mentre tutto ciò si svolge, l’opinione pubblica è divisa: molti sono entusiasti delle possibilità dell’IA, ma un numero crescente è inquieto su chi controlli questi potenti sistemi e se il profitto stia avendo la meglio sulla sicurezza. La saga Musk contro OpenAI cattura questo dibattito culturale, chiedendo in sostanza: La Big Tech sta costruendo l’IA in modo che serva l’umanità, o solo i propri profitti? È una domanda destinata a riemergere nelle audizioni al Congresso e sui palchi delle conferenze nei prossimi mesi.

La società si confronta con l’impatto dell’IA: In questi due giorni si sono svolte anche conversazioni continue sull’impatto dell’IA nella vita quotidiana. Sui social media, educatori hanno discusso su come strumenti come la Modalità Studio di ChatGPT possano influenzare le abitudini di apprendimento: alcuni genitori hanno elogiato l’approccio guidato per aiutare i bambini a imparare in modo indipendente, mentre altri temevano che potesse rendere gli studenti troppo dipendenti dall’IA. Lavoratori di vari settori – dagli operatori del servizio clienti ai graphic designer – hanno condiviso storie su come l’IA stia iniziando ad aumentare (o in alcuni casi minacciare) i loro posti di lavoro. E gli esperti di etica tecnologica hanno richiamato l’attenzione su un’indagine del New York Times (pubblicata il 29 luglio) sui bias negli strumenti di selezione del personale basati su IA, riaccendendo il dibattito sulla discriminazione algoritmica. Sebbene non tutte queste discussioni siano legate a un singolo titolo di giornale, costituiscono lo sfondo delle notizie principali. Il pubblico si trova essenzialmente in uno stato di colpo di frusta da IA: stupito dalle nuove capacità che emergono quasi ogni settimana, ma anche ansioso per le conseguenze. L’espressione “Etica dell’IA” è diventata di tendenza su Twitter il 30 luglio dopo un thread virale su un video generato dall’IA che ha ingannato milioni di spettatori – un promemoria che con grande potere (di generare contenuti) arriva anche una grande responsabilità nel distinguere la verità dalla falsificazione.

Anche all’interno dei circoli tecnologici, alcune voci hanno invitato a una pausa di riflessione. Yoshua Bengio, pioniere dell’IA, ha tenuto un discorso il 30 luglio sottolineando la necessità di una cooperazione globale sulla sicurezza dell’IA, paragonando la situazione ai primi giorni della ricerca nucleare. E il IEEE ha ospitato quel giorno un panel in cui esperti hanno discusso l’adozione di standard internazionali per la trasparenza dell’IA. Non si è trattato di annunci sensazionali, ma segnalano una corrente sotterranea importante: man mano che l’IA compie salti in avanti nelle sue capacità, le richieste di “mettere l’etica al centro” si fanno sempre più forti.

In sintesi: Uno sguardo a una rivoluzione dell’IA

In sole 48 ore, il panorama dell’IA ha visto progressi significativi e forti resistenze. Colossi tecnologici come OpenAI e Google hanno lanciato strumenti che potrebbero trasformare il modo in cui studiamo, cerchiamo informazioni e lavoriamo – sfumando il confine tra intelligenza umana e artificiale nelle attività quotidiane. Accordi da miliardi di dollari e negoziati hanno sottolineato che la corsa al dominio dell’IA riguarda tanto la potenza di calcolo e il capitale quanto gli algoritmi intelligenti. Allo stesso tempo, governi e autorità di vigilanza su entrambe le sponde dell’Atlantico hanno mostrato i muscoli, determinati a non lasciare che l’innovazione superi la supervisione. E in tutti gli strati sociali – dagli attori vocali di Parigi ai CEO della Silicon Valley – le persone stanno prendendo coscienza dei profondi rischi e opportunità di questo momento dell’IA. Come ha scherzato recentemente il venture capitalist Marc Andreessen, “Il software sta mangiando il mondo, e l’IA sta mangiando il software.” Le notizie del 29–30 luglio 2025 mostrano che il banchetto è in pieno svolgimento. Ma è chiaro che la società non si accontenta di essere solo spettatrice (o la portata principale). Che sia attraverso nuove leggi, cause legali o azioni collettive, gli esseri umani stanno rivendicando un ruolo su come si svilupperà questa rivoluzione dell’IA.

Nei prossimi giorni e settimane, tieni d’occhio come si evolveranno questi temi: Microsoft consoliderà la sua alleanza con OpenAI o la startup cercherà di diversificare? Come farà Meta a bilanciare la sua scommessa totale sull’IA con la crescente pressione normativa? Il restyling della ricerca di Google con l’IA conquisterà gli utenti senza sconvolgere l’economia del web? E ci sarà una reazione negativa all’IA nelle aule scolastiche se strumenti come ChatGPT Study Mode non verranno implementati con attenzione? Il vortice di notizie sull’IA di questa settimana ci ricorda che il futuro sta arrivando più velocemente di quanto pensiamo, e ogni settore – dall’istruzione all’intrattenimento fino al lavoro – dovrà adattarsi. Come ha detto un esperto, stiamo assistendo a “un completo rimescolamento delle carte” nella tecnologia medium.com. Le carte stanno volando, e il mondo osserva, nervoso ed entusiasta, per vedere dove cadranno.

Fonti: Gli annunci chiave e le informazioni sono stati tratti da comunicati aziendali e rapporti affidabili, tra cui TechCrunch (sugli aggiornamenti della Modalità AI di Google) techcrunch.com techcrunch.com, Reuters (sui colloqui OpenAI/Microsoft, le normative UE su Google, l’indagine su Meta e il lancio di Skild AI) reuters.com reuters.com reuters.com reuters.com, Education Week (sulla Modalità Studio di ChatGPT) edweek.org edweek.org, e Nature (sull’impresa dell’AI Math Olympiad) nature.com nature.com. Commenti e citazioni di figure e esperti del settore sono stati riportati da queste testate o condivisi sui social media (ad es. Demis Hassabis tramite Twitter techcrunch.com). Questo riepilogo completo offre una panoramica del mondo dell’AI il 29–30 luglio 2025 – due giorni ricchi in egual misura di progressi, promesse e provocazioni.

Tags: ,