15 luglio 2025: La prossima frontiera dell’IA – Svolte generative, traguardi nella robotica e cambiamenti delle politiche globali

OpenAI Hits Pause, Musk’s Bot Blunders, and 1 Million Robots – AI News Roundup (July 13–14, 2025)
  • OpenAI ha posticipato il rilascio del primo modello open-weight, originariamente previsto per l’estate 2025, per controlli di sicurezza più approfonditi e ha sottolineato che una volta rilasciati i pesi non possono essere ritirati.
  • Moonshot AI ha presentato Kimi K2, un modello da un trilione di parametri che, secondo i benchmark, supera GPT-4.1 di OpenAI in codifica.
  • Google I/O 2025 ha lanciato Imagen 4 e Veo 3, presentato Flow per filmmaking AI e introdotto Gemini 2.5 con la modalità Deep Think per ragionamenti complessi.
  • Anthropic Claude è integrato nella piattaforma Canva per generare e modificare progetti visivi tramite linguaggio naturale.
  • Tesla ha lanciato un servizio robotaxi limitato ad Austin, Texas: circa 12 Tesla Model Y con l’ultima versione del software Full Self-Driving, trasportando passeggeri selezionati a una tariffa fissa di 4,20 dollari.
  • Boston Dynamics ha annunciato che Atlas inizierà le operazioni di prova sulle linee di produzione automobilistica negli Stati Uniti presso Hyundai, svolgendo compiti di movimentazione dei materiali e raccolta degli attrezzi.
  • Amazon ha celebrato il dispiegamento del milionesimo robot di magazzino e ha introdotto DeepFleet, un foundation model di IA generativa che migliora l’efficienza dei movimenti dei robot del 10%.
  • CoreWeave ha annunciato l’acquisizione di Core Scientific per 9 miliardi di dollari, dando a CoreWeave il controllo delle strutture di Core Scientific in diversi Stati e accelerando la capacità IA.
  • MIT ha presentato CellLENS il 11 luglio 2025, un sistema di IA in grado di identificare sottotipi cellulari nelle immagini microscopiche dei tessuti, con potenziale immunoterapico.
  • L’Unione Europea ha fatto entrare in vigore a febbraio 2025 l’AI Act, che vieta sistemi di IA a rischio inaccettabile, impone trasparenza sui modelli generativi e richiede etichettatura per contenuti generati dall’IA.

Modelli e Tecnologie di AI Generativa

Grandi progressi nell’AI generativa continuano a emergere. OpenAI ha posticipato il rilascio del suo primo modello open-weight – inizialmente previsto per quest’estate – per consentire controlli di sicurezza più approfonditi. Il CEO Sam Altman ha dichiarato che “serve tempo per effettuare ulteriori test di sicurezza e valutare le aree ad alto rischio”, sottolineando che “una volta che i pesi sono stati rilasciati, non possono più essere ritirati” [1] [2]. Questa pausa arriva mentre cresce l’attesa per il prossimo modello di punta di OpenAI, GPT-5, previsto più avanti nell’anno [3]. Nel frattempo, l’arena open-source si sta riscaldando: la startup cinese Moonshot AI ha presentato Kimi K2, un modello da un trilione di parametri che, a quanto pare, supera GPT-4.1 di OpenAI su diversi benchmark di codifica [4] – un segnale della crescente competizione globale nella ricerca sull’AI.

I giganti della tecnologia stanno spingendo la tecnologia generativa in nuovi domini. Al Google I/O 2025, Google ha annunciato importanti aggiornamenti ai suoi strumenti di generazione di immagini e video. Ha lanciato Imagen 4, un modello testo-immagine più avanzato che gestisce meglio il testo e offre formati di immagine flessibili, e Veo 3, una generazione video AI di nuova generazione, capace di produrre video con audio [5] [6]. Google ha anche lanciato “Flow”, un’app di filmmaking AI che utilizza Imagen, Veo e la sua AI Gemini per creare brevi clip video da prompt testuali o immagini [7]. Il modello Gemini 2.5 dell’azienda ha acquisito una modalità di “ragionamento migliorato” chiamata Deep Think per domande complesse di matematica e programmazione – prende in considerazione multiple ipotesi prima di rispondere [8]. Google sta ora integrando Gemini in tutto il suo ecosistema: una nuova AI Mode in Search permette agli utenti di consultare il chatbot Gemini nelle query web [9], e assistenti AI Gemini “personalizzabili” stanno comparendo nel browser Chrome di Google e nelle applicazioni di Workspace [10] [11].

Altri attori stanno ampliando la portata dell’IA generativa. Il chatbot Claude di Anthropic, ad esempio, è ora integrato nella piattaforma di design di Canva, permettendogli di generare e modificare progetti visivi tramite linguaggio naturale [12]. ElevenLabs e altri stanno facendo scalpore nella generazione vocale guidata dall’IA, indicando un futuro in cui la sintesi vocale e i doppiaggi saranno indistinguibili dalle voci umane (come discusso al RAAIS 2025) [13] [14]. Anche xAI di Elon Musk – che di recente ha affrontato una controversia – sta evolvendo il suo chatbot Grok. Musk sostiene che un nuovo modello Grok 4 sia imminente e che integrerà Grok nei veicoli Tesla come assistente IA a bordo [15]. (La dimostrazione dal vivo di Grok 4 di Musk di questa settimana si è trasformata in una discussione sconclusionata sul fatto che l’IA sarà “buona o cattiva per l’umanità” [16].) Nonostante simili drammi, il boom dell’IA generativa non mostra segni di rallentamento, con modelli sempre più potenti e applicazioni creative che arrivano ogni mese.

Robotica e Sistemi Autonomi

I progressi nella robotica e nell’autonomia stanno traducendo l’evoluzione dell’IA nel mondo fisico. Amazon questo mese ha celebrato il dispiegamento del suo milionesimo robot di magazzino, consolidando il suo status di maggior operatore mondiale di robot mobili industriali [17]. Per coordinare questa vasta flotta, Amazon ha costruito un nuovo foundation model di IA generativa chiamato DeepFleet. Il sistema funziona come un intelligente controllore del traffico per i robot, migliorando l’efficienza dei loro spostamenti del 10% e velocizzando le consegne [18] [19]. DeepFleet utilizza l’enorme quantità di dati dei magazzini Amazon e apprende continuamente i percorsi ottimali, riducendo efficacemente la “congestione” tra i robot proprio come un sistema di smart city farebbe per le auto [20]. Questo aggiornamento logistico guidato dall’IA sottolinea come l’autonomia stia ottimizzando le operazioni nel mondo reale.

I robot umanoidi hanno raggiunto una pietra miliare nella produzione industriale. Boston Dynamics – nota per i suoi robot Atlas e Spot – ha annunciato che il suo avanzato umanoide Atlas inizierà le operazioni di prova sulle linee di produzione automobilistica. Più avanti quest’anno, è previsto che Atlas cominci a lavorare nelle fabbriche Hyundai negli Stati Uniti, segnando una delle prime integrazioni di un robot bipede nella produzione di massa [21]. Il progetto pilota mira a far svolgere ad Atlas compiti come la movimentazione dei materiali e la raccolta degli attrezzi in uno stabilimento automobilistico. Boston Dynamics (di proprietà di Hyundai) ha definito questo come un passo significativo verso una soluzione alla carenza di manodopera qualificata negli stabilimenti. Sottolinea inoltre il rapido progresso nella destrezza e sicurezza robotica necessario affinché gli umanoidi possano collaborare con i lavoratori umani.

I veicoli a guida autonoma hanno raggiunto anche un nuovo traguardo. Tesla ha lanciato silenziosamente un servizio limitato di robotaxi ad Austin, Texas: la prima implementazione aziendale di auto che offrono corse con nessun conducente umano a bordo. Circa una dozzina di Tesla Model Y, con l’ultima versione del software Full Self-Driving di Tesla, hanno iniziato a trasportare passeggeri selezionati questa settimana [22] [23]. I passeggeri siedono sul sedile anteriore (come “monitor di sicurezza”), ma le auto si guidano da sole lungo un percorso urbano definito. Il CEO Elon Musk ha celebrato il lancio come “il culmine di un decennio di duro lavoro”, sottolineando che Tesla ha realizzato internamente sia i chip AI sia il software necessari per raggiungere questo momento [24]. I viaggi sono stati offerti a una tariffa fissa di $4,20 durante il periodo di prova [25]. Anche se il progetto pilota è stato un successo, gli esperti avvertono che si tratta solo di un primo passo. “Un test riuscito ad Austin sarebbe la fine dell’inizio – non l’inizio della fine,” ha affermato il professore della Carnegie Mellon Philip Koopman, sottolineando che una vera diffusione su larga scala dei robotaxi potrebbe essere ancora lontana anni o decenni [26]. Nonostante ciò, l’esperimento di Tesla – insieme all’espansione dei servizi robo-taxi di Waymo e Cruise – segnala che siamo entrati nell’era delle corse senza conducente. Anche i regolatori si stanno adeguando: con l’avvicinarsi del lancio di Tesla, il Texas ha approvato una legge che richiede permessi per i servizi di veicoli autonomi (in vigore dal 1° settembre) per garantire la supervisione della sicurezza [27].

I robot stanno inoltre proliferando oltre le strade e le fabbriche. Nel settore della difesa, l’esercito degli Stati Uniti sta portando avanti la ricerca sulla collaborazione uomo-macchina e sui veicoli da combattimento autonomi [28]. E nella tecnologia consumer, gli assistenti robotici restano un tema caldo – dai droni alimentati dall’IA fino ai robot domestici d’assistenza. L’intersezione tra IA e robotica sta producendo creazioni innovative: i ricercatori del MIT, per esempio, hanno utilizzato algoritmi di intelligenza artificiale per progettare nuovi veicoli sottomarini autonomi per l’esplorazione degli oceani [29]. Con “cervelli” più intelligenti e migliori hardware, nel 2025 i robot sono più capaci che mai – lavorando fianco a fianco con le persone, navigando nell’imprevedibilità e passando gradualmente dai laboratori di ricerca alla vita quotidiana.

Regolamentazione dell’IA e Politiche Globali

Negli Stati Uniti, il governo federale sta investendo molte risorse nell’IA e cerca di semplificare la regolamentazione.Il presidente Donald Trump martedì ha ospitato leader del settore tecnologico ed energetico a un vertice a Pittsburgh incentrato su “alimentare” la crescita dell’IA [30].Affiancato dai CEO di Meta, Microsoft, Google, ExxonMobil e altri, Trump ha annunciato circa 90 miliardi di dollari in nuovi investimenti per l’intelligenza artificiale e progetti di energia pulita in Pennsylvania [31] [32].“Questo è davvero un giorno trionfale… stiamo facendo cose che nessuno aveva mai pensato possibili,” ha detto Trump riguardo all’iniziativa sull’IA [33].La Casa Bianca sta preparando una serie di ordini esecutivi per sostenere l’espansione dell’IA – inclusi provvedimenti per facilitare la costruzione di data center e collegarli alla rete elettrica [34].Un’idea al vaglio è quella di aprire le terre federali a progetti di data center per l’IA [35].Un altro è accelerare le connessioni alla rete elettrica per le nuove centrali dedicate ai server di intelligenza artificiale ad alto consumo energetico [36].L’amministrazione sta persino valutando permessi speciali a livello nazionale per semplificare la costruzione dei data center, bypassando il solito mosaico di permessi statali [37].Queste mosse arrivano mentre la domanda di energia per i data center AI sta raggiungendo livelli record negli Stati Uniti, sollevando preoccupazioni riguardo a carenze di elettricità [38] [39].Eliminando gli ostacoli normativi, i funzionari sperano di accelerare i progetti di infrastrutture per l’IA – e mantenere gli Stati Unitiin vantaggio nella “corsa agli armamenti” globale dell’IA con la Cina [40].

I governi di tutto il mondo stanno correndo per stabilire delle regole per la rapida espansione dell’IA. In Europa, l’AI Act dell’UE – la prima legge al mondo completa sull’IA – sta passando dall’approvazione all’attuazione. Da febbraio 2025, è entrato in vigore il divieto dell’Atto riguardo ai sistemi di IA che presentano un “rischio inaccettabile” [41]. Questo vieta usi come il social scoring o la sorveglianza biometrica in tempo reale negli spazi pubblici [42]. La legge impone anche nuovi requisiti di trasparenza per l’IA generativa. I fornitori di grandi modelli di IA come ChatGPT devono dichiarare i contenuti generati dall’IA e pubblicare riassunti dei dati protetti da copyright utilizzati per l’addestramento [43]. Qualsiasi immagine, audio o video generato dall’IA (ad esempio deepfake) deve essere chiaramente etichettato come tale [44]. I sistemi di IA ad alto rischio (ad esempio, in sanità, istruzione o forze dell’ordine) richiederanno audit e supervisione prima dell’implementazione [45] [46]. L’UE sta introducendo gradualmente queste regole nei prossimi due anni, dando alle industrie il tempo di adeguarsi [47]. Con questo Atto, l’UE mira a bilanciare l’innovazione con una “IA antropocentrica e affidabile”, potenzialmente definendo un modello per altri paesi [48].

Sul palcoscenico globale, il coordinamento sulle politiche riguardanti l’IA sta gradualmente prendendo forma.

I leader del G7 (Canada, Francia, Germania, Italia, Giappone, Regno Unito e Stati Uniti) hanno inserito l’IA nell’agenda del loro vertice lo scorso mese a Kananaskis, in Canada.L’incontro ha prodotto una “Dichiarazione dei leader sull’IA per la prosperità” che ha inquadrato l’IA principalmente come un’opportunità economica [49].Le nazioni del G7 hanno lanciato una GovAI Grand Challenge per stimolare l’uso dell’IA nei servizi governativi e hanno concordato una roadmap per l’adozione dell’IA da parte delle piccole e medie imprese [50].È stata inoltre annunciata una partnership Canada–Regno Unito per collaborare alla ricerca sulla sicurezza dell’IA (incluso un Memorandum d’Intesa con l’azienda canadese di IA Cohere) [51].In particolare, il tono al G7 ha enfatizzato la crescita, la “prosperità” e la competitività tecnologica piuttosto che nuove regolamentazioni sull’IA [52].Questo riflette un cambiamento: dopo un anno di intenso focus sulla sicurezza dell’IA (con iniziative come la Dichiarazione di Bletchley Park del Regno Unito sui rischi dell’IA e le salvaguardie volontarie del settore elaborate tramite il Processo Hiroshima sull’IA dell’OCSE), il pendolo sta tornando a favorire l’innovazione [53] [54].Tuttavia, preoccupazioni riguardo all’AI di frontiera sono state espresse ai margini.L’ITU delle Nazioni Unite ha ospitato un AI for Good Global Summit a Ginevra (8-11 luglio), dove eticisti come Abeba Birhane hanno evidenziato problematiche di bias e censura nelle attuali implementazioni dell’IA [55].E questo autunno, le Nazioni Unite convocheranno il loro Forum globale inaugurale sulla governance dell’IA, con l’obiettivo di riunire diplomatici, ricercatori e industria per discutere le linee guida sull’IA nella guerra, nell’etica e nello sviluppo [56].In breve, la seconda metà del 2025 si preannuncia caratterizzata da un mix di ambizione e ansia riguardo all’IA nei circoli politici – con ingenti investimenti per alimentare la crescita dell’IA, accompagnati da iniziative ancora agli inizi per contenerne i rischi.

A livello statale negli Stati Uniti, il 2025 ha visto un’esplosione di leggi relative all’IA. Tutti e 50 gli stati hanno introdotto quest’anno proposte di legge sull’IA e 28 stati (più Washington D.C. e i territori) hanno già emanato oltre 75 nuove misure sull’IA [57]. Queste leggi riguardano una vasta gamma di questioni: Arkansas ha approvato regole che chiariscono chi possiede i contenuti generati dall’IA (assegnando la proprietà intellettuale alla persona o all’azienda che ha creato l’input per l’IA) [58]. Montana ha emanato una legge sul “Diritto al Calcolo” per proteggere l’uso dell’IA nelle infrastrutture critiche, richiedendo anche valutazioni dei rischi per l’IA che controlla, ad esempio, le reti elettriche [59]. North Dakota ha vietato l’uso di robot guidati dall’IA per molestare o perseguitare persone, aggiornando le leggi penali [60]. E New York ora impone alle agenzie statali di rendere pubblici gli elenchi di tutti i sistemi di IA utilizzati, mirando alla trasparenza nelle decisioni algoritmiche che riguardano i cittadini [61]. Questo fervore legislativo a livello statale sottolinea la preoccupazione bipartisan sull’impatto sociale dell’IA, dai deepfake nelle elezioni al bias negli strumenti di selezione del personale. I legislatori statunitensi discutono anche la possibilità di un organo federale di controllo sull’IA e di nuovi finanziamenti per la ricerca sulla sicurezza dell’IA, ma questi sforzi sono ancora nelle fasi iniziali.

Principali Annunci Aziendali e Mosse di Business nell’IA

Il panorama aziendale dell’IA è estremamente dinamico, con giganti tecnologici e startup che lottano per la leadership:

  • La corsa al supercalcolo di Meta: Il CEO di Meta, Mark Zuckerberg, ha rivelato che la sua azienda sta costruendo diversi enormi cluster di supercomputer per l’IA per addestrare i futuri modelli di “superintelligenza” artificiale. “Il primo lo chiamiamo Prometheus e sarà operativo nel ’26,” ha scritto Zuckerberg, aggiungendo che Meta sta costruendo anche un secondo cluster, Hyperion, che raggiungerà nel tempo i 5 GW (gigawatt) di potenza [62]. Questi numeri impressionanti sottolineano la portata delle ambizioni di Meta nell’ambito dell’IA. Un’analisi recente suggerisce che Meta abbia avuto qualche difficoltà in alcune aree di ricerca sull’IA lo scorso anno, ma i nuovi investimenti nella capacità di calcolo potrebbero aiutarla a recuperare [63]. Investendo miliardi in silicio personalizzato, data center e talenti (Meta ha anche “strappato” importanti ricercatori AI a rivali come Apple e OpenAI [64] [65]), Zuckerberg punta forte sul fatto che una potenza di calcolo senza precedenti porterà a capacità IA rivoluzionarie.
  • Consolidamento del potere nel cloud: La corsa agli armamenti per le infrastrutture IA ha portato a una grande fusione. L’“hyperscaler” dell’IA CoreWeave – un fornitore di servizi cloud in rapida crescita specializzato in hosting GPU – ha annunciato l’intenzione di acquisire Core Scientific per 9 miliardi di dollari [66]. Core Scientific è un grande operatore di data center (originariamente noto per il mining di criptovalute) che recentemente si è convertito a fornire potenza di calcolo per l’IA. CoreWeave, che ha già stipulato contratti cloud da miliardi di dollari con OpenAI e Microsoft [67], ha dichiarato che l’accordo “aumenterà l’efficienza operativa e ridurrà il rischio per la nostra futura espansione” [68]. L’acquisizione tutta in azioni darebbe a CoreWeave il controllo delle strutture di Core Scientific in diversi stati [69], espandendo istantaneamente la capacità per i carichi di lavoro IA. Questo riflette come il boom dell’IA stia rimodellando l’industria dei data center attraverso il consolidamento – e come le nuove realtà del cloud stiano correndo per soddisfare la domanda crescente da parte degli sviluppatori di modelli.
  • I produttori di chip entrano in gioco: Le aziende di semiconduttori affermate stanno lanciando nuovi prodotti per supportare le enormi esigenze di calcolo dell’IA. Lo stesso giorno del summit di Pittsburgh, Broadcom ha presentato il suo chip di rete Tomahawk Ultra, mirato direttamente ai data center per l’IA [70] [71]. Il chip funziona come un controller del traffico ultra-veloce che collega centinaia di processori IA all’interno dei rack dei server. Ram Velaga di Broadcom ha dichiarato che il Tomahawk Ultra può collegare quattro volte più GPU insieme rispetto all’attuale chip di rete di Nvidia, e utilizza un protocollo basato su Ethernet invece del sistema proprietario di Nvidia [72]. L’obiettivo è aiutare le aziende a costruire “super-cluster IA” più grandi con componenti standard, sfidando il dominio di Nvidia non solo sulle GPU. La taiwanese TSMC produrrà i nuovi chip Broadcom con un sofisticato processo a 5nm [73]. Questo accade mentre Nvidia – il cui titolo è salito alle stelle grazie alla domanda di chip per l’IA – si trova a fronteggiare una concorrenza crescente su più fronti: le TPUs interne di Google, i nuovi acceleratori MI300 di AMD e ora il silicio di rete da attori come Broadcom (senza dimenticare i piani di Intel per un silicio ottimizzato per l’IA). La battaglia per il mercato dell’hardware IA è davvero iniziata, promettendo chip più veloci ed efficienti per addestrare la prossima generazione di modelli.
  • Spese delle Big Tech per l’infrastruttura AI: La portata degli investimenti in calcolo e energia per l’AI è stata evidenziata da diversi annunci. Google ha confermato un accordo per assicurarsi fino a 3 GW di energia senza emissioni di carbonio (principalmente idroelettrica) per i suoi data center negli Stati Uniti, collaborando con Brookfield Renewable per fornire energia ai futuri supercomputer AI nel Midwest [74] [75]. Blackstone, il più grande fondo di private equity al mondo, ha dichiarato che investirà 25 miliardi di dollari nella costruzione di nuovi data center e centrali a gas naturale in Pennsylvania per supportare la crescita dell’AI e del cloud [76] [77]. E Oracle avrebbe ampliato la sua partnership con OpenAI tramite il progetto “Stargate,” accordandosi per fornire ulteriori 4,5 GW di capacità di data center cloud negli Stati Uniti per l’uso esclusivo di OpenAI [78]. (Per dare un’idea, 4,5 GW equivalgono all’aggiunta di numerose grandi centrali elettriche di server dedicati all’addestramento e all’esecuzione di modelli AI). Questi numeri sbalorditivi illustrano il boom delle infrastrutture trainato dall’AI: la costruzione di data center, gli accordi energetici e la fabbricazione di chip sono tutti in rapida espansione per soddisfare le esigenze dell’AI.
  • Lanci di prodotti e partnership: Sul fronte dei prodotti, le aziende stanno integrando funzionalità di IA nei servizi mainstream. Microsoft ha iniziato a testare nuove funzionalità Copilot Plus in Windows che utilizzano l’IA per compiti come descrivere le immagini sullo schermo e generare automaticamente testi alternativi [79]. YouTube ha annunciato l’intenzione di demonetizzare i contenuti “spam generati dall’IA”, chiarendo le regole per scoraggiare video spam a basso sforzo generati dall’IA [80]. Google, oltre agli annunci dell’I/O, ha ampliato la propria Gemini AI assistant nelle offerte aziendali e ha persino presentato in anteprima occhiali AR basati su Android (con Xreal) che integrano Gemini per sovrapposizioni di informazioni in tempo reale [81] [82]. E in un crossover degno di nota, xAI (la startup di IA di Elon Musk) ha ottenuto un contratto con il Dipartimento della Difesa insieme a OpenAI, Anthropic e Google per fornire servizi di IA al governo degli Stati Uniti [83]. L’Ufficio Capo Digitale e IA del Pentagono ha assegnato a xAI fino a 200 milioni di dollari, mentre il chatbot Grok di Musk era recentemente al centro di una crisi di PR (ne parliamo più avanti) [84] [85]. Il contratto prevede il lancio di una piattaforma “Grok for Government” per modelli di IA sicuri e personalizzati destinati a usi per la sicurezza nazionale [86]. Tutti questi sviluppi mostrano come ogni grande settore – dai social media alla difesa – sia influenzato dall’IA, e come aziende grandi e piccole si stiano affrettando a rivendicare la propria posizione.
  • Etica e battaglie legali sull’IA: Il rapido dispiegamento dell’IA ha anche portato a controversie legali ed etiche. In Europa, un gruppo di editori ha presentato una denuncia antitrust contro Google, sostenendo che i nuovi riassunti di ricerca generati dall’IA di Google (“AI Overviews”) sfruttano ingiustamente i loro contenuti e li costringono a un dilemma: permettere che i loro articoli vengano utilizzati per addestrare l’IA di Google oppure essere penalizzati nei risultati di ricerca [87]. Stanno sollecitando i regolatori dell’UE a intervenire con misure provvisorie [88]. Nel frattempo, negli Stati Uniti, OpenAI ha concluso l’acquisizione di grande rilievo di Global Illumination (produttori dell’hardware chatbot io, co-fondato da Jony Ive) per progettare dispositivi di consumo “AI-first” – ma si è subito trovata coinvolta in una causa per segreti commerciali legata all’acquisizione [89] [90]. E in un caso surreale, xAI è stata sorpresa a gestire un data center alimentato a gas non autorizzato in Tennessee per alimentare i suoi server IA; dopo pressioni locali, l’azienda di Musk ha ottenuto una concessione retroattiva per 15 generatori a gas naturale, anche se le immagini satellitari suggeriscono che ci fossero in loco 24 generatori [91] [92]. I gruppi ambientalisti restano preoccupati per le emissioni e il precedente creato da una società di IA che agisce “rapidamente e infrangendo” le regole ambientali. Questi incidenti sottolineano come, crescendo, le aziende di IA si scontrano con reali responsabilità e sfide legali.

Ricerche e progressi accademici

La ricerca accademica sull’IA sta prosperando insieme ai progressi industriali, fornendo spesso le idee che le aziende svilupperanno successivamente. Nell’ultimo mese, gli studiosi hanno annunciato progressi significativi in diversi campi:

  • Migliorare il ragionamento dell’IA: Un team di ricercatori (tra cui scienziati del MIT) ha sviluppato un nuovo metodo per rendere i grandi modelli linguistici (LLM) più bravi nei compiti di ragionamento complesso. Addestrando i modelli a essere più adattabili e a suddividere i problemi in sotto-compiti, hanno dimostrato miglioramenti significativi nella pianificazione strategica e nell’ottimizzazione dei processi [93]. Questo potrebbe aiutare i sistemi IA ad affrontare sfide come la programmazione, la dimostrazione di teoremi o la gestione della supply chain che richiedono ragionamenti su più passaggi – aree in cui gli LLM attuali hanno ancora difficoltà.
  • IA nella medicina di precisione: Presso il Computer Science and AI Lab (CSAIL) del MIT, gli scienziati hanno presentato CellLENS, un sistema di intelligenza artificiale in grado di identificare sottotipi nascosti di cellule nelle immagini microscopiche dei tessuti [94]. Questo aiuta a rivelare schemi sottili nel comportamento delle singole cellule all’interno di tumori o organi, aumentando la nostra comprensione dell’eterogeneità cellulare. La ricerca, pubblicata l’11 luglio, mostra un potenziale per l’immunoterapia del cancro: identificando rare sottopopolazioni cellulari che influenzano la risposta di un tumore al trattamento, l’IA può guidare terapie più precise e personalizzate [95] [96].
  • Robot autonomi subacquei: Nel settore della robotica, i ricercatori del MIT hanno creato una pipeline di progettazione guidata da IA per nuovi gliders subacquei – piccoli veicoli autonomi che “planano” attraverso l’oceano per raccogliere dati. L’intelligenza artificiale ottimizza la forma e la traiettoria del veicolo usando modelli idrodinamici, portando alla creazione di nuovi veicoli grandi come una tavola da bodyboard con design unici che l’intuizione ingegneristica tradizionale non aveva concepito [97] [98]. Questi glider possono percorrere lunghe distanze in modo efficiente sfruttando i cambiamenti di galleggiabilità, e potrebbero aiutare gli scienziati a monitorare in modo più efficace gli ecosistemi marini o i parametri climatici.
  • IA per la scienza dei materiali: Un rapporto pubblicato il 4 luglio da un team del MIT ha dimostrato un sistema robotico che può misurare e analizzare rapidamente nuovi campioni di materiali [99]. La sonda robotica utilizza l’IA per decidere come regolare i parametri sperimentali in tempo reale, accelerando in modo significativo la caratterizzazione di nuovi materiali semiconduttori. Questo tipo di assistente di laboratorio automatizzato potrebbe velocizzare le scoperte nelle celle solari, nelle batterie e in altri materiali, eliminando il lento metodo umano del tentativo ed errore – un esempio di IA che amplifica la sperimentazione scientifica.
  • Il “Conundrum” di AI & Energia: I ricercatori stanno anche esaminando l’impronta ambientale e il potenziale dell’IA stessa. Un simposio annuale della MIT Energy Initiative ha discusso l’IA come sia un problema che una soluzione per la crisi climatica [100]. Da un lato, l’addestramento dell’IA richiede molta energia: un singolo grande modello può consumare tanta energia quanto diverse centinaia di abitazioni durante il suo ciclo di vita. Dall’altro, l’IA può migliorare notevolmente l’ottimizzazione delle reti, la modellizzazione del clima e la scoperta di tecnologie per l’energia pulita. Il consenso era che sono necessari sforzi interdisciplinari per garantire che l’impronta di carbonio dell’IA venga mitigata anche mentre le sue capacità vengono sfruttate in favore della sostenibilità [101]. Un’idea interessante è usare l’IA per progettare chip e algoritmi di IA più efficienti (una sorta di ciclo di auto-miglioramento per ridurre il consumo energetico).

Negli ambienti accademici, c’è anche una crescente attenzione su safety, allineamento ed etica dell’IA come discipline di ricerca legittime. Le conferenze sull’allineamento dell’IA (assicurare che gli obiettivi dei sistemi di IA siano allineati con i valori umani) hanno attirato non solo filosofi, ma anche informatici che propongono approcci tecnici. Questo anno ha visto studi su reti neurali più interpretabili, su tecniche per evitare le “allucinazioni” dei modelli di IA, e su metodi di valutazione del buon senso dell’IA. E, in particolare, il prestigioso Premio Turing (il “Premio Nobel dell’Informatica”) è stato assegnato a marzo a Yoshua Bengio, Geoffrey Hinton e Yann LeCun per il loro lavoro pionieristico nel deep learning – un riconoscimento del fatto che le idee fondanti del settore hanno davvero cambiato il mondo. Ora, una nuova generazione di ricercatori sta costruendo su quell’eredità per affrontare i grandi problemi irrisolti mentre i sistemi di IA diventano sempre più potenti.

Commenti Degni di Nota e Prospettive di Esperti

Nel pieno della frenesia dello sviluppo dell’IA, le principali voci nel campo della tecnologia e della scienza stanno offrendo commenti incisivi – alcuni ottimisti, altri cauti – su dove stiamo andando:

  • Avvertimenti sul rischio esistenziale:Geoffrey Hinton, spesso soprannominato il “padrino dell’IA”, ha lanciato alcuni degli avvertimenti più severi. Dopo aver lasciato Google per poter parlare liberamente, Hinton ha detto a Reuters che una superintelligenza artificiale potrebbe rappresentare una minaccia “più urgente” per l’umanità rispetto al cambiamento climatico – un rischio che, secondo lui, potrebbe concretizzarsi nel giro di decenni [102] [103]. “Non vorrei dire di non preoccuparsi del cambiamento climatico… ma penso che [l’IA] potrebbe finire per essere più urgente,” ha affermato Hinton, osservando che non esiste un modo ovvio per “fermare” una IA fuori controllo come invece potremmo fare tagliando le emissioni di carbonio [104] [105]. Ha firmato la nota lettera che invita a una pausa negli esperimenti sull’IA di grandi dimensioni, anche se ammette che una moratoria potrebbe essere “totalmente irrealistica” e propone invece una ricerca intensiva ora sulle tecniche di sicurezza per l’IA [106] [107]. Anche l’altro vincitore del Premio Turing, Yoshua Bengio, e altri hanno ribadito che mitigare i rischi di estinzione legati all’IA dovrebbe essere una priorità globale al pari della prevenzione della guerra nucleare [108] [109]. Questi avvertimenti hanno portato alcuni legislatori a proporre una supervisione internazionale – ad esempio, un gruppo di parlamentari dell’UE ha richiesto un vertice globale sul futuro dell’IA e l’ONU ha avanzato l’idea di un organo di regolamentazione per l’IA simile all’organismo di controllo nucleare AIEA [110].
  • Voci di Ottimismo e Pragmatismo: Non tutti nella comunità dell’IA sono concentrati su scenari apocalittici. Esperti come Andrew Ng sostengono che i rischi dell’IA attuali siano più immediati – dagli algoritmi di parte alla perdita di posti di lavoro – e necessitino di soluzioni pratiche più che di ipotesi. Ng ha recentemente paragonato la paura dell’IA a quella della “sovrappopolazione su Marte”, esortando le aziende a migliorare trasparenza ed equità dei modelli invece di farsi prendere dal panico riguardo a una superintelligenza fuori controllo (posizione condivisa anche da Yann LeCun di Meta). Altri ricercatori sostengono il potenziale positivo dell’IA: “L’IA farà enormi benefici,” ha detto lo stesso Hinton, dalla formazione personalizzata ai progressi medici, [111]. La tensione tra l’abbracciare i benefici dell’IA e il contenerne i pericoli è un tema centrale nei dibattiti tra gli esperti. Fei-Fei Li, una delle principali ricercatrici di IA, sottolinea spesso la necessità di voci diverse e di un design centrato sull’uomo nelle IA, affinché queste tecnologie “potenzino e non sostituiscano” le persone. E molti fanno notare che l’IA è uno strumento: se guidata correttamente, potrebbe contribuire a risolvere questioni urgenti come la scoperta di nuovi farmaci o l’adattamento climatico molto più rapidamente di prima.
  • I Leader del Settore Parlano: Anche i CEO tecnologici intervengono come statisti dell’era dell’IA. Satya Nadella di Microsoft ha recentemente osservato che l’IA è a un punto di svolta, come “il momento della stampa di Gutenberg”, e ha sottolineato la necessità di “paraurti, non freni” – sostenendo che lo sviluppo responsabile, non una pausa, sia la strada da seguire. Sam Altman di OpenAI, dopo un tour globale incontrando regolatori, ha riconosciuto la necessità di una certa regolamentazione (proponendo persino un regime internazionale di licenze per i modelli più potenti), ma ha anche avvertito contro gli eccessi che soffocano l’innovazione. Quando OpenAI ha deciso di ritardare il rilascio del proprio modello open source, Altman ha spiegato sinceramente che è stato perché “una volta reso open source, non possiamo più tornare indietro”, sottolineando il peso di tale decisione [112] [113]. Dario Amodei di Anthropic ha messo in evidenza l’importanza della ricerca sull’allineamento dell’IA, sottolineando che la sua azienda sta testando modi per far sì che l’IA spieghi il proprio ragionamento e segua regole etiche esplicite. E Demis Hassabis di Google DeepMind ha riflettuto sul fatto che potremmo vedere emergere una “costituzione dell’AGI (intelligenza artificiale generale)” – un insieme di valori e vincoli con cui un’IA super-intelligente dovrebbe essere imbued per garantire che rimanga benefica.
  • Reazioni pubbliche e cultura: Anche figure pubbliche di diversi ambiti stanno intervenendo sull’impatto dell’IA. In politica, alcuni candidati alle presidenziali USA 2024 hanno inserito l’IA nei loro programmi – ad esempio, una campagna guidata dalla tecnologia di RFK Jr. ha proposto di mettere “l’IA in tutto” nel governo, un approccio che i critici hanno definito “un disastro” a causa delle preoccupazioni per la supervisione [114] [115]. Nell’intrattenimento, attori e sceneggiatori si stanno confrontando con l’invasione dell’IA: i sindacati di Hollywood stanno negoziando limiti sui cloni digitali IA degli artisti. Proprio questa settimana, la band indie Deerhoof ha ritirato la propria musica da Spotify, protestando perché i diritti di streaming potrebbero finanziare la ricerca sull’IA per scopi militari – “non volevamo che la nostra musica finanziasse IA bellica,” ha dichiarato la band, riflettendo le ansie degli artisti [116]. E gli utenti comuni stanno incontrando l’IA in modi nuovi, dai video deepfake virali su TikTok (alcuni innocui, molti inquietanti) [117] ai chatbot di assistenza clienti IA che stanno finalmente raggiungendo un livello di utilità quasi umano. Questa miscela di entusiasmo e inquietudine nel dibattito pubblico mostra che l’IA non è più un tema di nicchia: è una conversazione di massa che tocca etica, lavoro, creatività e molto altro.
  • Fonti: Comunicati stampa ufficiali delle aziende; The Verge [118] [119]; TechCrunch [120] [121]; Reuters [122] [123] [124] [125]; Notizie del Parlamento Europeo [126] [127]; MIT News [128] [129]; Wired [130]; Bloomberg [131]; Rapporto NCSL del Congresso [132]; Commento della RAND Corporation <a href=”https://www.rand.org/pubs/commentary/2025/06/the-g7-summit-missed-an-opportunity-for-progress-on.html#:~:textIl vertice del G7 ha fatto eco a una, con la società canadese di IA Cohere, rand.org; e interviste di esperti su vari media reuters.com reuters.com.

  • Segnalazioni di uso improprio dell’IA: Gli esperti non si tirano indietro dal denunciare gli usi più oscuri dell’intelligenza artificiale. Una recente indagine di Wired ha rivelato un’industria nascosta di siti “AI nudifier” che utilizzano l’IA generativa per produrre immagini nude false di donne a partire da foto vestite – in sostanza, una forma automatizzata di molestia [133]. Sorprendentemente, dozzine di questi siti sono risultati operativi alla luce del sole e addirittura traggono profitto tramite le reti pubblicitarie. Il ricercatore Alexios Mantzarlis di Indicator, che ha guidato lo studio, ha criticato i principali fornitori di tecnologia per aver inconsapevolmente sostenuto questi abusi. “Avrebbero dovuto smettere di fornire qualsiasi servizio agli AI nudifiers quando era chiaro che l’unico scopo era la molestia sessuale,” ha dichiarato Mantzarlis [134]. Il suo team ha scoperto che 62 su 85 di questi siti dipendevano da servizi di grandi aziende come Amazon (per hosting) o Google (per API di login), implicando l’ecosistema tech mainstream nell’abilitazione di usi maligni dell’AI [135] [136]. In seguito all’indignazione, alcuni fornitori hanno deciso di ritirare i loro servizi a questi siti, e i regolatori europei stanno osservando attentamente alla luce delle nuove regole contro le immagini non consensuali generate dall’IA. Questo episodio sottolinea come l’etica dell’AI non sia solo una questione teorica – ma abbia implicazioni reali e urgenti per i diritti e la sicurezza delle persone, e gli esperti chiedono responsabilità.

Infine, vale la pena notare un po’ di umorismo e umiltà nell’ambiente AI tra gli esperti. Alla domanda sui rapidi progressi, un ricercatore AI ha scherzato dicendo che i modelli di oggi sono “spesso sbagliati ma mai in dubbio.” Mentre i sistemi di intelligenza artificiale producono risposte con sicurezza (e occasionali errori), quell’osservazione ironica risulta assai veritiera. Il compito, come ha detto uno scienziato di Google, sarà “trasformare questi approssimatori universali in strumenti affidabili” – ovvero far sì che l’IA sappia anche ciò che non sa. In questo momento di escalation vertiginosa, le principali menti AI del mondo sono sia ammirate che allarmate dalla tecnologia che hanno creato. Il consenso: stiamo entrando in un nuovo capitolo della rivoluzione AI, e sarà necessaria un’inedita collaborazione tra ricercatori, industria, decisori politici e società per garantire che questa potente tecnologia sia davvero a beneficio dell’umanità. La storia dell’AI nel 2025 è una storia di innovazione straordinaria – e la consapevolezza che come affronteremo queste sfide ora plasmerà il nostro futuro per i decenni a venire.

What future for European Robotics? Insights from a science for policy conference

References

1. techcrunch.com, 2. techcrunch.com, 3. techcrunch.com, 4. techcrunch.com, 5. www.theverge.com, 6. www.theverge.com, 7. www.theverge.com, 8. www.theverge.com, 9. www.theverge.com, 10. www.theverge.com, 11. www.theverge.com, 12. www.theverge.com, 13. press.airstreet.com, 14. press.airstreet.com, 15. www.theverge.com, 16. www.theverge.com, 17. www.aboutamazon.com, 18. www.aboutamazon.com, 19. www.aboutamazon.com, 20. www.aboutamazon.com, 21. www.reuters.com, 22. www.reuters.com, 23. www.reuters.com, 24. www.reuters.com, 25. www.reuters.com, 26. www.reuters.com, 27. www.reuters.com, 28. www.army.mil, 29. news.mit.edu, 30. www.reuters.com, 31. www.reuters.com, 32. www.reuters.com, 33. www.reuters.com, 34. www.reuters.com, 35. www.reuters.com, 36. www.reuters.com, 37. www.reuters.com, 38. www.reuters.com, 39. www.reuters.com, 40. www.reuters.com, 41. www.europarl.europa.eu, 42. www.europarl.europa.eu, 43. www.europarl.europa.eu, 44. www.europarl.europa.eu, 45. www.europarl.europa.eu, 46. www.europarl.europa.eu, 47. www.europarl.europa.eu, 48. www.whitecase.com, 49. www.rand.org, 50. www.rand.org, 51. www.rand.org, 52. www.rand.org, 53. www.rand.org, 54. www.rand.org, 55. thebulletin.org, 56. unidir.org, 57. www.ncsl.org, 58. www.ncsl.org, 59. www.ncsl.org, 60. www.ncsl.org, 61. www.ncsl.org, 62. www.theverge.com, 63. www.theverge.com, 64. www.theverge.com, 65. www.theverge.com, 66. www.theverge.com, 67. www.theverge.com, 68. www.theverge.com, 69. www.theverge.com, 70. www.reuters.com, 71. www.reuters.com, 72. www.reuters.com, 73. www.reuters.com, 74. www.reuters.com, 75. www.reuters.com, 76. www.reuters.com, 77. www.reuters.com, 78. www.theverge.com, 79. www.theverge.com, 80. www.theverge.com, 81. www.theverge.com, 82. www.theverge.com, 83. www.theverge.com, 84. www.theverge.com, 85. www.theverge.com, 86. www.theverge.com, 87. www.theverge.com, 88. www.theverge.com, 89. www.theverge.com, 90. www.theverge.com, 91. www.theverge.com, 92. www.theverge.com, 93. news.mit.edu, 94. news.mit.edu, 95. news.mit.edu, 96. news.mit.edu, 97. news.mit.edu, 98. news.mit.edu, 99. news.mit.edu, 100. news.mit.edu, 101. news.mit.edu, 102. www.reuters.com, 103. www.reuters.com, 104. www.reuters.com, 105. www.reuters.com, 106. www.reuters.com, 107. www.reuters.com, 108. www.linkedin.com, 109. medium.com, 110. www.reuters.com, 111. fortune.com, 112. techcrunch.com, 113. techcrunch.com, 114. www.theverge.com, 115. www.theverge.com, 116. www.theverge.com, 117. www.theverge.com, 118. www.theverge.com, 119. www.theverge.com, 120. techcrunch.com, 121. techcrunch.com, 122. www.reuters.com, 123. www.reuters.com, 124. www.reuters.com, 125. www.reuters.com, 126. www.europarl.europa.eu, 127. www.europarl.europa.eu, 128. news.mit.edu, 129. news.mit.edu, 130. www.theverge.com, 131. www.reuters.com, 132. www.ncsl.org, 133. www.theverge.com, 134. www.theverge.com, 135. www.theverge.com, 136. www.theverge.com

Sony RX1R III: 2025’s Pocket-Sized Powerhouse and Its Competition
Previous Story

Sony RX1R III: Il Colosso Tascabile del 2025 e la Sua Concorrenza

Smartwatch Showdown 2025: Top Models Compared, New Features, and Surprising User Insights
Next Story

Sfida tra Smartwatch 2025: Confronto tra i Modelli Top, Nuove Funzionalità e Sorprendenti Opinioni degli Utenti

Go toTop