LIM Center, Aleje Jerozolimskie 65/79, 00-697 Warsaw, Poland
+48 (22) 364 58 00

15 lipca 2025: Nowa granica AI – przełomy generatywne, kamienie milowe robotyki i globalne zmiany polityki

15 lipca 2025: Nowa granica AI – przełomy generatywne, kamienie milowe robotyki i globalne zmiany polityki

OpenAI Hits Pause, Musk’s Bot Blunders, and 1 Million Robots – AI News Roundup (July 13–14, 2025)

Modele i technologie generatywnej AI

Pojawiają się kolejne przełomowe osiągnięcia w zakresie generatywnej AI. OpenAI opóźniło wydanie swojego pierwszego modelu z otwartymi wagami – pierwotnie planowanego na to lato – aby przeprowadzić bardziej szczegółowe kontrole bezpieczeństwa. Dyrektor generalny Sam Altman powiedział, że „potrzebujemy czasu na przeprowadzenie dodatkowych testów bezpieczeństwa i analizę obszarów wysokiego ryzyka”, podkreślając, że „gdy wagi zostaną udostępnione, nie można ich już cofnąć” techcrunch.com techcrunch.com. Ta przerwa następuje w momencie wzrastających oczekiwań wobec kolejnego flagowego modelu GPT-5 od OpenAI, którego premiera spodziewana jest jeszcze w tym roku techcrunch.com. Tymczasem arena open source nabiera tempa: chiński startup Moonshot AI zaprezentował Kimi K2, model o bilionie parametrów, który podobno przewyższa GPT-4.1 firmy OpenAI w kilku testach kodowania techcrunch.com – co jest oznaką rosnącej globalnej konkurencji w badaniach nad AI.

Technologiczni giganci przenoszą generatywną technologię do nowych obszarów. Podczas Google I/O 2025 Google ogłosiło duże aktualizacje swoich narzędzi do generowania obrazów i wideo. Wprowadziło Imagen 4, bardziej zaawansowany model tekst-na-obraz, który lepiej radzi sobie z tekstem i oferuje elastyczne proporcje obrazu, oraz Veo 3, nowej generacji generator wideo AI, zdolny do tworzenia wideo z dźwiękiem theverge.com theverge.com. Google wprowadziło także „Flow”, aplikację do tworzenia filmów AI, która wykorzystuje Imagen, Veo i swoją AI Gemini do tworzenia krótkich klipów wideo na podstawie poleceń tekstowych lub obrazkowych theverge.com. Model Gemini 2.5 zyskał tryb „ulepszonego rozumowania” o nazwie Deep Think do złożonych zapytań matematycznych i programistycznych – rozważa kilka hipotez zanim odpowie theverge.com. Google integruje teraz Gemini w całym swoim ekosystemie: nowy Tryb AI w wyszukiwarce umożliwia użytkownikom konsultacje z chatbotem Gemini w zapytaniach sieciowych theverge.com, a „dostosowywalni” asystenci AI Gemini pojawiają się w przeglądarce Google Chrome oraz aplikacjach Workspace theverge.com theverge.com.

Inni gracze poszerzają zasięg generatywnej sztucznej inteligencji. Na przykład chatbot Claude firmy Anthropic został zintegrowany z platformą projektową Canva, umożliwiając generowanie i edytowanie projektów graficznych za pomocą języka naturalnego theverge.com. ElevenLabs i inne firmy robią furorę w dziedzinie generowania głosu przez AI, zapowiadając przyszłość, w której syntetyczna mowa i dubbing będą nie do odróżnienia od ludzkich głosów (dyskutowane na RAAIS 2025) press.airstreet.com press.airstreet.com. Nawet xAI Elona Muska – który niedawno musiał stawić czoła kontrowersjom – pracuje nad kolejną wersją swojego chatbota Grok. Musk twierdzi, że nowy model Grok 4 pojawi się już wkrótce, a on sam integruje Groka w samochodach Tesli jako pokładowego asystenta AI theverge.com. (Muskowa demonstracja na żywo Groka 4 w tym tygodniu zamieniła się w chaotyczną dyskusję o tym, czy AI będzie „dobra, czy zła dla ludzkości” theverge.com.) Mimo takich dramatów, boom na generatywną AI nie wykazuje oznak spowolnienia, a coraz potężniejsze modele i kreatywne zastosowania pojawiają się co miesiąc.

Robotyka i Systemy Autonomiczne

Postępy w robotyce i autonomii przenoszą rozwój sztucznej inteligencji do świata fizycznego. Amazon w tym miesiącu świętował wdrożenie swojego milionowego robota magazynowego, umacniając swoją pozycję największego na świecie operatora przemysłowych robotów mobilnych aboutamazon.com. Aby zapanować nad tą ogromną flotą, Amazon stworzył nowy, generatywny model podstawowy AI o nazwie DeepFleet. System działa jak inteligentny kontroler ruchu dla robotów, zwiększając efektywność podróży floty o 10% i przyspieszając dostawy zamówień aboutamazon.com aboutamazon.com. DeepFleet korzysta z ogromnych zasobów danych magazynowych Amazona i stale uczy się optymalnych tras, skutecznie „redukując zatłoczenie” wśród robotów, tak jak system inteligentnego miasta czyni to dla samochodów aboutamazon.com. Ten napędzany AI skok logistyczny pokazuje, jak autonomia usprawnia działania w rzeczywistym świecie.

Roboty humanoidalne osiągnęły kamień milowy w produkcji. Boston Dynamics – znana ze swoich robotów Atlas i Spot – ogłosiła, że jej zaawansowany humanoid Atlas rozpocznie próbne operacje na liniach produkcyjnych w branży motoryzacyjnej. Jeszcze w tym roku Atlas ma rozpocząć pracę w amerykańskich fabrykach Hyundaia, co stanowi jedno z pierwszych wdrożeń robota dwunożnego do produkcji masowej reuters.com. Pilotaż ma na celu sprawdzenie, jak Atlas radzi sobie z zadaniami takimi jak obsługa materiałów i przynoszenie narzędzi w fabryce samochodów. Boston Dynamics (należąca do Hyundaia) określiła to jako ważny krok w kierunku rozwiązywania problemów niedoboru wykwalifikowanych pracowników na halach produkcyjnych. Podkreśla to również szybki postęp w dziedzinie zręczności i bezpieczeństwa robotów, niezbędny do współpracy humanoidów z ludźmi.

Pojazdy autonomiczne również osiągnęły nowy kamień milowy. Tesla po cichu uruchomiła ograniczoną usługę robotaxi w Austin w Teksasie – to pierwsze wdrożenie przez firmę samochodów oferujących przejazdy bez ludzkiego kierowcy na pokładzie. Około tuzina pojazdów Tesla Model Y, wyposażonych w najnowsze oprogramowanie Full Self-Driving, rozpoczęło w ubiegłym tygodniu przewożenie wybranych pasażerów reuters.com reuters.com. Pasażerowie siedzą na przednim siedzeniu pasażera (jako „monitory bezpieczeństwa”), ale samochody same prowadzą się po określonej miejskiej trasie. Dyrektor generalny Elon Musk świętował start jako „ukoronowanie dekady ciężkiej pracy”, podkreślając, że Tesla zbudowała swoje chipy AI oraz oprogramowanie całkowicie samodzielnie, aby osiągnąć ten moment reuters.com. Przejazdy podczas testów oferowano za stałą opłatę 4,20 USD reuters.com. Choć pilotaż zakończył się sukcesem, eksperci przestrzegają, że to dopiero pierwszy krok. „Udany test w Austin byłby końcem początku – nie początkiem końca,” powiedział profesor Philip Koopman z Carnegie Mellon, podkreślając, że prawdziwa skala usług robotaxi może być jeszcze oddalona o lata lub dekady reuters.com. Niemniej jednak eksperyment Tesli – wraz z ekspansją usług robo-taksówek Waymo i Cruise – sygnalizuje, że weszliśmy w erę przejazdów bez kierowcy. Regulatorzy nadrabiają zaległości: w związku ze zbliżającym się startem usługi Tesli, Teksas uchwalił ustawę wymagającą zezwoleń na usługi autonomicznych pojazdów (obowiązującą od 1 września), aby zapewnić nadzór nad bezpieczeństwem reuters.com.

Roboty rozprzestrzeniają się także poza drogi i fabryki. W obronności armia USA rozwija badania nad współpracą człowieka z maszyną oraz autonomicznymi pojazdami bojowymi army.mil. W technologii konsumenckiej robotyczni pomocnicy pozostają gorącym tematem – od dronów zasilanych AI po roboty asystujące w domu. Przecięcie sztucznej inteligencji i robotyki przynosi nowe, innowacyjne wynalazki: na przykład naukowcy z MIT wykorzystali algorytmy AI do projektowania nowych autonomicznych szybowców podwodnych do eksploracji oceanów news.mit.edu. Dzięki inteligentniejszym „mózgom” i lepszemu sprzętowi, roboty w 2025 roku są bardziej zaawansowane niż kiedykolwiek – pracują ramię w ramię z ludźmi, radzą sobie z nieprzewidywalnością i stopniowo przechodzą z laboratoriów badawczych do codziennego życia.

Regulacje AI i polityka globalna

W Stanach Zjednoczonych rząd federalny inwestuje zasoby w sztuczną inteligencję i dąży do uproszczenia regulacji.

Prezydent Donald Trump we wtorek gościł liderów branży technologicznej i energetycznej na szczycie w Pittsburghu, skupionym na „napędzaniu” rozwoju AI reuters.com.W otoczeniu prezesów firm Meta, Microsoft, Google, ExxonMobil i innych, Trump ogłosił około 90 miliardów dolarów nowych inwestycji w projekty dotyczące sztucznej inteligencji i czystej energii w Pensylwanii reuters.com reuters.com.„To naprawdę triumfalny dzień… robimy rzeczy, o których nikt nigdy nie myślał, że są możliwe,” powiedział Trump o inicjatywie dotyczącej AI reuters.com.Biały Dom przygotowuje pakiet rozporządzeń wykonawczych wspierających rozwój AI – w tym środki mające ułatwić budowę centrów danych i ich podłączanie do sieci energetycznej reuters.com.Jednym z rozważanych pomysłów jest udostępnienie federalnych terenów pod projekty centrów danych AI reuters.com.Kolejnym jest przyspieszenie podłączania do sieci nowych elektrowni dedykowanych serwerom AI o dużym zapotrzebowaniu na energię reuters.com.Administracja rozważa nawet specjalne ogólnokrajowe pozwolenia, które mają uprościć budowę centrów danych, omijając zwykłą mozaikę zezwoleń stanowych reuters.com.Te działania pojawiają się w momencie, gdy zapotrzebowanie na energię dla centrów danych AI gwałtownie rośnie do rekordowych poziomów w USA, budząc obawy o niedobory energii elektrycznej reuters.com reuters.com.Pokonując przeszkody regulacyjne, urzędnicy mają nadzieję przyspieszyć projekty infrastruktury AI – i utrzymać przewagę USA.przoduje w globalnym „wyścigu zbrojeń w dziedzinie AI” z Chinami reuters.com.

Rządy na całym świecie ścigają się, aby ustalić zasady rozwoju AI. W Europie Akt o AI UE – pierwsze na świecie kompleksowe prawo dotyczące sztucznej inteligencji – przechodzi z etapu zatwierdzania do wdrożenia. Od lutego 2025 roku zacznie obowiązywać zakaz dotyczący systemów AI stanowiących „nieakceptowalne ryzyko” europarl.europa.eu. Zakazane są takie zastosowania, jak ocena społeczna czy biometryczny nadzór w czasie rzeczywistym w przestrzeni publicznej europarl.europa.eu. Prawo wprowadza również nowe wymogi dotyczące przejrzystości dla AI generatywnej. Dostawcy dużych modeli AI, takich jak ChatGPT, muszą ujawniać treści generowane przez AI i publikować podsumowania danych objętych prawem autorskim użytych do treningu europarl.europa.eu. Wszelkie obrazy, dźwięki lub nagrania wideo stworzone przez AI (np. deepfake’i) muszą być wyraźnie oznaczone jako takie europarl.europa.eu. Systemy AI wysokiego ryzyka (na przykład w ochronie zdrowia, edukacji lub organach ścigania) będą wymagały audytów i nadzoru przed wdrożeniem europarl.europa.eu europarl.europa.eu. UE wdraża te zasady stopniowo przez najbliższe dwa lata, dając branżom czas na dostosowanie się europarl.europa.eu. Dzięki temu Aktowi UE dąży do równowagi między innowacją a „sztuczną inteligencją zorientowaną na człowieka i godną zaufania” – potencjalnie ustanawiając wzorzec dla innych krajów whitecase.com.

Na globalnej scenie stopniowo kształtuje się koordynacja polityki dotyczącej AI.

Przywódcy G7 (Kanada, Francja, Niemcy, Włochy, Japonia, Wielka Brytania i USA) umieścili AI w porządku obrad podczas swojego szczytu w zeszłym miesiącu w Kananaskis w Kanadzie.Spotkanie zaowocowało „Oświadczeniem liderów w sprawie sztucznej inteligencji na rzecz dobrobytu”, które przedstawiło AI przede wszystkim jako szansę gospodarczą rand.org.Kraje G7 uruchomiły GovAI Grand Challenge, aby pobudzić wykorzystanie AI w usługach rządowych, i uzgodniły plan wdrażania AI dla małych i średnich przedsiębiorstw rand.org.Ogłoszono również partnerstwo Kanada–Wielka Brytania w celu współpracy nad badaniami nad bezpieczeństwem AI (w tym memorandum o porozumieniu z kanadyjską firmą AI Cohere) rand.org.Co ważne, ton na szczycie G7 podkreślał wzrost, „dobrobyt” oraz konkurencyjność technologiczną zamiast nowych regulacji dotyczących AI rand.org.To odzwierciedla zmianę: po roku intensywnego skupienia na bezpieczeństwie AI (z inicjatywami takimi jak brytyjska Deklaracja z Bletchley Park dotycząca ryzyka AI oraz dobrowolne zabezpieczenia branżowe opracowane w ramach Procesu HIROSHIMA AI OECD), wahadło zaczyna się przechylać w stronę wspierania innowacji rand.org rand.org.Mimo to, na marginesie wyrażano obawy dotyczące zaawansowanej sztucznej inteligencji.ITU Organizacji Narodów Zjednoczonych zorganizowała Globalny Szczyt AI for Good w Genewie (8–11 lipca), podczas którego etycy, tacy jak Abeba Birhane, zwracali uwagę na kwestie uprzedzeń i cenzury w obecnych wdrożeniach AI thebulletin.org.Tej jesieni Organizacja Narodów Zjednoczonych zwoła swoje inauguracyjne Globalne Forum Zarządzania Sztuczną Inteligencją, którego celem jest zgromadzenie dyplomatów, naukowców i przedstawicieli przemysłu, aby omówić zasady dotyczące SI w wojnie, etyce i rozwoju unidir.org.Krótko mówiąc, druga połowa 2025 roku zapowiada się jako mieszanka ambicji i niepokoju wokół AI w kręgach politycznych – z dużymi inwestycjami napędzającymi rozwój AI, połączonymi z początkowymi próbami ograniczenia jej ryzyk.

Na poziomie stanowym w USA rok 2025 przyniósł eksplozję ustaw związanych ze sztuczną inteligencją. Wszystkie 50 stanów wprowadziło w tym roku projekty ustaw dotyczących AI, a 28 stanów (plus Dystrykt Kolumbii i terytoria) już uchwaliło ponad 75 nowych środków dotyczących AI ncsl.org. Te przepisy obejmują szerokie spektrum zagadnień: Arkansas przyjął zasady precyzujące, kto jest właścicielem treści generowanych przez AI (przyznając prawa własności intelektualnej osobie lub firmie, która stworzyła dane wejściowe dla AI) ncsl.org. Montana uchwaliła ustawę o „Prawie do obliczeń”, chroniącą wykorzystanie AI w krytycznej infrastrukturze, a jednocześnie wymagającą oceny ryzyka dla AI sterującej m.in. sieciami energetycznymi ncsl.org. Północna Dakota zakazała używania robotów napędzanych AI do nękania lub śledzenia ludzi, aktualizując swoje przepisy karne ncsl.org. Natomiast Nowy Jork zobowiązał agencje stanowe do publicznego inwentaryzowania wszystkich stosowanych przez nie systemów AI – dążąc do przejrzystości w algorytmicznych decyzjach mających wpływ na obywateli ncsl.org. Ta lawina przepisów stanowych podkreśla ponadpartyjne obawy dotyczące wpływu AI na społeczeństwo – od deepfake’ów w wyborach po stronniczość narzędzi rekrutacyjnych. Amerykańscy ustawodawcy rozważają również powołanie potencjalnego federalnego organu nadzoru nad AI oraz nowe środki finansowania badań nad bezpieczeństwem AI, ale te działania są jeszcze na wczesnym etapie.

Najważniejsze ogłoszenia korporacyjne i ruchy biznesowe dotyczące AI

Krajobraz korporacyjny w obszarze AI jest niezwykle dynamiczny – zarówno giganci technologiczni, jak i startupy walczą o pozycję lidera:

  • Meta – wyścig superkomputerów: CEO Meta, Mark Zuckerberg, ujawnił, że jego firma buduje kilka ogromnych klastrów superkomputerów AI, aby trenować przyszłe modele AI o „superinteligencji”. „Pierwszy z nich nazywamy Prometeusz i ruszy w 2026 roku,” napisał Zuckerberg, dodając, że Meta buduje też drugi klaster, Hyperion, który z czasem ma osiągnąć moc do 5 GW (gigawatów), theverge.com. Te imponujące liczby podkreślają skalę ambicji AI Meta. Niedawna analiza sugeruje, że Meta w zeszłym roku miała trudności w niektórych obszarach badań AI, ale nowe inwestycje w moc obliczeniową mogą pomóc jej nadrobić zaległości theverge.com. Inwestując miliardy w niestandardowe układy scalone, centra danych i talenty (Meta zwerbowała nawet czołowych badaczy AI od konkurencji, takich jak Apple i OpenAI theverge.com theverge.com), Zuckerberg stawia wszystko na to, że bezprecedensowa moc obliczeniowa umożliwi przełomowe możliwości AI.
  • Konsolidacja mocy chmury: Wyścig zbrojeń o infrastrukturę AI doprowadził do ogromnej fuzji. AI „hiperskaler” CoreWeave – szybko rosnący dostawca chmury specjalizujący się w hostingu GPU – ogłosił plany przejęcia Core Scientific za 9 miliardów dolarów theverge.com. Core Scientific to duży operator centrów danych (znany pierwotnie z wydobycia kryptowalut), który ostatnio skupił się na dostarczaniu mocy obliczeniowej dla AI. CoreWeave, które już zabezpieczyło wielomiliardowe umowy chmurowe z OpenAI i Microsoftem theverge.com, twierdzi, że transakcja „zwiększy efektywność operacyjną i ograniczy ryzyko przyszłej ekspansji” theverge.com. Przejęcie w całości za akcje dałoby CoreWeave kontrolę nad infrastrukturą Core Scientific w kilku stanach theverge.com, natychmiast zwiększając możliwości obsługi obciążeń AI. To pokazuje, jak boom AI przekształca branżę centrów danych poprzez konsolidację – i jak młode firmy chmurowe ścigają się, by sprostać rosnącemu zapotrzebowaniu twórców modeli.
  • Producenci chipów wkraczają do gry: Ugruntowane firmy półprzewodnikowe wprowadzają nowe produkty, aby sprostać ogromnym wymaganiom obliczeniowym AI. Tego samego dnia co szczyt w Pittsburghu, Broadcom zaprezentował swój chip sieciowy Tomahawk Ultra, skierowany bezpośrednio do centrów danych AI reuters.com reuters.com. Chip pełni rolę ultraszybkiego kontrolera ruchu, łączącego setki procesorów AI w ramach szaf serwerowych. Ram Velaga z Broadcomu stwierdził, że Tomahawk Ultra potrafi połączyć cztery razy więcej GPU niż obecny chip sieciowy Nvidii, a korzysta z protokołu Ethernet zamiast własnego systemu Nvidii reuters.com. Celem jest umożliwienie firmom budowania większych „superklastrów AI” z użyciem ogólnodostępnych podzespołów, co stanowi wyzwanie dla dominacji Nvidii nie tylko w dziedzinie GPU. Tajwańska firma TSMC wyprodukuje nowe chipy Broadcomu w zaawansowanym procesie 5nm reuters.com. Dzieje się to w momencie, gdy Nvidia – której akcje gwałtownie wzrosły dzięki zapotrzebowaniu na chipy AI – staje w obliczu rosnącej konkurencji z różnych stron: autorskie TPU Google’a, najnowsze akceleratory MI300 od AMD oraz teraz układy sieciowe od takich graczy jak Broadcom (nie wspominając już o planach Intela dotyczących zoptymalizowanego pod AI sprzętu krzemowego). Walka o rynek sprzętu AI nabiera tempa, obiecując szybsze i bardziej wydajne chipy do trenowania kolejnej generacji modeli.
  • Wydatki gigantów technologicznych na infrastrukturę AI: Skala inwestycji w moc obliczeniową i energię dla AI została podkreślona przez kilka ogłoszeń. Google potwierdziło umowę na zabezpieczenie do 3 GW energii wolnej od emisji dwutlenku węgla (głównie z elektrowni wodnych) dla swoich centrów danych w USA, współpracując z Brookfield Renewable w celu zaopatrzenia przyszłych superkomputerów AI na Środkowym Zachodzie reuters.com reuters.com. Blackstone, największa na świecie firma private equity, ogłosiła, że zainwestuje 25 miliardów dolarów w budowę nowych centrów danych i elektrowni gazowych w Pensylwanii, aby wspierać rozwój AI i chmury reuters.com reuters.com. Z kolei Oracle podobno rozszerzył współpracę z OpenAI w ramach projektu „Stargate”, zobowiązując się do zapewnienia dodatkowej mocy 4,5 GW w amerykańskich centrach danych chmurowych na wyłączny użytek OpenAI theverge.com. (Dla porównania, 4,5 GW to tyle, co kilka dużych elektrowni serwerów przeznaczonych do trenowania i uruchamiania modeli AI). Te oszałamiające liczby pokazują boom infrastrukturalny napędzany przez AI: budowa centrów danych, umowy na dostawy energii i produkcja chipów – wszystko to jest skalowane, by sprostać potrzebom sztucznej inteligencji.
  • Premiery produktów i partnerstwa: Jeśli chodzi o produkty, firmy wprowadzają funkcje AI do głównych usług. Microsoft rozpoczął testowanie nowych funkcji Copilot Plus w systemie Windows, które wykorzystują sztuczną inteligencję do zadań takich jak opisywanie obrazów wyświetlanych na ekranie i automatyczne generowanie tekstów alternatywnych theverge.com. YouTube ogłosił plany demonetyzowania „spamowych treści generowanych przez AI”, doprecyzowując zasady, aby zniechęcić do publikowania niskiej jakości filmów AI theverge.com. Google, oprócz ogłoszeń na I/O, rozszerzył asystenta Gemini AI na oferty korporacyjne i zaprezentował okulary AR oparte na Androidzie (wspólnie z Xreal), które integrują Gemini, oferując nakładki z informacjami w czasie rzeczywistym theverge.com theverge.com. I w wyjątkowym połączeniu, xAI (start-up AI Elona Muska) uzyskał kontrakt z Departamentem Obrony razem z OpenAI, Anthropic i Google na świadczenie usług AI rządowi USA theverge.com. Biuro Głównego Specjalisty ds. Cyfrowych i AI Pentagonu przyznało xAI nawet 200 milionów dolarów, mimo że chatbot Muska Grok dopiero co zaliczył kryzys wizerunkowy (więcej o tym poniżej) theverge.com theverge.com. Kontrakt zakłada uruchomienie platformy „Grok for Government” do tworzenia bezpiecznych, dostosowanych modeli AI na potrzeby bezpieczeństwa narodowego theverge.com. Wszystkie te wydarzenia pokazują, jak każda ważna branża – od mediów społecznościowych po obronność – jest dotykana przez AI, a firmy zarówno duże, jak i małe, walczą o swoje miejsce na tym rynku.
  • Etyka sztucznej inteligencji i batalie prawne: Szybkie wdrażanie AI doprowadziło również do sporów prawnych i etycznych. W Europie grupa wydawców złożyła skargę antymonopolową przeciwko Google, twierdząc, że nowe podsumowania wyszukiwania generowane przez AI („AI Overviews”) niesprawiedliwie pobierają ich treści i zmuszają ich do wyboru: zezwolić, by ich artykuły trenowały AI Google, lub zostać zdegradowanym w wynikach wyszukiwania theverge.com. Wzywają oni regulatorów UE do interwencji i zastosowania środków tymczasowych theverge.com. Tymczasem w USA OpenAI zakończyło głośną transakcję zakupu Global Illumination (twórców sprzętu do chatbota io, współzałożonego przez Jony’ego Ive’a) w celu projektowania konsumenckich urządzeń AI-first – ale natychmiast musiało zmierzyć się z procesem o ujawnienie tajemnic handlowych związanym z tym przejęciem theverge.com theverge.com. A w osobliwym przypadku xAI zostało przyłapane na prowadzeniu bez zezwolenia centrum danych zasilanego gazem w Tennessee do obsługi swoich serwerów AI; po lokalnych naciskach firma Muska uzyskała zaległe pozwolenie na 15 generatorów gazu ziemnego, choć zdjęcia satelitarne sugerują, że było ich na miejscu 24 theverge.com theverge.com. Organizacje ekologiczne nadal wyrażają obawy dotyczące emisji i precedensu, jaki tworzy firma AI „działająca szybko i łamiąca” przepisy środowiskowe. Te sytuacje podkreślają, że wraz ze skalowaniem biznesu AI, pojawiają się realne wyzwania z zakresu odpowiedzialności i kwestii prawnych.

Przełomowe badania i osiągnięcia naukowe

Badania akademickie nad AI kwitną równolegle z postępem w przemyśle, często dostarczając nowych pomysłów, na których firmy następnie budują swoje produkty. W ostatnim miesiącu naukowcy ogłosili istotne przełomy w różnych dziedzinach:

  • Usprawnianie rozumowania przez AI: Zespół naukowców (w tym badacze z MIT) opracował nową metodę, która sprawia, że duże modele językowe (LLM) lepiej radzą sobie z zadaniami wymagającymi złożonego rozumowania. Poprzez trenowanie modeli do większej elastyczności oraz rozbijania problemów na podzadania, uzyskali znaczącą poprawę wyników w planowaniu strategicznym i optymalizacji procesów news.mit.edu. Może to pomóc systemom AI w pokonywaniu wyzwań, takich jak harmonogramowanie, dowodzenie twierdzeń czy zarządzanie łańcuchem dostaw, które wymagają wieloetapowego rozumowania – a są to obszary, w których dzisiejsze LLM-y wciąż mają trudności.
  • Sztuczna inteligencja w medycynie precyzyjnej: W Laboratorium Informatyki i Sztucznej Inteligencji MIT (CSAIL) naukowcy zaprezentowali CellLENS – system AI, który potrafi identyfikować ukryte podtypy komórek na mikroskopowych obrazach tkanek news.mit.edu. Pomaga to ujawniać subtelne wzorce zachowań poszczególnych komórek w nowotworach lub narządach, zwiększając naszą wiedzę o heterogeniczności komórkowej. Badania opublikowane 11 lipca dają nadzieję dla immunoterapii nowotworów: AI, wskazując rzadkie subpopulacje komórek wpływające na reakcję guza na leczenie, może umożliwić precyzyjniejsze i bardziej spersonalizowane terapie news.mit.edu news.mit.edu.
  • Autonomiczne roboty podwodne: W dziedzinie robotyki naukowcy z MIT opracowali napędzany AI model projektowania nowych szybowców podwodnych – małych, autonomicznych pojazdów, które „ślizgają się” przez ocean, zbierając dane. Sztuczna inteligencja optymalizuje kształt i trajektorię szybowca za pomocą modeli hydrodynamicznych, czego efektem są nowe pojazdy wielkości bodyboardu o unikatowych kształtach, których tradycyjna inżynierska intuicja nie przewidziała news.mit.edu news.mit.edu. Szybowce te mogą przemieszczać się na duże odległości, efektywnie wykorzystując zmiany wyporności, i mogą pomóc naukowcom skuteczniej monitorować ekosystemy morskie lub parametry klimatyczne.
  • Sztuczna inteligencja w nauce o materiałach: Raport zespołu MIT z 4 lipca przedstawił robotyczny system, który błyskawicznie mierzy i analizuje nowe próbki materiałów news.mit.edu. Robotyczna sonda wykorzystuje AI, aby w locie decydować, jak regulować parametry eksperymentów, znacznie przyspieszając charakterystykę nowych materiałów półprzewodnikowych. Tego typu automatyczny asystent laboratoryjny może przyspieszyć odkrycia w dziedzinie ogniw słonecznych, baterii i innych materiałów, eliminując powolną ludzką metodę prób i błędów – to przykład, jak AI wzmacnia naukowe eksperymenty.
  • AI i „Dylemat Energetyczny”: Naukowcy badają również własny ślad środowiskowy AI oraz jej potencjał. Coroczne sympozjum MIT Energy Initiative debatowało nad AI jako zarówno problemem, jak i rozwiązaniem dla kryzysu klimatycznego news.mit.edu. Z jednej strony, szkolenie AI jest energochłonne – pojedynczy duży model może zużyć tyle energii, co kilkaset domów w całym swoim cyklu życia. Z drugiej strony, AI może znacząco poprawić optymalizację sieci energetycznych, modelowanie klimatu i odkrywanie czystych technologii energetycznych. Konsensus był taki, że potrzebne są wysiłki interdyscyplinarne, aby ślad węglowy AI został ograniczony, nawet gdy jej możliwości są wykorzystywane na rzecz zrównoważonego rozwoju news.mit.edu. Jednym z intrygujących pomysłów jest wykorzystanie AI do projektowania bardziej wydajnych układów i algorytmów AI (rodzaj pętli samodoskonalenia AI, aby zmniejszyć zużycie energii).

W środowiskach akademickich rośnie także zainteresowanie bezpieczeństwem, dostosowaniem i etyką AI jako pełnoprawnymi dyscyplinami badawczymi. Konferencje poświęcone dostosowaniu AI (zapewnieniu, by cele systemów AI były zgodne z wartościami ludzkimi) przyciągają nie tylko filozofów, ale też informatyków proponujących techniczne podejścia. W tym roku pojawiły się badania nad bardziej interpretowalnymi sieciami neuronowymi, nad technikami zapobiegającymi „halucynacjom” modeli AI oraz nad benchmarkingiem zdrowego rozsądku AI. Warto również odnotować, że prestiżowa Nagroda Turinga (tak zwana „Nobel z informatyki”) została w marcu przyznana Yoshua Bengio, Geoffreyowi Hintonowi i Yannowi LeCunowi za ich pionierskie prace nad uczeniem głębokim – co jest uznaniem, że idee założycielskie tej dziedziny rzeczywiście zmieniły świat. Teraz nowa generacja badaczy buduje na tym dziedzictwie, by rozwiązywać trudne, nierozstrzygnięte dotąd problemy w miarę, jak systemy AI stają się coraz potężniejsze.

Ważne komentarze i opinie ekspertów

W środku gorączkowego rozwoju AI wiodące głosy w technologii i nauce wyrażają wyraziste opinie – jedne pełne optymizmu, inne ostrzegawcze – na temat tego, dokąd zmierzamy:

  • Ostrzeżenia przed egzystencjalnym ryzykiem: Geoffrey Hinton, często nazywany „ojcem chrzestnym AI”, wydał jedne z najpoważniejszych ostrzeżeń. Po odejściu z Google, aby móc swobodnie się wypowiadać, Hinton powiedział agencji Reuters, że superinteligentna AI może stanowić „pilniejsze” zagrożenie dla ludzkości niż zmiany klimatyczne – ryzyko, które jego zdaniem może się zmaterializować w ciągu dekad reuters.com reuters.com. „Nie chciałbym powiedzieć, żeby nie przejmować się zmianami klimatycznymi… ale uważam, że [AI] może ostatecznie być pilniejsza,” powiedział Hinton, wskazując, że nie ma oczywistego sposobu, by „po prostu zatrzymać” niekontrolowaną AI w taki sposób, jak możemy ograniczyć emisję dwutlenku węgla reuters.com reuters.com. Podpisał głośny list wzywający do wstrzymania gigantycznych eksperymentów AI, choć sam przyznaje, że moratorium może być „całkowicie nierealistyczne” i zamiast tego opowiada się dziś za intensywnymi badaniami nad technikami bezpieczeństwa AI reuters.com reuters.com. Inny laureat Nagrody Turinga, Yoshua Bengio i inni podkreślają, że ograniczenie ryzyk AI na poziomie egzystencjalnym powinno być światowym priorytetem na równi z zapobieganiem wojnie nuklearnej linkedin.com medium.com. Te ostrzeżenia pobudziły propozycje niektórych prawodawców dotyczące międzynarodowego nadzoru – na przykład grupa europarlamentarzystów wezwała do globalnego szczytu w sprawie przyszłości AI, a ONZ rozważa ideę powołania organu regulacyjnego AI na wzór agencji nadzoru jądrowego IAEA reuters.com.
  • Głosy optymizmu i pragmatyzmu: Nie wszyscy w społeczności AI skupiają się na scenariuszach zagłady. Eksperci tacy jak Andrew Ng twierdzą, że obecne zagrożenia związane ze sztuczną inteligencją są bardziej bezpośrednie – od uprzedzonych algorytmów po utratę miejsc pracy – i wymagają praktycznych rozwiązań zamiast rozważań hipotetycznych. Ng niedawno porównał strach przed AI do „przeludnienia na Marsie”, nawołując firmy do zwiększenia przejrzystości i sprawiedliwości modeli zamiast panikować na myśl o zbuntowanej superinteligencji (podobne stanowisko zajmuje Yann LeCun z Meta). Inni naukowcy podkreślają pozytywny potencjał AI: „AI przyniesie ogromne korzyści,” mówił sam Hinton – począwszy od spersonalizowanej edukacji po przełomy medyczne fortune.com. Napięcie między wykorzystywaniem korzyści AI a kontrolowaniem jej zagrożeń to centralny temat ekspertckich debat. Fei-Fei Li, czołowa badaczka AI, często podkreśla znaczenie różnorodnych głosów i projektowania zorientowanego na człowieka w AI, aby te technologie „wspierały ludzi, a nie ich zastępowały”. Wiele osób wskazuje też, że AI to narzędzie – jeśli będzie właściwie prowadzone, może pomóc rozwiązać naglące problemy takie jak odkrywanie leków czy adaptacja do zmian klimatu znacznie szybciej niż dotychczas.
  • Liderzy branży zabierają głos: Prezesi firm technologicznych również wypowiadają się jako „mężowie stanu ery AI”. Satya Nadella z Microsoftu niedawno zauważył, że AI jest w punkcie zwrotnym niczym „moment wynalezienia druku przez Gutenberga” i podkreślił konieczność „zabezpieczeń, nie hamulców” – argumentując, że odpowiedzialny rozwój, a nie zatrzymanie, to właściwa droga. Sam Altman z OpenAI, po globalnym tournée spotkań z regulatorami, przyznał potrzebę pewnych regulacji (nawet proponując międzynarodowy system licencjonowania dla najpotężniejszych modeli), ale ostrzegł też przed przesadą hamującą innowacje. Gdy OpenAI zdecydowało się opóźnić publikację open-source swojego modelu, Altman szczerze wyjaśnił, że „gdy raz coś zostanie udostępnione jako open source, tego nie da się cofnąć”, podkreślając wagę tej decyzji techcrunch.com techcrunch.com. Dario Amodei z Anthropic podkreślił wagę badań nad dopasowaniem AI, zaznaczając, że jego firma testuje sposoby, by AI tłumaczyła swoje rozumowanie i przestrzegała wyraźnie określonych zasad etycznych. Demis Hassabis z Google DeepMind zastanawiał się, czy nie zobaczymy w przyszłości „konstytucji AGI (sztucznej ogólnej inteligencji)” – zbioru wartości i ograniczeń, w które superinteligentna AI byłaby wyposażona, aby zapewnić, że pozostanie pożyteczna.
  • Reakcje społeczne i kultura: Osoby publiczne z różnych dziedzin również wypowiadają się na temat wpływu AI. W polityce niektórzy kandydaci na prezydenta USA w 2024 roku uczynili AI częścią swojego programu – na przykład kampania skoncentrowana na technologii prowadzona przez RFK Jr. zaproponowała „AI we wszystkim” w rządzie, co krytycy nazwali „katastrofą” ze względu na obawy dotyczące nadzoru theverge.com theverge.com. W branży rozrywkowej aktorzy i scenarzyści zmagają się z rosnącą obecnością AI: związki zawodowe Hollywood negocjują ograniczenia dotyczące cyfrowych klonów AI wykonawców. W tym tygodniu niezależny zespół Deerhoof usunął swoją muzykę ze Spotify, protestując przeciwko temu, że tantiemy ze streamingu mogą finansować badania nad AI wykorzystywaną w technologii militarnej – „nie chcieliśmy, aby nasza muzyka finansowała AI do celów militarnych,” powiedział zespół, odzwierciedlając niepokoje artystów theverge.com. A zwykli użytkownicy spotykają się z AI na nowe sposoby – od wiralowych deepfake’ów na TikToku (niektóre nieszkodliwe, wiele niepokojących) theverge.com po boty AI w obsłudze klienta, które w końcu zaczynają dorównywać ludzkiej pomocności. Ta mieszanka ekscytacji i niepokoju w debacie publicznej pokazuje, że AI nie jest już tematem niszowym – to rozmowa głównego nurtu, która dotyka etyki, pracy, kreatywności i nie tylko.
  • Źródła: Oficjalne komunikaty prasowe firm; The Verge theverge.com theverge.com; TechCrunch techcrunch.com techcrunch.com; Reuters reuters.com reuters.com reuters.com reuters.com; European Parliament News europarl.europa.eu europarl.europa.eu; MIT News news.mit.edu news.mit.edu; Wired theverge.com; Bloomberg reuters.com; Congressional NCSL report ncsl.org; RAND Corporation komentarz <a href=”https://www.rand.org/pubs/commentary/2025/06/the-g7-summit-missed-an-opportunity-for-progress-on.html#:~:text

    =Szczyt G7 powtórzył, rand.org rand.org; oraz wywiady z ekspertami w różnych mediach reuters.com reuters.com.
  • Ujawnianie nadużyć AI: Eksperci nie wahają się ujawniać ciemnych stron wykorzystywania sztucznej inteligencji. Niedawne śledztwo Wired ujawniło istnienie całej branży stron z „AI nudifier”, które wykorzystują generatywną AI do tworzenia fałszywych nagich zdjęć kobiet na podstawie fotografii w ubraniu – jest to w zasadzie zautomatyzowana forma nękania theverge.com. Co szokujące, dziesiątki takich stron działały otwarcie i nawet zarabiały na sieciach reklamowych. Badacz Alexios Mantzarlis z Indicator, który prowadził badanie, skrytykował największych dostawców technologii za nieświadome wspieranie tego nadużycia. „Powinni natychmiast zaprzestać świadczenia wszelkich usług AI nudifierom, gdy stało się jasne, że jedynym ich zastosowaniem jest molestowanie seksualne,” powiedział Mantzarlis theverge.com. Jego zespół odkrył, że 62 z 85 takich stron korzystało z usług wielkich firm, jak Amazon (do hostingu) czy Google (logowanie przez API), co pokazuje udział głównych graczy technologicznych w umożliwianiu szkodliwego wykorzystania AI theverge.com theverge.com. Po wybuchu skandalu część dostawców usług zaczęła wycofywać swoje wsparcie dla tych stron, a europejscy regulatorzy uważnie się temu przyglądają w świetle nowych przepisów dotyczących niekonsensualnych obrazów generowanych przez AI. Ta sytuacja pokazuje, że etyka AI nie jest tylko teorią – ma rzeczywiste, pilne znaczenie dla praw i bezpieczeństwa ludzi, a eksperci domagają się rozliczalności.
  • Na koniec warto zauważyć odrobinę humoru i pokory AI w środowisku eksperckim. Zapytany o szybkie postępy, jeden z badaczy AI żartobliwie stwierdził, że dzisiejsze modele są „często w błędzie, ale nigdy nie mają wątpliwości.” Ponieważ systemy AI pewnie generują odpowiedzi (i okazjonalne błędy), to dowcipne spostrzeżenie jest bardzo trafne. Przed nami stoi zadanie, jak ujął to naukowiec z Google, „przekształcenie tych uniwersalnych aproksymatorów w niezawodne narzędzia” – by AI wiedziała, czego nie wie. W tym momencie zawrotnego postępu, czołowe umysły AI na świecie są jednocześnie zachwycone i zaniepokojone technologią, którą stworzyli. Wniosek jest taki: wchodzimy w nowy rozdział rewolucji AI i potrzeba bezprecedensowej współpracy badaczy, branży, decydentów politycznych i społeczeństwa, aby potężna technologia rzeczywiście służyła ludzkości. Historia AI w 2025 roku to opowieść o niezwykłej innowacji – i świadomość, że to, jak teraz poradzimy sobie z wyzwaniami, zdecyduje o naszej przyszłości na dziesięciolecia.

    Tags: , ,