Czerwiec 2025 – Przegląd wiadomości AI: Przełomy, niespodzianki i wydarzenia globalne

Czerwiec 2025 był przełomowym miesiącem dla sztucznej inteligencji, z ważnymi osiągnięciami i niespodziewanymi wydarzeniami w dziedzinach takich jak generatywna SI, robotyka, opieka zdrowotna, obronność, regulacje oraz biznes. Od nowej generacji modeli SI i robotów wchodzących do fabryk, po nowe narzędzia SI w ochronie zdrowia i apele o nadzór – krajobraz SI dynamicznie ewoluował. Poniżej znajduje się kompleksowy, reporterski przegląd najważniejszych aktualizacji i niespodzianek dotyczących SI z tego miesiąca.
Kamienie milowe generatywnej SI i nowe modele
OpenAI zasygnalizowało kolejny przełom w generatywnej SI, gdy CEO Sam Altman ogłosił, że GPT-5 jest w drodze. W oficjalnym podcaście Altman poinformował, że premiera GPT-5 planowana jest na lato 2025 roku (brak dokładnej daty) adweek.com. Wczesni testerzy twierdzą, że jest to „znacznie lepsze” niż GPT-4 adweek.com, co sugeruje znaczącą poprawę możliwości. OpenAI bada również nowe sposoby monetyzacji: Altman ujawnił, że „nie jest całkowicie przeciwny” reklamom w ChatGPT, ale podkreślił, że zmiana odpowiedzi modelu pod wpływem płatności od reklamodawców byłaby „momentem niszczącym zaufanie” adweek.com. Jak zauważył, ewentualne reklamy najprawdopodobniej pojawiałyby się poza odpowiedziami chatbota, by nie naruszać jego integralności.
Tymczasem konkurencja w generatywnej SI nasilą się na wszystkich frontach. Kreatywna firma SI Midjourney zaprezentowała swój pierwszy system generowania wideo na podstawie tekstu, Model V1, umożliwiający użytkownikom tworzenie krótkich animowanych klipów na podstawie promptów crescendo.ai. Wczesni użytkownicy twierdzą, że 16-sekundowe filmy oferują zaawansowaną kontrolę nad ruchem i stylem, co stawia Midjourney w rywalizacji z Runway oraz eksperymentalnym modelem wideo OpenAI („Sora”) crescendo.ai. Po stronie open source, chiński startup MiniMax wprowadził swój nowy, duży model M1 jako otwartą konkurencję. MiniMax twierdzi, że M1 osiąga zaawansowane wyniki przy znacznie mniejszych zasobach obliczeniowych i został udostępniony na licencji Apache 2.0, aby zachęcić do szerokiego wykorzystania w przemyśle winbuzzer.com. Tymczasem kolejny model Meta LLaMA 4 „Behemoth” został opóźniony do końca 2025 roku z powodu problemów z wydajnością winbuzzer.com winbuzzer.com, jednak cały ekosystem wrze od nowych graczy i aktualizacji.
Przełomy w robotyce i automatyzacji
W czerwcu SI zrobiła odważny krok z cyfrowego świata do rzeczywistości fizycznej. Google DeepMind zaprezentowało Gemini Robotics On-Device, model SI do robotyki działający lokalnie na robotach, a nie w chmurze deepmind.google. Ten wydajny model łączący wizję, język i działanie prezentuje wszechstronną zręczność – wykonuje złożone zadania, takie jak rozpinanie zamków i składanie ubrań, całkowicie na pokładzie robota, po wydaniu polecenia językowego deepmind.google. Dzięki pracy bez połączenia z internetem obiecuje niskie opóźnienia i niezawodność nawet w niekorzystnych warunkach sieciowych. Google udostępnia zestaw narzędzi do dostosowywania tego modelu do nowych zadań na podstawie już 50 demonstracji, co zwiastuje bardziej elastyczne i autonomiczne roboty deepmind.google deepmind.google.
Roboty trafiają także na linie produkcyjne. Po raz pierwszy w branży tajwański Foxconn i amerykańska Nvidia ogłosiły plany wdrożenia humanoidalnych robotów do linii produkcyjnej elektroniki reuters.com. Źródła donoszą, że nowa fabryka Foxconna w Houston, mająca rozpocząć produkcję serwerów SI Nvidii w przyszłym roku, użyje robotów humanoidalnych do wspomagania montażu i obsługi materiałów. Jeśli projekt się powiedzie, będzie to pierwszy raz, kiedy produkty Nvidii są budowane z asystą robotów humanoidalnych oraz pierwszy taki przypadek dla Foxconna reuters.com. Firmy zamierzają uruchomić roboty w I kwartale 2026 roku, po przeszkoleniu ich do zadań takich jak podnoszenie części, wkładanie kabli oraz inne rutynowe czynności montażowe reuters.com reuters.com. Obserwatorzy wskazują na to jako na przełom mogący zmienić oblicze produkcji, gdy firmy testują, czy bipedalne lub kołowe maszyny humanoidalne mogą wspomagać lub zastępować ludzką pracę na lini produkcyjnej.
Dla odprężenia – roboty napędzane SI trafiły też na kort sportowy. Badacze z Chin przedstawili czteronożnego robota, który potrafi grać w badmintona z ludźmi, korzystając z wizji komputerowej i decyzji SI w czasie rzeczywistym do odbijania i odgrywania piłek crescendo.ai. Zdolność robota do przewidywania ruchów i dostosowywania strategii pokazuje rosnącą zaawansowanie SI w zadaniach fizycznych. Choć to tylko demonstracja badawcza, zapowiada ona przyszłą współpracę ludzi i robotów nawet w rozrywce i treningach – zaskakujący przykład opanowania przez roboty zwinności i koordynacji wzrokowo-ruchowej w dynamicznych środowiskach crescendo.ai.
SI w ochronie zdrowia i biotechnologii
Czerwiec przyniósł znaczące wdrożenia SI i wytyczne w ochronie zdrowia. Amerykańska Agencja ds. Żywności i Leków (FDA) uruchomiła swój pierwszy wewnętrzny system SI – duży model językowy o nazwie „Elsa.” Według FDA Elsa ma za zadanie podsumowywać raporty o niepożądanych działaniach leków, porównywać etykiety produktów, a nawet generować kod komputerowy do analizy danych farmaceutycznych – czyli pomagać organom regulacyjnym wyciągać wnioski z ogromnych zbiorów danych medycznych healthcare-brew.com. To pierwszy krok FDA w korzystaniu z SI do własnych działań, będący częścią szerszej strategii wdrażania nowych technologii do nadzoru zdrowia publicznego.
Władze medyczne również dążyły do bezpieczniejszego i bardziej przejrzystego SI. 11 czerwca American Medical Association (AMA) przyjęła nową politykę wzywającą, by kliniczne narzędzia SI były “wytłumaczalne”. AMA chce, by twórcy SI udostępniali klinicystom jasne informacje na temat bezpieczeństwa, skuteczności i zasad działania AI healthcare-brew.com. To przejaw narastającej troski, by lekarze mogli rozumieć rekomendacje SI – nie tylko przyjmować wyniki algorytmu bezkrytycznie – co ma zapewnić bezpieczeństwo pacjentów. To apel o przejrzystość w miarę upowszechniania się narzędzi diagnostycznych i decyzyjnych opartych na SI w szpitalach.
W sektorze prywatnym firmy ochrony zdrowia poszerzały zastosowanie SI w obsłudze pacjentów. Przykładem jest gigant ubezpieczeniowy Cigna, który uruchomił wirtualnego asystenta – chatbota w swojej aplikacji, by pomagać pacjentom poruszać się wśród opcji ubezpieczeń i świadczeń medycznych healthcare-brew.com. Start-upy z branży cyfrowego zdrowia także integrują SI: Hinge Health wprowadził platformę opartą na SI do łączenia pacjentów z ortopedami, a aplikacja wsparcia psychicznego Wysa zaprezentowała chatbota “AI Gateway”, który ułatwia rozmowy między terapeutami a ubezpieczycielami healthcare-brew.com. Te narzędzia mają usprawnić zadania administracyjne i personalizować opiekę, ilustrując rosnącą rolę SI w doświadczeniu pacjentów.
Sztuczna inteligencja przyspiesza także odkrywanie leków. Na początku czerwca MIT i firma biotechnologiczna Recursion wypuściły Boltz-2 – otwartoźródłowy model AI wspierający badania farmaceutyczne healthcare-brew.com. Boltz-2 przewiduje skuteczność proponowanych małocząsteczkowych leków, pomagając naukowcom projektować skuteczniejsze medykamenty. Dzięki udostępnieniu tego narzędzia jako open source, badacze liczą na przyspieszenie rozwoju leków w całej branży. To jedna z wielu inicjatyw, w których AI jest wykorzystywana do analizy danych biochemicznych i odkrywania nowych terapii szybciej oraz niższym kosztem.
Obrona, bezpieczeństwo i nadużycia AI
Wpływ AI na bezpieczeństwo narodowe i przestępczość pojawiał się w nagłówkach – w sposób zarówno strategiczny, jak i niepokojący. W rejonie konfliktu w Europie Wschodniej pojawiły się doniesienia, że Ukraina użyła rojów dronów wspomaganych AI podczas tajnej operacji przeciwko celnemu celowi wojskowemu. Misja o kryptonimie „Operacja Pajęcza Sieć” wykorzystała półautonomiczne drony atakujące rosyjski bombowiec dalekiego zasięgu, a każdy z tych dronów miał kosztować jedynie tyle, co iPhone crescendo.ai. Jeśli to się potwierdzi, będzie to oznaczać nową erę tanich, napędzanych AI działań wojennych, w których relatywnie tania broń autonomiczna może stanowić wyzwanie dla kosztownych aktywów wojskowych. Analitycy obronni wskazują, że może to przekształcić taktykę wojskową, dzięki precyzyjnym uderzeniom dronów sterowanych AI bez narażania pilotów i potencjalnie dać przewagę mniejszym siłom asymetrycznym.
Zachodnie firmy technologiczne są również coraz bardziej zaangażowane w sektor obronny. Meta (spółka-matka Facebooka) rzekomo opracowuje inteligentne gogle bojowe z rozszerzoną rzeczywistością dla armii USA crescendo.ai. Te specjalne zestawy AR mają dostarczać żołnierzom bieżące dane z pola walki oraz wsparcie decyzyjne dzięki AI, łącząc konsumencką technologię AR z wojskowymi potrzebami. Projekt – o ile się powiedzie – pokazuje, jak Big Tech wkracza do branży obronnej, zacierając granice między Doliną Krzemową a Pentagonem. Odzwierciedla to także rosnące zainteresowanie wojska zaawansowaną sztuczną inteligencją (np. wizją komputerową i AR), by poprawić świadomość sytuacyjną i komunikację żołnierzy w terenie.
Na froncie bezpieczeństwa wewnętrznego AI jest wykorzystywana zarówno do walki z przestępczością, jak i popełniania nowych przestępstw. W Kanadzie szpital w Nowej Szkocji zainstalował przy wejściach system detekcji broni oparty na AI, by zapobiegać przemocy crescendo.ai. System ten wykorzystuje wizję komputerową do wykrywania w czasie rzeczywistym broni palnej lub noży u odwiedzających, umożliwiając nieinwazyjną kontrolę i szybkie powiadamianie ochrony. Ten pilotażowy program ma poprawić bezpieczeństwo szpitali wobec rosnących obaw o przemoc w środowisku opieki zdrowotnej i pokazuje, jak AI może wspierać bezpieczeństwo publiczne bez tradycyjnych bramek wykrywających metale.
Z drugiej strony niepokojący przypadek z USA ukazał mroczne oblicze AI w przestępczości: 17-latek padł ofiarą szantażu seksualnego typu “AI sextortion”. Przestępcy wygenerowali fałszywe nagie zdjęcia chłopaka przy pomocy AI i szantażowali go przez SMS-y – atak psychologiczny, który niestety doprowadził do samobójstwa nastolatka w lutym. W czerwcu, po publicznym oburzeniu, amerykańscy senatorowie zainicjowali ustawę “Take It Down Act”, mającą walczyć z nadużyciem generatywnej AI do szantażu i produkcji treści o charakterze seksualnym crescendo.ai. Proponowane prawo wzmocniłoby kary za szantaż seksualny wspomagany AI i usprawniłoby proces usuwania nielegalnych obrazów generowanych przez AI. To tragiczne wydarzenie i następująca po nim ponadpartyjna reakcja podkreślają pilną potrzebę zabezpieczeń przed nadużyciami AI w cyberprzestępczości.
Wielkie ruchy biznesowe i wojny o talenty w AI
Biznes AI w czerwcu 2025 roku określały olbrzymie inwestycje, przetasowania kadrowe i strategiczne sojusze, podczas gdy firmy rywalizowały o przywództwo w rozwijającej się gospodarce AI. Być może najbardziej zdumiało oskarżenie Sama Altmana, że Meta próbuje przechwycić czołowych inżynierów OpenAI, oferując 100 milionów dolarów premii na start winbuzzer.com. W wywiadzie z połowy czerwca CEO OpenAI stwierdził, że Meta (spółka-matka Facebooka) oferuje astronomiczne pakiety wynagrodzeń, by przejąć jego najlepszych pracowników – w reakcji na medialne doniesienia o trudnościach Mety w nadążaniu za rozwojem AI. „Meta uważa nas za swojego największego konkurenta”, komentował Altman, zauważając, że według jego wiedzy żaden z jego „najlepszych ludzi” nie przyjął tych ofert winbuzzer.com winbuzzer.com. Te zarzuty bez ogródek obnażają ostry konflikt o talenty w AI, gdzie doświadczeni badacze są dziś prawdopodobnie tak cenni jak gwiazdy sportu, a ich kontrakty sięgają dziewięciu cyfr.
Agressive rekrutacje Mety zbiegają się z jej ogromnymi wydatkami na dogonienie technologiczne. W połowie czerwca firma zainwestowała 14 miliardów dolarów za 49% udziałów w Scale AI – czołowej firmie zajmującej się znakowaniem danych winbuzzer.com. Ta transakcja, równoważna zakupowi połowy kluczowego “rurociągu danych” AI, została połączona z nominowaniem założyciela Scale na szefa nowego zespołu „superinteligencji” w Meta winbuzzer.com. To odważny krok mający na celu pozyskanie większej ilości danych treningowych i talentów. Jednak już po jednym dniu pojawiły się doniesienia, że Google (jeden z największych klientów Scale) planuje zerwać współpracę, obawiając się, że udział Mety zaburzy neutralność Scale winbuzzer.com. To pokazuje, jak największe laboratoria AI dziś walczą o dane i kadry jako kluczowe aktywa, nawet kosztem relacji branżowych. Podkreśla też niebotyczne koszty: najnowsze analizy szacują, że trenowanie zaawansowanych modeli AI kosztuje obecnie 100–200 milionów dolarów za model winbuzzer.com. W tym kontekście wydawanie miliardów czy oferowanie 100 mln dolarów pojedynczemu badaczowi staje się przemyślanym (choć oszałamiającym) zakładem na przyszłą dominację.
W tej wyścigowej atmosferze pojawiają się nowi gracze i nowe sojusze. Była CTO OpenAI Mira Murati wzbudziła sensację, pozyskując 2 miliardy dolarów na inwestycję swojego nowego projektu, Thinking Machines Lab, wycenianego na imponujące 10 miliardów crescendo.ai. Wspierany przez czołowe fundusze VC start-up chce budować zaawansowane agentowe systemy AI do autonomicznego rozumowania i podejmowania decyzji, co pokazuje wiarę inwestorów w kolejną generację AI – wykraczającą poza chatboty. Na rynku korporacyjnym indyjski gigant IT TCS nawiązał współpracę z Microsoftem, by przeszkolić 100 tysięcy pracowników w zakresie usług Azure OpenAI i tworzyć rozwiązania biznesowe opierające się na AI crescendo.ai. W branży edukacyjnej brytyjski wydawca Pearson połączył siły z Google, aby wprowadzić do szkół funkcje AI wspierające nauczanie. Wieloletnia umowa pozwala wykorzystać modele AI Google do tworzenia spersonalizowanych narzędzi edukacyjnych dostosowujących się do każdego ucznia i pomagających nauczycielom śledzić postępy reuters.com reuters.com. CEO Pearson powiedział, że AI pozwoli odejść od jednolitych lekcji na rzecz ścieżek edukacyjnych dopasowanych do każdego dziecka reuters.com. Te kolaboracje pokazują, jak tradycyjne branże otwierają się na AI poprzez sojusze oraz jak projekty AI przyciągają rekordowe finansowanie w różnych sektorach.
Nawet podstawowe sojusze sprzętowe ulegają zmianie. W zaskakującym zwrocie OpenAI zaczęła wynajmować zasoby chipów AI od konkurencyjnego Google, aby zasilać ChatGPT i inne usługi reuters.com. Źródło Reuters potwierdziło, że OpenAI, znana głównie z korzystania z chmury Microsoft Azure i procesorów Nvidia, teraz także wykorzystuje zaawansowane TPU (Tensor Processing Unit) Google poprzez Google Cloud reuters.com reuters.com. To pierwszy znaczący przypadek użycia przez OpenAI procesorów innych niż Nvidia i rzadka współpraca między dwoma rywalizującymi gigantami AI. To układ korzystny dla obu: OpenAI zyskuje dodatkową moc obliczeniową (potencjalnie w niższej cenie) do zaspokojenia rosnącego popytu, zaś Google pozyskuje prestiżowego klienta na swoje TPUs (które oferuje także Apple, Anthropic czy innym) reuters.com reuters.com. Pokazuje to też, że nawet najwięksi gracze w AI czasem muszą współpracować za kulisami, by przezwyciężyć braki chipów i ograniczenia infrastruktury w wyścigu o skalowanie rozwiązań AI.
Wpływ AI na rynek pracy stał się również kluczowym tematem. Amazon trafił na nagłówki gazet po otwartym przyznaniu, że generatywna sztuczna inteligencja wyeliminuje część stanowisk biurowych w firmie. CEO Andy Jassy ogłosił, że postępy w dziedzinie AI i automatyzacji najprawdopodobniej zredukują liczbę pracowników korporacyjnych Amazona w nadchodzących latach crescendo.ai. Zwrócił uwagę, że wiele stanowisk zostanie zastąpionych przez systemy napędzane AI, lecz inne będą ewoluować i wymagać od pracowników przekwalifikowania się oraz współpracy z AI crescendo.ai. Amazon zachęcił swoją kadrę do korzystania z narzędzi AI i udziału w szkoleniach, wpisując się w szerszy trend restrukturyzacji firm i przekwalifikowania pracowników przez rozwój AI. To szczere przyznanie następuje po podobnych działaniach w mediach (na przykład Insider ostatnio zwolnił 21% personelu, jednocześnie inwestując w generowanie treści AI) i podkreśla, jak AI przekształca rynki pracy. Jak ujął to bez ogródek CEO Nvidii Jensen Huang pod koniec maja: “Stracisz swoją pracę na rzecz kogoś, kto używa AI” – ostrzegając, że ci, którzy się nie dostosują, zostaną w tyle crescendo.ai.
Etyka AI, polityka i nadzór
Wraz z szybkim rozwojem AI, etyka i regulacje były gorącymi tematami czerwca. Koalicja organizacji na rzecz odpowiedzialności branży technologicznej rozpoczęła inicjatywę „The OpenAI Files”, mającą na celu rzucenie światła na tajemniczy start-up, który zapoczątkował boom generatywnej AI. Projekt prowadzony przez Midas Project i Tech Oversight Project gromadzi dokumentację dotyczącą zarządzania i kwestii etycznych w OpenAI – od jej odejścia od korzeni non-profit do statusu firmy nastawionej na zysk, po podejście do kwestii bezpieczeństwa i wpływ inwestorów techcrunch.com techcrunch.com. Inicjatywa ta wzywa do większej przejrzystości i odpowiedzialności w dążeniu firm do stworzenia sztucznej inteligencji ogólnej. Podkreśla obawy, że presja zysku doprowadziła do „pochopnej oceny bezpieczeństwa” i „kultury lekkomyślności” w OpenAI techcrunch.com. Co ciekawe, przywoływane są tam nawet poprzednie wewnętrzne kryzysy – jak próba obalenia CEO Sama Altmana przez pracowników w 2023 roku – jako dowód na to, że przywództwo w AI nie jest wolne od problemów. „Nie sądzę, by Sam powinien mieć palec na przycisku AGI,” miał powiedzieć były dyrektor ds. badań Ilya Sutskever techcrunch.com. Choć OpenAI kwestionuje wiele z tych opisów, fakt, że organizacje strażnicze publikują „teczki” na temat firm AI, świadczy o narastającym zapotrzebowaniu na nadzór w wyścigu AI.
Podobnie, grupa byłych pracowników OpenAI opublikowała list, oskarżając firmę o poświęcanie bezpieczeństwa na rzecz szybkości i zysku crescendo.ai. Twierdzą oni, że kierownictwo ignorowało wewnętrzne obawy etyczne, a nawet mściło się na tych, którzy podnosili alarmujące kwestie. Sygnaliści apelują o silniejszą ochronę dla badaczy AI, którzy zabierają głos, i wzywają regulatorów do pociągania firm AI do odpowiedzialności. Daje to paliwo trwającym debat w Waszyngtonie i Brukseli na temat regulacji rozwoju AI bez tłumienia innowacji. Rzeczywiście, w USA głosy po obu stronach sceny politycznej podkreślają znaczenie przywództwa w AI i bezpieczeństwa. Jeden z doradców technologicznych byłego prezydenta Trumpa ostrzegł, że Stany Zjednoczone mogą stracić przewagę w AI na rzecz Chin w ciągu dekady, jeśli nie będą działać bardziej zdecydowanie crescendo.ai. Tymczasem w Kongresie komisje przeprowadziły przesłuchania dotyczące zagrożeń płynących z AI – od deepfake’ów po utratę miejsc pracy – badając nowe przepisy regulujące użycie tej technologii.
Europa z kolei stoi u progu wprowadzenia pierwszego na świecie szerokiego prawa dotyczącego AI – nie obyło się jednak bez ostatniej fali kontrowersji. Przełomowy AI Act UE, kompleksowe ramy regulacyjne dla sztucznej inteligencji, mają wejść w życie od sierpnia 2025 roku. Wraz ze zbliżającym się terminem, organizacje branżowe alarmują, że zarówno firmy, jak i instytucje nie są gotowe. Pod koniec czerwca stowarzyszenie Computer & Communications Industry Association (CCIA) Europe wezwało unijnych liderów do wstrzymania wdrożenia AI Act ccianet.org. „Europa nie może przewodzić AI, mając jedną nogę na hamulcu,” powiedział Daniel Friedlaender z CCIA, ostrzegając, że skoro kluczowe wytyczne wciąż są niesprecyzowane na kilka tygodni przed wejściem przepisów, pośpieszne wdrożenie może „całkowicie zahamować innowacje” ccianet.org. Przedstawiciele UE przyznają, że pojawiają się pewne wyzwania – na przykład szczegółowe standardy dla wybranych, „wysokiego ryzyka” systemów AI są opóźnione – lecz jak dotąd nie ma oznak zmiany harmonogramu. AI Act nałoży wymagania na systemy AI uznane za „wysokiego ryzyka” (np. w ochronie zdrowia czy transporcie) i nawet zabroni niektórych praktyk, jak nadzór biometryczny w czasie rzeczywistym. Unijni regulatorzy tworzą również biuro AI oraz panel ekspertów do nadzoru nad egzekucją przepisów. To, jak ściśle UE będzie egzekwować nowe zasady i w jaki sposób dostosują się do nich firmy, będzie warte uważnego obserwowania przez najbliższe miesiące.
Nasiliły się również batalie prawne dotyczące AI. W USA OpenAI toczy sądową batalię z The New York Times o prawa autorskie i prywatność. W czerwcu sąd federalny nakazał OpenAI zachować wszystkie logi wyjściowe ChatGPT związane ze sprawą – nawet te, których użytkownicy żądali usunięcia i nawet jeśli przepisy o ochronie danych domagałyby się kasowania adweek.com. To nietypowe orzeczenie podkreśla napięcia prawne wokół modeli AI, które były trenowane na ogromnych ilościach tekstów z Internetu (w tym na materiałach prasowych). Pozew Times zarzuca, że wyniki ChatGPT bezprawnie naruszają prawa autorskie do artykułów; żądanie zachowania danych sugeruje, że sąd uznaje „pamięć” chatbota za kluczowy dowód. OpenAI argumentuje, że zmuszanie firmy do zachowania usuniętych przez użytkowników rozmów na potrzeby procesu to nadużycie i planuje apelację adweek.com adweek.com. Poza kwestią praw autorskich, sprawa ta rodzi pytania o prywatność, ponieważ interakcje z ChatGPT często zawierają wrażliwe dane użytkowników. Sam Altman skomentował, że zastosowanie się do nakazu narusza prywatność użytkowników i określił to jako „szalone nadużycie” ze strony gazety adweek.com. Wynik tego sporu może ustalić ważne precedensy dotyczące tego, jak firmy AI mają postępować z danymi użytkowników i własnością intelektualną.
AI w społeczeństwie: empatia i nieoczekiwane zastosowania
Poza głośnymi transakcjami i innowacjami, czerwiec 2025 przyniósł również wgląd w wpływ AI na społeczeństwo i niektóre niszowe zastosowania. W jednym zaskakującym badaniu naukowcy odkryli, że AI może przewyższać ludzi w postrzeganej empatii. Eksperyment psychologiczny wykazał, że uczestnicy badania ocenili odpowiedzi generowane przez AI na osobiste zwierzenia jako bardziej troskliwe i empatyczne niż odpowiedzi innych ludzi crescendo.ai. Choć AI oczywiście nie odczuwa emocji, okazuje się, że zaawansowane modele językowe potrafią skutecznie naśladować język empatii – tak bardzo, że ludzie czasem wolą uspokajające słowa chatbota. Wynik ten rodzi fascynujące pytania o to, jak ludzie postrzegają empatię i czy AI mogłaby odgrywać rolę w poradnictwie lub wsparciu emocjonalnym. Jednocześnie jest to sygnał ostrzegawczy, że ludzie mogą przywiązywać się do „przyjaciół” czy terapeutów AI – podkreślając potrzebę etycznego stosowania tych systemów w wrażliwych sytuacjach.
W dziedzinie ochrony przyrody AI pokazała swoje możliwości jako siła dobra. Gigant technologiczny Microsoft ogłosił, że jego narzędzia AI wspomagają działania mające na celu ratowanie zagrożonych wyginięciem żyraf w Afryce crescendo.ai. Ochroniarze przyrody korzystają z modeli wizyjnych firmy Microsoft do analizy nagrań z dronów i kamer, automatycznie identyfikując i śledząc żyrafy na rozległych obszarach rezerwatów. Umożliwia to dokładne liczenie populacji i analizę wzorców poruszania się, pomagając organizacjom chronić te zwierzęta przed kłusownictwem i utratą siedlisk. To budujący przykład, jak te same technologie AI, które napędzają biznes, mogą zostać wykorzystane do rozwiązywania problemów środowiskowych. Od monitorowania zdrowia lasów deszczowych po oczyszczanie oceanów – takie projekty „AI for Good” rozmnażają się, pokazując alternatywę dla katastroficznych narracji, udowadniając, że AI może wspierać rozwiązywanie ludzkich i ekologicznych wyzwań.
Podsumowując, czerwiec 2025 roku pokazał, jak głęboko i szeroko AI przekształca świat. Widzieliśmy najnowocześniejsze modele AI przesuwające granice kreatywności i technologii, roboty stające się coraz mądrzejsze i bardziej użyteczne oraz sztuczną inteligencję wkraczającą do kluczowych dziedzin – od opieki zdrowotnej po działania wojenne. Giganci branży inwestowali miliardy w AI, mimo rosnących obaw o etykę, bezpieczeństwo i regulacje. Zaskakujące historie miesiąca – czy to rój dronów AI na polu bitwy, tragiczne oszustwo oparte o AI, czy chatbot wykazujący “serce” – podkreślają, że skutki AI nie są już teoretyczne ani ograniczone do branży technologicznej; są obecne, globalne i bardzo realne. Politycy i społeczeństwo starają się nadążyć za tempem zmian. W miarę jak rewolucja AI wkracza w drugą połowę 2025 roku, świat obserwuje, czy uda się wykorzystać korzyści i zapanować nad ryzykami w sposób, który zdefiniuje przyszłość na lepsze.
Źródła:
- Plany GPT-5 OpenAI i wypowiedzi Altmana adweek.com adweek.com; premiera modelu wideo Midjourney crescendo.ai; open-source’owe udostępnienie modelu MiniMax M1 winbuzzer.com; opóźnienia Meta LLaMA winbuzzer.com.
- Ogłoszenie Gemini Robotics On-Device przez Google DeepMind deepmind.google deepmind.google; Reuters – humanoidalne roboty Foxconn/Nvidia w fabryce reuters.com reuters.com; AI grający w badmintona crescendo.ai.
- Nowości AI w ochronie zdrowia od Healthcare Brew (LLM „Elsa” FDA, polityka AMA) healthcare-brew.com healthcare-brew.com; MIT/Recursion Boltz-2 AI do odkrywania leków healthcare-brew.com.
- Historia dronów AI w operacji „Pajęcza Sieć” crescendo.ai; AI do wykrywania broni w szpitalu w Nowej Szkocji crescendo.ai; sprawa i ustawa o sextortingu AI crescendo.ai; raport o militarnych okularach AR Meta crescendo.ai.
- Winbuzzer – Altman kontra Meta wojnę o talenty (oskarżenia o podkupywanie) winbuzzer.com; inwestycja Meta $14 mld w Scale AI winbuzzer.com; odpowiedź Google winbuzzer.com; dane Epoch AI o kosztach treningu winbuzzer.com; finansowanie startupu Miry Murati crescendo.ai; cięcia zatrudnienia w Amazon z powodu AI crescendo.ai; partnerstwo edukacyjne Pearson-Google reuters.com reuters.com; Reuters – OpenAI wynajmuje Google TPU reuters.com reuters.com.
- TechCrunch – projekt nadzoru “OpenAI Files” techcrunch.com techcrunch.com; cytat Ilyi Sutskevera techcrunch.com; list byłych pracowników OpenAI (AI News) crescendo.ai; ostrzeżenie doradcy Trumpa (Fox Business) crescendo.ai; CCIA o wstrzymaniu wdrożenia AI Act w UE ccianet.org; Reuters – decyzja ws. zachowania danych NYT przez OpenAI adweek.com adweek.com.
- Badanie empatii (Neuroscience News) crescendo.ai; Microsoft AI ratuje zagrożone żyrafy crescendo.ai.