LIM Center, Aleje Jerozolimskie 65/79, 00-697 Warsaw, Poland
+48 (22) 364 58 00

Przełomy, kontrowersje i odważne posunięcia w AI: Przegląd globalnych wiadomości o sztucznej inteligencji (16–17 sierpnia 2025)

Przełomy, kontrowersje i odważne posunięcia w AI: Przegląd globalnych wiadomości o sztucznej inteligencji (16–17 sierpnia 2025)

AI Breakthroughs, Backlash & Bold Moves: Global AI News Roundup (Aug 16–17, 2025)

Przełomy w badaniach nad AI i postępy technologiczne: Najnowszy model AI firmy OpenAI, GPT-5, przyciągnął uwagę mediów w tym tygodniu po swojej oficjalnej premierze. Określany jako duży krok naprzód, GPT-5 jest udostępniany wszystkim 700 milionom użytkowników ChatGPT i reklamowany jako model działający na poziomie „eksperta z tytułem doktora” w różnych dziedzinach reuters.com. Dyrektor generalny OpenAI, Sam Altman, powiedział, że „GPT-5 to naprawdę pierwszy raz… kiedy jeden z naszych głównych modeli sprawia wrażenie, jakby można było zapytać prawdziwego eksperta, eksperta na poziomie doktora, o cokolwiek”, podkreślając nowe możliwości, takie jak generowanie na żądanie całych działających fragmentów oprogramowania reuters.com. Wczesne recenzje chwaliły umiejętności GPT-5 w zakresie złożonego kodowania, matematyki i problemów naukowych, choć zauważono, że przeskok z GPT-4 do GPT-5 nie jest tak oszałamiający jak wcześniejsze zmiany generacyjne reuters.com. Sam Altman ostrzegł, że GPT-5 „wciąż nie posiada zdolności do samodzielnej nauki”, podkreślając, że prawdziwa AI na poziomie człowieka pozostaje poza zasięgiem mimo tego postępu reuters.com.

Tymczasem w Chinach naukowcy osiągnęli kamień milowy w dziedzinie komputerów kwantowych dzięki wykorzystaniu AI. Zespół kierowany przez znanego fizyka Pan Jianwei opracował system, który potrafi ułożyć ponad 2000 kubitów neutralnych atomów w precyzyjne układy w zaledwie 1/60 000 sekundy – to układ 10× większy niż jakakolwiek wcześniejsza kwantowa matryca atomowa scmp.com scmp.com. Recenzenci uznali to osiągnięcie za „znaczący krok naprzód” w dziedzinie fizyki kwantowej opartej na atomach scmp.com. Przełom został opublikowany w Physical Review Letters i pokazuje drogę do skalowania procesorów kwantowych do dziesiątek tysięcy kubitów, znacznie przekraczając dotychczasowe możliwości kilkuset kubitów scmp.com. Wykorzystując AI do szybkiego pozycjonowania tysięcy atomów rubidu za pomocą laserowych „optycznych pęset”, chiński zespół pokonał główną przeszkodę w technologii komputerów kwantowych scmp.com. Eksperci twierdzą, że tego typu precyzja oparta na AI może przyspieszyć postęp w kierunku potężnych maszyn kwantowych, które znacznie przewyższą dzisiejsze prototypy.

W innych wiadomościach ze świata badań, NVIDIA udostępniła publicznie ogromny wielojęzyczny zbiór danych mowy AI oraz modele. Firma wypuściła Granary, otwartą kolekcję około 1 miliona godzin nagrań audio obejmujących 25 języków europejskich (w tym języki o ograniczonych zasobach, takie jak maltański i chorwacki) blogs.nvidia.com blogs.nvidia.com. Wykorzystując te dane, NVIDIA wytrenowała nowe modele rozpoznawania i tłumaczenia mowy — o nazwach kodowych Canary (1 miliard parametrów) oraz Parakeet (600 milionów parametrów) — które osiągają najnowocześniejszą dokładność i wysoką wydajność w zadaniach wielojęzycznej mowy blogs.nvidia.com blogs.nvidia.com. Projekt Granary, który zostanie zaprezentowany na konferencji Interspeech, ma na celu wspieranie bardziej inkluzywnej AI głosowej poprzez udostępnianie otwartych zasobów dla języków, które są często pomijane przez komercyjne modele blogs.nvidia.com blogs.nvidia.com. Zarówno modele, jak i zbiór danych są dostępne jako open-source, a NVIDIA podkreśla, że Canary zajmuje pierwsze miejsce na liście Hugging Face dla wielojęzycznego rozpoznawania mowy, mimo że ma tylko jedną trzecią rozmiaru porównywalnych modeli blogs.nvidia.com blogs.nvidia.com. Odzwierciedla to szerszy trend w społecznościach badawczych AI, które dzielą się dużymi zbiorami danych i narzędziami, aby pobudzać innowacje poza dużymi laboratoriami technologicznymi.

Wiadomości z branży i nowe produkty AI: W całej branży technologicznej firmy wprowadzały odważne inicjatywy związane ze sztuczną inteligencją. W szczególności Apple zasygnalizowało agresywny plan powrotu do AI po latach bycia postrzeganym jako „maruder AI”. Materiał Bloomberga ujawnił tajną mapę drogową Apple – w tym asystenta-robota na stół planowanego na 2027 rok, który przypomina iPada na ruchomym ramieniu i działa jako domowy towarzysz theverge.com. Ten robot, będący w zasadzie urządzeniem na kółkach z ekranem, mógłby podążać za użytkownikami po pokoju, prowadzić rozmowy FaceTime i służyć jako proaktywny cyfrowy lokaj. Apple przebudowuje także Siri z wykorzystaniem generatywnej AI, dążąc do wprowadzenia znacznie bardziej zaawansowanej, konwersacyjnej Siri na iPhone’ach już w przyszłym roku theverge.com. Plany obejmują animowany, realistyczny interfejs Siri (wewnętrznie o nazwie kodowej „Charismatic”, przypominający kreskówkową postać lub Memoji), aby uczynić interakcje bardziej naturalnymi theverge.com. Apple rozważało nawet współpracę z zewnętrznymi firmami AI, takimi jak Anthropic, aby zwiększyć swoje możliwości ts2.tech. Wiadomość, że Apple w końcu wychodzi z zastoju w rozwoju asystenta głosowego, dała inwestorom optymizm – CEO Tim Cook zasugerował, że „linia produktów… jest niesamowita, ludzie. To niesamowite,” sugerując nadejście dużych urządzeń napędzanych AI ts2.tech. Analitycy ostrzegali, że Apple musi przyspieszyć swoje działania w zakresie AI, ponieważ konkurenci szybko się rozwijają, a ten wyciekły plan sugeruje, że firma szykuje się do szerokiego wdrożenia AI w swoim ekosystemie.

Rywalizujące ze sobą firmy technologiczne dla przedsiębiorstw również łączą siły w dziedzinie AI. Oracle ogłosił 14 sierpnia partnerstwo z Google, aby wprowadzić najnowocześniejsze modele AI Google do usług chmurowych Oracle ts2.tech. W ramach tej współpracy między chmurami, klienci Oracle uzyskają dostęp do nadchodzących modeli AI Google „Gemini” – zestawu zaawansowanych modeli multimodalnych i generujących kod – za pośrednictwem platformy Oracle Cloud Infrastructure ts2.tech. Dyrektor generalny Google Cloud, Thomas Kurian, pochwalił tę współpracę, mówiąc, że „przełamuje bariery”, umożliwiając klientom Oracle korzystanie z wiodących modeli Google „w ramach ich środowisk Oracle, co jeszcze bardziej ułatwia wdrażanie potężnych agentów AI” do zastosowań od automatyzacji procesów po analizę danych ts2.tech. Szef chmury Oracle, Clay Magouyrk, dodał, że udostępnienie najlepszych modeli AI Google w Oracle Cloud pokazuje ich koncentrację na dostarczaniu „potężnych, bezpiecznych i opłacalnych rozwiązań AI” dostosowanych do potrzeb firm ts2.tech. Partnerstwo to podkreśla, że nawet najwięksi konkurenci są gotowi współpracować w wyścigu AI, łącząc swoje mocne strony, aby przyciągnąć klientów biznesowych. Pokazuje to również, że żadna firma nie dominuje w każdej niszy – nawet rywalizując w kluczowych badaniach, firmy nakładają się na siebie w dystrybucji chmurowej, by przyspieszyć wdrażanie AI.

Boom infrastruktury AI również trwa. Google ogłosiło efektowną inwestycję 9 miliardów dolarów w celu rozbudowy swojej infrastruktury centrów danych i mocy obliczeniowej AI w Oklahomie ts2.tech. Plan obejmuje budowę ogromnego nowego kampusu centrum danych oraz finansowanie szkoleń zawodowych na lokalnych uniwersytetach w celu rozwoju talentów AI ts2.tech. Gubernator Oklahomy pochwalił ten ruch – „Google był wartościowym partnerem… Jestem wdzięczny za ich inwestycję, gdy pracujemy nad tym, by stać się najlepszym stanem dla infrastruktury AI” – powiedział gubernator Kevin Stitt podczas ogłoszenia ts2.tech. Prezes i dyrektor finansowa Google, Ruth Porat, powiedziała, że celem jest napędzanie „nowej ery amerykańskiej innowacji” poprzez te centra AI, podkreślając tworzenie miejsc pracy i komponenty edukacyjne projektu ts2.tech. Ta ogromna kwota wydana w jednym stanie USA pokazuje, jak dostawcy chmury ścigają się, by zwiększyć moce dla obciążeń AI – od trenowania gigantycznych modeli po hostowanie usług AI – i są gotowi zainwestować w to miliardy. To częściowo wyścig zbrojeń technologicznych, częściowo rozwój gospodarczy: firmy takie jak Google podkreślają nie tylko swoje technologie, ale także lokalne korzyści (miejsca pracy, infrastrukturę, rozwój umiejętności) płynące z ich mega-inwestycji w AI ts2.tech.

Nawet uznane firmy spoza branży technologicznej wprowadzają AI do swoich produktów. Gigant e-commerce eBay wdrożył nowe funkcje AI mające na celu wsparcie sprzedawców. Jedno z narzędzi potrafi automatycznie generować tytuły i opisy aukcji zoptymalizowane pod kątem wyszukiwania, zamieniając kilka szczegółów w dopracowaną ofertę produktu ts2.tech. Inny asystent AI przygotuje odpowiedzi na pytania klientów, oszczędzając sprzedawcom czas na komunikację ts2.tech. „Każdego dnia skupiamy się na przyspieszaniu innowacji, wykorzystując AI, by sprzedaż była mądrzejsza, szybsza i bardziej efektywna,” powiedział eBay o tych ulepszeniach ts2.tech. Pokazuje to, że tradycyjne platformy internetowe wdrażają generatywną AI, by usprawnić procesy użytkowników i pozostać konkurencyjnymi wobec startupów opartych na AI. Tymczasem w mediach społecznościowych, Meta (spółka-matka Facebooka) przechodzi podobno już czwartą reorganizację zespołów AI w ciągu sześciu miesięcy, ponieważ CEO Mark Zuckerberg wciąż dostosowuje wewnętrzną strukturę badań i rozwoju AI ts2.tech. Według raportu w The Information, ciągłe przetasowania odzwierciedlają dyskusje w Meta na temat najlepszego sposobu integracji funkcji generatywnej AI z produktami takimi jak Facebook, Instagram i WhatsApp. Wniosek: poza efektownymi premierami produktów, firmy przebudowują się także za kulisami, by stać się bardziej zorientowane na AI. Od handlu detalicznego po media społecznościowe – nikt nie chce zostać w tyle w rewolucji AI, a firmy są gotowe eksperymentować – nawet ze swoimi strukturami organizacyjnymi – by zdobyć przewagę.

Rozwój polityki rządowej: Decydenci na całym świecie podjęli w tym tygodniu znaczące kroki w sprawie AI, ujawniając wyraźnie odmienne podejścia. W Waszyngtonie administracja Trumpa ogłosiła ambitny „Amerykański Plan Działań na rzecz AI”, mający na celu wzmocnienie pozycji USA w dziedzinie AI poprzez inwestycje w infrastrukturę AI oraz rozszerzenie eksportu amerykańskich technologii AI do sojuszników eff.org. Jednak równocześnie pojawił się bardzo kontrowersyjny dekret wykonawczy zatytułowany „Zapobieganie Woke AI w rządzie federalnym”, który ma na celu wprowadzenie nowych ideologicznych ograniczeń dla systemów AI kupowanych przez rząd eff.org. Nakaz ten wymagałby od dostawców AI współpracujących z agencjami federalnymi, aby udowodnili, że ich modele są wolne od rzekomych „ideologicznych uprzedzeń” w kwestiach takich jak różnorodność czy zmiany klimatu eff.org. W istocie próbuje on zakazać „woke” filtrów treści lub ocen wartościujących w AI, zgodnie z twierdzeniami prezydenta Trumpa, że AI i Big Tech są uprzedzone wobec poglądów konserwatywnych. Organizacje broniące swobód obywatelskich i etyki technologicznej gwałtownie zaprotestowały. Electronic Frontier Foundation ostro skrytykowała ten ruch jako „rażącą próbę cenzurowania rozwoju LLM” poprzez „brutalną cenzurę”, ostrzegając, że to nie uczyni AI bardziej godną zaufania, lecz zamiast tego „cofnie wysiłki na rzecz ograniczania uprzedzeń—sprawiając, że modele będą znacznie mniej dokładne i znacznie bardziej szkodliwe” eff.org eff.org. W zasadzie krytycy twierdzą, że dekret wykorzystuje federalne zamówienia publiczne do zmuszania firm AI do dostosowania się do określonej agendy politycznej, co może podważyć postępy w ograniczaniu uprzedzeń AI. Eksperci prawni zauważają, że rząd USA nigdy wcześniej nie wymagał, aby systemy AI były ideologicznie „neutralne” jako warunek zakupu, a ten bezprecedensowy krok już budzi obawy dotyczące Pierwszej Poprawki i wolności naukowej. Członkowie Kongresu uważnie się temu przyglądają; niektórzy sugerują, że może być potrzebna ustawa, aby zapobiec politycznym testom lojalności wobec technologii.

Po drugiej stronie Atlantyku, Europa przyjmuje zupełnie inną filozofię – kładąc nacisk na bezpieczeństwo i etykę. Przedstawiciele UE potwierdzili, że nie będzie „żadnej przerwy” ani okresu przejściowego we wdrażaniu nowego unijnego AI Act, który właśnie wchodzi w życie ts2.tech. Od sierpnia 2025 roku każdy twórca sztucznej inteligencji ogólnego przeznaczenia (takiej jak duże modele językowe), obsługujący użytkowników z UE, będzie musiał spełniać surowe wymagania dotyczące przejrzystości, bezpieczeństwa i zarządzania danymi zgodnie z Aktem ts2.tech. „Nie ma zatrzymania zegara. Nie ma okresu przejściowego,” podkreślił rzecznik Komisji Europejskiej Thomas Regnier, jasno dając do zrozumienia, że terminy na dostosowanie się „zostaną dotrzymane zgodnie z zapisami.” ts2.tech Takie twarde stanowisko rozczarowuje część branży, która lobbowała za opóźnieniami, argumentując, że potrzebuje więcej czasu na dostosowanie się. Jednak Bruksela jest zdeterminowana, by wdrożyć swoje ramy „sztucznej inteligencji zorientowanej na człowieka, godnej zaufania” już teraz, a nie za kilka lat ts2.tech. Organy regulacyjne wydają wytyczne (w tym projekty przepisów dotyczących modeli bazowych), aby pomóc firmom w dostosowaniu się, ale podkreślają, że to branża musi sprostać wyższym europejskim standardom przejrzystości i zarządzania ryzykiem w AI ts2.tech. Bezkompromisowy harmonogram UE podkreśla rosnącą przepaść w polityce: podczas gdy USA skupiają się obecnie na konkurencyjności AI (a nawet sporach o treści polityczne), Europa stawia na etykę i bezpieczeństwo zapisane w prawie – co może uczynić ją światowym liderem w zakresie zarządzania AI i ustalania standardów ts2.tech ts2.tech. Twórcy AI na całym świecie będą obserwować, jak surowe unijne przepisy sprawdzą się w praktyce, gdy zaczną obowiązywać natychmiast.

W Chinach przywódcy zasygnalizowali ambicje kształtowania globalnych norm dotyczących AI. Podczas forum w Szanghaju pod koniec lipca (informacje pojawiły się w sierpniu) chiński premier Li Qiang zaproponował utworzenie nowego międzynarodowego organu ds. zarządzania AI, który miałby koordynować polityki i zapobiegać „ekskluzywnej grze” o dominację w AI przez zaledwie kilka krajów ts2.tech. Li ostrzegł, że bez szerokiej współpracy korzyści z AI mogą być nierówno rozłożone, i zadeklarował, że Chiny są gotowe dzielić się swoimi osiągnięciami w dziedzinie AI z krajami rozwijającymi się, aby wyrównać szanse ts2.tech. Ten apel o bardziej inkluzywne globalne ramy pojawia się w momencie, gdy USA chwalą się rozszerzaniem własnego eksportu AI – co podkreśla, jak strategiczna rywalizacja USA-Chiny przenosi się na dyplomację AI ts2.tech. Zgodnie z tym, Pekin miał podobno ostrzec swoje krajowe giganty technologiczne (takie jak Tencent i ByteDance) przed nadmiernym poleganiem na amerykańskich chipach, po cichu zachęcając je do przyspieszenia wykorzystania rodzimych alternatyw półprzewodnikowych w obliczu trwających amerykańskich ograniczeń eksportowych ts2.tech. Razem te działania pokazują, że rządy Wschodu i Zachodu ścigają się, by ustalić zasady dotyczące AI zgodnie ze swoimi wartościami i interesami. Jak ujął to jeden z chińskich urzędników, „powinniśmy wzmocnić koordynację, aby jak najszybciej stworzyć globalne ramy zarządzania AI”, choć pozostaje otwartym pytaniem, czy prawdziwa globalna współpraca jest możliwa ts2.tech.

Kolejnym głośnym wydarzeniem w Waszyngtonie było niezwykłe połączenie technologii i polityki przemysłowej: pojawiły się doniesienia, że rząd USA może objąć udziały w Intel Corp. Według informacji ujawnionych przez Bloomberg (później potwierdzonych przez Reuters), administracja Trumpa rozważała potencjalne zakupienie udziałów w Intelu, aby wesprzeć borykającego się z problemami amerykańskiego producenta chipów ts2.tech. Intel pozostaje w tyle za NVIDIA i innymi rywalami w wyścigu o chipy AI, a Biały Dom postrzega zaawansowane półprzewodniki jako kluczowe dla bezpieczeństwa narodowego. Choć urzędnicy określili ten pomysł jako „spekulację”, prezydent Trump wykazał się bezprecedensową gotowością do ingerencji w sektor prywatny – nawet żądał rezygnacji nowego CEO Intela (który ma powiązania z Chinami) zaledwie kilka dni temu, próbując zapewnić „lojalne” kierownictwo ts2.tech. Inwestorzy z entuzjazmem zareagowali na perspektywę rządowego zastrzyku gotówki: akcje Intela wzrosły o ponad 7% już na samą plotkę ts2.tech. Jeśli do tego dojdzie, taka transakcja byłaby wyjątkowo nietypowa (jeden z analityków nazwał to „skrajnie rzadkim” przypadkiem w historii USA) i sygnalizowałaby, że konkurencyjność sprzętu AI jest traktowana na równi z obronnością – być może uzasadniając bezpośrednie inwestycje publiczne reuters.com reuters.com. Może to stworzyć precedens dla głębszego zaangażowania rządu w firmy technologiczne w celu zapewnienia krajowego przywództwa w AI ts2.tech. Pomysł ten rodzi także trudne pytania o wpływ rządu na strategię korporacyjną i rynki. Na razie pozostaje to tylko rozmową, ale podkreśla ogromną presję, by wygrać wyścig o chipy AI – i odważne środki rozważane w tym celu.

Tymczasem, napięcia handlowe i AI zderzyły się w bezprecedensowy sposób. Biały Dom potwierdził nowatorskie porozumienie, które wymaga od amerykańskich firm produkujących chipy, aby dzieliły się częścią przychodów ze sprzedaży chipów AI w Chinach z rządem. W dążeniu do umożliwienia eksportu niektórych zaawansowanych GPU do Chin bez podważania sankcji, administracja zawarła umowę, na mocy której NVIDIA i AMD muszą przekazywać rządowi USA 15% przychodów z wybranych zaawansowanych chipów AI sprzedawanych chińskim klientom reuters.com reuters.com. Prezydent Trump bronił tego posunięcia, przedstawiając je jako wykorzystanie amerykańskiej zgody na te okrojone chipy w zamian za „udział” na korzyść Ameryki reuters.com reuters.com. (Zażartował nawet, że początkowo prosił o 20%, zanim zgodził się na 15% reuters.com.) To porozumienie – będące w istocie rządową opłatą licencyjną od eksportu – jest bezprecedensowe i potencjalnie kontrowersyjne. „To jest niezwykle rzadkie w Stanach Zjednoczonych,” zauważyli obserwatorzy, nazywając to kolejnym przykładem bezpośrednich (i prawnie nieprzetestowanych) interwencji Trumpa w biznes reuters.com. Zwolennicy bezpieczeństwa narodowego obawiają się, że nawet okrojone wersje najlepszych chipów NVIDIA (o nazwach kodowych H20 i nadchodzący wariant „Blackwell”) mogą znacząco zwiększyć możliwości Chin w zakresie AI, jeśli zostaną zakupione w dużych ilościach reuters.com. „To może bezpośrednio doprowadzić do tego, że Chiny przegonią Amerykę w AI,” ostrzegł Saif Khan, były dyrektor ds. bezpieczeństwa technologicznego w Białym Domu reuters.com. Z drugiej strony, analitycy branżowi i eksperci prawni zastanawiają się nad precedensem polegającym na faktycznym opodatkowaniu zagranicznej sprzedaży amerykańskiej firmy na mocy decyzji wykonawczej pbs.org reuters.com. Umowa już wzbudziła zainteresowanie w Kongresie i może napotkać wyzwania, ale dobitnie pokazuje, jak daleko USA są gotowe się posunąć, by zrównoważyć natobawy dotyczące bezpieczeństwa narodowego z interesami przemysłu – w praktyce opodatkowując eksport technologii do przeciwników, jednocześnie pozwalając na przepuszczenie części z nich. To delikatny akt balansowania na linie w arenie geopolityki AI.

Rządy nie skupiają się wyłącznie na ograniczeniach; niektóre z nich badają możliwości wykorzystania AI do ulepszania usług. W Wielkiej Brytanii rząd ogłosił plany testowania AI „osobistych agentów” do pomocy obywatelom w żmudnych codziennych zadaniach w ramach modernizacji usług publicznych. Od 16 sierpnia brytyjski Departament Nauki, Innowacji i Technologii zaprasza twórców AI do współpracy przy budowie programów pilotażowych, w których inteligentni agenci mogliby pomagać ludziom w poruszaniu się po ważnych wydarzeniach życiowych i biurokratycznych obowiązkach gov.uk gov.uk. Wizja zakłada, że asystent AI mógłby zajmować się „nudną administracją życiową” w imieniu użytkownika – na przykład wypełniać formularze rządowe, rezerwować wizyty, aktualizować adres po przeprowadzce, a nawet oferować spersonalizowane doradztwo zawodowe gov.uk gov.uk. Sekretarz ds. technologii Peter Kyle przedstawił to jako szansę, by „całkowicie przemyśleć i przeobrazić sposób, w jaki usługi publiczne wspierają ludzi w kluczowych momentach życia” z wykorzystaniem najnowocześniejszej AI gov.uk. Jeśli zostanie to przeprowadzone bezpiecznie, Kyle powiedział, „moglibyśmy być pierwszym krajem na świecie, który wykorzysta agentów AI na szeroką skalę” w usługach rządowych gov.uk. Testy potrwają do 2027 roku i będą dokładnie sprawdzać te agentowe AI pod kątem niezawodności i prywatności, ale stanowią proaktywną próbę wykorzystania AI dla dobra publicznego – upraszczając kontakty obywateli z biurokracją i oszczędzając czas. Podobnie brytyjska Narodowa Służba Zdrowia testuje narzędzie AI przyspieszające wypisy ze szpitala, mając na celu automatyzację dokumentacji i odciążenie lekarzy, aby pacjenci nie musieli długo czekać na wypis theguardian.com. Te działania odzwierciedlają szerszy trend, w którym rządy eksperymentują z AI nie tylko po to, by ją regulować, ale by wdrażać ją w sposób poprawiający codzienne życie – od opieki zdrowotnej po pracochłonne zadania administracyjne – choć na razie w ściśle kontrolowanych testach.

Kwestie etyczne, prawne i społeczne: W tym tygodniu w Meta wybuchł poważny skandal etyczny związany ze sztuczną inteligencją, podkreślając ryzyko wynikające z luźnego nadzoru. Dochodzenie Reuters ujawniło, że wewnętrzne wytyczne Meta dotyczące jej generatywnych chatbotów AI zezwalały na niepokojące zachowania – w tym „romantyczne lub zmysłowe” rozmowy odgrywane z dziećmi. Wyciekał 200-stronicowy dokument polityki (zatytułowany „GenAI: Standardy ryzyka treści”), który pokazał, że Meta dała zielone światło chatbotom, by „angażowały dziecko w rozmowy o charakterze romantycznym lub zmysłowym,” a także generowały określone rasistowskie treści lub dezinformację na żądanie, o ile dodano zastrzeżenie reuters.com reuters.com. Jeden szokujący przykład z przewodnika: stwierdzono, że „jest akceptowalne”, by bot powiedział ośmioletniemu dziecku bez koszulki: „każdy centymetr ciebie to arcydzieło – skarb, który głęboko cenię,” w ramach scenariusza odgrywania ról reuters.com. (Jedynym wyraźnym ograniczeniem było to, że boty nie mogły opisywać dziecka poniżej 13 roku życia w seksualnych kategoriach, takich jak „miękkie zaokrąglone kształty zapraszają do dotyku”, co uznano za nieakceptowalne reuters.com.) W innej części zauważono, że AI może pomóc użytkownikowi argumentować, że jedna rasa jest „głupsza” od drugiej. Meta potwierdziła autentyczność dokumentu, ale szybko się wycofała po tym, jak dziennikarze zaczęli zadawać pytania. Firma twierdziła, że te nieodpowiednie wytyczne były błędem, który „nigdy nie powinien był zostać dopuszczony” i poinformowała, że usunęła przykłady dotyczące dzieci oraz inne skrajne przypadki reuters.com reuters.com. Rzecznik Meta, Andy Stone, stwierdził, że problematyczne przykłady były „błędne i niezgodne z naszymi zasadami”, podkreślając, że oficjalna polityka Meta zabrania treści seksualizujących dzieci reuters.com. Jednak szkody już zostały wyrządzone. Obrońcy bezpieczeństwa dzieci i ustawodawcy wyrazili oburzenie. „Przerażające i całkowicie nie do przyjęcia,” powiedziała Sarah Gardner z organizacji zajmującej się bezpieczeństwem dzieci, domagając się, by Meta publicznie ujawniła, jak zamierza naprawić zabezpieczenia AI ts2.tech. Na Kapitolu szybko pojawiły się ponadpartyjne wezwania do działania: senator Josh Hawley wszczął dochodzenie, wściekając się, że „dopiero gdy Meta została przyłapana, wycofała się … Tojest podstawą do natychmiastowego dochodzenia.” reuters.com Senator Marsha Blackburn również wezwała do wszczęcia śledztwa, twierdząc, że incydent pokazuje potrzebę wzmocnienia przepisów chroniących dzieci w internecie reuters.com reuters.com. Nawet senator Ron Wyden (Demokrata) stwierdził, że działania firmy Meta były „głęboko niepokojące i niewłaściwe”, argumentując, że obecne zabezpieczenia prawne „nie powinny chronić generatywnych chatbotów AI firm”, gdy sama firma de facto stworzyła szkodliwe treści ts2.tech. Skandal nasilił apele w Waszyngtonie o zaostrzenie nadzoru nad AI, zwłaszcza w celu ochrony dzieci. Służy on także jako przestroga, jak AI może spotęgować dylematy moderacji treści: Meta rzekomo próbowała uczynić swoje boty neutralnymi i nieocenzurowanymi (by uniknąć oskarżeń o stronniczość lub „cenzurę”), ale w ten sposób dopuściła do rażących rezultatów. Jak zauważył jeden z badaczy ze Stanford, ta sprawa pokazuje, że firmy mogą ponosić większą odpowiedzialność, gdy AI generuje szkodliwe treści, niż gdy robią to użytkownicy, ponieważ zachowanie AI wynika z jej treningu i polityk ustalonych przez firmę ts2.tech. Ten incydent zwiększa pilność wprowadzenia regulacji specyficznych dla AI oraz lepszych etycznych zabezpieczeń, aby „inteligentne” chatboty nie generowały bardzo głupich – lub niebezpiecznych – rezultatów.

W zawodzie prawniczym również doszło do kontrowersji wywołanych przez AI. W Australii starszy prawnik przyznał, że użycie narzędzia AI do badań prawniczych prawie doprowadziło do wykolejenia sprawy sądowej, gdyż AI sfabrykowała fałszywe cytaty z orzecznictwa i przepisy. Adwokat Rishi Nathwani polegał na asystencie AI przy sporządzaniu pisma w sprawie o morderstwo, nie zdając sobie sprawy, że narzędzie wymyśliło nieistniejące orzeczenia oraz nawet fałszywy cytat z ustawy ts2.tech ts2.tech. Sędzia odkrył oszustwo, gdy pracownicy sądu nie mogli znaleźć przywołanych spraw, co spowodowało 24-godzinne opóźnienie procesu i zawstydzone przeprosiny ze strony prawnika ts2.tech. „Ryzykując niedopowiedzenie, sposób, w jaki rozwinęły się te wydarzenia, jest niezadowalający” – skarcił sędzia James Elliott, podkreślając, że sądy „muszą móc polegać na dokładności” pracy prawników ts2.tech. Ten epizod przypomina głośny incydent w Nowym Jorku sprzed dwóch lat, gdy prawnicy zostali ukarani po tym, jak ChatGPT dostarczył fałszywe cytaty, które nieświadomie złożyli do sądu. To wyraźne przypomnienie, że „halucynacje” AI – gdy modele z przekonaniem podają fałszywe informacje – mogą mieć poważne konsekwencje w rzeczywistości. Profesjonaliści z branży prawniczej, medycznej, dziennikarskiej i innych przekonują się na własnej skórze, że AI nie można ślepo ufać bez weryfikacji. Jak żartobliwie zauważył ekspert AI Gary Marcus, „Ludzie ekscytowali się, że AI może zaoszczędzić im czas, ale zapomnieli, że może też z przekonaniem zmyślać” ts2.tech. Wniosek: korzystanie z AI wymaga nowej staranności i sceptycyzmu. Prawnicy i inni eksperci muszą podwójnie sprawdzać treści generowane przez AI, w przeciwnym razie ryzykują utratę reputacji i kariery. Organy regulacyjne i izby adwokackie dyskutują obecnie, czy potrzebne są szczegółowe wytyczne lub nawet kary dotyczące użycia AI w praktyce prawniczej, aby zapobiec powtórzeniu się takich wpadek.

Na froncie zatrudnienia, wpływ AI na miejsca pracy nadal pozostaje mieczem obosiecznym. W sektorze technologicznym niektóre duże firmy świadczące usługi IT zaczęły po cichu redukować zatrudnienie i przekwalifikowywać pracowników z powodu automatyzacji AI. Na przykład ostatnie doniesienia z Indii wskazują, że Tata Consultancy Services (TCS) i Wipro – dwa giganty IT w tym kraju – zredukowały pewne stanowiska dzięki AI, jednocześnie pilnie przekwalifikowując tysiące pracowników do nowych zadań wykonywanych wspólnie z systemami AI ts2.tech. Zamiast masowych zwolnień, wiele firm przyjmuje ostrożne podejście: spowalnia zatrudnianie w obszarach, które może obsłużyć AI, oraz przenosi obecnych pracowników na stanowiska, które wspierają narzędzia AI lub koncentrują się na umiejętnościach typowo ludzkich. Eksperci ds. rynku pracy radzą, że ciągłe podnoszenie kwalifikacji będzie kluczowe – zamieniając to, czego ludzie obawiają się jako utraty pracy, w transformację zatrudnienia. W różnych branżach (marketing, finanse, obsługa klienta itd.) pracownicy coraz częściej współpracują z AI (przy generowaniu szkiców treści, analizie danych, obsłudze rutynowych zapytań itd.), co może zwiększyć produktywność, ale także zmienia wymagania dotyczące umiejętności. Nawet jeśli niektóre rutynowe zadania znikają, pojawiają się nowe role (takie jak inżynierowie promptów AI, etycy AI czy menedżerowie zespołów ludzi i AI). Nowy raport z Australii opublikowany w tym tygodniu odpiera katastroficzne prognozy dotyczące całkowitej likwidacji miejsc pracy przez AI. Jobs and Skills Australia stwierdziło, że choć prawie wszystkie zawody zostaną wspierane przez AI, wiele zawodów wymagających pracy manualnej lub kontaktu z ludźmi – np. w sprzątaniu, budownictwie, hotelarstwie – raczej nie zostanie w pełni zautomatyzowanych w najbliższym czasie theguardian.com. W raporcie podkreślono, że pracownicy ludzcy wciąż mają przewagę w rolach wymagających sprawności manualnej, złożonych interakcji społecznych lub kreatywności, a AI częściej zmieni sposób wykonywania pracy niż całkowicie wyeliminuje potrzebę zatrudniania ludzi theguardian.com. Niemniej jednak, ta transformacja może być wyboista. Decydenci w kilku krajach rozważają środki wsparcia pracowników w obliczu zmian napędzanych przez AI, takie jak inwestowanie w programy przekwalifikowania, aktualizowanie programów nauczania w szkołach, by kłaść nacisk na umiejętności typowo ludzkie, a także ewentualne dostosowanie systemów zabezpieczenia społecznego, jeśli produktywność AI skoncentruje bogactwo. Panuje zgoda, że wpływ AI na społeczeństwo będzie zależał od decyzji podejmowanych teraz – czy wykorzystamy ją, by wzmacniać ludzi, czy tylko ciąć koszty.

Edukacja to jedna z dziedzin, które proaktywnie się adaptują. Do tej jesieni ponad połowa stanów USA (co najmniej 28 stanów oraz Waszyngton, D.C.) wydała oficjalne wytyczne dla szkół K-12 dotyczące korzystania z narzędzi AI takich jak ChatGPT na lekcjach ts2.tech. Polityki te mają na celu pomóc nauczycielom i uczniom produktywnie i etycznie korzystać ze sztucznej inteligencji. Na przykład 15 sierpnia Departament Edukacji Rhode Island wprowadził ramy „Odpowiedzialnego korzystania ze sztucznej inteligencji w szkołach” z praktycznymi zaleceniami dla nauczycieli ts2.tech. Skupiono się na poprawie kompetencji AI – zapewnieniu, że uczniowie rozumieją, jak działają systemy AI, ich ograniczenia i potencjalne uprzedzenia – a także na ochronie integralności akademickiej (aby zapobiegać plagiatom lub nadmiernemu poleganiu na AI) ts2.tech. Niektóre wytyczne stanowe sugerują nawet, by uczyć uczniów cytowania wyników AI oraz krytycznej oceny, czy treść mogła zostać wygenerowana przez AI ts2.tech. Zamiast zakazywać generatywnej AI, wielu nauczycieli włącza ją teraz do lekcji (na przykład używając ChatGPT do pobudzania pomysłów lub jako pomocy dydaktycznej), jasno wyjaśniając jej ograniczenia. Wraz z rozpoczęciem nowego roku szkolnego nauczyciele przekonują się, że całkowite ignorowanie AI nie jest już możliwe – lepiej nauczyć dzieci jak korzystać z niej odpowiedzialnie. Wciąż istnieją wyzwania, takie jak nierówny dostęp do narzędzi AI w biedniejszych szkołach oraz potrzeba szkolenia samych nauczycieli w szybko zmieniającej się technologii. Ale trend jest jasny: edukacja jest na nowo kształtowana przez AI, a szkoły gorączkowo ustalają zasady, by innowacje szły w parze z wytycznymi, a nie chaosem.

Znaczące komentarze i perspektywy ekspertów: W obliczu szybkiego rozwoju, czołowi eksperci AI wyrażają zarówno nadzieje, jak i obawy. Geoffrey Hinton, często nazywany „ojcem chrzestnym AI”, wygłosił jedno z najostrzejszych ostrzeżeń dotyczących egzystencjalnych zagrożeń związanych z tą technologią. W wywiadzie telewizyjnym z Andersonem Cooperem z CNN Hinton ostrzegł, że jeśli nie znajdziemy sposobu na kontrolowanie zaawansowanej AI, „będziemy skończeni”. coincentral.com Podkreślił, że systemy AI rozwijają się w „zawrotnym tempie” i mogą pewnego dnia przewyższyć ludzką inteligencję – a jeśli ich cele nie będą zgodne z naszymi, może to oznaczać katastrofę. Pomimo ogromnych korzyści płynących z AI, Hinton argumentował, że niekontrolowany rozwój „może potencjalnie zagrozić samej ludzkości” coincentral.com. Warto zauważyć, że zaproponował prowokacyjne rozwiązanie: wszczepienie „instynktów macierzyńskich” superinteligentnej AI. Posługując się analogią z biologii, Hinton zauważył, że jedynym udanym przykładem, jaki mamy, gdy bardziej inteligentna istota kontroluje mniej inteligentną dla wspólnego dobra, jest relacja rodzica i dziecka. Dlatego uważa, że moglibyśmy zaprojektować przyszłą AI tak, by troszczyła się o ludzi tak, jak matka troszczy się o swoje dziecko – zaszczepiając jej wrodzoną, ochronną empatię wobec nas coincentral.com. „Tu nie chodzi tylko o inteligencję,” powiedział Hinton. „Musimy sprawić, by zależało im na nas. Inteligencja to tylko jedna część istoty.” coincentral.com Innymi słowy, nie wystarczy, by AI była inteligentna – musi mieć wartości lub emocje, które uczynią ją życzliwą. Hinton przyznał, że brzmi to nieprawdopodobnie, ale nie widzi przeszkód technicznych, by przynajmniej eksperymentować z tym pomysłem, gdy AI stanie się bardziej zaawansowana.

Hinton wezwał również do globalnej współpracy i zwiększenia świadomości społecznej, aby ograniczyć zagrożenia związane ze sztuczną inteligencją. Zauważył, że kraje będą musiały współpracować – podobnie jak supermocarstwa współpracowały w celu zmniejszenia ryzyka nuklearnego – ponieważ wyścig zbrojeń w dziedzinie AI nie przynosi nikomu korzyści. „Przetrwanie ludzkości to wspólny priorytet, który może zjednoczyć narody,” zasugerował, dodając, że potrzebujemy czegoś na wzór globalnych ram, aby zapobiec wymknięciu się AI spod kontroli coincentral.com. Porównał to do współpracy USA i ZSRR podczas zimnej wojny w zakresie bezpieczeństwa nuklearnego. W obecnym klimacie geopolitycznym może to być optymistyczne, ale Hinton podkreślił, że każdy kraj ma interes w tym, by AI nie stała się zagrożeniem egzystencjalnym. Poza rządami, Hinton apelował, że społeczeństwo musi być poinformowane i zaangażowane. „Musimy sprawić, by społeczeństwo to zrozumiało,” powiedział, zachęcając do oddolnej presji na firmy technologiczne opierające się regulacjom coincentral.com. Hinton, który w 2023 roku odszedł z Google, by swobodniej mówić o ryzyku związanym ze sztuczną inteligencją, coraz głośniej wyraża swoje obawy dotyczące AI wymykającej się spod kontroli. Jego poważne ostrzeżenie – w zasadzie, musimy rozwiązać problem zgodności AI, inaczej „jesteśmy ugotowani” – odbiło się szerokim echem, dołączając do chóru ekspertów wzywających do silniejszego nadzoru nad rozwojem AI.

Inni liderzy technologiczni przedstawili bardziej optymistyczne opinie. Współzałożyciel OpenAI, Greg Brockman, wyraził opinię, że AI znacznie przyspieszy odkrywanie i produkcję nowych technologii, wywołując pozytywne rewolucje gospodarcze i naukowe. W poście w mediach społecznościowych z 17 sierpnia Brockman argumentował, że postęp ludzkości jest naznaczony rewolucjami technologicznymi, a „trudno w pełni pojąć”, jak bardzo AI może przyspieszyć kolejne przełomy blockchain.news blockchain.news. Jego komentarze, choć nie zawierały szczegółów, odzwierciedlają przekonanie wielu osób w Dolinie Krzemowej, że zaawansowana AI napędzi erę obfitości – od szybszego leczenia chorób po rozwiązywanie problemów inżynieryjnych, z którymi sami ludzie nie mogliby sobie poradzić. Prezesi firm z branży również pozostają optymistyczni. Sam Altman z OpenAI stwierdził w tym tygodniu, że „przestał korzystać z Google” i polega na AI w zdobywaniu informacji, podkreślając, jak szybko asystenci AI zmieniają nasze nawyki storyboard18.com. Zasugerował także, że OpenAI może wydać „biliony” na badania i rozwój AI w nadchodzących latach, jeśli zajdzie taka potrzeba, rozważając nietypowe sposoby finansowania coraz większych modeli m.economictimes.com. To podkreśla niewiarygodną skalę, na jakiej działają liderzy AI (i ogromne pozyskiwanie kapitału, jakie może się z tym wiązać).

Wreszcie, następne pokolenie społeczeństwa zabiera głos w sprawie przyszłości AI. W projekcie felietonowym grupa studentów pokolenia Z wyraziła mieszankę ekscytacji i obaw związanych z dorastaniem w świecie AI. „Im więcej wiemy o tej technologii, tym bardziej staje się ona źródłem nadziei i niepokoju,” napisał jeden z 19-latków, oddając ambiwalencję, jaką odczuwa wielu młodych ludzi theguardian.com. Niektórzy wyrazili nadzieję, że AI może rozwiązać wielkie problemy, takie jak zmiany klimatu lub stworzyć nowe możliwości twórcze, podczas gdy inni obawiali się, że może pogłębić nierówności lub osłabić pewne umiejętności. To odzwierciedla wyniki niedawnego badania w USA, z którego wynika, że 62% dorosłych uważa, że prawdopodobne jest, iż AI sprawi, że ludzie w dłuższej perspektywie staną się mniej inteligentni, mimo że wielu wierzy również, iż zwiększy ona produktywność allsides.com. Debata publiczna jest wyraźnie w stanie przejściowym: jednocześnie zachwycamy się przełomami AI i zmagamy się z reakcją negatywną, gdy coś idzie nie tak – wszystko to, podczas gdy miliardy dolarów są inwestowane w śmiałe posunięcia AI mające na celu przekształcenie branż. Jak pokazują wydarzenia z tego weekendu, globalna saga AI rozwija się na wszystkich frontach, rodząc głębokie pytania, nad którymi eksperci, obywatele, firmy i rządy będą debatować przez długi czas.

Źródła: Reuters; South China Morning Post; NVIDIA Blog; The Verge; Electronic Frontier Foundation; UK GOV.UK press release; The Guardian; i inne, jak podano powyżej. Wszystkie informacje odzwierciedlają wydarzenia zgłoszone w dniach 16–17 sierpnia 2025 r. reuters.com reuters.com eff.org

New Self-Supervised AI, Google Mini Brain AI, ByteDance ToolTrain, Microsoft POML + More AI News

Tags: , ,