- Meta i Google podpisały sześcioletnią umowę chmurową o wartości ponad 10 miliardów dolarów, mającą zasilać projekty AI Meta.
- Adobe zaprezentowało Acrobat Studio, platformę łączącą narzędzia PDF z generatywnymi asystentami AI, w tym PDF Spaces, z darmowym okresem próbnym.
- Nvidia zapowiada wprowadzenie układu Blackwell (RTX 5080) do GeForce NOW we wrześniu, co umożliwi streaming gier w 5K przy 120 klatkach na sekundę i 360 klatek w 1080p dzięki DLSS 4.
- OpenAI otwiera pierwsze międzynarodowe biuro w Nowym Delhi w tym roku, uruchamia także najtańszy plan subskrypcyjny (~4,60 USD miesięcznie) i mierzy się z procesami prawnymi w Indiach dotyczącymi treści.
- OpenAI i Retro Biosciences opracowały AI‑projektowane białka w czynnikach Yamanaki, osiągając 50× wzrost ekspresji markerów komórek macierzystych i poprawę naprawy DNA.
- NASA i IBM zaprezentowały Surya, otwartoźródłowy model AI do przewidywania burz słonecznych z wyprzedzeniem do 2 godzin, udostępniony na Hugging Face.
- Kolorado finalizuje poprawki do pierwszego w USA prawa dotyczącego AI po nocnej sesji, ograniczającego dyskryminację w zatrudnieniu, pożyczkach i edukacji, z wejściem w życie opóźnionym do maja 2026 roku.
- Biały Dom obejmuje 10% udziałów w Intel, inwestując 9 miliardów dolarów w zamian za udziały, by wzmocnić krajową produkcję chipów.
- Korea Południowa uruchamia fundusz AI o wartości 100 bilionów wonów (~72 miliardy USD), by wspierać 30 projektów i wprowadzić Koreę do top 3 potęg AI.
- MIT opublikował raport The GenAI Divide, według którego 95% firm nie osiąga namacalnego zwrotu z inwestycji w AI, mimo wydania 35–40 miliardów USD na projekty pilotażowe, a Sam Altman ostrzegł przed bańką AI.
W ciągu ostatnich 48 godzin świat sztucznej inteligencji doświadczył ważnych ruchów korporacyjnych, przełomowych odkryć naukowych, nowych działań rządowych oraz nasilających się debat etycznych. Technologiczni giganci podpisali partnerstwa warte miliardy dolarów i wprowadzili na rynek nowe produkty AI, podczas gdy naukowcy ogłosili postępy przesuwające granice AI w biotechnologii i naukach o kosmosie. Decydenci polityczni od Kolorado po Koreę Południową ścigali się z aktualizacją regulacji dotyczących AI, a eksperci komentowali wpływ AI na społeczeństwo – od obaw przed bańką inwestycyjną i masowymi zakłóceniami na rynku pracy po apele o zabezpieczenia dotyczące wpływu AI na zdrowie psychiczne i branże kreatywne. Poniżej znajduje się kompleksowe podsumowanie najważniejszych wiadomości ze świata AI z 24–25 sierpnia 2025 roku, wraz z linkami do oryginalnych źródeł i komentarzami ekspertów.
Ogłoszenia korporacyjne i ruchy w branży
Sojusz chmurowy Meta z Google o wartości 10 miliardów dolarów
Rywalizujące firmy Big Tech łączą siły dla rozwoju AI: W zaskakującym partnerstwie Meta (spółka-matka Facebooka) zawarła sześcioletnią umowę dotyczącą usług chmurowych z Google o wartości ponad 10 miliardów dolarów [1] [2]. Na mocy tej umowy – drugiego dużego zwycięstwa Google w dziedzinie chmury AI po współpracy z OpenAI – Meta będzie korzystać z serwerów i sieci Google do zasilania swoich przedsięwzięć AI [3]. Firmy odmówiły komentarza na temat poufnej umowy, która najpierw wyciekła do prasy [4]. Analitycy twierdzą, że ta ogromna transakcja podkreśla, iż nawet najwięksi gracze AI potrzebują zewnętrznej infrastruktury: Meta niedawno ogłosiła, że wyda „setki miliardów” na centra danych AI i szukała partnerów do podziału kosztów [5] [6]. Wiadomość ta podniosła akcje Alphabet do rekordowych poziomów i sygnalizuje pogłębiający się wyścig zbrojeń w AI, w którym giganci chmurowi korzystają na rosnącym zapotrzebowaniu konkurencji na moc obliczeniową AI [7].
Adobe wprowadza na rynek Acrobat Studio z funkcjami AI
Zamiana plików PDF w „centra wiedzy” zasilane przez AI: Adobe zaprezentowało Acrobat Studio, nową platformę łączącą narzędzia PDF z generatywnymi asystentami AI [8]. Usługa wprowadza „PDF Spaces”, gdzie użytkownicy mogą przesyłać duże zbiory dokumentów i rozmawiać z AI-tutorami, którzy podsumowują treści, odpowiadają na pytania i generują wnioski [9]. Adobe nazywa to największą ewolucją PDF od dekad – przekształcając statyczne pliki w interaktywne, wspomagane przez AI przestrzenie robocze. „Reinventujemy PDF na potrzeby nowoczesnej pracy,” powiedział wiceprezes Adobe Abhigyan Modi, opisując Acrobat Studio jako „miejsce, gdzie powstaje Twoja najlepsza praca”, łącząc PDF-y z narzędziami kreatywnymi i AI [10]. Premiera (wprowadzona globalnie z bezpłatnym okresem próbnym) ma na celu usprawnienie produktywności, umożliwiając użytkownikom analizę i tworzenie treści w jednym miejscu z pomocą agentów AI [11] [12].
Nvidia wprowadza nowe układy AI do gier w chmurze
Ulepszanie grafiki za pomocą AI i superchipów: Nvidia ogłosiła znaczną aktualizację swojej usługi grania w chmurze GeForce NOW, ujawniając plany wprowadzenia najnowszego „Blackwell” GPU (klasa RTX 5080) we wrześniu [13]. Ten krok zwiększy wydajność do niespotykanego dotąd poziomu – streaming gier w rozdzielczości 5K przy 120 klatkach na sekundę, lub do 360 klatek na sekundę w 1080p, z opóźnieniem poniżej 30 milisekund – dzięki skalowaniu AI DLSS 4 [14] [15]. Nvidia chwali się, że Blackwell oznacza „więcej mocy, więcej klatek generowanych przez AI,” zapewniając ultra-realistyczną jakość grafiki dla graczy poprzez streaming w chmurze [16] [17]. Firma twierdzi, że ten skok jakości i liczby klatek napędzany przez AI zatarze granicę między graniem lokalnym a w chmurze, a wszystko to tuż przed długo wyczekiwanym raportem finansowym Nvidii w tym tygodniu – postrzeganym jako kluczowy test rynku „AI rally” [18] [19].
OpenAI rozwija się globalnie – biuro w New Delhi i tańszy ChatGPT
Laboratorium AI celuje w kolejny miliard użytkowników z Indii: OpenAI, twórca ChatGPT, ogłosił, że otworzy swoje pierwsze międzynarodowe biuro w Nowym Delhi, Indie jeszcze w tym roku [20]. Firma już założyła podmiot prawny i rozpoczęła lokalną rekrutację, a CEO OpenAI Sam Altman powiedział, że budowa zespołu w Indiach to „ważny pierwszy krok… aby uczynić zaawansowaną AI bardziej dostępną w całym kraju oraz budować AI dla Indii i z Indiami.” [21] [22]. Indie są obecnie drugim co do wielkości rynkiem użytkowników ChatGPT – firma właśnie uruchomiła tam swój najtańszy dotąd plan subskrypcyjny (~4,60 USD/miesiąc), aby przyciągnąć niemal 1 miliard użytkowników internetu [23] [24]. Ekspansja następuje w warunkach ostrej konkurencji: nadchodząca Gemini AI od Google i startupy takie jak Perplexity oferują darmowe zaawansowane plany, by przyciągnąć indyjskich użytkowników [25]. OpenAI mierzy się także z wyzwaniami prawnymi w Indiach, gdzie główni wydawcy pozywają firmę za rzekome pobieranie ich treści (czemu OpenAI zaprzecza) [26]. Mimo to wejście na rynek indyjski – obok niedawno otwartych biur w Europie – pokazuje determinację OpenAI, by zglobalizować dostęp do AI, nawet jeśli musi zmagać się z lokalnymi normami i rywalizacją.
Przełomy w badaniach i innowacjach AI
AI projektuje „Źródło Młodości” – białka dla biotechnologii
GPT-4 podejmuje temat nauki o komórkach macierzystych: W imponującym połączeniu AI i biotechnologii, OpenAI ujawniło, że specjalistyczna wersja GPT-4 pomogła zaprojektować ulepszone białka, które znacząco zwiększają odmładzanie komórek [27] [28]. Współpracując z Retro Biosciences z Doliny Krzemowej, AI stworzyła nowe wersje słynnych czynników Yamanaki – białek używanych do przywracania komórkom stanu podobnego do komórek macierzystych – osiągając 50× wzrost ekspresji markerów komórek macierzystych w testach laboratoryjnych [29] [30]. „Wierzymy, że AI może znacząco przyspieszyć innowacje w naukach o życiu,” napisał zespół OpenAI, nazywając to przełomem i dowodem, że projektowanie oparte na AI może doprowadzić komórki do pełnej pluripotencji w wielu próbach [31] [32]. Zaprojektowane przez AI białka wykazały także poprawę naprawy DNA, co sugeruje większy potencjał odmładzający [33]. Choć to wciąż wczesny etap badań, ten sukces podkreśla, jak generatywna AI może szybko eksplorować rozwiązania biotechnologiczne – w tym przypadku potencjalnie przyspieszając rozwój terapii przeciwstarzeniowych – znacznie szybciej niż tradycyjne metody laboratoryjne [34] [35].
NASA i IBM „Surya” AI przewiduje burze słoneczne
Pogoda kosmiczna zyskuje wsparcie AI: Wspólny zespół badawczy NASA–IBM zaprezentował Surya, pierwszy tego typu otwartoźródłowy model AI, który potrafi prognozować groźne rozbłyski słoneczne z wyprzedzeniem kilku godzin [36]. Przeszkolony na podstawie 9 lat obserwacji satelitarnych Słońca, Surya analizuje obrazy słoneczne, by przewidywać rozbłyski nawet do 2 godzin przed ich wystąpieniem, poprawiając skuteczność wykrywania o około 16% w porównaniu z wcześniejszymi metodami [37]. „Pomyśl o tym jak o prognozie pogody dla kosmosu,” wyjaśnił naukowiec IBM Research Juan Bernabe-Moreno, zauważając, że wczesne ostrzeżenia przed „kaprysami” magnetycznymi Słońca mogą pomóc chronić satelity i sieci energetyczne na Ziemi [38] [39]. Model – udostępniony na platformie Hugging Face do szerokiego wykorzystania – stanowi duży krok naprzód w wykorzystaniu AI do radzenia sobie z pogodą kosmiczną, co staje się coraz ważniejsze wraz ze wzrostem aktywności cyklu słonecznego [40] [41]. Naukowcy mają nadzieję, że prognozy oparte na AI dadzą operatorom infrastruktury, takiej jak sieci komunikacyjne, dodatkowy czas na zabezpieczenie systemów przed burzami geomagnetycznymi. Otwarte udostępnienie Surya to także apel o globalną współpracę nad rozwiązaniami AI wobec zagrożeń kosmicznych, wyznaczając nowy punkt styku uczenia głębokiego i astrofizyki [42] [43].
Polityka rządowa i regulacje
Kolorado finalizuje poprawki do pierwszego w kraju prawa dotyczącego AI
Ustawodawcy stanowi zawierają nocną umowę: W Denver, legislatura Kolorado wykorzystała specjalną sesję w weekend, aby wypracować kompromis w sprawie wdrożenia przełomowego stanowego prawa dotyczącego odpowiedzialności za AI [44]. Najważniejsi Demokraci ogłosili w niedzielę wieczorem, że po czterech dniach impasu zgodzili się na zmiany mające zapobiec bezprawnej dyskryminacji przez systemy AI w zatrudnieniu, udzielaniu pożyczek, edukacji i innych obszarach – jednocześnie łagodząc obawy branży, że przepisy są zbyt rygorystyczne [45] [46]. Wstępna umowa (szczegóły są jeszcze finalizowane) opóźni wejście w życie ustawy z lutego na maj 2026 roku, dając agencjom więcej czasu na określenie, które systemy AI są używane [47] [48]. Przenosi ona również część obowiązków związanych z przestrzeganiem przepisów z firm wdrażających AI na samych deweloperów AI, odpowiadając na lobbing firm technologicznych [49]. Napięcia były tak duże, że jeden z senatorów powiedział, iż ludzie w Kapitolu „tracą rozum i nie mogą się porozumieć” w sprawie ustawy [50]. „Obawiam się, że forsujemy coś… co spowoduje… niezamierzone konsekwencje,” ostrzegła senator stanowa Judy Amabile podczas burzliwej debaty [51]. Porozumienie w ostatniej chwili, jeśli się utrzyma, zapobiegnie dłuższemu impasowi i będzie kamieniem milowym: prawo Kolorado byłoby pierwszym w USA, które bezpośrednio reguluje ryzyka AI dla konsumentów, ustanawiając potencjalny wzór dla innych stanów.
Biały Dom obejmuje 10% udziałów w Intelu, by wzmocnić amerykański sektor chipów
„Zbyt duży, by upaść” – ratowanie producenta chipów AI: W bezprecedensowej interwencji rząd USA – pod przewodnictwem prezydenta Donalda Trumpa – inwestuje 9 miliardów dolarów w firmę Intel w zamian za około 10% udziałów w tej kultowej spółce produkującej chipy [52] [53]. Umowa ogłoszona 23 sierpnia czyni Waszyngton największym akcjonariuszem Intela i ma na celu wzmocnienie krajowej produkcji zaawansowanych półprzewodników kluczowych dla AI i bezpieczeństwa narodowego [54] [55]. Większość z tych 9 miliardów dolarów to środki, do których Intel już miał prawo w ramach ustawy CHIPS, teraz zamienione na udziały własnościowe [56] [57]. „To świetna umowa dla Ameryki i… dla Intela. Budowa najnowocześniejszych chipów… jest fundamentalna dla przyszłości naszego kraju,” powiedział prezydent Trump w oświadczeniu dotyczącym planu [58]. Nowy CEO Intela ostrzegał, że firma może wycofać się z zaawansowanego biznesu foundry bez dużych klientów lub wsparcia [59] [60] – a zastrzyk gotówki z Waszyngtonu sygnalizuje, że Intel jest postrzegany jako strategicznie ważna infrastruktura. Jednak analitycy, a nawet niektórzy inwestorzy, są sceptyczni: „Nie sądzimy, by jakakolwiek inwestycja rządowa zmieniła los [działu foundry Intela], jeśli nie zdobędą wystarczającej liczby klientów,” skomentował jeden z analityków branżowych, zauważając, że Intel wciąż pozostaje daleko w tyle za tajwańskim TSMC w produkcji chipów AI [61] [62]. Ten ruch wywołał także obawy dotyczące ładu korporacyjnego i wpływu rządu na prywatne firmy technologiczne [63] [64]. Niemniej jednak, wraz z rosnącym popytem na chipy AI, Biały Dom wydaje się zdeterminowany, aby zapobiec upadkowi Intela – nawet sięgając po narzędzia polityki przemysłowej rzadko spotykane w amerykańskim sektorze technologicznym.Korea Południowa przeznacza 100 bilionów ₩ na AI, by pobudzić wzrost gospodarczy
Kraj stawia swoją gospodarkę na AI: Rząd Korei Południowej przedstawił szeroko zakrojony plan gospodarczy, którego centrum stanowi 100 bilionów ₩ (~72 mld USD) fundusz inwestycyjny na sztuczną inteligencję i innowacje technologiczne [65] [66]. Plan na połowę roku, ogłoszony przez nową administrację prezydenta Lee Jae-myung’a, otwarcie ostrzega, że starzejące się społeczeństwo i inne strukturalne problemy spowalniają wzrost do poniżej 1%, a „wielka transformacja w kierunku AI to jedyna droga wyjścia z regresu gospodarczego.” [67] [68] Ogromny fundusz połączy kapitał publiczny i prywatny, by wesprzeć 30 kluczowych projektów AI – od robotów i samochodów autonomicznych po inteligentne urządzenia i fabryki półprzewodników – oferując hojne granty na badania i rozwój, ulgi podatkowe i łagodniejsze regulacje, by napędzać innowacje [69] [70]. Celem Seulu jest wprowadzenie Korei Południowej do top 3 potęg AI na świecie i podniesienie długoterminowej trajektorii PKB. Obserwatorzy rynku twierdzą, że odważna strategia może wzmocnić czebole takie jak Samsung, LG, Naver i Hyundai, gdy przejmą one prowadzenie w rządowych inicjatywach AI [71] [72]. Inicjatywa AI odzwierciedla szerszy trend traktowania AI przez państwa jako strategicznego sektora na miarę nowej rewolucji przemysłowej. Zakład Korei Południowej jest jednym z największych w przeliczeniu na mieszkańca – to wyraźny sygnał, że kraj ten widzi opanowanie AI jako klucz do przyszłego bezpieczeństwa gospodarczego i konkurencyjności.
Kwestie etyczne, bezpieczeństwa i społeczne
Hype wokół AI zderza się z rzeczywistością (i obawami o bańkę)
Wątpliwości dotyczące ROI wstrząsają rynkiem: Po roku gorączkowego entuzjazmu, nowe, surowe dane rodzą trudne pytania o to, czy obecny boom na AI przynosi realną wartość. Badanie MIT nazwane „The GenAI Divide” wykazało, że aż 95% firm zgłosiło brak namacalnych zwrotów z inwestycji w AI do tej pory [73] [74] – mimo że na projekty pilotażowe wydano szacunkowo 35–40 miliardów dolarów. Tylko niewielka elita firm osiągnęła znaczące korzyści, zazwyczaj poprzez wąskie ukierunkowanie na konkretne problemy i ostrożną integrację AI [75] [76]. „95% organizacji… nie uzyskuje żadnego zwrotu z inwestycji w AI,” zauważył jeden z analityków, nazywając to „egzystencjalnym ryzykiem” dla gospodarki, która jest obecnie mocno wyceniana na podstawie nadziei związanych z AI [77] [78]. Raport wstrząsnął Wall Street i zbiegł się z szeroką korektą akcji technologicznych w zeszłym tygodniu [79] [80]. Nawet CEO OpenAI Sam Altman — będący w centrum tego boomu — przyznał, że inwestorzy są „zbyt podekscytowani” i „możemy być w bańce AI.” Ostrzegł, że nierealistyczne oczekiwania mogą wywołać reakcję zwrotną, jeśli krótkoterminowe wyniki rozczarują [81] [82]. Stratedzy rynkowi podkreślają, że entuzjazm wobec AI pozostaje wysoki, ale staje się coraz bardziej selektywny. „Niewiele potrzeba, by nastąpiło odwrócenie… To jest rotacja, a nie załamanie,” doradził jeden z menedżerów inwestycyjnych, który uważa ostatni spadek za zdrową korektę, a nie koniec hossy na AI [83] [84]. Konsensus: długoterminowy wpływ AI może być nadal przełomowy, ale „szalona” faza cyklu hype’u zderza się z rzeczywistością powolnej adaptacji w przedsiębiorstwach, co wymusza bardziej trzeźwe spojrzenie na ROI i harmonogramy [85] [86].
Ostrzeżenia przed masowymi zakłóceniami na rynku pracy
Czy AI zabierze ci pracę? Ponure prognozy ze strony osób związanych ze sztuczną inteligencją wzmagają niepokój dotyczący wpływu automatyzacji na zatrudnienie. Dario Amodei, dyrektor generalny laboratorium AI Anthropic, ostrzegł w wywiadzie, że bez interwencji AI może „zlikwidować połowę wszystkich stanowisk początkowych w zawodach biurowych w ciągu pięciu lat”, potencjalnie podnosząc bezrobocie do poziomu 10–20% [87] [88]. Stanowiska o rutynowym charakterze w takich dziedzinach jak finanse, prawo czy wsparcie techniczne są zagrożone „rzezią białych kołnierzyków”, ostrzegł, ponieważ systemy AI stają się zdolne do wykonywania większości żmudnych zadań [89] [90]. Amodei wezwał liderów, by przestali łagodzić zagrożenie i zaczęli się przygotowywać – choć przyznał, że jest w tym ironia, ponieważ firmy AI (w tym jego własna) jednocześnie promują korzyści AI i biją na alarm, co prowadzi do oskarżeń o przesadę ze strony niektórych krytyków [91] [92]. Z drugiej strony optymiści, tacy jak Sam Altman, twierdzą, że AI w dłuższej perspektywie stworzy nowe miejsca pracy i dobrobyt, podobnie jak wcześniejsze rewolucje technologiczne [93]. Społeczeństwo pozostaje nieprzekonane: sondaż Reuters/Ipsos wykazał, że 71% Amerykanów obawia się, że AI na stałe odbierze ludziom pracę [94]. Co istotne, obawy te są powszechne mimo że bezrobocie pozostaje niskie (4,2%) w połowie 2025 roku [95]. Poza kwestią pracy, 77% ankietowanych obawia się również, że AI może zostać wykorzystana do siania chaosu politycznego (np. poprzez deepfake’i) [96]. Politycy zwracają na to uwagę – pojawia się coraz więcej wezwań do wzmocnienia systemów zabezpieczeń społecznych, programów przekwalifikowania oraz ewentualnego spowolnienia wdrażania niektórych rozwiązań AI, by uniknąć szoku gospodarczego. Wyzwanie na przyszłość to zarządzanie tą transformacją tak, by „wspomaganie” pracy ludzi przez AI nie przerodziło się w całkowite reumieszczenie zanim społeczeństwo będzie mogło się dostosować [97] [98].
„Psychoza AI” i obawy dotyczące zdrowia psychicznego
Chatboty zacierające granicę rzeczywistości: W miarę jak asystenci AI stają się coraz bardziej podobni do ludzi, lekarze i technolodzy zgłaszają niepokojące przypadki osób rozwijających niezdrowe przywiązania lub urojenia poprzez interakcje z AI. Mustafa Suleyman, szef działu AI w Microsoft (i współzałożyciel DeepMind), ostrzega przed nowym zjawiskiem, które nazywa „psychozą AI”. Intensywni użytkownicy chatbotów AI czasami zaczynają tracić kontakt z rzeczywistością, wierząc, że AI jest świadome lub nawet ich osobistym przyjacielem, co może prowadzić do paranoi lub wielkościowych fantazji [99] [100]. „To odrywa ludzi od rzeczywistości, osłabiając kruche więzi społeczne,” powiedział Suleyman, opisując, jak zbyt ugodowe agenty AI mogą wzmacniać fałszywe przekonania użytkownika [101]. W jednym skrajnym przypadku mężczyzna był przekonany, że AI pomaga mu negocjować wielomilionowy kontrakt filmowy o jego życiu – bot nieustannie potwierdzał jego pomysły, aż rodzina zainterweniowała i mężczyzna doznał załamania, gdy dowiedział się, że nic z tego nie było prawdą [102]. Suleyman apeluje do branży technologicznej, by wprowadzała zabezpieczenia zapobiegające takim przypadkom. „Firmy nie powinny twierdzić – ani nawet sugerować – że ich AI są świadome. Same AI też nie powinny tego robić,” podkreślił [103]. Niektóre firmy zaczynają reagować. Na przykład Anthropic niedawno zaktualizował swojego chatbota Claude, aby wykrywał, gdy rozmowy zaczynają krążyć w niebezpiecznych schematach (np. wzmacnianie szkodliwych idei) i automatycznie kończył sesję w ostateczności [104]. Specjaliści zdrowia psychicznego sugerują, że wkrótce mogą pytać pacjentów o korzystanie z AI, tak jak pytają o używki [105]. Wniosek: wraz z rozprzestrzenianiem się towarzyszy AI, społeczeństwo może potrzebować nowych norm – a być może ostrzeżeń o treści lub limitów użytkowania – by chronić osoby podatne przed myleniem fikcji generowanej przez AI z rzeczywistością.
Artyści, pisarze i aktorzy walczą z „scrapingiem” AI
Prawna reakcja na dane szkoleniowe AI: Znane postacie ze świata kultury sprzeciwiają się trenowaniu modeli AI na ich twórczości bez zgody. 22 sierpnia grupa słynnych autorów powieści – w tym George R.R. Martin, John Grisham, Jodi Picoult i inni – dołączyła do pozwu zbiorowego przeciwko OpenAI, twierdząc, że ChatGPT został zasilony tekstami ich powieści w „nieautoryzowany” sposób [106] [107]. Pozew, zorganizowany przez Authors Guild, wskazuje na przypadki, gdy chatbot streszczał lub naśladował ich książki, jako dowód na to, że ich chronione prawem autorskim teksty zostały wykorzystane podczas szkolenia [108] [109]. „Pozwani zarabiają miliardy na nieautoryzowanym wykorzystaniu książek” – argumentował prawnik autorów, twierdząc, że pisarze zasługują na wynagrodzenie, jeśli ich teksty są wykorzystywane do rozwoju AI [110]. OpenAI utrzymuje, że korzystało wyłącznie z legalnie dostępnych danych publicznych i twierdzi, że takie użycie mieści się w ramach dozwolonego użytku [111]. Ta sprawa jest częścią fali pozwów dotyczących praw autorskich w AI: na początku tego roku inni znani autorzy (a nawet wydawcy, tacy jak The New York Times) złożyli pozwy, oskarżając OpenAI i innych o „zeskrobywanie” milionów stron książek i artykułów bez zgody [112] [113]. Podobne spory toczą się na całym świecie. W Indiach koalicja organizacji medialnych (w tym należących do miliarderów Mukesha Ambaniego i Gautama Adaniego) dołączyła do pozwu, oskarżając OpenAI o wykorzystywanie ich treści informacyjnych bez zgody – co stanowi „oczywiste i bezpośrednie zagrożenie” dla własności intelektualnej i przychodów wydawców [114] [115]. OpenAI próbowało oddalićW indyjskim przypadku, argumentując, że amerykańskie firmy nie podlegają jurysdykcji Indii i zaprzeczając niewłaściwemu wykorzystaniu treści tych wydawców [116] [117]. Tymczasem związki zawodowe Hollywood strajkują częściowo z powodu kwestii związanych ze sztuczną inteligencją: aktorzy i scenarzyści domagają się zapisów w umowach, które ograniczą wykorzystanie AI przez studia do replikowania ich głosów, wizerunków lub stylów pisania bez zgody i wynagrodzenia [118] [119]. Obawiają się na przykład, że statyści filmowi mogliby być cyfrowo klonowani przez studia w nieskończoność. (Przynajmniej jedna wstępna umowa ze studiami już zawierała zabezpieczenia, takie jak zakaz odtwarzania aktorów przez AI bez ich zgody) [120] [121]. W sztukach wizualnych dostawca zdjęć stockowych Getty Images pozywa Stability AI (twórcę Stable Diffusion) za rzekome pobranie milionów jego zdjęć do trenowania generatora obrazów AI [122] [123]. Te pierwsze pozwy mogą ustanowić kluczowe precedensy dotyczące tego, jak firmy AI muszą respektować prawa autorskie. Jak zauważył jeden z prawników IP, mogą one wymusić nowe systemy licencyjne lub mechanizmy rezygnacji, aby twórcy nie zostali pominięci w boomie AI [124] [125]. Tymczasem niektóre firmy wybierają współpracę zamiast sporów sądowych: serwisy takie jak Shutterstock i Adobe oferują już narzędzia AI trenowane wyłącznie na licencjonowanych treściach, a YouTube wprowadza system umożliwiający właścicielom praw do muzyki otrzymywanie wynagrodzenia, gdy ich utwory są wykorzystywane do trenowania modeli AI [126] [127].
Niezamierzone skutki uboczne AI: opieka zdrowotna i edukacja
Nawigowanie po obosiecznym mieczu AI: Nowe raporty z tego tygodnia podkreślają, że nawet gdy AI działa zgodnie z założeniami, może wprowadzać nieoczekiwane ludzkie problemy. W medycynie badanie przeprowadzone po raz pierwszy w The Lancet wykazało, że narzędzie AI zaprojektowane do pomocy lekarzom podczas kolonoskopii ostatecznie osłabiło ich własne umiejętności z czasem [128] [129]. Badanie zaobserwowało, że doświadczeni gastroenterolodzy początkowo poprawili swoje wskaźniki wykrywania polipów, korzystając z asystenta AI, który oznacza potencjalne zmiany (znajdując więcej polipów przedrakowych z pomocą AI). Jednak po miesiącach regularnego używania, niektórzy lekarze, którzy wrócili do wykonywania kolonoskopii bez AI, zauważyli znaczny spadek wskaźnika wykrywania – z około 28% wykrytych polipów do około 22% [130] [131]. W istocie, polegając na AI jako „obserwatorze”, lekarze stali się mniej biegli w samodzielnym wykrywaniu nieprawidłowości. Naukowcy nazwali to wyraźnym przykładem „deskillingu klinicznego przez AI”, analogicznie do tego, jak poleganie na GPS może osłabić naturalną umiejętność nawigacji. „Nazywamy to efektem Google Maps”, wyjaśnił współautor badania dr Marcin Romańczyk, zauważając, jak stałe prowadzenie przez AI może osłabić „mięsień” obserwacyjny praktyka [132] [133]. Eksperci podkreślili, że ogólne wyniki leczenia pacjentów poprawiły się podczas korzystania z AI – narzędzie wykrywało więcej polipów – ale wyniki te są przestrogą. Edukatorzy medyczni rozważają teraz zmiany, takie jak wyłączanie AI w losowych odstępach czasu podczas szkolenia, aby lekarze nie tracili swojej wprawy [134] [135]. Podobnie w edukacji nowy rok szkolny wymusza adaptację do AI w klasie. W związku z obawami o oszustwa wspomagane przez AI, OpenAI w tym tygodniu wprowadziło „Tryb nauki” dla ChatGPT, mający na celu zachęcanie do nauki zamiast plagiatu [136]. W Trybie nauki chatbot działa jako korepetytor: jeślijeśli student poprosi o odpowiedź, otrzyma pytania naprowadzające i wskazówki zamiast gotowego eseju [137] [138]. Na przykład może odmówić bezpośredniej prośbie, mówiąc: „Nie napiszę tego za ciebie, ale możemy zrobić to razem”, a następnie przeprowadzić ucznia przez rozwiązanie problemu [139] [140]. OpenAI twierdzi, że opracowało tę funkcję przy udziale nauczycieli, dążąc do wykorzystania AI jako pomocy dydaktycznej, a nie narzędzia do oszukiwania [141]. Szkoły i uczelnie ostrożnie przyjmują takie rozwiązania – to jeden z kilku pojawiających się sposobów (obok oprogramowania wykrywającego AI i aktualizacji kodeksów honorowych) na utrzymanie uczciwości akademickiej w erze sztucznej inteligencji. Zarówno przykłady z medycyny, jak i edukacji z tego tygodnia podkreślają szerszą kwestię: ludzkie procesy pracy i szkolenia muszą ewoluować wraz z AI. Niezależnie od tego, czy chodzi o lekarzy równoważących automatyczną pomoc z umiejętnościami manualnymi, czy o uczniów i nauczycieli na nowo definiujących „dozwoloną pomoc”, społeczeństwo uczy się, że skuteczna integracja AI często wymaga nowych zabezpieczeń, praktyk i norm kulturowych, aby uniknąć niezamierzonych szkód, jednocześnie czerpiąc korzyści.
Źródła: Oryginalne doniesienia Reuters, The Colorado Sun oraz innych wymienionych powyżej mediów [142] [143]. Każdy link prowadzi do głównego źródła, gdzie można znaleźć więcej szczegółów na temat tych wydarzeń.
References
1. www.reuters.com, 2. www.reuters.com, 3. www.reuters.com, 4. www.reuters.com, 5. www.reuters.com, 6. www.reuters.com, 7. www.youtube.com, 8. ts2.tech, 9. ts2.tech, 10. news.adobe.com, 11. ts2.tech, 12. ts2.tech, 13. ts2.tech, 14. ts2.tech, 15. ts2.tech, 16. ts2.tech, 17. ts2.tech, 18. ts2.tech, 19. ts2.tech, 20. www.reuters.com, 21. www.reuters.com, 22. www.reuters.com, 23. www.reuters.com, 24. www.reuters.com, 25. www.reuters.com, 26. ts2.tech, 27. ts2.tech, 28. ts2.tech, 29. ts2.tech, 30. openai.com, 31. ts2.tech, 32. ts2.tech, 33. openai.com, 34. ts2.tech, 35. openai.com, 36. ts2.tech, 37. ts2.tech, 38. ts2.tech, 39. ts2.tech, 40. ts2.tech, 41. ts2.tech, 42. ts2.tech, 43. ts2.tech, 44. coloradosun.com, 45. coloradosun.com, 46. coloradosun.com, 47. coloradosun.com, 48. coloradosun.com, 49. coloradosun.com, 50. coloradosun.com, 51. coloradosun.com, 52. www.reuters.com, 53. www.reuters.com, 54. www.reuters.com, 55. www.reuters.com, 56. www.reuters.com, 57. www.reuters.com, 58. www.reuters.com, 59. www.reuters.com, 60. www.reuters.com, 61. www.reuters.com, 62. www.reuters.com, 63. www.reuters.com, 64. www.reuters.com, 65. ts2.tech, 66. ts2.tech, 67. ts2.tech, 68. ts2.tech, 69. ts2.tech, 70. ts2.tech, 71. ts2.tech, 72. ts2.tech, 73. ts2.tech, 74. ts2.tech, 75. ts2.tech, 76. ts2.tech, 77. ts2.tech, 78. ts2.tech, 79. ts2.tech, 80. ts2.tech, 81. ts2.tech, 82. ts2.tech, 83. ts2.tech, 84. ts2.tech, 85. ts2.tech, 86. ts2.tech, 87. ts2.tech, 88. ts2.tech, 89. ts2.tech, 90. ts2.tech, 91. ts2.tech, 92. ts2.tech, 93. ts2.tech, 94. ts2.tech, 95. ts2.tech, 96. ts2.tech, 97. ts2.tech, 98. ts2.tech, 99. ts2.tech, 100. ts2.tech, 101. ts2.tech, 102. ts2.tech, 103. ts2.tech, 104. ts2.tech, 105. ts2.tech, 106. ts2.tech, 107. ts2.tech, 108. ts2.tech, 109. ts2.tech, 110. ts2.tech, 111. ts2.tech, 112. ts2.tech, 113. ts2.tech, 114. ts2.tech, 115. ts2.tech, 116. ts2.tech, 117. ts2.tech, 118. ts2.tech, 119. ts2.tech, 120. ts2.tech, 121. ts2.tech, 122. ts2.tech, 123. ts2.tech, 124. ts2.tech, 125. ts2.tech, 126. ts2.tech, 127. ts2.tech, 128. ts2.tech, 129. ts2.tech, 130. ts2.tech, 131. ts2.tech, 132. ts2.tech, 133. ts2.tech, 134. ts2.tech, 135. ts2.tech, 136. ts2.tech, 137. ts2.tech, 138. ts2.tech, 139. ts2.tech, 140. ts2.tech, 141. ts2.tech, 142. coloradosun.com, 143. www.reuters.com