- Wielomiliardowy wyścig zbrojeń w dziedzinie AI: Giganci technologiczni, w tym OpenAI (z Microsoftem), Google (DeepMind), Meta, Anthropic, Amazon i inni, inwestują bezprecedensowe środki w sztuczną inteligencję. Razem te firmy planują wydać ponad 325 miliardów dolarów do końca 2025 roku na rozwój AI startupnews.fyi, rywalizując o przewodnictwo w nowej erze informatyki. Kadra zarządzająca postrzega AI jako technologię „raz na pokolenie”, która może być „warta biliony” i zrewolucjonizować każdy produkt i usługę.
- Wizje sztucznej ogólnej inteligencji: Wiele z tych firm otwarcie dąży do stworzenia sztucznej ogólnej inteligencji (AGI) lub nawet „superinteligencji”—systemów AI o możliwościach dorównujących lub przewyższających ludzi. Misją OpenAI jest „zapewnienie, że sztuczna ogólna inteligencja… przyniesie korzyści całej ludzkości”, a jej CEO Sam Altman powiedział, że jest „pewny, że wiemy, jak zbudować AGI”. Demis Hassabis, CEO Google DeepMind, nazywa AGI swoim „celem życiowym” i przewiduje, że „być może pojawi się w tej dekadzie”. Mark Zuckerberg, CEO Meta, prywatnie zadeklarował, że „opracowanie superinteligencji jest już w zasięgu ręki” dla jego firmy, chcąc znaleźć się wśród „nielicznych… z odpowiednią wiedzą”, by osiągnąć boską AI. Te śmiałe wizje napędzają intensywny wyścig o bycie pierwszym.
- Rozbieżne filozofie – otwartość kontra tajność: Istnieje poważny podział w sposobie udostępniania technologii AI przez firmy. Meta promuje podejście open-source – jej modele językowe LLaMA zostały udostępnione (na określonych warunkach) naukowcom, a nawet w pełni otwarty model (Llama 2) do użytku komercyjnego. Główny naukowiec AI w Meta, Yann LeCun, twierdzi, że „otwartość czyni AI bezpieczniejszą dzięki rozproszonej kontroli” i że otwarty rozwój przyspiesza innowacje. Natomiast OpenAI (mimo nazwy) i Anthropic utrzymują swoje najpotężniejsze modele jako własnościowe, udostępniając je przez API, ale nie publikując plików wag. OpenAI przeszło z open-source na zamknięte po GPT-3, powołując się na kwestie bezpieczeństwa i konkurencji. CEO Altman zasugerował, że nieograniczone publiczne udostępnienie zaawansowanych modeli mogłoby być niebezpieczne, popierając bardziej kontrolowane wdrażanie. Dario Amodei, CEO Anthropic, nazywa nawet debatę otwartość kontra zamknięcie „fałszywym problemem” w AI – twierdząc, że liczy się to, które modele są najlepsze, a nie czy ich kod jest otwarty. Ten filozoficzny podział kształtuje, jak szeroko rozprzestrzeniane są możliwości AI.
- Cele dotyczące bezpieczeństwa i zgodności: Wszyscy gracze AI uznają kwestie bezpieczeństwa AI, ale nadają im różny priorytet. Anthropic została założona wyraźnie z etosem „najpierw bezpieczeństwo”: prowadzi badania nad technikami zgodności AI, takimi jak jej metoda „Constitutional AI”, aby zaszczepić modelom zasady etyczne. Amodei ostrzegał, że w miarę jak systemy AI zbliżają się do poziomu ludzkiego, „pilność tych spraw wzrosła” i czuje „obowiązek ostrzegania świata o możliwych negatywnych skutkach”. OpenAI również wyraża obawy dotyczące „niewłaściwego użycia” lub wypadków, stwierdzając, że zaawansowana AI „wiąże się z poważnym ryzykiem nadużyć, drastycznych wypadków i zakłóceń społecznych”. OpenAI i Anthropic obie opóźniły publiczne wydania swoich najnowszych modeli do czasu przeprowadzenia szeroko zakrojonych testów bezpieczeństwa (na przykład GPT-4 OpenAI przechodził przez miesiące testów red-teamingowych, aby ograniczyć szkodliwe wyniki). Dla kontrastu, kierownictwo Meta podchodziło bardziej optymistycznie do egzystencjalnych zagrożeń – LeCun publicznie odrzucił scenariusze „końca świata przez AI” jako „kompletne bzdury”, argumentując, że obecne systemy „działają poniżej poziomu zwierząt” pod względem inteligencji. Mimo to nawet Meta posiada zespół ds. etyki AI i filtry treści dla swoich modeli. Warto zauważyć, że w maju 2023 roku CEO OpenAI, DeepMind i Anthropic wspólnie podpisali oświadczenie, że „ograniczenie ryzyka wyginięcia z powodu AI powinno być globalnym priorytetem na równi z pandemią i wojną nuklearną.” safe.ai Innymi słowy, nawet liderzy największych laboratoriów AI uznają potencjalne egzystencjalne zagrożenia, choć różnią się w otwartości ich omawiania lub sposobach ich adresowania.
- Podejścia techniczne – skalowanie kontra nowe ścieżki:Duże modele językowe (LLM) i głębokie uczenie na dużą skalę są podstawą strategii większości laboratoriów. OpenAI zapoczątkowało masywne generatywne modele tekstowe (seria GPT) i modele multimodalne (np. GPT-4 przyjmuje obrazy), szeroko wykorzystując uczenie przez wzmacnianie z informacją zwrotną od człowieka (RLHF) do dostosowania zachowania modelu. DeepMind Google’a również buduje gigantyczne modele (jego nadchodzący model „Gemini” to multimodalny system o bilionie parametrów, łączący technologię modeli językowych Google z doświadczeniem DeepMind w uczeniu przez wzmacnianie). DeepMind wyróżnia się doświadczeniem w AI grających w gry (AlphaGo, AlphaZero) – Demis Hassabis sugeruje, że Gemini zintegruje zdolności planowania i używania narzędzi wykraczające poza dzisiejsze chatboty. Anthropic koncentruje się na „prawach skalowania” – trenował coraz większe modele (Claude 1, Claude 2) i wprowadził okna kontekstowe na 100 tys. tokenów do rozszerzonego rozumowania. Innowacją Anthropic jest dostosowywanie tych modeli za pomocą „konstytucji” wytycznych, a nie wyłącznie RLHF, co ma zapewnić bardziej stabilne, zgodne z wartościami zachowanie. Meta dąży zarówno do skali, jak i wydajności – jej modele LLaMA (7B–70B parametrów) są mniejsze niż GPT-4, a mimo to zaskakująco konkurencyjne dzięki treningowi na wysokiej jakości danych. Badania Meta obejmują także nowe architektury (np. „Mixture-of-Experts” w prototypie Llama 4) i długoterminowe idee, takie jak wizja LeCuna dotycząca ucieleśnionej AI i uczenia samonadzorowanego wykraczającego poza samo przewidywanie tekstu. Krótko mówiąc, OpenAI/Google/Anthropic w dużej mierze stawiają na skalowanie głębokiego uczenia (z pewnymi algorytmicznymi sztuczkami), podczas gdy laboratorium AI Meta i niektóre inne uważają, że fundamentalne przełomy (nowe projekty modeli, mechanizmy pamięci itp.) ostatecznie będą potrzebne, by osiągnąć prawdziwą AGI.
- Obecne produkty i odbiorcy: Firmy różnią się pod względem sposobu wdrażania AI. OpenAI dotarło bezpośrednio do masowego konsumenta dzięki ChatGPT, który przyciągnął ponad 100 milionów użytkowników oferując darmowe (a obecnie także płatne) rozmowy z AI. Firma udostępnia także swoje modele poprzez chmurę Azure do zastosowań biznesowych. Google zintegrował generatywną AI z wieloma produktami: swoim chatbotem Bard (eksperymentalna usługa publiczna), Wyszukiwarką Google (z podsumowaniami AI i pytaniami/odpowiedziami w wynikach wyszukiwania) oraz narzędziami do pracy (Duet AI dla Gmaila/Dokumentów, uzupełnianie kodu w Android Studio itd.). Największymi klientami Google są prawdopodobnie miliardy użytkowników wyszukiwarki i Androida – co sprawia, że bezpieczeństwo jest kluczowe dla ochrony marki – a także klienci chmurowi korzystający z modeli przez Google Cloud Vertex AI. Meta do niedawna nie miała własnego publicznego chatbota; zamiast tego udostępniała modele open source dla deweloperów. Obecnie wprowadza AI do Facebooka, Instagrama i WhatsAppa – np. AI persony czatujące i generatory obrazów dla użytkowników oraz narzędzia dla reklamodawców. Otwarty model LLaMA od Meta jest szeroko wykorzystywany przez naukowców i startupy (często hostowany na Hugging Face lub innych platformach). Anthropic koncentruje się głównie na firmach i deweloperach: jego asystent Claude jest dostępny przez API i u partnerów (np. asystent AI Slacka i chatbot Poe od Quory). Anthropic pozycjonuje Claude jako bezpieczniejszą alternatywę dla GPT-4 i przyciągnął inwestycje od firm takich jak Quora, Slack i innych, które integrują Claude dla użytkowników końcowych. Microsoft, jako bliski partner OpenAI, zaimplementował GPT-4 w Bing Chat (wyszukiwarka konsumencka) oraz asystentach „Copilot” w Windows 11, Office 365, GitHubie i innych, docierając zarówno do konsumentów, jak i firm. Amazon wdraża generatywną AI w swoim imperium handlu detalicznego i chmurowego – od nowej generacji Alexy, która potrafi prowadzić rozmowy, przez zakupy i narzędzia dla sprzedawców wspierane AI, po usługi chmurowe AWS (uruchomił Bedrock, by oferować różne modele bazowe jako usługę, w tym własne modele Titan/Nova oraz modele firm trzecich, takie jak Claude i Stable Diffusion). Podsumowując, OpenAI i Anthropic udostępniają AI głównie przez API/partnerstwa (z ChatGPT jako bezpośrednią aplikacją OpenAI), Google i Microsoft wykorzystują swoje ogromne ekosystemy oprogramowania, by integrować funkcje AI, Meta udostępnia otwarte modele społeczności deweloperów i dopiero zaczyna wdrażać funkcje AI dla konsumentów, a Amazon wykorzystuje AI do wzmacniania swojej dominacji w e-commerce i oferty chmurowej dla firm.
- Strategie komercyjne i finansowanie: Wyścig napędzają także motywacje konkurencyjne i finansowe. OpenAI przekształciło się w podmiot nastawiony na zysk z limitem i pozyskało ponad 13 miliardów dolarów inwestycji od Microsoftu, co dało Microsoftowi wyłączną przewagę w dostępie do technologii OpenAI. OpenAI zarabia na korzystaniu z API w chmurze i subskrypcjach ChatGPT, a jego wycena gwałtownie wzrosła (podobno do 20–30 miliardów dolarów do 2023 roku). Anthropic pozyskał miliardy od Google (inwestycja ok. 400 mln dolarów) i Amazona (który tylko w 2023 roku zadeklarował do 4 miliardów dolarów za udział mniejszościowy i prawa do integracji z AWS). Oznacza to, że modele Anthropica są dostępne zarówno na Google Cloud, jak i AWS, co jest nietypowym podwójnym partnerstwem. Google DeepMind i Meta finansują swoje działania AI wewnętrznie – de facto jako „centra kosztów AI” subsydiowane przez ogromne przychody z reklam i mediów społecznościowych. Według doniesień Google wydało dziesiątki miliardów na badania i rozwój AI (zbudowało gigantyczne superkomputery TPU do treningu) i nawet połączyło swój zespół Brain z DeepMind, by skupić talenty. Meta również zwiększyła wydatki na AI: Zuckerberg zatwierdził masowe zakupy GPU i zatrudnianie najlepszych badaczy (nawet podkupywał ich z OpenAI, oferując do 100 milionów dolarów). Liczba pracowników działu AI w Mety przekroczyła 1000 badaczy. Presja na wykazanie zwrotu z inwestycji jest ogromna: Meta w szczególności szuka przełomów w AI, by uzasadnić swoje wydatki po mieszanych rezultatach do tej pory (jej pokaz nowego modelu w kwietniu 2025 roku rozczarował, co wywołało zmiany w kierownictwie). Amazon i Microsoft oczekują, że ich platformy chmurowe przyniosą przychody wraz ze wzrostem adopcji AI – np. Microsoft sprzedaje kredyty Azure na modele OpenAI (i otrzyma część przyszłych zysków AGI, które OpenAI wygeneruje powyżej swojego limitu), a AWS Amazona ma obsługiwać niezliczone aplikacje AI. Krótko mówiąc, każdy gracz ma inną strategię monetyzacji: usługi chmurowe (Amazon, Microsoft, Google), zaangażowanie konsumentów (Meta, Google), oprogramowanie dla firm (Microsoft) lub sprzedaż API i przyszłe usługi AGI (OpenAI, Anthropic). Wszyscy jednak dążą do uzyskania przewagi pierwszego ruchu w zmianie technologicznej, która ich zdaniem przekształci rynki.
- Regulacje i stanowiska polityczne: Giganci AI publicznie deklarują, że popierają regulacje – ale ich poglądy różnią się co do tego, jak powinny one wyglądać. Altman z OpenAI zaproponował licencjonowanie lub wymogi zgodności z zasadami bezpieczeństwa dla najpotężniejszych modeli, sugerując nawet powołanie nowej agencji międzynarodowej (na wzór „MAEA dla AI”), która nadzorowałaby systemy superinteligentne. W politycznym wpisie OpenAI z maja 2023 roku zauważono, że „pewien stopień koordynacji” wśród wiodących podmiotów będzie konieczny i przedstawiono pomysły takie jak monitorowanie wykorzystania mocy obliczeniowej w celu egzekwowania limitów. Anthropic podziela tę perspektywę; Dario Amodei zeznawał i doradzał w sprawach polityki AI w USA oraz popierał rozszerzenie kontroli eksportu (np. ograniczenie sprzedaży zaawansowanych chipów), by spowolnić niekontrolowany wyścig zbrojeń. Zarówno OpenAI, jak i Anthropic dołączyły w 2023 roku do branżowego „Frontier Model Forum” wraz z Google i Microsoftem, zobowiązując się do współpracy nad standardami bezpieczeństwa dla zaawansowanej AI. Sundar Pichai z Google również stwierdził, że AI jest „zbyt ważna, by jej nie regulować”, a Hassabis z DeepMind opowiada się za międzynarodową współpracą w zakresie zasad dotyczących AI. Jednak firmy te preferują regulacje o łagodnym lub ukierunkowanym charakterze, które dotyczą zastosowań wysokiego ryzyka lub modeli granicznych, a nie szerokiego ograniczania rozwoju AI. Często rozróżniają „AI o wysokich możliwościach” (która może wymagać nowego nadzoru) od zwykłej AI, którą mogą objąć obecne przepisy. Stanowisko Meta jest nieco bardziej zniuansowane: Mark Zuckerberg publicznie popiera „otwarty” rozwój AI i utrzymanie szerokiego dostępu, ale w miarę jak regulatorzy zaostrzają swoje podejście, Meta sygnalizuje, że będzie „ostrożna w tym, co zdecyduje się udostępnić jako open-source” w przyszłości. Meta opowiada się za zrównoważonym podejściem, które nie tłumi otwartych badań – LeCun lobbował przeciwko przepisom, które na przykład ograniczałyby publikację wag modeli lub wymagałyby uciążliwych licencji dla otwartych modeli. Wszystkie główne firmy zgodziły się na pewne dobrowolne zobowiązania (w ramach deklaracji Białego Domu z 2023 r.), takie jak testowanie AI pod kątem bezpieczeństwa przed udostępnieniem, wprowadzanie znakowania treści generowanych przez AI oraz dzielenie się najlepszymi praktykami. Jednak różnice pozostają: na przykład firmy takie jak OpenAI i Google były bardziej ostrożne w ujawnianiu szczegółów modeli, zgodnie z filozofią, że bezpieczeństwo i ochrona wymagają tajemnicy na granicy możliwości. Tymczasem Meta i wielu ekspertów akademickich twierdzi, że przejrzystość i recenzja naukowa modeli AI są kluczowe dla zaufania. Debata ta trwa, gdy rządy opracowują nowe przepisy dotyczące AI (unijna AI Act, proponowane ustawodawstwo USA itd.) oraz gdy wydarzenia (takie jak głośne porażki AI lub przypadki nadużyć) kształtują opinię publiczną.
- Inni godni uwagi gracze: Poza wielką piątką, szerszy krajobraz AI obejmuje nowe startupy i globalnych graczy. xAI Muska (założone w 2023) to godny uwagi uczestnik – Elon Musk powiedział, że założył xAI, aby stworzyć „maksymalnie ciekawą, poszukującą prawdy” AI, która ma „zrozumieć prawdziwą naturę wszechświata”, pośrednio krytykując OpenAI za postrzegane uprzedzenia. xAI jest nadal na etapie badań i rozwoju, zatrudnia byłych pracowników DeepMind i OpenAI, i może współpracować z X (Twitter) i Teslą Muska w zakresie danych. Inflection AI, współzałożone przez Mustafę Suleymana z DeepMind, obrało inną drogę: stworzyło „Pi”, osobistego chatbota AI, i dąży do stworzenia AI, która może „być swego rodzaju trenerem lub powiernikiem” dla jednostek. Inflection zebrało ponad 1,3 mld dolarów (od inwestorów takich jak Reid Hoffman i Microsoft) i podobno wytrenowało model o 43 miliardach parametrów, pozycjonując się pomiędzy wielkimi technologicznymi firmami a ideałami open source. Stability AI promuje open source w generatywnej AI – sfinansowało rozwój Stable Diffusion (generator obrazów) i pracuje nad otwartymi modelami tekstowymi. CEO Stability, Emad Mostaque, twierdzi, że szeroki dostęp pobudzi innowacje i „zapobiegnie przejęciu kontroli nad AI przez kilka korporacji”. Jednak Stability napotkało wyzwania finansowe, a jego wpływ na modele językowe jest obecnie mniejszy niż w obrazowaniu. IBM i Oracle koncentrują się na AI dla przedsiębiorstw: inicjatywa IBM Watsonx oferuje modele dostosowane do biznesu z naciskiem na przejrzystość i wyjaśnialność (IBM podkreśla zgodność swojej AI z zasadami sprawiedliwości i audytowalności, unikając „czarnych skrzynek” wielkich modeli, chyba że można im zaufać). Chińscy giganci technologiczni – Baidu, Alibaba, Tencent, Huawei – również biorą udział w wyścigu, choć są ograniczeni ścisłym nadzorem rządu. ERNIE Bot Baidu i Tongyi Qianwen Alibaby to chińskie LLM-y uruchomione w 2023 roku, mające dorównać możliwościom GPT na rynku krajowym (z silną cenzurą wyników). Chiński rząd nakazał przeglądy bezpieczeństwa, a nawet odpowiedzialność dostawców AI, jeśli ich modele wygenerują zabronione treści. Odzwierciedla to, jak geopolityka i odmienne wartości kształtują AI: amerykańskie firmy podkreślają samoregulację i współpracę z rządami Zachodu, podczas gdy podejście Chin to rozwój kierowany przez państwo, by pozostać konkurencyjnym, ale pod kontrolą. Wreszcie, środowisko akademickie i organizacje non-profit (takie jak Allen Institute for AI, LAION, EleutherAI) nadal tworzą otwarte modele i narzędzia (np. projekt RedPajama odtwarzający zbiór danych treningowych LLaMA itd.), zapewniając, że przeciwwaga open source pozostaje obecna. Podsumowując, wyścig o zaawansowaną AI toczy się nie tylko między wielkimi laboratoriami korporacyjnymi, ale także obejmuje startupy, interesy narodowe i społeczność open source – każdy z nich wnosi odmienne filozofie do przyszłości AI.
Nowy wyścig zbrojeń w AI: Wprowadzenie
Trwa zacięta globalna rywalizacja o zbudowanie nowej generacji sztucznej inteligencji – nie tylko wyspecjalizowanych narzędzi, ale ogólnej SI, która mogłaby przekształcić całe społeczeństwo. W 2023 roku oszałamiający sukces ChatGPT firmy OpenAI wywołał „wyścig zbrojeń SI” wśród gigantów technologicznych. Do 2025 roku ten wyścig tylko przyspieszył. Amazon, Microsoft, Google, Meta i OpenAI (często wspierane przez siebie nawzajem lub inwestorów) są wspólnie na dobrej drodze, by w tym roku wydać setki miliardów dolarów na badania i infrastrukturę SI startupnews.fyi. Ich cel? Prześcignąć się nawzajem w tworzeniu coraz potężniejszych, wszechstronnych systemów SI – a ostateczną nagrodą jest Ogólna Sztuczna Inteligencja (AGI), system o zdolnościach poznawczych na poziomie człowieka (lub wyższym).
Skąd ten nagły pośpiech? Każda firma widzi ogromną stawkę: ten, kto opracuje najlepszą SI, może zdominować technologię na dekady. SI ma potencjał zrewolucjonizować wyszukiwanie w sieci, oprogramowanie produktywnościowe, kanały mediów społecznościowych, e-commerce, opiekę zdrowotną, finanse – praktycznie każdą dziedzinę. „SI będzie największą rzeczą, jaką zobaczą w swoim życiu”, jak opisuje nastawienie szefów Big Tech jeden z inwestorów, „a jeśli nie dowiedzą się, jak stać się dużym graczem w tej dziedzinie, zostaną w tyle.” Innymi słowy, strach przed przegapieniem bilionów wartości SI w przyszłości sprawia, że firmy idą „va banque”. Założyciel Facebooka Mark Zuckerberg miał podobno powiedzieć współpracownikom, że nie bycie liderem w SI jest „nie do przyjęcia” i zaczął intensywnie rekrutować talenty, by nadrobić zaległości.
Jednocześnie te firmy głoszą wzniosłe wizje tego, co ich SI osiągnie. OpenAI mówi o „korzyści dla całej ludzkości” dzięki AGI. Dyrektor generalny DeepMind, Demis Hassabis, wyobraża sobie SI rozwiązującą naukowe tajemnice – od leczenia chorób po rewolucję w energetyce – i wprowadzającą erę „radykalnej obfitości” oraz rozkwitu ludzkości. Liderzy Meta mówią o SI umożliwiającej „superinteligentnych” asystentów osobistych i nowe narzędzia kreatywne dla miliardów ludzi. Nawet sceptycy zgadzają się, że SI może dramatycznie zwiększyć produktywność: „To będzie 10 razy większe niż internet”, powiedział Hassabis The Guardian, z potencjałem na „niewiarygodny dobrobyt”, jeśli zostanie to zrobione właściwie.
Jednak za optymistycznym przekazem kryje się także głęboki niepokój – o bezpieczeństwo, etykę i kontrolę. Zaawansowana SI niesie ze sobą ryzyko nadużyć, niezamierzonych szkodliwych zachowań, utraty miejsc pracy, a nawet (w najbardziej skrajnych scenariuszach) utraty kontroli przez ludzi. Wymowne jest, że sami pionierzy ścigający się w budowie AGI ostrzegają także przed jej zagrożeniami. W połowie 2023 roku wśród ekspertów SI krążyło jednozdaniowe oświadczenie podpisane przez Altmana (OpenAI), Hassabisa (DeepMind), Amodeia (Anthropic) i wielu innych: „Ograniczanie ryzyka wyginięcia z powodu SI powinno być globalnym priorytetem, obok innych zagrożeń na skalę społeczną, takich jak pandemie i wojna nuklearna.” safe.ai. Krótko mówiąc, nawet inwestując miliardy w SI, ci liderzy apelują o ostrożność, by „zrobić to dobrze”. Ten paradoks – pędzić naprzód z zawrotną prędkością, próbując jednocześnie nie „zniszczyć świata” – definiuje obecny krajobraz SI.
W tym raporcie porównamy strategie, cele i filozofie wiodących laboratoriów AI: OpenAI, Anthropic, Google DeepMind, Meta (Facebook) oraz innych, takich jak Microsoft i Amazon, które są głęboko zaangażowane. Przeanalizujemy wizję każdej firmy dotyczącą AGI, ich podejście techniczne (uczenie przez wzmacnianie, metody alignmentu, modele otwarte vs zamknięte itd.), ich publiczne oświadczenia i poglądy liderów oraz stanowiska wobec regulacji. Przyjrzymy się także, jak różnią się w kwestiach bezpieczeństwa, otwartości, skali, komercjalizacji i ryzyka. Po drodze wyróżnimy cytaty CEO i ekspertów, które rzucają światło na ich sposób myślenia. Na koniec poruszymy szerszą debatę społeczną: gdy te giganty AI pędzą naprzód, jak zapewnić, że technologia będzie bezpieczna, przejrzysta i korzystna dla wszystkich?
Zanurzmy się w świat supermocarstw AI i zobaczmy, co dokładnie próbują zbudować – i dlaczego.
OpenAI: Skalowanie inteligencji – bezpiecznie i komercyjnie
OpenAI jest często postrzegane jako katalizator obecnego boomu AI. Początkowo założone w 2015 roku jako nonprofitowe laboratorium badawcze, OpenAI przekształciło się w 2019 roku w firmę o „ograniczonym zysku”, aby przyciągnąć finansowanie – i znalazło potężnego patrona w Microsoft. Deklarowanym celem OpenAI jest nic innego jak stworzenie AGI i zapewnienie, że przyniesie ono korzyści wszystkim. „Naszą misją jest zapewnienie, że sztuczna ogólna inteligencja… przyniesie korzyści całej ludzkości,” deklaruje firma w swoim statucie. Sam Altman, CEO OpenAI, powiedział, że wierzy, iż AGI jest osiągalne być może w ciągu dekady. „Jesteśmy teraz przekonani, że wiemy, jak zbudować AGI w tradycyjnym rozumieniu tego pojęcia,” napisał Altman w 2023 roku. Badacze OpenAI wyrażali optymizm, że skalowanie modeli (plus udoskonalenia algorytmiczne) ostatecznie doprowadzi do AI na poziomie człowieka. Jak ujęto to w jednym z wpisów na blogu OpenAI, „pierwsze AGI będzie tylko punktem na kontinuum inteligencji” – czyli wczesnym kamieniem milowym na drodze do jeszcze bardziej ogólnych i zdolnych systemów.
Strategia i technologia: Podejście OpenAI koncentruje się na trenowaniu coraz większych modeli generatywnych i następnie dostosowywaniu ich do ludzkich wartości. Firma zasłynęła dzięki GPT-3 w 2020 roku (model językowy o 175 miliardach parametrów, zdolny do generowania niezwykle ludzkiego tekstu), a następnie dzięki ChatGPT (dostrojony z GPT-3.5 do prowadzenia konwersacji i wykonywania poleceń). W 2023 roku OpenAI zaprezentowało GPT-4, model multimodalny, który przyjmuje tekst i obrazy oraz wykazuje imponujące zdolności rozwiązywania problemów z zakresu matematyki, kodowania i pisania. OpenAI szeroko stosuje uczenie przez wzmacnianie z informacją zwrotną od człowieka (RLHF), aby sprawić, by modele odpowiadały w pomocny, nietoksyczny sposób. Sukces ChatGPT w dużej mierze wynika z tej metody – testerzy uczyli go odmawiać pewnych żądań i stosować uprzejme instrukcje. „Nasze przejście od modeli takich jak GPT-3 do InstructGPT i ChatGPT to wczesny przykład tworzenia coraz bardziej dostosowanych i sterowalnych modeli,” napisało OpenAI.
OpenAI bada także nowe techniki alignmentu. W połowie 2023 roku uruchomiło zespół ds. „Superalignmentu”, aby zająć się dostosowaniem przyszłej superinteligentnej SI, przeznaczając na ten cel 20% swojej mocy obliczeniowej. Jego filozofia techniczna generalnie polegała na: najpierw wytrenować potężny model, a następnie poprawiać jego zachowanie poprzez dopracowywanie, filtry moderacyjne i pętle sprzężenia zwrotnego od użytkowników. Krytycy czasem nazywają to podejście „działaj szybko, a alignment popraw później”, ale OpenAI twierdzi, że stopniowe wdrażanie modeli to najlepszy sposób na naukę i adaptację. „Wierzymy… że stopniowe przejście do świata z AGI jest lepsze niż nagłe” – napisała firma, podkreślając, że chce „ścisłej pętli szybkiego uczenia się i ostrożnej iteracji” poprzez wypuszczanie modeli pośrednich.Co ważne, OpenAI stało się znacznie bardziej zamknięte w przypadku swoich najnowszych modeli, co stanowi wyraźny zwrot w stosunku do początkowej otwartości. Szczegóły techniczne i dane treningowe GPT-4 nie zostały ujawnione (ze względów konkurencyjnych i bezpieczeństwa), co spotkało się z krytyką środowiska naukowego. OpenAI przyznaje, że istnieje napięcie między otwartością a ostrożnością: „W miarę jak nasze systemy zbliżają się do AGI, stajemy się coraz bardziej ostrożni… Niektórzy uważają, że ryzyka są fikcyjne; bylibyśmy zachwyceni, gdyby mieli rację, ale działamy tak, jakby te ryzyka były egzystencjalne” – napisał zespół. OpenAI opublikowało artykuły na temat możliwości i uprzedzeń GPT-4, ale nie udostępniło pełnych wag modelu ani kodu. Ta zmiana została uzasadniona chęcią zapobiegania nadużyciom i uniknięcia pomocy złym aktorom. Jednak jest to także zgodne z interesami biznesowymi – partnerstwo z Microsoftem wymaga pewnej wyłączności. Microsoft zainwestował w OpenAI ponad 13 miliardów dolarów i w zamian może wdrażać modele OpenAI na platformie Azure Cloud, a nawet integrować je z produktami takimi jak Bing i Office. Przychody OpenAI pochodzą od Microsoftu (który dzieli się zyskami z chmury) oraz od klientów API – we wrześniu 2025 roku miały one podobno przekroczyć 1 miliard dolarów rocznie ze sprzedaży dostępu do SI. Motyw zysku i motyw bezpieczeństwa razem skłoniły OpenAI do ściśle kontrolowanej strategii udostępniania swoich najbardziej zaawansowanych SI.
Stanowisko publiczne i przywództwo: Sam Altman stał się kluczowym głosem publicznym w kwestii obietnic i zagrożeń SI. W profilu dla Time Altman wyjaśnił, że według OpenAI AGI przyniesie ogromne korzyści – zwiększy dobrobyt, przyspieszy gospodarkę, pomoże w odkryciach naukowych, jeśli będzie odpowiednio zarządzana. Ostrzegał jednak także przed „poważnym ryzykiem: nadużycia, drastyczne wypadki, zakłócenia społeczne”. Z tego powodu Altman aktywnie współpracuje z decydentami. W maju 2023 roku zeznawał przed Kongresem USA, że „jeśli ta technologia pójdzie w złą stronę, może pójść bardzo źle”, wzywając do wprowadzenia licencjonowania potężnych modeli SI, a nawet powołania globalnej agencji regulacyjnej. Zasugerował nawet, że rządy mogą wymagać od laboratoriów SI wstrzymania się na pewnych progach możliwości bez nadzoru – to zaskakująca propozycja ze strony osoby kierującej jednym z najbardziej zaawansowanych laboratoriów. Oficjalny blog OpenAI na temat „Zarządzania superinteligencją” wezwał do powołania międzynarodowego organu do inspekcji i audytu systemów SI powyżej określonego poziomu mocy obliczeniowej. Jednocześnie Altman i OpenAI sprzeciwiają się zbyt restrykcyjnym regulacjom wobec SI na mniejszą skalę i projektów open-source; napisali, że „umożliwienie rozwoju open-source poniżej istotnego progu jest ważne” oraz że dzisiejsze modele (na poziomie ChatGPT) „mają ryzyka… porównywalne z innymi technologiami internetowymi”, które można obsłużyć w ramach istniejących regulacji. Krótko mówiąc, OpenAI opowiada się za ścisłą regulacją na najwyższym poziomie (systemy graniczne, potencjalnie na poziomie AGI), ale łagodniejszą regulacją SI w ogóle.
Inni liderzy OpenAI również mają zdecydowane poglądy. Główny naukowiec Ilya Sutskever (współzałożyciel) rozważał, że zaawansowana AI może wymagać spowolnienia w kluczowych momentach – w 2023 roku wywołał kontrowersje, sugerując, że społeczeństwo może w pewnym momencie potrzebować „nie iść dalej”, jeśli modele staną się zbyt inteligentne, choć OpenAI jako całość nie poparło wtedy żadnej przerwy. Sutskever wywołał także debatę, sugerując, że duże sieci neuronowe mogą być „nieco świadome”, co podkreśla zagadkową naturę tych modeli. Współzałożyciel/prezes Greg Brockman często mówi o demokratyzacji AI (opowiadał się za ostatecznym otwarciem bezpiecznej AGI na zasadach open source, po rozwiązaniu problemu alignmentu). Ten ideał „AI dla wszystkich” pozostaje w retoryce OpenAI – na przykład wyobrażają sobie przyszłą AGI, która zapewnia „pomoc w niemal każdym zadaniu poznawczym” każdemu, działając jako uniwersalny wzmacniacz ludzkiej kreatywności. Jednak na razie OpenAI balansuje na linie: szeroko udostępnia AI przez API/aplikacje, ale chroni technologię leżącą u podstaw.
Produkt i odbiorcy: Flagowym produktem OpenAI jest ChatGPT, który wprowadził AI do głównego nurtu odbiorców konsumenckich. W ciągu kilku miesięcy od debiutu w listopadzie 2022 roku ChatGPT osiągnął podobno 100 milionów użytkowników – najszybszą adopcję jakiejkolwiek aplikacji w historii do tego momentu. Ludzie używają go do wszystkiego: od pisania maili i esejów, przez pomoc w kodowaniu, korepetycje, po twórcze pisanie. Dało to OpenAI bezprecedensową informację zwrotną z rzeczywistego świata (a także dominującą markę w AI). Od tego czasu wydali ChatGPT Plus (płatny poziom z szybszymi odpowiedziami i wtyczkami umożliwiającymi ChatGPT korzystanie z narzędzi lub przeglądanie internetu) oraz ChatGPT Enterprise (z gwarancjami prywatności i bezpieczeństwa dla firm). Osobno OpenAI oferuje GPT-4, GPT-3.5, DALL·E 3 (generator obrazów) i inne modele przez API, które deweloperzy integrują we własnych produktach. Tysiące firm buduje na API OpenAI – od dużych, jak Khan Academy (AI-tutorzy) i Stripe (AI-wsparcie klienta), po startupy tworzące narzędzia do pisania lub analizy AI.
Bliska współpraca OpenAI z Microsoft zwiększa jej zasięg. Bing Chat Microsoftu, który jest w zasadzie ChatGPT z dostępem do internetu i aktualnych informacji, postawił model OpenAI przed milionami użytkowników wyszukiwarek (i był próbą Microsoftu rzucenia wyzwania Google). Co ważniejsze, Microsoft zintegrował modele OpenAI jako „Copilots” dla Office 365 (Word, Excel, PowerPoint, Outlook), GitHub (asystent kodowania), a nawet samego Windowsa. „AI zrewolucjonizuje doświadczenie użytkownika każdego produktu Microsoftu,” zadeklarował CEO Satya Nadella. Rzeczywiście, Microsoft 365 Copilot może tworzyć dokumenty lub podsumowywać spotkania przy użyciu GPT-4, obiecując wzrost produktywności pracowników umysłowych. Dzięki wykorzystaniu ogromnych kanałów sprzedaży korporacyjnej Microsoftu, technologia OpenAI szybko trafia do miejsc pracy i agencji rządowych. Microsoft stworzył nawet Azure OpenAI Service, aby klienci korporacyjni mogli korzystać z modeli OpenAI z dodatkowymi zabezpieczeniami, zgodnością i możliwością dostosowania. Ta strategia komercjalizacji okazała się ogromnym sukcesem – do 2024 roku usługi Azure zasilane przez OpenAI miały tysiące klientów (w tym takie marki jak HSBC, IKEA i Boeing), a popyt czasami przewyższał możliwości GPU w chmurze Microsoftu.
Wartości i kontrowersje: OpenAI przedstawia się jako firma kierująca się długoterminowym, częściowo altruistycznym celem (zapewnienie, że AGI będzie bezpieczna i przyniesie szerokie korzyści), ale spotyka się ze sceptycyzmem. Przejście na model nastawiony na zysk i wydawanie modeli w sposób niejawny sprawiło, że niektórzy krytycy (w tym osoby z Meta i społeczności open-source) oskarżają OpenAI o hipokryzję – „zamknięte modele OpenAI” stały się powtarzającym się żartem. OpenAI odpowiada, że „bezpieczeństwo i ochrona” wymagają, by nie udostępniać otwarcie modeli, które mogłyby zostać wykorzystane w niewłaściwy sposób (na przykład obawiają się umożliwienia masowego generowania dezinformacji lub umożliwienia złym aktorom tworzenia formuł broni biologicznej – ryzyka, które może nieść potężny, nieocenzurowany model). To paternalistyczne podejście wywołało debatę: czy lepiej, a nawet etycznie, by jedna firma jednostronnie decydowała, kto ma dostęp do AI i na jakich zasadach?
Kolejną kontrowersją jest dopasowanie AI: modele OpenAI mają filtry moderujące, które odmawiają realizacji niektórych żądań (np. instrukcji dotyczących przemocy, treści nienawistnych itp.). Niektórzy użytkownicy (i aktorzy polityczni) narzekają, że ChatGPT jest „zbyt progresywny” lub stronniczy w swoich odpowiedziach. Sam Altman przyznał, że problem istnieje, zauważając „postaramy się usunąć uprzedzenia”, ale też że całkowicie neutralna AI jest niemożliwa, ponieważ „użytkownicy będą mieli różne definicje poprawności”. OpenAI prowadzi badania nad sposobami umożliwienia użytkownikom ustawiania własnych preferencji dotyczących treści w określonych granicach. To podkreśla fundamentalne wyzwanie: jak dopasować AI do różnorodnych ludzkich wartości. To obszar, na który OpenAI przeznacza znaczące środki na badania i rozwój, zarówno technicznie (RLHF, dostrajanie na podstawie opinii), jak i politycznie (współpraca z etykami i prowadzenie badań ankietowych na temat akceptowalnych zachowań).
Wreszcie, środki ostrożności OpenAI spotykają się zarówno z pochwałami, jak i krytyką. Z jednej strony firma zatrudnia red teams (zewnętrznych ekspertów testujących modele pod kątem szkodliwych możliwości) i publikuje raporty na temat uprzedzeń i ryzyk. Na przykład stwierdzono, że GPT-4 posiada dodatkowe, nieoczekiwane zdolności (jak zdawanie niektórych egzaminów w najwyższych percentylach) oraz pewną skłonność do halucynowania faktów lub „oszukiwania systemu” przy sprytnych podpowiedziach. OpenAI wprowadziło wytyczne dotyczące użytkowania i monitorowanie, by ograniczyć te problemy, i aktywnie współpracuje z akademią nad badaniami nad bezpieczeństwem AI (ostatnio nawiązując współpracę z Alignment Research Center w celu testowania zdolności GPT-4 do autonomicznego działania itp.). Z drugiej strony, krytycy twierdzą, że OpenAI nadal wypuszcza na rynek potężne modele bez pełnego ich zrozumienia – zauważając, że wewnętrzne mechanizmy GPT-4 pozostają czarną skrzynką, a nawet OpenAI nie wie, jak rozwija on zaawansowane umiejętności. OpenAI odpowiada, że iteracyjne wdrażanie z zabezpieczeniami jest lepsze niż czekanie, ponieważ rzeczywiste użycie ujawnia problemy, które można naprawić w kolejnych aktualizacjach.
Podsumowując, OpenAI to prototypowa firma „działaj szybko (ale nie za szybko) i pozwól AI coś popsuć (ale potem to napraw)”. Nieustannie zwiększa możliwości AI i wyznacza standardy tego, co AI potrafi (zmuszając wszystkich rywali do gonienia poziomu GPT-4). Łączy tę ambicję z wyraźnie (niektórzy mówią, że sprzecznie) bezpieczeństwem jako motywem przewodnim – wzywając do nadzoru, nawet gdy prowadzi wyścig. Jak zobaczymy, inne firmy zarówno naśladują OpenAI, jak i ją krytykują, różniąc się w istotnych kwestiach dotyczących otwartości, zysku i kultury badawczej.
Anthropic: AI z priorytetem bezpieczeństwa i „konstytucyjnym” dopasowaniem
Anthropic jest często wymieniany jednym tchem z OpenAI – nie tylko ze względu na rym w nazwach. W rzeczywistości Anthropic został założony przez byłych dyrektorów OpenAI, którzy poczuli się nieswojo z kierunkiem obraną przez OpenAI. W 2020 roku wiceprezes ds. badań OpenAI Dario Amodei (oraz jego siostra Daniela) odeszli po nieporozumieniach dotyczących tempa wdrażania dużych modeli przez OpenAI oraz zwrotu firmy w stronę Microsoftu i zysku. Założyli Anthropic w 2021 roku, wyraźnie jako laboratorium AI skoncentrowane na bezpieczeństwie i zgodności AI. Misją Anthropic jest budowa niezawodnych, interpretowalnych i sterowalnych systemów AI – zasadniczo, rozwiązanie problemu zgodności przy jednoczesnym tworzeniu najnowocześniejszej AI. Dario Amodei od lat ostrzega, że jeśli postępy w AI nie będą odpowiednio kontrolowane, mogą stanowić „katastrofalnie złe” skutki dla społeczeństwa. Uważany jest za jednego z bardziej „ostrożnych” liderów (przez niektórych krytyków określany mianem doomera, choć sam przyjmuje rolę realisty). „Uważamy, że mamy obowiązek ostrzec świat przed tym, co się wydarzy… ponieważ możemy mieć tak dobry świat, jeśli wszystko zrobimy dobrze,” powiedział Amodei w wywiadzie z połowy 2025 roku.
Podejście techniczne: Anthropic realizuje strategię trenowania dużych modeli ogólnego przeznaczenia (podobnych do serii GPT OpenAI), ale kładzie duży nacisk na techniki zgodności, aby zapewnić ich bezpieczne zachowanie. Głównym asystentem AI firmy jest Claude, chatbot AI podobny do ChatGPT. Pierwsza wersja Claude (początek 2022 roku) opierała się na modelu z dziesiątkami miliardów parametrów i była znana z zastosowania nowatorskiej metody treningowej opracowanej przez Anthropic, zwanej „Constitutional AI”. Idea, wyjaśniona w badaniach Anthropic, polega na nadaniu AI zestawu zasad lub „konstytucji” (zaczerpniętych z takich źródeł jak Powszechna Deklaracja Praw Człowieka, filozofie pozaeuropejskie itp.) i umożliwieniu AI samodoskonalenia poprzez krytykowanie i poprawianie własnych odpowiedzi zgodnie z tymi zasadami. Ta metoda zmniejsza zależność od ludzkiej opinii przy każdym etapie dostrajania; zamiast tego AI uczy się zgodności z ustalonym zestawem wartości zatwierdzonych przez ludzi poprzez uczenie ze wzmocnieniem, gdzie model nagród pochodzi z konstytucji. W praktyce Claude odmawia realizacji złośliwych żądań, powołując się na swoje zasady (np. może powiedzieć, że nie może tworzyć treści szerzących nienawiść, ponieważ narusza to zasadę szacunku dla wszystkich ludzi). Wczesne testy wykazały, że Claude rzadziej „wypadał z torów” lub generował niedozwolone treści w porównaniu z modelami niezgodnymi, choć nadal można go było oszukać.
Anthropic znajduje się również na czele rozwoju skalowania modeli. Opublikowali wpływowe badania dotyczące praw skalowania, pokazując, jak wydajność modeli przewidywalnie poprawia się wraz ze wzrostem ilości danych i liczby parametrów. W 2023 roku Anthropic wprowadził Claude 2, znacznie potężniejszy model (porównywalny z GPT-3.5/GPT-4 w wielu zadaniach) i wzbudził sensację dzięki kontekstowemu oknu 100 000 tokenów – co oznacza, że Claude mógł czytać i analizować setki stron tekstu za jednym razem. Było to znacznie więcej niż w przypadku innych modeli i pozwalało np. analizować obszerne dokumenty lub nawet całą powieść w jednym zapytaniu. Pokazało to, że Anthropic skupia się na „retencji i przetwarzaniu informacji”, co jest kluczowe w zadaniach takich jak rozumienie długich umów czy rozmów.
Chociaż Anthropic nie ujawnia dokładnej liczby parametrów, krążyły pogłoski, że Claude 2 ma rząd wielkości 50–100 mld parametrów (mniej niż GPT-4, który szacuje się na ponad 170 mld). Jednak Anthropic nadrabia to sprytnym treningiem – model był trenowany na obszernym korpusie obejmującym różnorodne dane z internetu i kod, a Claude jest stale udoskonalany na podstawie opinii z programu beta. Włożyli też wysiłek w interpretowalność: badacze Anthropic analizują „neurony” i zachowania wewnątrz modeli językowych, aby zrozumieć, jak powstają pojęcia. Na przykład opublikowali analizy, jak model może reprezentować „liniową sekwencję” lub gdzie może być zakodowane uprzedzenie, aby znaleźć sposoby na jego korektę. To odzwierciedla kulturę nastawioną na badania w Anthropic – wielu pracowników to doktorzy skupieni na fundamentalnych zagadnieniach związanych z dostosowaniem AI, a nie tylko na produkcie.
Filozofia bezpieczeństwa: Można argumentować, że Anthropic stawia bezpieczeństwo AI wyżej niż jakiekolwiek inne duże laboratorium. Od początku przedstawiali się jako firma budująca AI „w sposób, który szczerze priorytetyzuje bezpieczeństwo.” Ich etos firmowy nazwany jest od „Anthropic” (oznaczającego „ludzki”), by podkreślić zgodność z wartościami człowieka. Dario Amodei otwarcie mówi o krótkich horyzontach czasowych do potężnej AI i potrzebie przygotowań. Podobno powiedział współpracownikom, że widzi znaczące prawdopodobieństwo (rzędu 10–20%) AGI w ciągu najbliższych kilku lat, a więc równie znaczące ryzyko czegoś, co może pójść nie tak, jeśli nie zostanie to odpowiednio potraktowane. Dlatego właśnie aktywnie wypowiada się w kręgach politycznych: „kwestie bezpieczeństwa narodowego, kwestie gospodarcze [związane z AI] zaczynają być bardzo bliskie… pilność wzrosła,” powiedział. W przeciwieństwie do Yanna LeCuna z Meta, który wyśmiewa „scenariusze zagłady”, Amodei nie unika rozmów o najgorszych przypadkach – ale robi to, by już teraz promować środki zaradcze. Szybko dodaje, że Anthropic dostrzega ogromne korzyści płynące z AI. „Myślę, że prawdopodobnie doceniamy zalety bardziej niż ktokolwiek… ale właśnie z tego powodu, bo możemy mieć tak dobry świat, czuję się zobowiązany ostrzegać przed ryzykiem,” wyjaśnił.
Jeśli chodzi o strategie dostosowania, poza Constitutional AI, Anthropic eksperymentuje z technikami takimi jak skalowalny nadzór (czy możemy mieć systemy AI pomagające monitorować i trenować inne AI), testowanie adwersarialne (próby wywołania złych zachowań w bezpiecznym środowisku testowym) oraz empiryczne bezpieczeństwo (pomiar takich rzeczy jak uczciwość czy wskaźniki toksyczności). Są znani z ram oceny „HARNESS”, które testują modele na szerokim zakresie trudnych promptów. Anthropic po prostu trenuje też swoje modele, by odmawiały większej liczby rzeczy: Claude jest generalnie bardziej konserwatywny w tym, czego nie zrobi, w porównaniu do surowych modeli GPT. W jednym z porównań Claude rzadziej udzielał niebezpiecznych instrukcji lub angażował się w mowę nienawiści, choć czasem może być zbyt ostrożny (np. odmawiając nieszkodliwych próśb, jeśli wydawały się potencjalnie niedozwolone).
Otwartość i dostęp do modelu: Anthropic zajmuje stanowisko pośrednie w kwestii otwartości. Opublikowali artykuły naukowe opisujące metody (w przeciwieństwie do OpenAI, które początkowo nawet nie opublikowało pracy o GPT-4) i współpracują z środowiskiem akademickim. Jednak podobnie jak OpenAI, nie udostępniają swoich pełnych modeli na zasadach open source. Claude jest dostępny przez ograniczone API i interfejs czatu, nie można go pobrać. Zdaniem Anthropic, otwarte udostępnienie wag potężnego modelu wiązałoby się z ryzykiem ich niewłaściwego użycia lub nieodpowiedzialnych modyfikacji. Co ciekawe, Dario Amodei uważa, że „open source” jako koncepcja nie przekłada się wprost na AI. „Nie sądzę, żeby open source działało w AI tak samo, jak w innych dziedzinach” – powiedział, zauważając, że w przeciwieństwie do oprogramowania, w przypadku AI „nie można łatwo zajrzeć do wnętrza modelu”, więc otwarte wagi nie dają takiej przejrzystości, jakiej ludzie się spodziewają. Twierdził też, że korzyści z open source w oprogramowaniu (wiele oczu poprawiających kod itd.) mają mniejsze zastosowanie do modeli AI – bo tylko nieliczni mają zasoby, by trenować lub znacząco ulepszać te ogromne modele. Jak sam mówi: „kiedy pojawia się nowy model… nie obchodzi mnie, czy jest open source, czy nie. Pytam: czy to dobry model? Czy jest lepszy od nas w ważnych kwestiach? Tylko to mnie interesuje.”. Sugeruje to, że Anthropic skupia się na utrzymaniu przewagi w możliwościach, a nie na sporze open vs closed – i wierzą, że jeśli Claude pozostanie najlepszy, firmy będą z niego korzystać nawet, jeśli pojawią się otwarte alternatywy. Rzeczywiście, nazwał open source „fałszywym tropem” w kontekście prawdziwej konkurencji.
Mimo to Anthropic nie jest wrogi otwartym badaniom – udostępnili open source niektóre mniejsze modele i narzędzia (na przykład model o 4 miliardach parametrów do celów badawczych oraz swoje zestawy ewaluacyjne). Prawdopodobnie nie wypuszczą modeli na poziomie Claude bez silnych gwarancji bezpieczeństwa lub odpowiednich ram regulacyjnych. To stanowisko stało się istotne, gdy Meta wypuściła LLaMA, a inni zaczęli ją dostrajać w sposób omijający zabezpieczenia; stanowisko Anthropic podkreśliło, dlaczego nie udostępniają Claude w otwarty sposób.
Finansowanie i partnerstwa: Niezależność Anthropic jest wspierana przez duże inwestycje ze strony gigantów technologicznych, którzy próbują zdobyć pozycję w AI. Na początku 2023 roku Google zainwestowało około 400 milionów dolarów w Anthropic za około 10% udziałów, a Anthropic zobowiązał się do korzystania z infrastruktury TPU Google Cloud. Było to postrzegane jako strategiczny ruch Google, by mieć drugiego dostawcę zaawansowanej AI (na wypadek, gdyby OpenAI związało się z Microsoftem). Później w 2023 roku Amazon wszedł z jeszcze większą umową: początkowo zainwestował 1,25 miliarda dolarów (z opcją do 4 miliardów) w zamian za to, że Anthropic będzie używać AWS jako głównej chmury, a Amazon uzyska priorytetową integrację modeli Anthropic w usługach AWS. Obecnie Anthropic jest de facto partnerem dwóch konkurentów, Google i Amazon, co jest wyjątkową sytuacją. Korzystają zarówno z TPU Google, jak i z autorskich chipów Amazona (AWS Trainium/Inferentia) do trenowania modeli. Z perspektywy Anthropic takie podejście multi-cloud zapewnia redundancję i ogromne zasoby obliczeniowe – obie umowy pozwalają im też kupować drogi sprzęt GPU/TPU za pieniądze inwestorów.
Anthropic otrzymał także dotacje i pożyczki od funduszy powiązanych z efektywnym altruizmem (niektórzy wczesni zwolennicy mieli związki z filozofią EA, koncentrującą się na redukcji ryzyka egzystencjalnego). Jego wycena wzrosła do około 5 miliardów dolarów do 2023 roku, a dzięki umowie z Amazonem prawdopodobnie jest znacznie wyższa. W przeciwieństwie do OpenAI, Anthropic nie posiada własnego produktu konsumenckiego generującego przychody na dużą skalę (brak odpowiednika subskrypcji ChatGPT). Zamiast tego zarabia, pobierając opłaty za korzystanie z API Claude (na przykład firmy płacą za każdy milion wygenerowanych znaków). Strategia Anthropic wydaje się być ukierunkowana na rynek przedsiębiorstw i deweloperów, które oczekują zaufanego modelu. Na przykład Anthropic nawiązał współpracę ze Slackiem: funkcja Slack AI wykorzystuje Claude do podsumowywania kanałów i odpowiadania na pytania, z argumentem, że Claude jest „mniej skłonny do generowania toksycznych lub niebezpiecznych treści”. Mają także klientów takich jak Quora (która oferuje Claude na swojej platformie Poe) oraz podobno niektóre firmy z branży finansowej i prawnej, które preferują nacisk Anthropic na bezpieczeństwo.Percepcja publiczna i wypowiedzi: Dario Amodei jest mniej rozpoznawalny publicznie niż Sam Altman, ale coraz częściej zabiera głos. W wywiadzie dla The Atlantic zauważył, że „mówimy o tych rzeczach (dotyczących ryzyka AI) od jakiegoś czasu, ale w miarę zbliżania się do tych potężnych systemów, mówię o tym coraz dobitniej”. Próbował zerwać z etykietą „doomera”, podkreślając zrównoważony przekaz: Anthropic często podkreśla korzystne zastosowania Claude (np. jego zdolność do wspierania badań lub burzy mózgów) w postach na blogu i unika wyłącznie ponurej narracji. Mimo to Amodei nie ukrywa, że „krótkie horyzonty czasowe” motywują jego pilność. W niedawnym podcaście odmówił podania konkretnego roku osiągnięcia AGI, ale zasugerował przeczucie, że to nie jest daleka perspektywa, o ile nie nastąpi nagłe spowolnienie postępu (któremu przypisuje tylko około 20% szans). Bagatelizuje także znaczenie niejasnych terminów takich jak „AGI” czy „superinteligencja”, nazywając je „całkowicie bez znaczenia – nie wiem, czym jest AGI”. Dla niego to kontinuum możliwości; Anthropic skupia się na mierzalnym postępie i konkretnych ryzykach na każdym etapie.
Ciekawostka: Anthropic dosłownie napisał „Konstytucję” dla Claude i udostępnił ogólne zasady (np. Wybierz odpowiedź najbardziej wspierającą prawa człowieka i wolność; Wybierz odpowiedzi maksymalnie pomocne i nieszkodliwe; Unikaj treści toksycznych lub dyskryminujących, itp.). Tak przejrzyste przedstawienie wartości jest dość nietypowe w porównaniu do OpenAI, które głównie zajmuje się dopasowaniem modeli za zamkniętymi drzwiami, korzystając z opinii ludzi. Pokazuje to skłonność Anthropic do jawnego, opartego na zasadach dopasowania, niemal jak wychowywanie AI-dziecka według zestawu reguł.
Jak dotąd Anthropic w dużej mierze unikał poważnych skandali lub przypadków nadużyć związanych z Claude. Musiał jednak stale udoskonalać Claude po tym, jak użytkownicy znajdowali sposoby na generowanie przez niego zabronionych treści (za pomocą promptów „jailbreak”). Jednak dzięki konstytucyjnej AI, Claude często sam się poprawiał nawet po złamaniu zabezpieczeń – np. początkowo generował kilka linijek brutalnej historii, po czym przerywał, stwierdzając „to wydaje się naruszać wytyczne”. Ten częściowy sukces przyniósł Anthropic szacunek w społeczności zajmującej się bezpieczeństwem. Jeśli OpenAI jest wzorem podejścia najpierw możliwości, Anthropic jest przykładem rozwoju najpierw dopasowanie (lub przynajmniej dopasowanie równoległe).
Podsumowując, Anthropic wyznacza sobie rolę ostrożnego, zasadniczego laboratorium AI. Konkurując bezpośrednio z OpenAI (Claude kontra GPT-4 to bezpośredni rywale), sprzedaje się hasłem „Jesteśmy bardziej rygorystyczni w kwestii bezpieczeństwa i zgodności.” Zakład Anthropic polega na tym, że wiele firm (a być może także rządów) będzie wolało AI, które jest nieco bardziej powściągliwe i mniej skłonne do nieprzewidywalnych działań, nawet jeśli oznacza to nieco mniejsze możliwości lub wolniejsze aktualizacje. Inwestując mocno w badania nad zgodnością, Anthropic ma nadzieję ostatecznie uzyskać przewagę techniczną w kontrolowaniu AI – coś, co może stać się jego największym atutem, jeśli/gdy pojawi się AI przewyższająca człowieka. Jak ujął to Dario Amodei, „staramy się być jednymi z tych, którzy wyznaczają standardy bezpiecznego działania”, co według niego jest „jedynym sposobem na odblokowanie pełnych korzyści” z AI bez ryzyka katastrofy.
Google DeepMind: Połączenie imperiów AI dla „odpowiedzialnych” genialnych maszyn
Spośród wszystkich graczy, Google (obecnie pod skrzydłami Alphabet) ma być może najbardziej rozbudowane dziedzictwo AI. Google zajmowało się AI zanim to stało się modne – wykorzystywało uczenie maszynowe do rankingów wyszukiwania i reklam już w latach 2000., przejęło DeepMind w 2014 roku i wynalazło kluczowe technologie, takie jak Transformer w 2017 roku (co umożliwiło obecną rewolucję LLM). Do 2025 roku wysiłki Google w dziedzinie AI są zjednoczone pod szyldem Google DeepMind, nowego działu powstałego z połączenia zespołu Brain z Google Research z londyńskim DeepMind. To połączenie, ogłoszone w kwietniu 2023 roku, było sygnałem determinacji Google, by konkurować na najwyższym poziomie AI i wyeliminować wewnętrzną rywalizację. Szefem Google DeepMind jest Demis Hassabis (współzałożyciel DeepMind), a wieloletni szef AI Google, Jeff Dean, przeszedł do roli doradcy.
Wizja i cele: Mantrę Google DeepMind można opisać jako „rozwiązać inteligencję, bezpiecznie”. Oryginalna misja DeepMind brzmiała „Rozwiązać inteligencję, by rozwijać naukę i ludzkość”. Demis Hassabis często mówi o budowie AGI – jest jednym z nielicznych poza Altmanem, którzy otwarcie używają tego terminu w pozytywnym kontekście. „Tworzenie AGI to dzieło mojego życia,” powiedział Time, a wierzy w to od czasów studiów z neurobiologii. Pogląd Hassabisa na AGI jest optymistyczny, ale połączony z zasadniczym podejściem: widzi w tym potencjalnie „najbardziej korzystną technologię w historii” – umożliwiającą leczenie chorób, rozwiązania klimatyczne, przełomy naukowe – „jak kawaleria” przybywająca, by rozwiązać problemy, z którymi ludzie sami sobie nie poradzą. Ostrzegał jednak przed podejściem „działaj szybko i psuj rzeczy”. Już w 2022 roku (przed ChatGPT) krytykował niektórych rywali za lekkomyślność, porównując ich do ludzi, którzy „nie zdają sobie sprawy, że trzymają niebezpieczny materiał”. „Zalecałbym, by nie działać szybko i nie psuć rzeczy,” powiedział dobitnie – co prawdopodobnie było przytykiem do etosu Doliny Krzemowej, a być może także do szybkiego wdrażania przez OpenAI.
Google pozycjonuje się jako odpowiedzialny pionier AI. Sundar Pichai, CEO Google, powiedział, że AI jest „bardziej przełomowa niż ogień czy elektryczność” w swoim wpływie, ale musi być wdrażana ostrożnie. Google opublikowało Zasady AI w 2018 roku (po wewnętrznym buncie dotyczącym projektu dronów wojskowych) – zobowiązując się, że nie będzie budować AI do broni, nadzoru ani naruszania praw człowieka. Co ciekawe, DeepMind miał w tym swój udział: kiedy Google przejęło DeepMind, firma ta wynegocjowała umowę, że jej technologia „nigdy nie będzie używana do celów wojskowych ani jako broń”. Jednak do 2023 roku to zobowiązanie cicho wygasło, gdy Google zaczęło sprzedawać usługi chmurowe AI wojskom (np. Google Cloud AI jest używane przez Departament Obrony USA i inne). Hassabis w 2023 roku przyznał się do tej zmiany, zasadniczo mówiąc, że była to kompromisowa decyzja podjęta przy dołączeniu do Google, aby mieć zasoby do osiągnięcia AGI.
Technologia i projekty: Podejście Google DeepMind do AI jest wieloaspektowe. Mają kilka głównych rodzin modeli i pracują nad ich połączeniem:
- PaLM (Pathways Language Model): To był flagowy LLM Google (540 miliardów parametrów) ogłoszony w 2022 roku, który wykazał silne możliwości na poziomie GPT-3. Google udoskonaliło go do PaLM 2 (który napędza Barda od 2023 roku) – PaLM 2 jest dostępny w różnych rozmiarach i świetnie radzi sobie z zadaniami wielojęzycznymi oraz rozumowaniem. PaLM 2 był trenowany na tekście i kodzie, co daje mu niezłe umiejętności programistyczne. Google uczyniło go podstawą wielu funkcji (stoi za „Pomóż mi napisać” w Gmailu i funkcjami AI w Dokumentach Google).
- Gemini: Gemini to projekt nowej generacji DeepMind, wyraźnie zaprojektowany, by konkurować z GPT-4 lub go przewyższyć. To duży model multimodalny (podobno bilion+ parametrów lub zespół modeli), który zintegrować ma unikalne algorytmy DeepMind, takie jak uczenie przez wzmacnianie i przeszukiwanie drzewa (stosowane w AlphaGo) ze zrozumieniem języka przez LLM. Jak opisał Demis Hassabis, „budujemy Gemini, które włączy techniki z systemów podobnych do AlphaGo do LLM, by dać mu nowe możliwości, takie jak planowanie czy rozwiązywanie problemów”. Oczekuje się, że Gemini będzie w stanie analizować tekst, obrazy i potencjalnie inne dane wejściowe oraz wykonywać bardziej zaawansowane rozumowanie – być może nawet korzystać z narzędzi przez wywołania API (na co wskazują DeepMind Sparrow i wtyczki OpenAI). Google nie wypuściło Gemini do września 2025, ale oczekiwania są ogromne – niektórzy insiderzy mówią, że „trenuje na dziesiątkach tysięcy TPU” i może zostać uruchomione pod koniec 2025 roku.
- Projekty dziedzictwa DeepMind: DeepMind zdobył sławę dzięki AlphaGo (który pokonał mistrza świata w Go w 2016 roku) i kolejnym systemom, takim jak AlphaZero (który sam nauczył się szachów, shogi, Go od zera) oraz AlphaFold (który rozwiązał problem zwijania białek, 50-letnie wyzwanie biologii, przynosząc Hassabisowi udział w Nagrodzie Nobla w dziedzinie chemii w 2024 roku). Te sukcesy wynikały z uczenia przez wzmacnianie (RL) i innych wyspecjalizowanych technik (jak przeszukiwanie drzewa Monte Carlo dla gier). DeepMind opracował także Deep Reinforcement Learning do zadań robotycznych i nawigacyjnych. Jednak te techniki nie przekładały się od razu na ogólne rozmowy czy zadania programistyczne – w tym właśnie przodują duże modele językowe. Połączenie z Google Brain (który specjalizował się w LLM i modelach wizji komputerowej) umożliwiło wymianę doświadczeń. Na przykład, transformatory Brain + agenci RL DeepMind mogą prowadzić do agentów, którzy myślą (LLM), a następnie działają w środowisku, udoskonalając swoje działania przez RL.
Konkretny przykład: DeepMind zbudował agentów podobnych do ChatGPT wcześniej – w szczególności Sparrow, agenta dialogowego, który uczył się na podstawie informacji zwrotnej od ludzi i był bezpieczniejszy (mniej podatny na dezinformację) niż wcześniejsze chatboty. Jednak DeepMind nigdy nie wprowadził Sparrowa szeroko na rynek. Po eksplozji popularności ChatGPT, Google w pośpiechu wypuścił własnego chatbota Bard (prowadzonego przez zespół Brain z modelem PaLM). Bard miał niepewny start (błędy merytoryczne w demonstracji podczas premiery zaszkodziły akcjom Google). W 2023 roku Google ulepszył Barda, aktualizując go do PaLM 2 i dodając funkcje takie jak połączenie z usługami Google (mapy, YouTube) oraz pomoc w kodowaniu. Mimo to Bard był postrzegany jako pozostający w tyle za GPT-4. Wewnętrznie prowadziło to do frustracji – którą połączenie z DeepMind miało rozwiązać poprzez połączenie talentów.
Inna dziedzina: dostosowanie i bezpieczeństwo AI. DeepMind ma ugruntowaną jednostkę badawczą ds. bezpieczeństwa AI, jedną z największych na świecie, kierowaną przez badacza Shane’a Legga i innych. Pracowali nad interpretowalnością (np. wizualizacją tego, co neurony w modelach wizji wykrywają), odpornością (zapewnienie, że modele nie zostaną zmyleni przez atakujące dane wejściowe), oraz modelowaniem nagród (aby agenci RL poprawnie uczyli się ludzkich preferencji). DeepMind publikował na tematy takie jak unikanie oszukiwania systemu nagród (gdy AI znajduje sposób na uzyskanie wysokiej nagrody, który nie jest pożądanym zachowaniem). Badają także teoretyczne ramy AI – np. współzałożyciel DeepMind Shane Legg kiedyś zdefiniował inteligencję w sposób matematyczny, a zespół ma wielu doktorów myślących o długoterminowych strukturach AGI.
Otwartość vs Zamknięcie, Dzielenie się vs Tajemnica: Google historycznie skłania się ku akademickiemu publikowaniu badań (Transformer, word2vec i wiele przełomów pochodziło z publikacji Google). Jednak jeśli chodzi o produkty, Google jest raczej zamknięty. Nie udostępnił otwarcie wag modeli PaLM ani PaLM 2 (choć wypuścił mniejsze modele jak BERT w 2018, co pobudziło badania NLP). Pod presją konkurencji Google zachowywał ostrożność – długo trzymał LaMDA (model konwersacyjny, o którym inżynier Google twierdził, że jest „świadomy”) wewnętrznie. Dopiero po ChatGPT zamienił LaMDA w publiczne demo (Bard). Wahanie Google wynika częściowo z reputacji i zaufania do marki: jako najczęściej używana wyszukiwarka i zaufany dostawca poczty/dokumentów, ryzykuje większy sprzeciw, jeśli jego AI powie coś obraźliwego lub nieprawidłowego. Rzeczywiście, po wczesnym błędzie Barda, Google jest ostrożny, nazywając swoje AI „eksperymentalnym” i dodając zastrzeżenia.
DeepMind jako niezależna jednostka miała większą swobodę publikowania i często udostępniała open-source symulatory środowisk, niektóre mniejsze modele itp. Teraz jako Google DeepMind, prawdopodobnie istnieje bardziej zintegrowana strategia: publikować podstawową naukę, ale zachowywać najbardziej zaawansowane wagi modeli jako własność firmy. Google umożliwia badaczom dostęp do niektórych modeli przez swoje API i chmurę (np. można korzystać z PaLM 2 i nadchodzących modeli przez Vertex AI w Google Cloud na odpowiednich warunkach). Google udostępnił także niektóre narzędzia odpowiedzialnej AI jako open-source – np. TensorFlow Responsible AI Toolkit do analizy uprzedzeń modeli.
Kultura i przywództwo: Demis Hassabis i jego zespół wnoszą nieco inną kulturę – DeepMind było znane z „naukowego, akademickiego” klimatu, z wieloma naukowcami z tytułem doktora, naciskiem na badania długoterminowe, a nawet troską o etykę (mieli wewnętrzną radę etyczną i pierwotnie nalegali na klauzulę o niestosowaniu wojskowym). Kultura Google jest bardziej nastawiona na produkt i wskaźniki. Dochodziło do pewnych zgrzytów kulturowych: doniesienia z 2023 roku sugerowały tarcia między ludźmi z Google Brain a DeepMind, a także między badaczami a zarządem (zwłaszcza po tym, jak Google zwolniło część członków zespołu ds. etyki AI w latach 2020–21 podczas incydentu z Timnit Gebru, który nie był związany z DeepMind, ale zaszkodził reputacji Google w zakresie etyki AI).
Jednocząc się pod jednym przywództwem (Hassabis), Google wydaje się stawiać na naukową rzetelność DeepMind oraz infrastrukturę i skalę Brain. Hassabis po fuzji stał się bardziej publicznym rzecznikiem. W podcastach (np. Hard Fork NYTimes, luty 2024) podkreślał przewagę Google: „Mamy możliwość trenowania tych modeli na dużą skalę, mamy talenty, mamy dekadę badań”. Wyraził też pewną ukrytą krytykę OpenAI, podkreślając ostrożny rozwój: „Musimy unikać ryzyk… źli aktorzy mogą nadużyć AI, a gdy modele stają się coraz bardziej agentowe (autonomiczne), musimy zapewnić, że pozostaniemy nad nimi w kontroli”, powiedział Time. Dwie największe obawy Hassabisa: (1) nadużycie przez osoby o złych intencjach – wykorzystanie AI do tworzenia broni biologicznej, zaawansowanych cyberataków, propagandy itp. (2) „samo AI”, jeśli wymknie się spod kontroli – jak powiedział, „gdy stanie się bardziej autonomiczne… jak zapewnić, że możemy pozostać odpowiedzialni, kontrolować je, interpretować, co robią… nałożyć zabezpieczenia, których bardzo zaawansowane, samodoskonalące się systemy nie będą mogły usunąć?”. To pokrywa się z głównym nurtem obaw o bezpieczeństwo AI (i jest podobne do tego, co mówi OpenAI, choć Hassabis zwykle wyraża to bardziej konkretnie w kategoriach wyzwań technicznych).
Co ciekawe, Hassabis wskazuje także na potrzebę globalnego zarządzania: „Te systemy mogą wpływać na wszystkich wszędzie… potrzebujemy międzynarodowych standardów dotyczących tego, jak są budowane, jakie cele im się wyznacza i jak są wdrażane”. Opowiada się za czymś na wzór globalnych regulacji lub porozumień dotyczących AI, biorąc pod uwagę bezgraniczny charakter AI. Google bierze udział w międzynarodowych dyskusjach (np. polityka AI OECD, „proces Hiroszima AI” G7 itd.) i prawdopodobnie odegra kluczową rolę w przyszłych regulacjach.
Nie można mówić o Google bez wspomnienia o konkurencji z OpenAI/Microsoft. Rywalizacja jest zacięta. W połowie 2023 roku pojawiły się doniesienia, że Google postrzega dominację OpenAI z ChatGPT jako poważne zagrożenie dla swojego biznesu wyszukiwarki (jeśli odpowiedzi AI przejmą zapytania wyszukiwania, model reklamowy Google może zostać podważony). Google odpowiedziało projektem „Project Magi”, aby dodać AI do wyszukiwarki, i faktycznie teraz Search Generative Experience (SGE) Google jest wdrażane, oferując podsumowania AI nad wynikami wyszukiwania dla niektórych zapytań – choć ostrożnie, ponieważ błędy lub stronniczość w wynikach wyszukiwania mogłyby być szkodliwe. Stawka została określona jako egzystencjalna dla podstawowego produktu Google. Jak ujął to jeden z analityków, „Google nie ma wyboru, musi postawić na AI – jeśli przegapią tę falę, ich główny biznes może się załamać.”
Tę pilność widać w tym, jak wydatki Google na AI poszybowały w górę. W 2023 roku informowano, że Google zainwestuje w samym tylko tym roku ponad 30-40 miliardów dolarów w badania i rozwój AI oraz infrastrukturę. Zbudowano nowe klastry TPU v4 (każdy klaster zdolny do 1 exaFLOP, zawierający tysiące chipów) do trenowania modeli takich jak Gemini. Przeznacza też ogromne moce centrów danych na AI. Ciekawa liczba: Google, Microsoft i Meta razem odpowiadały za większość światowych zakupów zaawansowanych chipów AI w 2024 roku – zasadniczo przejmując moc obliczeniową potrzebną do trenowania modeli nowej generacji, co może stanowić przewagę konkurencyjną.
Podsumowując, Google DeepMind: Stosują naukowe podejście z naciskiem na przełomowe odkrycia (stawiają na jakość i bezpieczeństwo, nie tylko najszybsze wejście na rynek), ale obecnie muszą też dostarczać produkty AI na dużą skalę, by konkurować. Ich mocne strony to talent (pracuje tam wielu czołowych badaczy AI na świecie), moc obliczeniowa (farmy TPU), dane (ogromne zasoby Google z wyszukiwarki, YouTube itd.) oraz integracja (miliardy użytkowników Gmaila, Androida itd., gdzie można wdrażać AI). Wyzwania to przezwyciężenie własnej ostrożności i biurokracji – można uznać, że spóźnili się na falę produktów generatywnej AI. Jednak dzięki połączeniu sił i nadchodzącemu Gemini, Google DeepMind jest jednym z głównych pretendentów w wyścigu do AGI.
Spodziewaj się, że Google będzie wdrażać AI wszędzie: Sztuczna inteligencja Google pojawi się w Twoim telefonie (asystent osobisty z umiejętnościami konwersacyjnymi), w pracy (Google Workspace z funkcjami generatywnymi), w opiece zdrowotnej (Med-PaLM od DeepMind jest już testowany do udzielania odpowiedzi na pytania medyczne z ekspercką precyzją) i nie tylko. A jeśli historia DeepMind czegoś uczy, będą też publikować artykuły w Nature i Science o AI odkrywającej nowe algorytmy lub osiągającej wyczyny, takie jak sterowanie reaktorami syntezy jądrowej (co DeepMind zrobił w 2022 roku). Chcą prestiżu przewodzenia w nauce o AI, a nie tylko wdrażania sprytnego chatbota.
Jeśli chodzi o wartości, przekaz Google to „AI dla dobra, AI dla wszystkich, ale wdrażana odpowiedzialnie według naszych zasad.” To trochę korporacyjny slogan, ale rzeczywiście inwestują w sprawiedliwość, redukcję uprzedzeń i inkluzywność (na przykład szkolenie modeli Google uwzględnia wiele języków – Bard wystartował w ponad 40 językach, podczas gdy ChatGPT od OpenAI początkowo był najmocniejszy po angielsku). Kierownictwo Google (Pichai, Hassabis) podkreślało także korzyści edukacyjne i równościowe AI – jak może ona zapewnić nauczanie na poziomie eksperckim każdemu dziecku z dostępem do internetu lub pomóc osobom nieanglojęzycznym poprzez natychmiastowe, dokładne tłumaczenia treści. To szerokie, globalne podejście jest częściowo altruistyczne, częściowo biznesowe (baza użytkowników Google jest globalna, w przeciwieństwie do OpenAI, które wyrosło z zachodniej bazy użytkowników). Współgra to z tożsamością Google jako firmy, która „organizuje informacje świata” – a teraz dąży do „organizowania światowej inteligencji.”
Meta (Facebook): Ambicje open-source w nowym tonie
Meta Platforms (dawniej Facebook) weszła do wyścigu AI w odmienny sposób: promując otwarte badania i modele open-source. Pod kierownictwem CEO Marka Zuckerberga, laboratorium AI Meta (FAIR – Fundamental AI Research) udostępniło więcej kodu i modeli publicznie niż prawdopodobnie jakakolwiek inna duża firma technologiczna. Na początku 2023 roku Meta wzbudziła sensację, prezentując LLaMA, zestaw dużych modeli językowych (od 7B do 65B parametrów), które osiągnęły wysoką wydajność i były udostępniane (indywidualnie) badaczom. Choć nie były one „open source” na licencji (początkowe wagi LLaMA były objęte licencją badawczą bez możliwości komercyjnego wykorzystania), model wyciekł do sieci i wkrótce społeczności zaczęły go dostrajać na różne sposoby – także nieautoryzowane. Zamiast się wycofać, Meta podwoiła wysiłki: w lipcu 2023 ogłosiła LLaMA 2, tym razem w pełni otwarty (dostępny do użytku komercyjnego na stosunkowo liberalnych warunkach) i współudostępniony z Microsoftem na platformie Azure. To uczyniło z Meta sztandarowego przedstawiciela otwartych LLM, zdobywając uznanie wśród deweloperów i naukowców, którzy zostali pominięci w zamkniętym reżimie GPT-4.
Filozofia – „AI dla wszystkich” poprzez otwartość: Kierownictwo Meta argumentowało, że udostępnianie modeli AI jako open-source czyni je bezpieczniejszymi i bardziej odpornymi. Yann LeCun, główny naukowiec AI w Meta (i laureat Nagrody Turinga, pionier deep learningu), był bardzo aktywny w tej kwestii: „Otwarte badania i open source to najlepsze sposoby na zrozumienie i ograniczenie [ryzyk AI],” napisał. LeCun często podkreśla, że im więcej osób patrzy na model, tym więcej może znaleźć błędów i je naprawić. Porównuje to do początków internetu: „bitwa o infrastrukturę internetu w latach 90. – open source (Linux, Apache) kontra własnościowe (Microsoft)… open source wygrał i był bezpieczniejszą drogą”, mówi. Podobnie, twierdzi, jeśli kilka firm trzyma ogromne modele AI za zamkniętymi drzwiami, to koncentruje władzę i ryzyko; ale jeśli wiele osób ma dostęp, demokratyzuje to nadzór i innowacje.
Sam Zuckerberg początkowo w pełni to popierał. Zapytany przez Lexa Fridmana, dlaczego Meta udostępnia swoje modele, Zuckerberg odpowiedział, że „tego chcą moi inżynierowie” i że otwartość może przyciągnąć najlepsze talenty, które chcą publikować i współpracować. Meta rzeczywiście była bardzo otwarta w badaniach: udostępnili model OPT (175B) w 2022 roku (odtwarzając GPT-3), Open Pretrained Transformers oraz wiele mniejszych modeli (do wizji, tłumaczeń itp.). Stworzyli także frameworki takie jak PyTorch (który Meta udostępniła jako open-source i który stał się jednym ze standardowych narzędzi AI na świecie). Kulturowo, laboratorium AI Meta skupia wielu naukowców preferujących otwartą współpracę.
Jednakże, niedawne zmiany sugerują, że absolutna otwartość Meta może zostać złagodzona przez pragmatyzm. W połowie 2025 roku Zuckerberg napisał notatkę, że „osiągnięcie superinteligencji jest już w zasięgu ręki” dla Meta, chwaląc się oznakami samodoskonalenia AI. Dodał jednak, że Meta będzie „ostrożna w tym, co zdecydujemy się udostępnić jako open-source” oraz „skrupulatna w łagodzeniu ryzyk” przy zaawansowanych modelach. To zauważalna zmiana w stosunku do jego stanowiska z 2024 roku, gdy twierdził, że open-source „czyni AI bezpieczniejszym”. W istocie Meta zasygnalizowała, że choć popiera otwarty rozwój większości AI, jeśli model jest wyjątkowo potężny lub niesie nowe zagrożenia, mogą go nie udostępnić publicznie. Rzeczywiście, raport w The Financial Times (sierpień 2025) twierdził, że niektórzy dyrektorzy Meta debatowali, czy „wycofać inwestycje” z LLaMA i zamiast tego używać zamkniętych modeli OpenAI/Anthropic do niektórych usług. Rzecznik Meta odpowiedział: „pozostajemy w pełni zaangażowani w rozwój Llama i planujemy wiele kolejnych wydań w tym roku”, powtarzając wsparcie dla ich otwartego planu rozwoju modeli. Jednak analitycy uznali to za przyznanie przez Meta potencjalnych negatywnych skutków niekontrolowanego udostępniania wyjątkowo zaawansowanych modeli.
Dlaczego więc te sprzeczne sygnały? Może to wynikać z presji konkurencyjnej i potrzeb produktowych. Meta zdała sobie sprawę, że otwarte modele pozwalają innym (nawet konkurentom) korzystać i czasem ich wyprzedzać. Przykład: otwarty LLaMA 65B wyciekł, a wkrótce niezależni deweloperzy dostroili go do wariantów, które dorównywały ChatGPT w niektórych zadaniach. Jedna organizacja nawet odchudziła go tak, by działał na telefonie. To dowiodło, że otwartość napędza szybkie innowacje – ale nie wszystkie pod kontrolą Meta lub na jej korzyść. Dochodzą też obawy o odpowiedzialność: jeśli ktoś użyje LLaMA 2 do generowania szkodliwych treści lub złych działań, Meta może spotkać się z krytyką lub problemami prawnymi (prawo UE może częściowo obarczać dostawców modeli odpowiedzialnością). Meta prawdopodobnie chce uniknąć bycia źródłem katastrofy AI. Może więc przyjąć podejście „open-source dla modeli poprzedniej generacji, zamknięte dla najnowszych”.
Podejście techniczne: Badania AI Meta obejmują zarówno podstawowy rozwój modeli, jak i integrację AI z ogromnymi platformami społecznościowymi:
- Seria LLaMA: Jak wspomniano, to rodzina modeli językowych Meta. Siłą LLaMA była wydajność: osiągała jakość podobną do większych modeli przy mniejszej liczbie parametrów, dzięki treningowi na wysokiej jakości danych (w tym większej liczbie języków i kodu) oraz dłuższemu czasowi uczenia. LLaMA 1 nie została wdrożona w produktach, ale LLaMA 2 została wydana jako open-source i udostępniona przez partnerów (Azure, AWS, Hugging Face), aby deweloperzy mogli łatwo z niej korzystać. Meta stworzyła także wersje dostrojone (Llama-2-Chat) zoptymalizowane do dialogu. Nadal rozwijają tę serię – LLaMA 3 lub model „Beast” są przedmiotem plotek, być może z użyciem Mixture-of-Experts (MoE), by skalować dalej bez drastycznego zwiększania rozmiaru pojedynczego modelu. TechRepublic donosił, że Meta miała wewnętrzną wersję nazwaną „Behemoth” z MoE, ale została opóźniona, ponieważ nie przewyższała znacząco obecnych modeli.
- Multimodalność i Agenci: Meta nie wypuściła jeszcze publicznie multimodalnego odpowiednika GPT-4, ale pracują nad tym. FAIR prowadzi projekty takie jak ImageBind (wspólne osadzanie tekstu, obrazu, dźwięku itd.) oraz Segment Anything (otwarty model, który potrafi wyciąć dowolny obiekt z obrazu – szeroko chwalony w społeczności CV). Mają też prototyp o nazwie „CM3leon”, model tekst-na-obraz, i inwestują w generatywną AI do obrazów i wideo (do wykorzystania na Instagramie i przy tworzeniu reklam). Jeśli chodzi o zachowania agentów, Meta stworzyła frameworki takie jak Horizon do uczenia ze wzmocnieniem (stosowane do personalizacji algorytmów feedu). Nie byłoby zaskoczeniem, gdyby Meta wkrótce połączyła LLaMA z modułami decyzyjnymi, by stworzyć agentów zdolnych do działania (wyobraź sobie przyszłego asystenta AI w WhatsApp, który nie tylko rozmawia, ale też wykonuje zadania, np. rezerwuje bilety – platformy Meta mogą to umożliwić). Zuckerberg mówił o „osobowościach AI” – postaciach lub asystentach, z którymi można pisać w Messengerze/Instagramie. W rzeczywistości, pod koniec 2023 roku Meta ogłosiła plany wdrożenia chatbotów AI o różnych osobowościach (np. mówiącego jak Abraham Lincoln itd.) w swoich aplikacjach społecznościowych jako nowość i funkcję angażującą.
- Rekomendacje i reklamy: Choć nie są tak efektowne jak LLM-y, Meta szeroko wykorzystuje AI do napędzania swoich kluczowych produktów: News Feeda, rekomendacji Instagram Reels, targetowania reklam itd. Mają ogromne modele rzadkie do tych celów (np. algorytm o nazwie DINO do rozumienia treści oraz Deep Learning Recommendation Model (DLRM) do reklam). Są one bardziej zadaniowe, ale niezwykle ważne dla przychodów. Meta wdraża do tych systemów nowe techniki AI (transformatory itd.). Prawdopodobne jest, że innowacje z LLM-ów (np. lepsze rozumienie języka) zostaną wykorzystane do ulepszenia sposobu, w jaki Facebook wyświetla grupy/posty lub moderuje treści.
Wypowiedzi publiczne i perspektywy: Mark Zuckerberg historycznie nie był twarzą AI jak Altman czy Hassabis – jego obsesją był metaverse (stąd zmiana nazwy firmy na Meta). Jednak od 2023 roku coraz bardziej skupia się także na AI, przyznając, że „AI przynosi dobre wyniki dla naszego biznesu… i jest też ekscytującą przestrzenią dla nowych produktów”. Wewnątrz firmy stał się bardzo zdeterminowany, by Meta nie została w tyle. Według doniesień NYT, po tym jak zobaczył, że OpenAI i inni wyprzedzają, Zuck zaangażował się osobiście – zakładał grupy WhatsApp z najważniejszymi menedżerami, by burzyć mózgi nad strategią AI, zdegradował szefa AI, który nie dowiózł wyników, i osobiście rekrutował talenty AI, oferując duże wynagrodzenia. To klasyczny zwrot konkurencyjny: od skupienia na VR/metaverse w latach 2021-22 do zwrotu w stronę AI w 2023. Inwestorzy odetchnęli z ulgą – ogromne wydatki Meta na metaverse jeszcze się nie zwracały, ale inwestycje w AI (np. ulepszanie sugestii Reels) zwiększały zaangażowanie użytkowników.
Publiczne wypowiedzi Zuckerberga w latach 2023-24 próbowały umniejszać narracji o wyścigu: „Od lat budujemy zaawansowaną AI – napędza nasze platformy; nie jesteśmy w tyle.” Ale wyraźnie Meta czuła presję. Jeden z wyższych inżynierów Meta został zacytowany, mówiąc, że firma miała „mniejsze doświadczenie z uczeniem ze wzmocnieniem… które inni wykorzystywali do budowy AI,” co częściowo tłumaczy opóźnienie Meta w chatbotach. Ponadto, w przeciwieństwie do Google czy OpenAI, Meta nie miała komercyjnej usługi chmurowej ani asystenta konsumenckiego do prezentowania AI – musiała wprowadzać AI do istniejących produktów społecznościowych lub ofert dla deweloperów.
Pogląd Yanna LeCuna: Jako szanowana postać, LeCun często prezentuje kontrariański pogląd na temat ryzyka związanego ze sztuczną inteligencją. Twierdzi, że obecna AI jest daleka od AGI i gani tych, którzy przewidują rychłe pojawienie się świadomości, jako niedoinformowanych. Zażartował, że „nie mamy nawet planu systemu mądrzejszego od kota domowego”, zachęcając ludzi do zachowania spokoju w kwestii superinteligencji. Twierdzi również, że prawdziwie autonomiczna AI będzie wymagać nowych paradygmatów (jak jego badania nad uczeniem samonadzorowanym i ucieleśnioną AI). W jego wizji AI musiałaby uczyć się jak zwierzę/człowiek – poprzez eksplorację świata, posiadanie instynktów, integrację wielu modułów (wzrok, rozumowanie, pamięć). Podejrzewa, że samo skalowanie LLM nie wystarczy do osiągnięcia prawdziwego AGI. Dlatego badania Meta pod kierunkiem LeCuna obejmują takie rzeczy jak modele z rozszerzoną pamięcią, modele świata dla agentów itd., wykraczając poza samo skalowanie transformerów.
Ze względu na skeptycyzm LeCuna wobec AI-doom i silne poparcie dla otwartości, Meta stała się de facto głosem opozycji wobec narracji, którą czasem promują OpenAI/Anthropic (dotyczącej ryzyka egzystencjalnego i potrzeby licencjonowania). „Gadanie o końcu świata to kompletna bzdura,” napisał LeCun dosadnie i ściera się w mediach społecznościowych z takimi osobami jak Elon Musk czy Max Tegmark w tych kwestiach. To sprawia, że wewnętrzne stanowisko Meta jest nieco podzielone: Zuck wewnętrznie podkreśla „superinteligencję na horyzoncie”, podczas gdy LeCun mówi „AGI jest daleko; nie panikujcie”. Oboje przedstawiają to inaczej, ale niekoniecznie są w konflikcie – notatka Zucka może być częściowo motywacyjna/konkurencyjna, podczas gdy publiczna postawa LeCuna ma na celu przeciwdziałanie żądaniom nadmiernych regulacji.
Produkty i użytkownicy: AI Meta pojawi się w kilku obszarach:
- Czaty konsumenckie: Jak wspomniano, AI-persony w czatach. Wyobraź sobie rozmowę z wirtualną postacią lub nauczycielem w Messengerze. Meta może wykorzystać swoje aplikacje do komunikacji (WhatsApp, z ponad 2 miliardami użytkowników, i Messenger), aby wprowadzić asystentów AI do codziennych rozmów, potencjalnie pomagając w takich zadaniach jak planowanie, wyszukiwanie czy po prostu rozrywka (boty postaci). Przeprowadzili ograniczone wdrożenie naklejek AI (gdzie można poprosić AI o wygenerowanie niestandardowego emoji/naklejki).
- Narzędzia do tworzenia treści: Meta zaprezentowała AI, która może pomagać twórcom – np. generować zasoby 3D do wirtualnych światów, modyfikować filmy czy pisać teksty reklamowe dla firm. Wprowadzili narzędzie o nazwie Advantage+, które wykorzystuje AI do generowania wielu wersji reklamy. Zintegrowali także AI o nazwie Chef w demonstracji, która mogła na bieżąco tworzyć różne filtry na Instagramie. Obecnie są to głównie usprawnienia „za kulisami”, ale mogą stać się narzędziami kreatywnymi dla użytkowników (by konkurować z filtrami AI TikToka itd.).
- Moderacja i integralność: Meta musi moderować ogromną ilość treści. Modele AI są tu kluczowe – do wykrywania mowy nienawiści, dezinformacji itd. Meta będzie nadal ulepszać te systemy dzięki lepszej AI. Na przykład po pojawieniu się GPT-4 pojawiły się obawy o spam generowany przez AI lub deepfake’i zalewające media społecznościowe; Meta będzie polegać na AI do wykrywania treści generowanych przez AI (kilka lat temu opracowali nawet system do wykrywania deepfake’ów twarzy). W lipcu 2023 Meta dołączyła do innych firm, zobowiązując się do oznaczania treści generowanych przez AI, więc prawdopodobnie zbudują narzędzia do oznaczania i wykrywania takich treści na swoich platformach.
- AI dla przedsiębiorstw?: Meta jest mniej skoncentrowana na klientach biznesowych niż Microsoft czy Google, ale co ciekawe, poprzez otwarcie kodu LLaMA 2 pośrednio obsługuje firmy, które chcą samodzielnie hostować modele. Nawiązała współpracę z Microsoft Azure, aby oferować LLaMA 2 w chmurze Azure, co zasadniczo pozwala klientom biznesowym korzystać z modelu Meta ze wsparciem Microsoftu. Była to trochę frenemy współpraca (Microsoft zainwestował w OpenAI, ale także pomógł wypuścić otwarty model Meta). Wskazuje to, że strategia Meta może polegać na szerokim rozpowszechnianiu swojej AI i zdobywaniu wpływów, zamiast bezpośredniej sprzedaży. Być może nie przeszkadza im, jeśli inne firmy wdrażają modele LLaMA, o ile Meta pozostaje na czele innowacji (a być może, jak spekulują niektórzy, może pośrednio zarabiać na AI poprzez większe zaangażowanie lub nowe formaty reklam tworzone przez treści AI).
Dynamika konkurencyjna: Dwaj główni konkurenci Meta w konsumenckich mediach społecznościowych, TikTok (ByteDance) i Snapchat, również postawili na AI. Snapchat dodał czatbota „My AI” opartego na GPT dla użytkowników (napędzanego przez OpenAI). TikTok intensywnie wykorzystuje AI w swoim silniku rekomendacji. Meta prawdopodobnie czuje presję, by nie tylko utrzymać zaangażowanie użytkowników dzięki funkcjom AI, ale także by inni nie kontrolowali warstwy AI na ich platformie. Wymowne jest, że Meta nie użyła zewnętrznego modelu do swoich chatbotów – zamiast podłączać GPT-4 do WhatsAppa, stworzyła własną LLaMA i nalegała na jej użycie. Kontrola i niezależność wydają się kluczowe.
Jeśli chodzi o „wyścig AI”, pozycja Meta jest wyjątkowa. Nie sprzedaje usług chmurowych AI ani nie ma wyszukiwarki do zrewolucjonizowania; jej rdzeniem są media społecznościowe i AR/VR. Można więc powiedzieć, że Meta nie ściga się do AGI dla samej idei, ale jako sposób na wzbogacenie swojego ekosystemu (lepsze doświadczenia użytkownika, nowe możliwości platformy). Jednak agresywna rekrutacja Zuckerberga do „laboratorium superinteligencji” w Meta pokazuje, że naprawdę chce być zaliczany do liderów przesuwających granice AI. Nie chce, by Meta była postrzegana jako naśladowca. „Tylko kilka firm… ma know-how, by rozwijać [superinteligencję], a Zuckerberg chce mieć pewność, że Meta się do nich zalicza,” donosił The NYT. To podsumowuje sprawę: Meta pragnie miejsca przy stole AGI.
Dlatego Meta inwestuje w fundamentalne badania nad AI, niezwiązane bezpośrednio z Facebookiem/Instagramem. Przykłady: CICERO, AI potrafiąca grać w grę Diplomacy (wymagającą negocjacji i języka naturalnego) – Meta opublikowała na ten temat artykuł w 2022 roku. I nadal publikują prace o nowych podejściach do AI (pomimo pewnych cięć; na początku 2023 roku Meta zwolniła część badaczy AI w ramach szerszych zwolnień, ale kluczowe działania AI pozostały silne).
Patrząc w przyszłość, Meta może znaleźć hybrydowy model otwartości. Mogą nadal otwarcie udostępniać mocne modele, by budować społeczność i standaryzację wokół swojej technologii (co podkopuje przewagę konkurencyjną zamkniętych rozwiązań). Jednak dla naprawdę przełomowych modeli mogą wybrać selektywną otwartość (np. udostępniając wagi, ale z ograniczeniami, albo wypuszczając nieco słabszą wersję publicznie, a mocniejszą zachowując wewnętrznie przez jakiś czas). To balansowanie na linie: jeśli Meta całkowicie zamknie topowy model, może stracić zaufanie, które zbudowała; jeśli pozostanie całkowicie otwarta, ryzykuje wsparcie konkurencji i niekontrolowane nadużycia. Ich rozwiązaniem może być „otwarta innowacja, kontrolowane wdrożenie” – czyli dzielenie się nauką, ale wdrażanie rzeczywiście potężnych systemów najpierw w produktach Meta pod kontrolowanymi warunkami.
Podsumowując, Meta w narracji oznacza „Demokratyzację AI” – promując ideę, że sztuczna inteligencja nie powinna być zarezerwowana tylko dla nielicznych. To częściowo pokrywa się również z interesem biznesowym Mety: otwarty ekosystem AI ułatwia Mecie wdrażanie i dostosowywanie AI według potrzeb, zamiast być zdanym na łaskę np. cen API OpenAI czy oferty Azure Microsoftu. To także zagranie wizerunkowe: bycie „dobrym graczem”, który udostępnił modele open source, przyniosło Mecie nietypową falę pozytywnego rozgłosu w środowisku AI (w przeciwieństwie do zwykłej krytyki, jaką Meta otrzymuje np. za prywatność). Jak ujął to jeden z użytkowników Reddita: „Nigdy nie byłem fanem Facebooka, ale chylę czoła za pójście pod prąd tym razem”. Taka dobra wola może przełożyć się na przyciągnięcie badaczy, którzy cenią otwartość.
Jednak wraz ze wzrostem stawki (modele zbliżają się do ludzkiego poziomu w niektórych dziedzinach), Meta będzie musiała pogodzić swoje komunikaty o otwartości kontra bezpieczeństwo. Wewnątrz firmy, jak zauważył komentarz na Medium, istnieje „paradoks Zuckerberga-LeCuna”: Zuck mówi o nadchodzącej superinteligencji i ostrożności, LeCun bagatelizuje ryzyko i promuje otwarte udostępnianie. Może to być jednak strategiczne „komunikaty ról” – Meta prezentuje różne twarze różnym interesariuszom. Inwestorom Zuck mówi: „jesteśmy w wyścigu o superinteligencję, wydamy ile trzeba”; regulatorom i opinii publicznej LeCun zapewnia: „nie tworzymy potwora, wyluzujcie z nadmierną regulacją; otwartość jest bezpieczniejsza”. To balansowanie, by wpływać na postrzeganie ze wszystkich stron.
Ostatecznie cele i wartości Mety w AI koncentrują się wokół skali (chcą mieć też największe modele), otwartości (w dużym stopniu), bezpieczeństwa (uznają je, ale dbają o nie raczej przez otwartą kontrolę i testy wewnętrzne niż zewnętrzne ograniczenia), komercjalizacji (pośrednio przez lepsze doświadczenie użytkownika i reklamy, a nie bezpośrednią sprzedaż AI) oraz podejmowania przemyślanego ryzyka (stawiając na to, że otwarta innowacja wyprzedzi zamknięty rozwój). Najbliższy rok lub dwa pokażą, czy ta otwarta strategia nadąży za nieco bardziej zamkniętymi podejściami OpenAI i Google, jeśli chodzi o absolutną czołówkę.
Inni kluczowi gracze i perspektywy
Podczas gdy OpenAI, Anthropic, Google i Meta dominują w zachodnich wiadomościach o AI, inne znaczące podmioty również kształtują ten krajobraz:
- Microsoft: Chociaż nie rozwija własnych modeli bazowych od podstaw (zamiast tego inwestuje w OpenAI), Microsoft odgrywa kluczową rolę w tym ekosystemie. Firma posiada de facto „wyłączne prawa komercjalizacyjne” do najbardziej zaawansowanych technologii OpenAI. Dyrektor generalny Microsoftu, Satya Nadella, określił AI jako „nowy runtime przyszłości”, przenikający wszystko, co oferuje Microsoft. Dzięki produktom takim jak Bing Chat (wykorzystujący GPT-4) oraz Microsoft 365 Copilot, Microsoft wprowadza asystentów AI do wyszukiwania, przeglądania internetu, programowania (GitHub Copilot X) i każdej aplikacji Office. Wizją Nadelli jest „copilot dla każdej osoby i każdego zadania”. Microsoft opowiada się także za rozsądnymi regulacjami – prezes firmy Brad Smith opublikował w połowie 2023 roku „Blueprint for AI Governance”, w którym zaleca hamulce bezpieczeństwa dla potężnych modeli, przejrzystość treści generowanych przez AI oraz licencjonowanie wysokiego ryzyka AI na wzór regulacji farmaceutycznych czy lotniczych. To stanowisko jest zbieżne z podejściem OpenAI ze względu na ich partnerstwo. Przewagą Microsoftu jest dystrybucja: może szybko wdrożyć AI do milionów użytkowników biznesowych (np. integrując ChatGPT w Teams do podsumowań spotkań). Potencjalną wadą jest ryzyko dla marki i odpowiedzialność prawna, dlatego firma ostrożnie oznaczyła chatbota Bing jako „preview” i dodała zabezpieczenia po tym, jak pierwsi użytkownicy sprowokowali go do dziwnych tyrad. W przeciwieństwie do Google, Microsoft jest gotów podjąć większe ryzyko, by zdobyć udział w rynku (np. używając GPT-4 w Bing, nawet jeśli nie jest doskonały, by rzucić wyzwanie dominacji Google w wyszukiwaniu). Ogromna infrastruktura chmurowa Microsoftu zapewnia też OpenAI niezbędną moc obliczeniową (podobno zbudowali superkomputer Azure z dziesiątkami tysięcy GPU specjalnie do trenowania OpenAI). W kwestii wartości Microsoft jest pragmatyczny: spraw, by AI było użyteczne, ale rób to odpowiedzialnie. Ma własne Biuro Odpowiedzialnej Sztucznej Inteligencji i wdrożył wewnętrzne zasady (choć co ciekawe, podczas zwolnień zlikwidował zespół ds. etyki, co wzbudziło wątpliwości co do zaangażowania). Mimo to publicznie Microsoft promuje etykę AI, wspierając inicjatywy na rzecz sprawiedliwości i dostępności.
- Amazon: Amazon początkowo była postrzegana jako pozostająca w tyle za generatywną AI, ale to się zmieniło, gdy wykorzystała zarówno partnerstwa, jak i własne badania i rozwój. We wrześniu 2023 roku Amazon ogłosił ogromną inwestycję w Anthropic, a także to, że rozwija własne LLM-y „Amazon Titan” oraz platformę „Bedrock” do usług AI. Bedrock pozwala klientom AWS wybierać spośród różnych modeli bazowych (w tym Claude od Anthropic, modeli Stability AI oraz własnych modeli Amazona) poprzez API. Strategia Amazona to bycie neutralnym dostawcą infrastruktury dla AI – „przynieś swój własny model lub wybierz jeden z naszych.” CEO Andy Jassy stanowczo powiedział, że „Generatywna AI zrewolucjonizuje praktycznie każde doświadczenie klienta… technologia raz na pokolenie”, wyjaśniając, że Amazon „inwestuje bardzo szeroko” we wszystkich jednostkach. Rzeczywiście, Jassy podkreślił, że każdy zakątek Amazona korzysta z AI: od „inteligentniejszej Alexy”, która może wykonywać działania za ciebie, przez opisy produktów generowane przez AI dla sprzedawców, po wewnętrzną optymalizację logistyki (inwentarz, robotyka). Wizja Amazona jest bardzo skoncentrowana na kliencie i utylitarna: AI ma ułatwiać zakupy, usprawniać magazyny, przyspieszać rozwój kodu (AWS ma narzędzie CodeWhisperer podobne do GitHub Copilot). Chodzi mniej o wzniosłe rozmowy o AGI, a bardziej o „miliardy agentów AI pomagających w codziennych zadaniach”. Jednak Amazon wyraźnie widzi też potrzebę pozostania konkurencyjnym w kluczowych technologiach AI – stąd udział w Anthropic (aby nie być całkowicie zależnym od ekosystemu OpenAI/Microsoft). Jeśli chodzi o otwartość, Amazon nie udostępnia open-source swoich głównych modeli, ale wspiera społeczność open-source, oferując narzędzia (np. współpracując z Hugging Face, by ułatwić uruchamianie modeli na AWS). W kwestiach regulacyjnych Amazon nie jest tak widoczny w debatach politycznych, ale można wnioskować, że preferuje elastyczne regulacje, które nie hamują innowacji w chmurze. Będzie stosować się do takich rzeczy jak znakowanie modeli wodnym znakiem w ramach zobowiązań wobec Białego Domu. Unikalnym akcentem Amazona jest AI + sprzęt: projektują własne chipy (AWS Trainium i Inferentia), by obniżyć koszty trenowania i wnioskowania na AWS. To zarówno ruch biznesowy (tańsza AI dla klientów, przyciągnięcie ich zamiast GPU Nvidii), jak i potencjalnie ruch na rzecz odporności, jeśli podaż GPU będzie ograniczona.
- xAI Elona Muska: Musk, który współzałożył OpenAI, a następnie odszedł w 2018 roku, ponownie wszedł do wyścigu z nową firmą xAI w 2023 roku. Musk powiedział, że założył xAI, aby stworzyć „TruthGPT” lub maksymalnie „poszukującą prawdy” SI, która „rozumie prawdziwą naturę wszechświata”. To ujęcie jest nieco pompatyczne (rozwiązywanie tajemnic kosmosu), ale też stanowi przytyk do postrzeganych uprzedzeń w ChatGPT OpenAI. Musk obawia się, że główne modele są zbyt cenzurowane lub politycznie stronnicze. Wielokrotnie ostrzegał też przed egzystencjalnym ryzykiem związanym ze sztuczną inteligencją, wzywając do spowolnienia – ale wobec braku takiego działania, postanowił stworzyć własną, rzekomo bardziej „godną zaufania” SI. Zespół xAI jest niewielki, ale obejmuje utalentowanych absolwentów DeepMind, OpenAI itd. Podobno trenują model na danych z Twittera (obecnie X) oraz innych źródeł. Musk ma przewagę dzięki danym z Twittera (jeśli wykorzysta pełny strumień treści z mediów społecznościowych). Jego wizja „poszukiwania prawdy” prawdopodobnie oznacza SI, która nie będzie podlegać takim filtrom treści, jakich używa OpenAI, i która może być bardziej przejrzysta w swoim rozumowaniu. Jednak szczegóły są skąpe; xAI nie wypuściło jeszcze żadnego modelu. Musk zasugerował, że xAI będzie współpracować z Teslą (dla SI w świecie rzeczywistym) oraz X/Twitterem (jako bazą wiedzy obliczeniowej). Jedna z obaw: firmy Muska często się łączą – czy wysiłki Tesli w zakresie autonomicznej jazdy i ogólnej SI xAI mogą się połączyć? Możliwe, ponieważ autonomiczna jazda również wymaga zaawansowanej SI. Harmonogram Muska jest niejasny, ale biorąc pod uwagę jego dotychczasowe osiągnięcia, xAI może albo zniknąć, albo nagle ujawnić duży model, który zaskoczy branżę. Filozoficznie Musk znajduje się pomiędzy chęcią uzyskania od SI „maksimum prawdy/ciekawości” a obawą przed potencjalnym zbuntowaniem się SI. Opowiadał się za regulacjami (np. agencją „sędziego SI”), a jednocześnie buduje teraz to, co ma nadzieję będzie kontrolowalną AGI, rywalizującą z innymi. W szerszej debacie udział Muska zapewnia, że aspekt wojny kulturowej (SI i stronniczość polityczna) pozostaje gorący – może on reklamować xAI jako „niezależną SI”, co może przyciągnąć określoną grupę użytkowników.
- Stability AI i Open-Source Collective: Stability AI (twórca modelu obrazów Stable Diffusion) stał się orędownikiem otwartoźródłowej generatywnej AI. CEO Emad Mostaque głosi, że otwarte modele wspierają innowacje i zmniejszają zależność od wielkich firm technologicznych. Stability współfinansowało projekty otwartych modeli tekstowych (np. sponsorując grupę EleutherAI, która stworzyła GPT-J i inne). Wypuścili StableLM (model językowy) i pracują otwarcie nad modelami generowania muzyki i wideo. Choć zasoby Stability są znacznie mniejsze niż Google czy OpenAI, ich wpływ na AI obrazową jest nieproporcjonalnie duży (wydanie Stable Diffusion doprowadziło do eksplozji narzędzi kreatywnych, ale też kontrowersji wokół deepfake’ów, praw autorskich itd.). Podejście Mostaque’a polega na udostępnianiu modeli z minimalnymi ograniczeniami i pozwalaniu społeczności na eksperymenty, wierząc, że korzyści przewyższają szkody. Często argumentuje, że „nie da się uregulować open-source – zawsze znajdzie drogę na zewnątrz, globalnie”. To napięcie jest kluczowe: wyciekające modele open-source omijają wszelkie krajowe regulacje (jak w przypadku LLaMA od Meta). Stability i podobne grupy (jak EleutherAI, LAION w Niemczech) pracują nad nową generacją otwartych modeli, które mogą dorównać jakością zamkniętym, choć z pewnym opóźnieniem z powodu mniejszych zasobów obliczeniowych. Przykładowo, projekt RedPajama odtworzył wysokiej jakości zbiór danych treningowych (replikując ten z LLaMA), a Mistral AI, nowy startup założony przez byłych inżynierów Meta, właśnie wypuścił otwarty model 7B, który przewyższa LLaMA 2 13B – co wskazuje na szybki postęp w obozie open. Te otwarte inicjatywy odzwierciedlają wartość przejrzystości i wolności, czasem w bezpośredniej opozycji do postulatów ścisłej kontroli AI. Część środowiska akademickiego popiera to, argumentując, że otwarte modele umożliwiają niezależne badania nad bezpieczeństwem AI (nie da się łatwo badać czarnej skrzynki GPT-4). W debacie społecznej ta frakcja twierdzi, że „AI jest jak informacja – chce być wolna”, a próby jej powstrzymania są daremne i przynoszą odwrotny skutek.
- Wysiłki globalne i rządowe: Warto zauważyć, że chińscy giganci technologiczni (Baidu, Alibaba, Tencent, Huawei) wypuścili własne duże modele (Ernie Bot Baidu, modele Ernie Bot Baidu, Tongyi Alibaby itd.), które dobrze radzą sobie z zadaniami w języku chińskim i są integrowane z chińskimi aplikacjami. Tymczasem chiński rząd wprowadził regulacje (obowiązujące od sierpnia 2023), wymagające, by usługi generatywnej AI rejestrowały się w państwie i zapewniały, że treści są zgodne z wartościami socjalistycznymi i nie „podważają władzy państwowej” ani nie zakłócają porządku gospodarczego. Przewidziano wyjątek dla czysto badawczego zastosowania. Oznacza to, że każdy publiczny model AI w Chinach jest cenzurowany z założenia – np. pytanie chińskiego chatbota o plac Tiananmen skutkuje przeprosinami lub unikaniem odpowiedzi. Firmy takie jak Baidu podkreślają zgodność z wytycznymi państwa jako zaletę. To kontrastuje z firmami amerykańskimi, które co prawda moderują treści, ale nie mają narzuconej przez rząd ideologii (poza ogólnymi zakazami, np. poradnictwa kryminalnego). Rywalizacja Wschód-Zachód w AI jest intensywna, ale częściowo równoległa: chińskie firmy skupiają się na swoim rynku (ze względu na język i bariery regulacyjne), a zachodnie na globalnym (z wyłączeniem Chin). Niektórzy eksperci obawiają się, że jeśli Chiny pierwsze osiągną AGI i nie podzielą się nim, może to zmienić układ sił geopolitycznych; z kolei chińskie władze obawiają się dominacji USA (stąd ogromne inwestycje państwowe w AI). Ta dynamika napędza „mentalność wyścigu” na arenie międzynarodowej.
- Tymczasem UE finalizuje Akt o AI, który może klasyfikować systemy AI według ryzyka i nakładać wymagania (np. przejrzystość dotycząca treści generowanych przez AI, audyty dla systemów wysokiego ryzyka, być może nawet wymóg ujawniania danych treningowych dla modeli bazowych). Duże firmy lobbują w tej sprawie – Altman z OpenAI początkowo powiedział, że GPT-4 może zostać wycofany z UE, jeśli przepisy będą zbyt surowe; później się z tego wycofał. Ogólnie branża woli samoregulację + ukierunkowane prawo (np. karanie nadużyć, a nie zakaz rozwoju modeli). Europa kładzie nacisk na prywatność, bezpieczeństwo, a nawet ewentualne wynagradzanie twórców za dane użyte do treningu (trudny temat – Getty Images pozwało Stability AI za trenowanie na chronionych prawem autorskim zdjęciach bez zgody). Tak więc wartości regulacyjne praw jednostki vs innowacja są równoważone. Jeśli prawo UE przejdzie z ostrymi zapisami, duże firmy AI będą musiały się dostosować (lub ograniczyć dostęp do niektórych funkcji geograficznie).
- Środowisko akademickie i organizacje non-profit: Nie można zapominać, że wiele osób spoza korporacji bierze udział w tej debacie. Wybitni specjaliści AI Yoshua Bengio i Geoffrey Hinton (który odszedł z Google w 2023, by swobodnie mówić o ryzykach AI) wyrazili zaniepokojenie niekontrolowanym rozwojem AI. Hinton powiedział, że „Niedaleko może być moment, gdy AI przewyższy ludzką inteligencję i nie będziemy w stanie jej kontrolować”, i wezwał do badań nad tym, jak utrzymać AI pod kontrolą en.wikipedia.org. Z drugiej strony badacze tacy jak Andrew Ng (były szef Google Brain) twierdzą, że „strach przed zabójczą AI jest przesadzony; prawdziwy problem to uprzedzenia, utrata miejsc pracy”. Organizacje takie jak Center for AI Safety (CAIS) i Future of Life Institute aktywnie prowadzą kampanie na rzecz świadomości ryzyka AI – ta druga zorganizowała słynny „list o wstrzymaniu” w marcu 2023, wzywający do 6-miesięcznej przerwy w trenowaniu modeli wykraczających poza poziom GPT-4, który podpisał Musk, Wozniak z Apple i inni. Żadne z głównych laboratoriów nie wstrzymało prac, ale list wywołał debatę pbs.org. Ujawnił podział: niektórzy uważają, że potrzebne jest moratorium lub globalny limit, podczas gdy firmy raczej nie, woląc same kształtować bezpieczny rozwój.
- Reakcja społeczeństwa: Szeroka publiczność jest zarówno zafascynowana, jak i zaniepokojona. Z jednej strony narzędzia takie jak ChatGPT mają miliony oddanych użytkowników (uczniów, programistów, profesjonalistów), którzy uważają je za naprawdę pomocne – produktywność rośnie, niektóre zadania są łatwiejsze. Z drugiej strony pojawia się strach przed zalewem fałszywych wiadomości, oszustwami deepfake czy po prostu utratą pracy przez automatyzację. Ankieta mogłaby wykazać, że ludzie cieszą się z AI jako korepetytorów dla swoich dzieci, ale martwią się o ich przyszłe perspektywy zawodowe, jeśli AI stanie się zbyt potężna. To sprawiło, że politycy zaczęli zwracać uwagę. W USA Kongres przeprowadził przesłuchania (z Altmanem itd.), a administracja Bidena zaprosiła prezesów firm AI, by uzyskać dobrowolne zobowiązania. Wielka Brytania organizuje globalny Szczyt Bezpieczeństwa AI pod koniec 2025 roku, próbując stać się liderem w zarządzaniu AI. Wszystko to wskazuje na zaangażowanie się rządów, choć wciąż z opóźnieniem wobec technologii.
Debaty społeczne wokół bezpieczeństwa AI, kontroli i przejrzystości przeciwstawiają sobie uzasadnione obawy:
- Bezpieczeństwo kontra innowacja: Czy powinniśmy zwolnić, aby ocenić i wdrożyć zabezpieczenia (aby uniknąć potencjalnej katastrofy lub chaosu społecznego), czy też iść naprzód, aby czerpać korzyści i nie pozwolić, by rywale (lub źli aktorzy) nas wyprzedzili? OpenAI i inni proponują spowolnienie na bardzo wysokich poziomach możliwości, ale jeszcze nie teraz – argumentują, że obecne modele nie stanowią zagrożenia dla istnienia i że większe użycie prowadzi do większej nauki, jak je uczynić bezpiecznymi. Krytycy obawiają się, że gdy staną się oczywistym zagrożeniem, może być już za późno, by zahamować (klasyczny scenariusz „AI może szybko się ulepszać i wymknąć spod kontroli”). Ta dynamika jest podobna do technologii nuklearnej – czy opracowujesz bombę przed wrogiem, aby mieć przewagę, czy próbujesz negocjować zakaz? Obecnie trwa wyścig zbrojeń z pewnymi rozmowami o kontroli zbrojeń, ale nikt się nie zatrzymuje.
- Otwartość kontra bezpieczeństwo: Jak szeroko omawiano, czy modele AI powinny być open-source dla przejrzystości i równego dostępu, czy zamknięte, by zapobiec nadużyciom i umożliwić kontrolowane wdrażanie? Widzimy, że firmy obierają różne strategie, a nawet w ich obrębie są niuanse (OpenAI udostępniło open-source mniejsze modele, jak Whisper do mowy, ale nie GPT-4). Możliwym kompromisem jest „otwarta nauka, zamknięty produkt” – dzielić się wnioskami, nie wagami. Jednak zwolennicy open-source uważają, że to za mało; chcą prawdziwych modeli, by społeczeństwo nie było zależne od kilku korporacji w kwestii możliwości AI. Wynik tej debaty znacząco wpłynie na to, kto będzie mógł wprowadzać innowacje: jeśli przyszłe topowe modele będą zamknięte, tylko duże firmy i rządy z zasobami będą mogły przesuwać granicę. Jeśli otwarte modele się rozwiną, wtedy laboratorium uniwersyteckie czy startup mogą realnie się przyczynić, co demokratyzuje postęp.
- Presja komercyjna kontra etyczne użycie: Firmy muszą monetyzować AI, by uzasadnić inwestycje. To oznacza szerokie wdrażanie – co zwiększa ryzyko nadużyć lub niezamierzonych konsekwencji. Na przykład, udostępnienie AI generującej bardzo ludzkie teksty może umożliwić spamerom lub propagandystom tworzenie fałszywych armii w mediach społecznościowych. Firmy próbują budować filtry (OpenAI nauczyło GPT-4 odmawiać próśb o perswazję polityczną, na przykład). Jednak gra w kotka i myszkę z jailbreakowaniem i nadużyciami trwa. Pojawia się więc debata: czy pewne możliwości powinny być wstrzymywane? Np. OpenAI początkowo nie udostępniło szeroko komponentu opisu obrazów w GPT-4 ze względu na potencjalne nadużycia (jak identyfikacja osób na zdjęciach). Niektórzy twierdzą, że być może trzeba wstrzymać lub ograniczyć ekstremalnie niebezpieczne możliwości (np. modele do badań biologicznych, które mogłyby znaleźć przepisy na toksyny). Ale gdzie postawić granicę i kto o tym decyduje? Tu może wkroczyć polityka rządowa z listą „dozwolonych vs zakazanych” zastosowań.
- Przejrzystość: Pojawiają się wezwania do „przejrzystości AI” – czyli firmy powinny ujawniać, kiedy treść została wygenerowana przez AI (znakowanie/wodny znak), modele powinny wyjaśniać swoje rozumowanie (interpretowalna AI), a być może źródła danych treningowych powinny być publiczne. Z perspektywy społecznej przejrzystość sprzyja odpowiedzialności (np. jeśli AI użyła pirackich danych, czy powinniśmy o tym wiedzieć? Jeśli rekomenduje odmowę kredytu, powinna wyjaśnić dlaczego). Duże laboratoria pracują nad metodami znakowania/wodnych znaków dla wyników modeli (OpenAI ma już prototypy) oraz nad narzędziami wyjaśniającymi. Jednak do prawdziwie interpretowalnych głębokich sieci jeszcze daleka droga. Nowym pomysłem są „karty modeli” i „arkusze danych” – dokumentacja dotycząca zamierzonych zastosowań modelu, jego ograniczeń i składu danych treningowych. Google, OpenAI, Meta publikują coś takiego dla swoich modeli. Nadal jednak nie zadowala to wszystkich krytyków, którzy chcą więcej surowych informacji (np. artyści chcący wiedzieć, czy ich prace znalazły się w zbiorze treningowym). W Europie Akt o AI może wymusić większą jawność danych treningowych – czemu firmy się opierają, bo mogłoby to ujawnić tajemnice handlowe lub naruszyć prawo do prywatności, jeśli dane zawierają informacje osobiste.
- Wypieranie miejsc pracy i wpływ ekonomiczny: Poza egzystencjalnymi rozważaniami, palącym problemem społecznym jest automatyzacja. Modele takie jak GPT-4 potrafią już pisać kod, sporządzać umowy prawne, tworzyć teksty marketingowe – zadania wykonywane dotąd przez wykwalifikowanych pracowników. Trwa debata: czy AI będzie wspierać ludzi (zwiększając ich produktywność i tworząc nowe miejsca pracy), czy też zastąpi wiele zawodów biurowych (prowadząc do bezrobocia lub konieczności masowego przekwalifikowania)? Szefowie firm technologicznych zwykle wyrażają optymizm, że AI uwolni ludzi od żmudnych zadań, pozwalając im skupić się na pracy wyższego rzędu. Sam Altman sugerował nawet, że rządy mogą musieć rozważyć UBI (powszechny dochód podstawowy) w gospodarce napędzanej przez AI, ale że „jeszcze do tego daleko”. Z kolei CEO IBM w połowie 2023 roku zapowiedział wstrzymanie rekrutacji na niektóre stanowiska biurowe, bo AI może je przejąć – przewidując, że do 30% takich zadań może być zautomatyzowanych w ciągu 5 lat. Te sprzeczne sygnały budzą niepokój społeczny o wstrząsy gospodarcze. Wywiera to presję na decydentów, by zajęli się kwestią przekwalifikowania i być może redystrybucji bogactwa tworzonego przez AI. Firmy są tego częściowo świadome: Microsoft i Google mają fundusze na edukację AI i inicjatywy AI for good, próbując pokazać się jako odpowiedzialne.
Podsumowując, w 2025 roku mamy dynamiczny, wielowymiarowy ekosystem AI: współpracujący, ale i konkurencyjny, z nakładającymi się celami innowacji i tworzenia bogactwa, lecz różnymi filozofiami co do sposobu ich osiągania i radzenia sobie z zagrożeniami.
Giganci AI – OpenAI, Anthropic, Google DeepMind, Meta, Microsoft, Amazon – wszyscy podzielają przekonanie, że coraz inteligentniejsza AI będzie przełomowa, „jak nowa rewolucja przemysłowa”. Wszyscy mówią o pozytywach: leczeniu chorób, wzroście produktywności, personalizacji edukacji, wspieraniu badań nad klimatem – czyli o wykorzystaniu AI jako narzędzia wzmacniającego ludzkie możliwości. Wszyscy też przynajmniej deklaratywnie przyznają, że istnieją poważne ryzyka do ograniczenia: od bieżących problemów jak stronniczość czy nadużycia, po długoterminowe pytania egzystencjalne. Różnią się jednak strategią (otwartość vs zamknięcie, szybkość vs ostrożność) i wagą, jaką przywiązują do określonych wartości (np. Meta do otwartości, Anthropic do bezpieczeństwa itd.).
Żadna firma ani kraj nie może samodzielnie wyznaczać trajektorii rozwoju AI; to globalne i społeczne przedsięwzięcie. W związku z tym obserwujemy coraz więcej wezwań do współpracy w zakresie bezpieczeństwa – nawet OpenAI i Meta, pomimo różnic, obie podpisały się pod ideą pewnych standardów bezpieczeństwa. Frontier Model Forum (OpenAI, Anthropic, Google, Microsoft) to jedna z takich prób samoregulacji branży.Wnioski: Konwergencja i dywergencja na drodze do AGI
Wyścig o stworzenie coraz bardziej ogólnej i potężnej AI trwa, ale nie jest to prosty wyścig o sumie zerowej – to raczej maraton, w którym wielu biegaczy od czasu do czasu wymienia się wskazówkami na trasie. OpenAI, Anthropic, Google DeepMind, Meta, Microsoft, Amazon i inni wnoszą do gry unikalne filozofie i mocne strony:
- OpenAI to odważny pionier, przesuwający granice skali i możliwości, jednocześnie opowiadający się za ostrożnym nadzorem i współpracujący z wielkim patronem technologicznym w celu dystrybucji swoich osiągnięć. Uosabia dualizm ambicji i niepokoju wobec AGI: szybko rozwija zaawansowane modele, a jednocześnie ostrzega świat przed ich zagrożeniami i wzywa do regulacji. Praca OpenAI zapoczątkowała ogromny postęp i zmusiła nawet gigantów takich jak Google do reakcji, pokazując, jak skoncentrowany startup (choć obecnie hojnie finansowany) może zakłócić status quo.
- Anthropic jest jak sumienne rodzeństwo – równie biegłe w sztuce AI, ale zdeterminowane, by „zrobić to dobrze”. Ich etos zakłada, że bezpieczeństwo jest warunkiem wstępnym, a nie dodatkiem. Wkład Anthropic w dziedzinie alignementu (np. Constitutional AI) wpływa na całą branżę; nawet OpenAI wprowadziło więcej informacji zwrotnych od ludzi i pewne zasady dla GPT-4, co można uznać za zbieżną ewolucję z podejściem Anthropic. Anthropic pokazuje też, że wartości przyciągają finansowanie – firmy i inwestorzy obawiający się dominacji jednej firmy lub ryzyka AI widzą w Anthropic przeciwwagę i inwestują w nią duże środki. W dłuższej perspektywie dziedzictwem Anthropic może być równie mocno jak odpowiedzialnie trenować modele, jak same modele.
- Google DeepMind to potęga doskonałości badawczej i zasobów. Dzięki dekadom wspólnych badań, to skarbnica wiedzy o AI, która jest obecnie ukierunkowywana na konkretne produkty. Pragmatyczne, a zarazem naukowe podejście Google może zaowocować pierwszym prawdziwie multimodalnym AGI (Gemini). Jeśli tak się stanie, wyzwaniem Google będzie wdrożenie go w taki sposób, by wzmacniało kluczowe produkty firmy, nie powodując niezamierzonych skutków ubocznych (np. utraty zaufania do niezawodnych usług Google). Integracja DeepMind z Google podkreśla też pewien wzorzec w tym wyścigu: konsolidację. Duzi gracze przejmują talenty i mniejsze laboratoria (widzieliśmy, jak Google przejęło niezależność DeepMind; Facebook kupował startupy takie jak Scape dla AI; Microsoft w zasadzie kontraktuje wyniki OpenAI). To rodzi pytanie – czy AGI zostanie osiągnięte przez garstkę skoncentrowanych wysiłków, czy przez bardziej zdecentralizowaną społeczność? Obecnie przewagę daje koncentracja ze względu na potrzeby obliczeniowe, ale otwarte projekty depczą im po piętach.
- Meta ustawiła się w roli orędownika otwartości i szerokiego dostępu, co może oznaczać, że AI stanie się wszechobecna szybciej i bardziej równomiernie – lub, jak obawiają się krytycy, może to oznaczać, że potężna AI będzie się rozprzestrzeniać bez wystarczających zabezpieczeń. Zakład Meta polega na tym, że korzyści z innowacji i kontroli społecznościowej przeważą nad wadami. Co ciekawe, w ostatnich miesiącach widzimy sygnały zbieżności: OpenAI mówi o otwartym kodzie mniejszych modeli; Meta przyznaje, że nie wszystko może być w pełni otwarte. Być może przyszłość to mieszanka: badania podstawowe i może modele wcześniejszych generacji otwarte, a najnowocześniejsze wdrożenia chronione do czasu uznania ich za bezpieczne.
- Microsoft i Amazon pokazują, że komercjalizacja i zastosowanie AI są równie istotne jak budowanie modeli. Ich integracja AI z platformami chmurowymi i codziennym oprogramowaniem to sposób, w jaki korzyści AI faktycznie dotrą do ludzi i branż. Podkreślają też często pomijaną wartość: niezawodność i wsparcie. Przedsiębiorstwa wybiorą nieco mniej „kreatywną” AI, która jest niezawodna, bezpieczna i oferuje wsparcie, zamiast potężniejszej, ale nieprzewidywalnej. Dlatego usługi AI klasy korporacyjnej Microsoftu i AWS, z zabezpieczeniami i zgodnością, kształtują wdrażanie AI w biznesie. Bank lub szpital może wybrać Azure OpenAI Service z GPT-4 z funkcjami rejestrowania i prywatności, zamiast otwartego modelu z internetu, nawet jeśli umiejętnościami są porównywalne.
- Inni (xAI Muska, Stability itd.) dbają o to, by odmienne filozofie pozostały obecne – czy to poprzez dążenie do „prawdy” ponad poprawność polityczną, czy otwieranie wszystkiego z zasady. Stanowią zarówno przeciwwagę, jak i uzupełnienie dla dużych graczy. Jeśli duże laboratoria staną się zbyt ostrożne lub monopolistyczne, ci mniejsi lub bardziej ideologiczni gracze mogą wprowadzić zamieszanie, udostępniając coś przełomowego otwarcie (na przykład, gdyby ktoś jutro otworzył model na poziomie GPT-4, diametralnie zmieniłoby to krajobraz).
W przyszłości możemy spodziewać się kilku wspólnych trendów:
- Wielomodalność i użycie narzędzi: Wszystkie firmy pracują nad AI, która nie tylko rozmawia w próżni, ale potrafi widzieć, słyszeć, działać i współpracować z oprogramowaniem. Google integruje wyszukiwanie i możliwości wizualne, OpenAI dało GPT-4 zdolność widzenia i planuje wtyczki, Meta ma generowanie obrazów/wideo. Granice między chatbotem, osobistym asystentem a zaawansowanym agentem programowym będą się zacierać.
- Skalowanie i wydajność: Granica będzie przesuwana dalej – być może do modeli bilionowych parametrów lub nowych architektur, które przełamią obecne limity skalowania (jak MoE czy chipy neuromorficzne). Jednocześnie kładzie się nacisk na to, by modele działały tanio i lokalnie. LLaMA od Meta pokazała, że model 13B potrafi wiele; teraz ludzie uruchamiają dostrojone modele 7B na smartfonach. Ta demokratyzacja przez wydajność będzie trwać, zapewniając, że nie tylko giganci chmurowi będą mieli władzę nad AI.
- Badania i rozwój w zakresie bezpieczeństwa i alignacji: Spodziewaj się większego napływu funduszy i talentów do badań nad alignacją (niektórzy czołowi naukowcy AI już się na to przestawiają). Zespół superalignacji OpenAI, zespół alignacji DeepMind, główna misja Anthropic – będą opracowywać nowe techniki (być może wykorzystując AI do pomocy w alignacji AI, jak zautomatyzowane audyty czy trenowanie AI na ludzkich wartościach przy minimalnych uprzedzeniach). Mogą także zdefiniować benchmarki ewaluacyjne dla niebezpiecznych zdolności. Już teraz powstają „zestawy testów bezpieczeństwa AI” (na przykład testowanie, czy model potrafi się samoreplikować lub obejść własne zabezpieczenia). Uzgodniona ewaluacja mogłaby być używana trochę jak test zderzeniowy dla samochodów – niezależna agencja mogłaby pewnego dnia certyfikować model jako bezpieczny do publicznego wdrożenia, jeśli przejdzie określone testy.
- Polityka i samoregulacja: W najbliższym czasie rolę odegra dobrowolna samoregulacja (jak Frontier Model Forum i zobowiązania wobec Białego Domu). W średnim okresie prawdopodobnie pojawią się formalne regulacje w UE (i być może proces w Wielkiej Brytanii itd.), a firmy dostosują się globalnie. Nie byłoby zaskoczeniem, gdyby do 2026 roku pojawiła się międzynarodowa seria konferencji dotyczących bezpieczeństwa AI, a może nawet zalążki globalnego organu nadzorczego (Sekretarz Generalny ONZ już się za tym opowiadał). Firmy publicznie popierają takie podejście – Altman, Hassabis i inni spotkali się w Waszyngtonie i Europie, by omówić te ramy. Kluczowe będzie, by regulacje były zwinne – nie zamrażały AI na poziomie technologii z 2025 roku, lecz tworzyły mechanizmy zarządzania ryzykiem wraz z rozwojem AI.
- Adaptacja społeczna: Społeczeństwo jako całość zacznie się dostosowywać do wszechobecności AI. Systemy edukacyjne, na przykład, mierzą się z uczniami korzystającymi z ChatGPT do prac domowych. Niektóre szkoły go zakazały, inne integrują go z programem nauczania. Rynek pracy się zmieni – pojawiły się zawody związane z prompt engineeringiem i nadzorem nad AI, a pracownicy z różnych branż uczą się współpracować z AI (traktując ją jak kolegę lub kopilota). Prawdopodobnie wzrośnie zapotrzebowanie na alfabetyzację AI wśród ogółu społeczeństwa, a może nawet certyfikację dla profesjonalistów używających AI w obszarach wysokiego ryzyka (np. lekarze korzystający z diagnostyki AI). Firmy mogą w tym pomóc, udostępniając materiały edukacyjne lub wytyczne dotyczące korzystania z AI (OpenAI już takie ma, Microsoft opublikował „The Responsible AI Standard” dla deweloperów).
Podsumowując, dążenie do zbudowania AGI lub czegoś zbliżonego nie jest już marginalnym pomysłem science fiction, lecz główną ambicją największych firm technologicznych na świecie. Każda z nich próbuje odcisnąć swoje wartości na tej przyszłości: OpenAI wartość szerokich korzyści i ostrożności, Anthropic wartość bezpieczeństwa i etyki, Google wartość innowacji z odpowiedzialnością, Meta wartość otwartości i współpracy, Microsoft/Amazon wartość praktycznej użyteczności i dostępności. Ich strategie czasem się ścierają, ale co ciekawe, ich ostateczne cele nie są wzajemnie wykluczające się – ostatecznie wszyscy chcieliby widzieć AI, które jest niezwykle zdolne i bezpieczne i szeroko korzystne (i oczywiście korzystne dla ich wyników finansowych).
Możemy rzeczywiście zobaczyć konwergencję w niektórych najlepszych praktykach (np. konsensus, by nie podłączać AGI do internetu bez ograniczeń, lub dzielenie się wybranymi badaniami nad bezpieczeństwem, nawet jeśli modele pozostają własnościowe). Nadal będzie dywergencja w stylu i filozofii – co jest zdrowe, bo zapewnia pewną dywersyfikację podejść (monokultura w AI mogłaby być ryzykowna, jeśli to jedno podejście miałoby poważną wadę).
W miarę jak te firmy budują potężniejsze AI, dialog między nimi a społeczeństwem będzie się nasilał. Będzie poszukiwany punkt równowagi, w którym ogromny potencjał AI zostanie wykorzystany przy jednoczesnym minimalizowaniu jego szkód. To trochę jak okiełznanie ognia – zbyt użyteczny, by go zgasić, zbyt niebezpieczny, by pozostawić bez kontroli. I podobnie jak z ogniem, różne kultury początkowo traktowały go inaczej, ale ostatecznie pojawiły się standardy (jak przepisy przeciwpożarowe) i wspólna mądrość.
Na razie jesteśmy świadkami niezwykłego momentu w historii technologii. Za kilka dekad ludzie mogą wspominać lata 2023-2025 jako punkt zwrotny, kiedy AI przeszła od obietnicy laboratoryjnej do wszechobecnej rzeczywistości, oraz kiedy położyliśmy podwaliny (lub potknęliśmy się, w zależności od rezultatów) pod to, jak naprawdę inteligentne maszyny współistnieją z ludzkością. Wartości i decyzje dzisiejszych firm AI – otwartość Meta, podejście safety-first Anthropic, szybka skalowalność OpenAI, skrupulatność DeepMind i tak dalej – będą miały znaczący wpływ na tę trajektorię.
We wrześniu 2025 roku przewodnik „co budują firmy AI” przypomina listę najważniejszych współczesnych gigantów technologicznych i ich filozofii. Oni nie budują tylko algorytmów – w istocie próbują stworzyć nową formę inteligencji. Każda z nich stara się zapewnić, że gdy ta inteligencja się pojawi, będzie odzwierciedlać ich wizję tego, czym powinna być. I jak pokazaliśmy, te wizje, choć pokrywają się w wielu nadziejach, różnią się też w intrygujący i istotny sposób.
(Ta odpowiedź opiera się na informacjach z takich źródeł jak The New York Times, Wired, MIT Technology Review, Bloomberg, oficjalne blogi firmowe i inne komentarze ekspertów na rok 2025. Biorąc pod uwagę szybkie tempo rozwoju AI, niektóre szczegóły mogą się zmienić, ale przedstawione strategie porównawcze i filozofie dają obraz stanu czołowych graczy branży AI i toczących się wokół nich debat.)
Źródła:
- New York Times – „What Exactly Are A.I. Companies Trying to Build? Here’s a Guide.” (2025) startupnews.fyi
- New York Times – „In Pursuit of Godlike Technology, Mark Zuckerberg Amps Up the A.I. Race” (czerwiec 2025)
- TechRepublic – „Meta’s Tumultuous AI Era May Leave Llama Behind…” (czerwiec 2025)
- Time – „Demis Hassabis on AI in the Military and What AGI Could Mean for Humanity” (2025)
- OpenAI – „Planning for AGI and Beyond” (blog OpenAI, 2023)
- OpenAI – „Governance of Superintelligence” (blog OpenAI, 2023)
- Center for AI Safety – „Statement on AI Risk” (2023) safe.ai
- Medium – „The Zuckerberg-LeCun AI Paradox” (sierpień 2025)
- Andy Jassy (CEO Amazona) – „Message…: Some thoughts on Generative AI” (czerwiec 2025)
- Wywiad z Andym Jassy – (Aboutamazon.com, 2023)
- Komentarze z Reddita na temat otwartoźródłowej AI od Meta (2023)
- TechCrunch – „Elon Musk uruchamia xAI… ‘zrozumieć prawdziwą naturę wszechświata’” (2023)
- Wired – „Uciekająca AI to ryzyko wyginięcia, ostrzegają eksperci” (2023) wired.com (kontekst ogólny)
- Bloomberg – różne raporty na temat wojny o talenty AI i inwestycji.