- Miliardový závod ve zbrojení v oblasti AI: Technologičtí giganti včetně OpenAI (s Microsoftem), Google (DeepMind), Meta, Anthropic, Amazon a další investují do AI bezprecedentní prostředky. Tyto firmy plánují do konce roku 2025 utratit více než 325 miliard dolarů za vývoj AI startupnews.fyi, aby se staly lídry nové éry výpočetní techniky. Vedoucí pracovníci vnímají AI jako „technologii, která se objeví jednou za život“, která by mohla být „v hodnotě bilionů“ a zcela změnit každý produkt a službu.
- Vize umělé obecné inteligence: Mnoho z těchto společností si dává za cíl vytvořit umělou obecnou inteligenci (AGI) nebo dokonce „superinteligenci“—AI systémy s dovednostmi srovnatelnými nebo převyšujícími člověka. Mise OpenAI je „zajistit, aby umělá obecná inteligence… byla ku prospěchu celému lidstvu“, a její CEO Sam Altman prohlásil, že je „přesvědčen, že víme, jak AGI vytvořit“. CEO DeepMind od Google Demis Hassabis označuje AGI za svůj „životní cíl“ a předpovídá, že „možná přijde už v tomto desetiletí“. CEO společnosti Meta Mark Zuckerberg soukromě prohlásil, že „vývoj superinteligence je nyní na dosah“ pro jeho firmu, a chce být mezi „málokterými… kdo mají potřebné know-how“ k dosažení božské AI. Tyto odvážné vize pohánějí intenzivní závod o prvenství.
- Odlišné filozofie – Otevřenost vs. utajení: Mezi firmami panuje zásadní rozpor v tom, jak sdílejí AI technologie. Meta prosazuje open-source přístup – její jazykové modely LLaMA byly (za určitých podmínek) zpřístupněny výzkumníkům a dokonce plně otevřený model (Llama 2) pro komerční využití. Hlavní AI vědec společnosti Meta Yann LeCun tvrdí, že „otevřenost činí AI bezpečnější díky možnosti široké kontroly“ a že otevřený vývoj urychluje inovace. Naproti tomu OpenAI (navzdory svému názvu) a Anthropic si své nejvýkonnější modely nechávají pro sebe, zpřístupňují je pouze přes API, ale nezveřejňují jejich váhové soubory. OpenAI přešla od open-source k uzavřenému modelu po GPT-3 s odkazem na bezpečnost a konkurenční obavy. CEO Altman naznačil, že neomezené veřejné zpřístupnění pokročilých modelů by mohlo být nebezpečné, a podporuje kontrolovanější zavádění. CEO společnosti Anthropic Dario Amodei dokonce označuje debatu otevřenost vs. uzavřenost za „falešné téma“ v AI – podle něj záleží na tom, které modely jsou nejlepší, ne na tom, zda je jejich kód otevřený. Tento filozofický rozkol ovlivňuje, jak široce jsou AI schopnosti rozšiřovány.
- Cíle v oblasti bezpečnosti a souladu: Všichni hráči v oblasti AI uznávají otázky bezpečnosti AI, ale dávají jim různou prioritu. Anthropic byla založena výslovně s étosem „nejprve bezpečnost“: zkoumá techniky slaďování AI, jako je její metoda „Constitutional AI“, aby modely naplnila etickými principy. Amodei varoval, že jak se systémy AI blíží lidské úrovni, „naléhavost těchto věcí vzrostla“ a cítí „povinnost varovat svět před možnými negativy“. OpenAI také vyjadřuje obavy z „zneužití“ nebo nehod a uvádí, že pokročilá AI „s sebou nese vážné riziko zneužití, drastických nehod a společenských otřesů“. OpenAI i Anthropic zpomalily veřejné vydání svých nejnovějších modelů, dokud neproběhlo rozsáhlé ladění bezpečnosti (například GPT-4 od OpenAI prošel měsíci testování, aby se omezily škodlivé výstupy). Naproti tomu vedení společnosti Meta bylo k existenčním rizikům spíše klidnější – LeCun veřejně odmítl scénáře „soudného dne“ AI jako „naprostý nesmysl“ a tvrdí, že současné systémy „fungují pod úrovní zvířat“ inteligence. Přesto i Meta má tým pro etiku AI a filtry obsahu pro své modely. Pozoruhodné je, že v květnu 2023 generální ředitelé OpenAI, DeepMind a Anthropic společně podepsali prohlášení, že „zmírnění rizika vyhynutí způsobeného AI by mělo být globální prioritou vedle pandemií a jaderné války.“ safe.ai Jinými slovy, i vedoucí představitelé největších AI laboratoří uznávají potenciální existenční rizika, i když se liší v tom, jak otevřeně o nich mluví nebo je řeší.
- Technické přístupy – škálování vs. nové cesty:Velké jazykové modely (LLM) a hluboké učení ve velkém měřítku jsou jádrem strategií většiny laboratoří. OpenAI byla průkopníkem masivních generativních textových modelů (řada GPT) a multimodálních modelů (např. GPT-4 umí přijímat obrázky), přičemž silně využívá posilované učení z lidské zpětné vazby (RLHF) k slaďování chování modelu. Google’s DeepMind podobně staví obří modely (jeho připravovaný model „Gemini“ je multimodální systém s bilionem parametrů, který kombinuje jazykové technologie Googlu s posilovaným učením DeepMind). DeepMind jedinečně přináší zkušenosti ze svých AI pro hraní her (AlphaGo, AlphaZero) – Demis Hassabis naznačuje, že Gemini bude mít schopnosti plánování a používání nástrojů nad rámec dnešních chatbotů. Anthropic se zaměřuje na „zákony škálování“ – trénovala stále větší modely (Claude 1, Claude 2) a byla průkopníkem 100tisícových kontextových oken pro rozšířené uvažování. Zvláštností Anthropic je slaďování těchto modelů pomocí „ústavy“ směrnic namísto čistě RLHF, s cílem dosáhnout stabilnějšího a hodnotově konzistentního chování. Meta se zaměřila jak na škálování, tak na efektivitu – její modely LLaMA (7B–70B parametrů) jsou menší než GPT-4, ale překvapivě konkurenceschopné díky tréninku na vysoce kvalitních datech. Výzkum Meta také zkoumá nové architektury (např. „Mixture-of-Experts“ v prototypu Llama 4) a dlouhodobější myšlenky, jako je LeCunova vize zabudované AI a samořízeného učení nad rámec pouhé predikce textu. Stručně řečeno, OpenAI/Google/Anthropic sází především na škálování hlubokého učení (s určitými algoritmickými triky), zatímco AI laboratoř Meta a někteří další věří, že k dosažení skutečné AGI budou nakonec potřeba zásadní průlomy (nové návrhy modelů, paměťové mechanismy atd.).
- Aktuální produkty a cílové skupiny: Společnosti se liší v tom, jak nasazují AI. OpenAI oslovila masový trh přímo prostřednictvím ChatGPT, který přilákal přes 100 milionů uživatelů pro bezplatné (a nyní i placené) AI konverzace. Své modely také licencuje prostřednictvím cloudu Azure pro podnikové aplikace. Google integroval generativní AI do mnoha produktů: svého chatbota Bard (experimentální veřejná služba), Google Search (s AI souhrny a otázkami/odpověďmi ve výsledcích vyhledávání) a do nástrojů pro produktivitu (Duet AI pro Gmail/Dokumenty, doplňování kódu v Android Studiu atd.). Největšími zákazníky Googlu jsou bezpochyby miliardy uživatelů vyhledávání a Androidu – což činí bezpečnost klíčovou pro ochranu značky – a také cloudoví klienti využívající jeho modely přes Google Cloud Vertex AI. Meta donedávna neměla vlastní veřejný chatbot; místo toho zpřístupňovala modely vývojářům jako open source. Nyní začleňuje AI do Facebooku, Instagramu a WhatsAppu – např. AI chatovací osobnosti a generátory obrázků pro uživatele a nástroje pro inzerenty. Meta open-source LLaMA je široce využívána výzkumníky a startupy (často hostována na Hugging Face nebo jiných platformách). Anthropic cílí především na firmy a vývojáře: jeho asistenta Claude lze využívat přes API a partnery (například AI asistent Slacku a chatbot Poe od Quory). Anthropic prezentuje Claude jako bezpečnější alternativu ke GPT-4 a přilákal investice od firem jako Quora, Slack a dalších, které Claude integrují pro koncové uživatele. Microsoft, jako blízký partner OpenAI, integroval GPT-4 do Bing Chat (vyhledávání pro spotřebitele) a asistentů „Copilot“ napříč Windows 11, Office 365, GitHubem a dalšími, čímž oslovuje jak spotřebitele, tak firemní uživatele. Amazon zavádí generativní AI napříč svým maloobchodním a cloudovým impériem – od nové generace Alexy, která zvládá konverzace tam a zpět, přes AI asistované nakupování a nástroje pro prodejce, až po cloudové služby AWS (spustil Bedrock, aby nabízel různé základní modely jako službu, včetně vlastních modelů Titan/Nova a modelů třetích stran jako Claude a Stable Diffusion). Shrnutí: OpenAI a Anthropic poskytují AI převážně přes API/partnerství (s ChatGPT jako významnou přímou aplikací OpenAI), Google a Microsoft využívají své rozsáhlé softwarové ekosystémy k integraci AI funkcí, Meta podporuje širší vývojářskou komunitu otevřenými modely a teprve začíná s AI funkcemi pro spotřebitele a Amazon využívá AI k posílení své dominance v e-commerce a cloudových službách pro firmy.
- Komerční strategie a financování: Závod je také poháněn konkurenčními a finančními motivacemi. OpenAI přešla na subjekt s omezeným ziskem a zajistila si investici přes 13 miliard dolarů od Microsoftu, což dalo Microsoftu exkluzivní výhodu v technologiích OpenAI. OpenAI monetizuje prostřednictvím využívání cloudového API a předplatného ChatGPT a její hodnota prudce vzrostla (údajně na 20–30 miliard dolarů do roku 2023). Anthropic získal miliardové investice od Googlu (~400 milionů dolarů) a Amazonu (který jen v roce 2023 přislíbil až 4 miliardy dolarů za menšinový podíl a práva na integraci s AWS). To znamená, že modely Anthropic jsou dostupné jak na Google Cloud, tak na AWS, což je neobvyklé dvojí partnerství. Google DeepMind a Meta financují své AI aktivity interně – v podstatě „nákladová centra AI“ dotovaná obrovskými příjmy z reklamy a sociálních médií. Google údajně utratil desítky miliard za výzkum a vývoj AI (postavil obří superpočítače TPU pro trénování) a dokonce sloučil svůj tým Brain do DeepMind, aby soustředil talenty. Meta rovněž navýšila výdaje na AI: Zuckerberg schválil masivní nákupy GPU a náborovou vlnu špičkových výzkumníků (dokonce přetahoval lidi z OpenAI s nabídkami až 100 milionů dolarů). Počet zaměstnanců v AI divizi Meta překročil 1 000 výzkumníků. Tlak na prokázání návratnosti investic je vysoký: Meta zejména hledá AI průlomy, aby ospravedlnila své výdaje po dosud smíšených výsledcích (její dubnová 2025 ukázka nového modelu zklamala, což vedlo k výměně vedení). Amazon a Microsoft očekávají, že jejich cloudové platformy budou generovat příjmy s rostoucím přijetím AI – např. Microsoft prodává Azure kredity pro modely OpenAI (a získá podíl na jakémkoli budoucím zisku z AGI, který OpenAI vytvoří nad svůj limit), a AWS od Amazonu bude hostit nespočet AI aplikací. Stručně řečeno, každý hráč má jiný způsob monetizace: cloudové služby (Amazon, Microsoft, Google), zapojení spotřebitelů (Meta, Google), podnikový software (Microsoft) nebo prodej API a budoucí služby AGI (OpenAI, Anthropic). Všichni však usilují o výhodu prvního tahu v technologické změně, o které věří, že přetvoří trhy.
- Regulace a postoje k politice: AI giganti veřejně tvrdí, že regulaci vítají – ale jejich názory na to, jaká by měla být, se liší. Altman z OpenAI navrhl licencování nebo požadavky na bezpečnostní shodu pro nejvýkonnější modely, dokonce navrhl novou mezinárodní agenturu (něco jako „MAAE pro AI“), která by dohlížela na superinteligentní systémy. V květnovém příspěvku OpenAI z roku 2023 bylo uvedeno, že „bude potřeba určitý stupeň koordinace“ mezi předními iniciativami a byly nastíněny nápady jako monitorování využití výpočetního výkonu pro vynucení limitů. Anthropic sdílí tento pohled; Dario Amodei svědčil a radil ohledně americké AI politiky a podpořil rozšíření vývozních kontrol (např. omezení prodeje pokročilých čipů), aby se zpomalily nekontrolované závody ve zbrojení. OpenAI i Anthropic se v roce 2023 připojily k odvětvovému „Frontier Model Forum“ spolu s Googlem a Microsoftem a zavázaly se ke spolupráci na bezpečnostních standardech pro pokročilou AI. Generální ředitel Googlu Sundar Pichai také prohlásil, že AI je „příliš důležitá na to, aby nebyla regulována“, a Hassabis z DeepMind prosazuje mezinárodní spolupráci na pravidlech pro AI. Tyto společnosti však upřednostňují mírnou nebo cílenou regulaci, která se zaměřuje na vysoce rizikové využití nebo špičkové modely, nikoli na plošné potlačení vývoje AI. Často rozlišují mezi „AI s vysokými schopnostmi“ (která by mohla vyžadovat nový dohled) a běžnou AI, na kterou stačí stávající zákony. Postoj firmy Meta má určité nuance: Mark Zuckerberg veřejně podporuje „otevřený“ vývoj AI a zachování širokého přístupu, ale jak regulátoři zpřísňují dohled, Meta signalizovala, že bude „opatrná v tom, co se rozhodne zveřejnit jako open-source“ do budoucna. Meta prosazuje vyvážený přístup, který nebrzdí otevřený výzkum – LeCun lobboval proti pravidlům, která by například omezovala zveřejňování vah modelů nebo vyžadovala náročné licence pro otevřené modely. Všechny hlavní firmy se dohodly na určitých dobrovolných závazcích (v rámci slibu Bílého domu v roce 2023), jako je testování AI na bezpečnost před uvedením, zavedení vodoznaků pro AI-generovaný obsah a sdílení osvědčených postupů. Rozdíly však přetrvávají: například společnosti jako OpenAI a Google byly opatrnější při zveřejňování detailů o modelech a přiklánějí se k filozofii, že bezpečnost a ochrana vyžadují utajení na špičkové úrovni. Mezitím Meta a mnoho akademických expertů tvrdí, že transparentnost a recenze odborníků AI modelů jsou klíčové pro důvěru. Tato debata pokračuje, zatímco vlády připravují nové zákony o AI (AI Act EU, navrhovaná americká legislativa atd.) a jak události (například vysoce medializovaná selhání AI nebo případy zneužití) ovlivňují veřejné mínění.
- Další významní hráči: Kromě velké pětky zahrnuje širší AI ekosystém nové startupy a globální aktéry. Muskova xAI (založena 2023) je významným nováčkem – Elon Musk uvedl, že založil xAI, aby vytvořil „maximálně zvědavou, po pravdě pátrající“ AI, která má „pochopit pravou podstatu vesmíru“, čímž implicitně kritizuje OpenAI za vnímané zaujatosti. xAI je stále ve fázi výzkumu a vývoje, zaměstnává bývalé talenty z DeepMind a OpenAI a mohla by spolupracovat s Muskovo X (Twitter) a Teslou na získávání dat. Inflection AI, spoluzaložená Mustafou Suleymanem z DeepMind, zvolila jiný přístup: vytvořila „Pi“, osobního AI chatbota-společníka, a jejím cílem je vytvořit AI, která může „být jakýmsi koučem nebo důvěrníkem“ pro jednotlivce. Inflection získala více než 1,3 miliardy dolarů (od investorů jako Reid Hoffman a Microsoft) a údajně natrénovala model s 43 miliardami parametrů, čímž se staví mezi velké technologické firmy a open-source ideály. Stability AI prosazuje open-source v generativní AI – financovala vývoj Stable Diffusion (generátor obrázků) a pracuje na otevřených textových modelech. CEO Stability Emad Mostaque tvrdí, že široký přístup podpoří inovace a „zabrání tomu, aby AI ovládalo jen pár korporací“. Stability však čelila finančním problémům a její vliv je v jazykových modelech zatím menší než v oblasti obrazů. IBM a Oracle se zaměřují na podnikové AI: IBM Watsonx nabízí modely přizpůsobené pro byznys s důrazem na transparentnost a vysvětlitelnost (IBM zdůrazňuje soulad své AI se spravedlností a auditovatelností a vyhýbá se „černým skříňkám“ velkých modelů, pokud jim nelze důvěřovat). Čínští technologičtí giganti – Baidu, Alibaba, Tencent, Huawei – jsou také v závodě, i když je omezuje přísný vládní dohled. Baidu ERNIE Bot a Alibaba Tongyi Qianwen jsou čínské LLM spuštěné v roce 2023, které mají za cíl vyrovnat se schopnostem GPT pro domácí trh (s výraznou cenzurou výstupů). Čínská vláda nařídila bezpečnostní prověrky a dokonce odpovědnost poskytovatelů AI, pokud jejich modely vytvoří zakázaný obsah. To ukazuje, jak geopolitika a odlišné hodnoty formují AI: Americké firmy zdůrazňují samoregulaci a partnerství se západními vládami, zatímco čínský přístup je státem řízený vývoj, aby zůstali konkurenceschopní, ale pod kontrolou. Nakonec akademická sféra a neziskové organizace (jako Allen Institute for AI, LAION, EleutherAI) nadále vytvářejí otevřené modely a nástroje (např. projekt RedPajama, který znovuvytváří trénovací dataset LLaMA atd.), což zajišťuje, že open-source protiváha zůstává ve hře. Stručně řečeno, závod o pokročilou AI není jen mezi velkými korporátními laboratořemi, ale zahrnuje i startupy, národní zájmy a open-source komunitu – každý přináší do budoucnosti AI jiné filozofie.
Nový závod ve zbrojení v AI: Úvod
Probíhá nelítostná globální soutěž o vybudování nové generace umělé inteligence – nejen specializovaných nástrojů, ale obecné AI, která by mohla proměnit celou společnost. V roce 2023 ohromující úspěch ChatGPT od OpenAI spustil „závody ve zbrojení v oblasti AI“ mezi technologickými giganty. Do roku 2025 se tyto závody jen zrychlily. Amazon, Microsoft, Google, Meta a OpenAI (často podporované navzájem nebo investory) jsou společně na cestě utratit letos stovky miliard dolarů za výzkum a infrastrukturu AI startupnews.fyi. Jejich cíl? Předčít jeden druhého ve vytváření výkonnějších, univerzálnějších AI systémů – s hlavní cenou v podobě Obecné umělé inteligence (AGI), systému s kognitivními schopnostmi na úrovni člověka (nebo vyššími).
Proč ten náhlý shon? Každá firma vidí obrovské sázky: ten, kdo vyvine nejlepší AI, by mohl ovládnout technologie na desítky let. AI má potenciál zrevolucionizovat internetové vyhledávání, kancelářský software, sociální sítě, e-commerce, zdravotnictví, finance – prakticky každou oblast. „AI bude největší věc, jakou za svůj život zažili,“ popisuje myšlení šéfů velkých technologických firem jeden z venture kapitalistů, „a pokud nepřijdou na to, jak se v tom stát velkým hráčem, zůstanou pozadu.“ Jinými slovy, strach z promeškání bilionových hodnot AI v budoucnu žene firmy k tomu, aby šly „na plno“. Zakladatel Facebooku Mark Zuckerberg například údajně řekl kolegům, že nebýt lídrem v AI je „nepřijatelné“ a začal intenzivně nabírat talenty, aby dohnal konkurenci.
Zároveň tyto firmy hlásají vznešené vize toho, čeho jejich AI dosáhne. OpenAI mluví o „prospěchu pro celé lidstvo“ díky AGI. CEO DeepMind Demis Hassabis si představuje, že AI vyřeší vědecké záhady – od léčení nemocí po revoluci v energetice – a přinese éru „radikálního dostatku“ a rozkvětu lidstva. Vedení Meta mluví o AI, která umožní „superinteligentní“ osobní asistenty a nové kreativní nástroje pro miliardy lidí. I skeptici souhlasí, že AI by mohla dramaticky zvýšit produktivitu: „Bude to 10krát větší než internet,“ řekl Hassabis pro The Guardian, s potenciálem „neuvěřitelné prosperity“, pokud se to udělá správně.
Za optimistickými prohlášeními se však skrývá i hluboká úzkost – ohledně bezpečnosti, etiky a kontroly. Pokročilá AI s sebou nese rizika zneužití, nechtěného škodlivého chování, narušení pracovního trhu a dokonce (v těch nejextrémnějších scénářích) ztráty lidské kontroly. Výmluvné je, že právě průkopníci, kteří závodí o vybudování AGI, také varují před jejími nebezpečími. V polovině roku 2023 kolovalo mezi AI experty jednověté prohlášení, které podepsali Altman (OpenAI), Hassabis (DeepMind), Amodei (Anthropic) a mnozí další: „Zmírnění rizika vyhynutí způsobeného AI by mělo být globální prioritou vedle dalších rizik v měřítku společnosti, jako jsou pandemie a jaderná válka.“ safe.ai. Stručně řečeno, i když do AI investují miliardy, tito lídři vyzývají k opatrnosti, aby „to udělali správně“. Tento paradox – hnát se vpřed závratnou rychlostí a zároveň se snažit „nerozbít svět“ – definuje současnou AI scénu.
V této zprávě porovnáme strategie, cíle a filozofie předních AI laboratoří: OpenAI, Anthropic, Google DeepMind, Meta (Facebook) a dalších, jako jsou Microsoft a Amazon, které jsou hluboce zapojeny. Prozkoumáme vizi každé společnosti ohledně AGI, jejich technický přístup (reinforcement learning, metody zarovnání, open-source vs. uzavřené modely atd.), jejich veřejná prohlášení a názory vedení a postoje k regulaci. Také se podíváme, jak se liší v otázkách bezpečnosti, otevřenosti, škálovatelnosti, komercializace a rizika. Cestou zvýrazníme citace CEO a expertů, které objasňují jejich myšlení. Nakonec se dotkneme širší společenské debaty: jak zajistit, aby tato technologie byla bezpečná, transparentní a prospěšná, když tito AI giganti míří kupředu?
Ponořme se do světa AI supervelmocí a podívejme se, co přesně se snaží vybudovat – a proč.
OpenAI: Škálování inteligence – bezpečně a komerčně
OpenAI je často vnímána jako katalyzátor současného AI boomu. Původně byla založena v roce 2015 jako nezisková výzkumná laboratoř, v roce 2019 se OpenAI transformovala na společnost s „omezeným ziskem“, aby přilákala financování – a našla silného patrona v Microsoftu. Deklarovaným cílem OpenAI není nic menšího než vytvořit AGI a zajistit, aby z něj měli prospěch všichni. „Naším posláním je zajistit, aby umělá obecná inteligence… byla prospěšná celému lidstvu,“ uvádí společnost ve své chartě. Sam Altman, CEO OpenAI, uvedl, že věří, že AGI je dosažitelná možná během deseti let. „Nyní jsme si jisti, že víme, jak postavit AGI, jak jsme ji tradičně chápali,“ napsal Altman v roce 2023. Výzkumníci OpenAI vyjádřili optimismus, že škálování modelů (plus algoritmické vylepšení) nakonec povede k AI na úrovni člověka. Jak uvedl jeden blogový příspěvek OpenAI, „první AGI bude jen bodem na kontinuu inteligence“ – tedy raným milníkem na cestě k ještě obecnějším a schopnějším systémům.
Strategie a technologie: Přístup OpenAI se zaměřuje na trénování stále větších generativních modelů a jejich slaďování s lidskými hodnotami. Do povědomí se dostali s GPT-3 v roce 2020 (jazykový model s 175 miliardami parametrů, který dokázal generovat pozoruhodně lidsky znějící text) a poté s ChatGPT (vyladěný z GPT-3.5 pro konverzační sledování instrukcí). V roce 2023 OpenAI představila GPT-4, multimodální model, který přijímá textové i obrazové vstupy a vykazuje pozoruhodné schopnosti řešit problémy v matematice, programování i psaní. OpenAI hojně využívá Reinforcement Learning from Human Feedback (RLHF), aby jejich modely reagovaly užitečně a neškodně. Úspěch ChatGPT je z velké části zásluhou této metody – lidští testeři jej naučili odmítat určité požadavky a dodržovat zdvořilé instrukce. „Náš posun od modelů jako GPT-3 k InstructGPT a ChatGPT je raným příkladem vytváření stále lépe sladěných a ovladatelných modelů,“ napsala OpenAI.
OpenAI také zkoumá nové techniky zarovnání. V polovině roku 2023 spustila tým pro „Superalignment“, který má za úkol sladit budoucí superinteligentní AI, a zavázala se věnovat tomuto úsilí 20 % svého výpočetního výkonu. Její technická filozofie byla obecně: nejprve natrénovat výkonný model, poté opravit jeho chování pomocí dolaďování, moderovacích filtrů a zpětné vazby od uživatelů. Kritici to někdy nazývají „nejdřív rychle postupovat, zarovnání řešit později“, ale OpenAI tvrdí, že postupné nasazování modelů je nejlepší způsob, jak se učit a přizpůsobovat. „Věříme… že postupný přechod do světa s AGI je lepší než náhlý,“ napsala společnost s tím, že chce „těsnou zpětnou vazbu rychlého učení a pečlivé iterace“ prostřednictvím vydávání mezimodelů.
Důležité je, že OpenAI se u svých nejnovějších modelů stala mnohem uzavřenější, což je ostrý obrat od její původní otevřenosti. Technické detaily a trénovací data GPT-4 nebyly zveřejněny (z konkurenčních a bezpečnostních důvodů), což vyvolalo určitou nevoli ve výzkumné komunitě. OpenAI přiznává napětí mezi otevřeností a opatrností: „Jak se naše systémy blíží AGI, jsme stále opatrnější… Někteří lidé si myslí, že rizika jsou smyšlená; byli bychom rádi, kdyby měli pravdu, ale jednáme, jako by tato rizika byla existenční,“ napsal tým. OpenAI zveřejnila články o schopnostech a biasu GPT-4, ale ne kompletní váhy modelu ani kód. Tento posun byl odůvodněn prevencí zneužití a snahou neulehčovat práci špatným aktérům. Zároveň to ale odpovídá i obchodním zájmům – partnerství s Microsoftem vyžaduje určitou exkluzivitu. Microsoft investoval do OpenAI přes 13 miliard dolarů a na oplátku může nasazovat modely OpenAI na Azure Cloud a dokonce je začleňovat do produktů jako Bing a Office. Příjmy OpenAI pocházejí od Microsoftu (který sdílí zisky z cloudu) a od zákazníků API – do září 2025 údajně překročily 1 miliardu dolarů ročních tržeb z prodeje přístupu k AI. Ziskový motiv a motiv bezpečnosti společně vedly OpenAI ke strategii přísně kontrolovaného vydávání svých nejpokročilejších AI.
Veřejné postoje a vedení: Sam Altman se stal klíčovým veřejným hlasem ohledně příslibů a rizik AI. V profilu pro Time Altman vysvětlil pohled OpenAI, že AGI bude nesmírně prospěšná – zvýší hojnost, urychlí ekonomiku, pomůže vědeckému poznání, pokud bude správně řízena. Zároveň však varoval před „vážnými riziky: zneužití, drastické nehody, společenské narušení“. Proto Altman proaktivně jedná s politiky. V květnu 2023 svědčil před americkým Kongresem, že „pokud se tato technologie pokazí, může se pokazit opravdu hodně“, a vyzval k zavedení licencování pro výkonné AI modely a případně i ke vzniku globální regulační agentury. Dokonce navrhl, že vlády by mohly požadovat, aby AI laboratoře zastavily vývoj na určitých úrovních schopností bez dohledu – což je pozoruhodný návrh od někoho, kdo vede jednu z nejpokročilejších laboratoří. Oficiální blog OpenAI o „Governance of Superintelligence“ vyzval k vytvoření mezinárodního orgánu pro inspekci a audit AI systémů nad určitou úrovní výpočetního výkonu. Zároveň Altman a OpenAI odmítají příliš přísná pravidla pro menší AI a open-source projekty; napsali, že „umožnit open-source vývoj pod významným prahem je důležité“ a že dnešní modely (na úrovni ChatGPT) „mají rizika… srovnatelná s jinými internetovými technologiemi“, která lze řešit stávajícími rámci. Stručně řečeno, OpenAI prosazuje přísnou regulaci pro špičkové systémy (frontier, potenciálně na úrovni AGI), ale mírnější regulaci pro AI obecně.
Další vedoucí představitelé OpenAI mají také silné názory. Hlavní vědec Ilya Sutskever (spoluzakladatel) uvažoval, že pokročilá AI může vyžadovat zpomalení v kritických momentech – v roce 2023 kontroverzně naznačil, že společnost možná bude muset v určitém bodě “nejít dál”, pokud modely budou příliš chytré, ačkoli OpenAI jako celek tehdy žádné pozastavení nepodpořila. Sutskever také vyvolal debatu tím, že naznačil, že velké neuronové sítě mohou být „lehce vědomé“, což poukazuje na záhadnou povahu těchto modelů. Spoluzakladatel a prezident Greg Brockman často mluví o demokratizaci AI (zasazoval se o to, aby byla bezpečná AGI nakonec open-source, až bude vyřešena otázka souladu). Tento ideál „AI pro všechny“ zůstává v rétorice OpenAI – například si představují, že budoucí AGI bude poskytovat „pomoc s téměř jakýmkoli kognitivním úkolem“ komukoli a bude fungovat jako univerzální zesilovač lidské kreativity. Prozatím však OpenAI balancuje na tenkém laně: sdílí AI široce prostřednictvím API/aplikací, ale základní technologie si střeží.
Produkt a publikum: Vlajkovou lodí OpenAI je ChatGPT, který přinesl AI široké spotřebitelské veřejnosti. Během několika měsíců od svého uvedení v listopadu 2022 údajně ChatGPT dosáhl 100 milionů uživatelů – nejrychlejší adopce jakékoli aplikace v historii do té doby. Lidé jej používají na vše od psaní e-mailů a esejí po pomoc s programováním, doučování a kreativní psaní. To dalo OpenAI bezkonkurenční zpětnou vazbu z reálného světa (a také dominantní značku v AI). Od té doby vydali ChatGPT Plus (placenou verzi s rychlejšími odpověďmi a pluginy, které umožňují ChatGPT používat nástroje nebo procházet web) a ChatGPT Enterprise (s garancemi soukromí a bezpečnosti pro firmy). Samostatně OpenAI nabízí GPT-4, GPT-3.5, DALL·E 3 (generátor obrázků) a další modely prostřednictvím API, které vývojáři integrují do svých vlastních produktů. Tisíce firem staví na API OpenAI – od velkých společností jako Khan Academy (AI doučování) a Stripe (AI zákaznická podpora) po startupy vytvářející nástroje pro psaní nebo analýzu pomocí AI.
Úzké spojenectví OpenAI s Microsoftem zvyšuje její dosah. Microsoftův Bing Chat, což je v podstatě ChatGPT s přístupem na internet a aktuálními informacemi, dostal model OpenAI před miliony uživatelů vyhledávače (a sloužil jako pokus Bingu vyzvat Google). Ještě významnější je, že Microsoft integroval modely OpenAI jako „Copiloty“ do Office 365 (Word, Excel, PowerPoint, Outlook), GitHubu (asistent programování) a dokonce i do samotných Windows. „AI znovu vynalezne uživatelskou zkušenost každého produktu Microsoftu,“ prohlásil CEO Satya Nadella. Skutečně, Microsoft 365 Copilot dokáže pomocí GPT-4 psát dokumenty nebo shrnovat schůzky a slibuje zvýšení produktivity kancelářských pracovníků. Díky využití obrovských prodejních kanálů Microsoftu pro podniky se technologie OpenAI rychle dostává do firem a vládních agentur. Microsoft dokonce vytvořil Azure OpenAI Service, aby firemní zákazníci mohli přistupovat k modelům OpenAI s vyšší bezpečností, souladem a možností přizpůsobení. Tato komercializační strategie byla mimořádně úspěšná – do roku 2024 měly služby Azure poháněné OpenAI tisíce zákazníků (včetně velkých jmen jako HSBC, IKEA a Boeing) a poptávka někdy převyšovala kapacitu cloudových GPU Microsoftu.
Hodnoty a kontroverze: OpenAI se prezentuje jako organizace poháněná dlouhodobým, částečně altruistickým cílem (zajistit, aby AGI bylo bezpečné a prospěšné pro všechny), ale čelí skepsi. Její přechod k ziskovému a uzavřenému modelu vydávání vedl některé kritiky (včetně těch z Meta a open-source komunit) k obvinění OpenAI z pokrytectví – „uzavřené modely OpenAI“ se staly opakovaným terčem ironie. OpenAI odpovídá, že „bezpečnost a ochrana“ vyžadují, aby modely nebyly open-source, protože by mohly být zneužity (například se obávají umožnění masové tvorby dezinformací nebo posílení špatných aktérů při vytváření vzorců pro biologické zbraně – rizika, která by mohl představovat výkonný necenzurovaný model). Tento paternalistický přístup vyvolal debatu: je lepší, nebo dokonce etické, aby jedna firma jednostranně rozhodovala, kdo bude mít přístup k AI a za jakých pravidel?
Další kontroverzí je zarovnání AI: modely OpenAI mají filtry moderování, které odmítají určité požadavky (např. návody k násilí, nenávistný obsah atd.). Někteří uživatelé (a političtí aktéři) si stěžují, že ChatGPT je „příliš woke“ nebo zaujatý ve svých odpovědích. Sam Altman tento problém uznal a poznamenal, že „se pokusíme odstranit zaujatosti,“ ale také, že zcela neutrální AI je nemožná, protože „uživatelé budou mít různé definice správnosti“. OpenAI zkoumá způsoby, jak umožnit uživatelům nastavit si vlastní preference obsahu v určitých mezích. To zdůrazňuje zásadní výzvu: jak sladit AI s různorodými lidskými hodnotami. Je to oblast, na kterou OpenAI vynakládá značné prostředky na výzkum a vývoj, a to jak technickými prostředky (RLHF, dolaďování na základě zpětné vazby), tak politikou (spolupráce s etiky a provádění průzkumů o přijatelnosti chování).
Nakonec byly bezpečnostní opatření OpenAI jak chváleny, tak kritizovány. Na jedné straně společnost skutečně zaměstnává red teamy (externí experty, kteří testují modely na škodlivé schopnosti) a zveřejňuje zprávy o zaujatostech a rizicích. Například GPT-4 bylo zjištěno, že má další emergentní schopnosti (například úspěšné složení některých zkoušek v nejvyšších percentilách) a určitou tendenci halucinovat fakta nebo „obcházet systém“, pokud je chytře vyzváno. OpenAI zavedlo pokyny pro používání a monitorování, aby tato rizika zmírnilo, a aktivně spolupracuje s akademickou sférou na výzkumu bezpečnosti AI (nedávno navázalo partnerství s Alignment Research Center za účelem testování schopnosti GPT-4 chovat se autonomně atd.). Na druhé straně odpůrci tvrdí, že OpenAI stále uspěchaně vydává výkonné modely, aniž by jim plně rozumělo – přičemž vnitřní fungování GPT-4 zůstává černou skříňkou, a dokonce ani OpenAI si není jisté, jak model rozvíjí pokročilé dovednosti. OpenAI oponuje, že iterativní nasazování s bezpečnostními opatřeními je lepší než čekání, protože reálné použití odhalí problémy, které lze opravit v dalších aktualizacích.
Shrnuto, OpenAI je prototypická společnost ve stylu „jednat rychle (ale ne příliš rychle) a nechat AI něco rozbít (ale pak to opravit)“. Neúnavně zvyšuje schopnosti AI a nastavila laťku toho, co AI dokáže (a tím nutí všechny konkurenty dohánět úroveň GPT-4). Tuto ambici spojuje s explicitním (někteří říkají se sebou si protiřečícím) narativem zaměřeným na bezpečnost – volá po dohledu, i když sama vede závod. Jak uvidíme, ostatní firmy OpenAI jak napodobují, tak kritizují, a v důležitých ohledech se liší v otázkách otevřenosti, zisku a výzkumné kultury.
Anthropic: AI s důrazem na bezpečnost a „konstituční“ zarovnání
Anthropic je často zmiňován ve stejné větě jako OpenAI – a to nejen kvůli podobnosti jmen. Ve skutečnosti byl Anthropic založen bývalými vedoucími pracovníky OpenAI, kteří začali být znepokojeni směrem, kterým se OpenAI ubírá. V roce 2020 odešel viceprezident výzkumu OpenAI Dario Amodei (a jeho sestra Daniela) po neshodách ohledně toho, jak rychle OpenAI nasazuje velké modely a kvůli obratu směrem k Microsoftu a zisku. V roce 2021 založili Anthropic výslovně jako AI laboratoř zaměřenou na bezpečnost a sladění AI. Posláním Anthropicu je budovat spolehlivé, interpretovatelné a řiditelné AI systémy – v podstatě vyřešit problém sladění a zároveň vytvářet špičkovou AI. Dario Amodei již léta varuje, že pokud nebudou pokroky v AI správně kontrolovány, mohou představovat „katastrofálně špatné“ důsledky pro společnost. Je považován za jednoho z „opatrnějších“ lídrů (některými kritiky označován za doomera, ačkoliv on sám přijímá roli realisty). „Vnímáme to tak, že máme povinnost varovat svět před tím, co se stane… protože můžeme mít tak dobrý svět, pokud vše uděláme správně,“ řekl Amodei v rozhovoru v polovině roku 2025.
Technický přístup: Anthropic zvolil strategii trénování velkých obecných modelů (podobně jako řada GPT od OpenAI), ale klade velký důraz na techniky sladění, aby se chovaly bezpečně. Jeho hlavní AI asistent, Claude, je AI chatbot podobný ChatGPT. První verze Claude (začátek roku 2022) byla založena na modelu s desítkami miliard parametrů a byla pozoruhodná použitím nové trénovací metody, kterou Anthropic vyvinul, nazvané „Constitutional AI“. Myšlenka, vysvětlená ve výzkumu Anthropicu, je dát AI soubor principů nebo „ústavu“ (čerpajících například z Všeobecné deklarace lidských práv, nebo z ne-západních filozofií atd.) a nechat AI, aby se sama zlepšovala tím, že bude kritizovat a upravovat své výstupy podle těchto principů. Tato metoda snižuje závislost na lidské zpětné vazbě při každém dolaďování; místo toho se AI učí sladit s pevně danou sadou hodnot schválených lidmi prostřednictvím posilovaného učení, kde odměňovací model vychází z ústavy. V praxi Claude odmítne škodlivé požadavky s odkazem na své principy (například může říct, že nemůže vytvářet nenávistný obsah, protože to porušuje princip respektování všech lidí). První testy ukázaly, že Claude má menší tendenci „ujet“ nebo produkovat zakázaný obsah ve srovnání s nesladěnými modely, ačkoliv jej stále bylo možné oklamat.
Anthropic je také na špičce v oblasti škálování modelů. Publikovali vlivný výzkum o zákonech škálování, který ukazuje, jak se výkon modelu předvídatelně zlepšuje s více daty a parametry. V roce 2023 Anthropic představil Claude 2, mnohem výkonnější model (v mnoha úlohách srovnatelný s GPT-3.5/GPT-4) a způsobil rozruch s kontextovým oknem o velikosti 100 000 tokenů – což znamená, že Claude mohl najednou číst a analyzovat stovky stran textu. To bylo výrazně více než u jiných modelů a umožnilo například analyzovat dlouhé dokumenty nebo dokonce celý román v jednom zadání. To ukázalo zaměření Anthropicu na „uchovávání a zpracování informací“, což je klíčové pro úkoly jako porozumění dlouhým smlouvám nebo konverzacím.
Ačkoli Anthropic nezveřejnil přesný počet parametrů, říkalo se, že Claude 2 má řádově 50–100 miliard parametrů (méně než GPT-4, který se odhaduje na více než 170 miliard). Anthropic to však kompenzuje chytrým tréninkem – model trénovali na rozsáhlém korpusu zahrnujícím různorodá internetová data a kód a Claude dále průběžně vylepšují pomocí zpětné vazby z beta programu. Také věnovali úsilí interpretovatelnosti: Výzkumníci v Anthropicu zkoumají „neurony“ a chování uvnitř jazykových modelů, aby pochopili, jak vytvářejí koncepty. Například publikovali analýzy, jak může model reprezentovat „lineární sekvenci“ nebo kde může být zakódována zaujatost, aby našli způsoby, jak ji upravit. To odráží výzkumně orientovanou kulturu v Anthropicu – mnoho zaměstnanců jsou PhD zaměření na základní otázky zarovnání AI, nejen na produkt.
Filozofie bezpečnosti: Anthropic pravděpodobně klade větší důraz na bezpečnost AI než jakákoli jiná velká laboratoř. Od začátku se prezentovali jako tvůrci AI „způsobem, který upřímně upřednostňuje bezpečnost.“ Jejich firemní étos je pojmenován podle „Anthropic“ (což znamená vztahující se k lidem), aby zdůraznili sladění s lidskými hodnotami. Dario Amodei se otevřeně vyjadřuje o krátkých časových horizontech k výkonné AI a nutnosti se připravit. Údajně řekl kolegům, že věří, že existuje významná šance (řádově 10–20 %) na AGI v příštích několika letech, a tedy stejně významné riziko něčeho, co se pokazí, pokud to nebude správně zvládnuto. Proto je v politických kruzích hlasitý: „otázky národní bezpečnosti, ekonomické otázky [z AI] se začínají stávat velmi aktuálními… naléhavost vzrostla,“ řekl. Na rozdíl od Yanna LeCuna z Meta, který zesměšňuje „scénáře zkázy“, se Amodei nebojí diskutovat o nejhorších případech – ale dělá to proto, aby prosazoval opatření už nyní. Rychle dodává, že Anthropic vidí v AI také obrovské přínosy. „Myslím, že si pravděpodobně uvědomujeme přínosy více než kdokoli jiný… ale právě proto, že můžeme mít tak dobrý svět, cítím povinnost varovat před riziky,“ vysvětlil.
Pokud jde o strategie zarovnání, kromě Constitutional AI Anthropic experimentuje s technikami jako škálovatelný dohled (mohou AI systémy pomáhat monitorovat a trénovat jiné AI), adversariální testování (snaha vyvolat špatné chování v bezpečném prostředí) a empirická bezpečnost (měření například upřímnosti nebo míry toxicity). Jsou známí díky hodnoticímu rámci „HARNESS“, který modely testuje na řadě záludných podnětů. Anthropic také jednoduše trénuje své modely, aby více věcí odmítaly: Claude je obecně konzervativnější v tom, co neudělá, ve srovnání s původními GPT modely. V jednom srovnání byl Claude méně ochotný poskytovat nebezpečné instrukce nebo se zapojovat do nenávistných projevů, i když může být někdy až příliš opatrný (například odmítne neškodné požadavky, pokud se zdají, že by mohly být zakázány).
Otevřenost a přístup k modelu: Anthropic zaujímá střední cestu v otázce otevřenosti. Publikovali vědecké články popisující metody (na rozdíl od OpenAI, která zpočátku ani nezveřejnila článek o GPT-4), a spolupracují s akademickou sférou. Stejně jako OpenAI však nezveřejňují své plné modely jako open source. Claude je přístupný prostřednictvím omezeného API a chatovacího rozhraní, není ke stažení. Podle Anthropicu by zveřejnění vah výkonného modelu znamenalo riziko jejich zneužití nebo nezodpovědné modifikace. Zajímavé je, že Dario Amodei si myslí, že „open source“ jako koncept se na AI nedá jednoduše převést. „Nemyslím si, že open source funguje v AI stejně jako v jiných oblastech,“ řekl a poznamenal, že na rozdíl od softwaru u AI „nemůžete snadno nahlédnout dovnitř modelu“, takže otevřené váhy neposkytují takovou jasnost, jakou si lidé myslí. Také argumentoval, že výhody open source v softwaru (mnoho očí zlepšuje kód atd.) jsou u AI modelů méně použitelné – protože jen málokdo má prostředky na trénování nebo výrazné vylepšení těchto obřích modelů. Jeho slovy: „Když vyjde nový model… nezajímá mě, jestli je open source nebo ne. Ptám se: je to dobrý model? Je v důležitých věcech lepší než my? To je jediné, co mě zajímá.“. To naznačuje, že Anthropic se soustředí na udržení náskoku ve schopnostech, ne na to, zda je model otevřený nebo uzavřený – a věří, že pokud bude Claude nejlepší, firmy ho budou používat, i když budou existovat otevřené alternativy. Opravdu, označil open source za „falešné téma“ ve vztahu ke skutečné konkurenci.
To ale neznamená, že by Anthropic byl nepřátelský vůči otevřenému výzkumu – některé menší modely a nástroje zveřejnili jako open source (například model s 4 miliardami parametrů pro výzkumné účely a své evaluační sady). Pravděpodobně by však modely na úrovni Claude neuvolnili bez silných bezpečnostních záruk nebo regulačních rámců. Tento postoj se stal aktuálním, když Meta zveřejnila LLaMA a ostatní ji začali dolaďovat způsoby, které obcházely bezpečnost; postoj Anthropicu tak podtrhl, proč nezveřejňují Claude.
Financování a partnerství: Nezávislost Anthropicu je podpořena velkými investicemi od technologických gigantů, kteří se snaží získat pozici v AI. Začátkem roku 2023 investoval Google do Anthropicu přibližně 400 milionů dolarů za zhruba 10% podíl a Anthropic se zavázal používat infrastrukturu Google Cloud TPU. To bylo vnímáno jako strategický krok Googlu, jak mít druhého dodavatele pokročilé AI (jistota proti napojení OpenAI na Microsoft). Později v roce 2023 přišel Amazon s ještě větší dohodou: investoval nejprve 1,25 miliardy dolarů (s možností až do 4 miliard) výměnou za to, že Anthropic bude používat AWS jako svůj hlavní cloud a Amazon získá přednostní integraci modelů Anthropicu do služeb AWS. Nyní je Anthropic fakticky partnerem dvou konkurentů, Googlu a Amazonu, což je unikátní situace. Používají jak Google TPU, tak vlastní čipy Amazonu (AWS Trainium/Inferentia) pro trénování modelů. Z pohledu Anthropicu tento multi-cloud přístup poskytuje redundanci a spoustu výpočetního výkonu – obě dohody jim také umožňují nakupovat drahý hardware GPU/TPU za peníze investorů.
Anthropic také získal granty a půjčky od fondů spojených s efektivním altruismem (někteří raní podporovatelé byli napojeni na filozofii EA, zaměřenou na snižování existenčních rizik). Její hodnota vzrostla do roku 2023 na přibližně 5 miliard dolarů a s dohodou s Amazonem pravděpodobně ještě výše. Na rozdíl od OpenAI nemá Anthropic vlastní spotřebitelský produkt, který by generoval příjmy ve velkém měřítku (nemá ekvivalent předplatného ChatGPT). Místo toho vydělává peníze účtováním poplatků za používání API pro Claude (například firmy platí za každý milion vygenerovaných znaků). Strategie Anthropicu se zdá být zaměřena na podnikové a vývojářské trhy, které požadují důvěryhodný model. Například Anthropic spolupracoval se Slackem: funkce Slack AI využívá Claude ke shrnutí kanálů a zodpovídání otázek, přičemž hlavním argumentem je, že Claude je „méně pravděpodobné, že vytvoří toxický nebo nezabezpečený výstup“. Mezi jejich zákazníky patří také Quora (která nabízí Claude na své platformě Poe) a údajně i některé finanční a právní firmy, které upřednostňují bezpečnostní zaměření Anthropicu.Vnímání veřejností a prohlášení: Dario Amodei není tak veřejně známou osobností jako Sam Altman, ale čím dál více vystupuje na veřejnosti. V rozhovoru pro The Atlantic poznamenal, že „o těchto věcech (rizicích AI) mluvíme už nějakou dobu, ale jak se blížíme k těmto výkonným systémům, říkám to důrazněji“. Snažil se setřást nálepku „doomer“ tím, že zdůrazňuje vyváženou komunikaci: Anthropic často ve svých blogových příspěvcích vyzdvihuje přínosné využití Claude (např. jeho schopnost pomáhat s výzkumem nebo brainstormingem) a vyhýbá se čistě pesimistickým prohlášením. Přesto Amodei neskrývá, že ho motivují „krátké časové horizonty“. V nedávném podcastu odmítl uvést konkrétní rok pro AGI, ale naznačil, že má pocit, že to není daleko, pokud nedojde k náhlému zpomalení pokroku (kterému dává jen asi 20% šanci). Také zlehčuje význam vágních pojmů jako „AGI“ nebo „superinteligence“ a nazývá je „zcela bezvýznamné – nevím, co je AGI“. Podle něj jde o kontinuum schopností; Anthropicu záleží na měřitelném pokroku a konkrétních rizicích v každém kroku.
Jedna zajímavost: Anthropic doslova napsal „Ústavu“ pro Claude a zveřejnil obecné principy (např. Vyber odpověď, která nejvíce podporuje lidská práva a svobodu; Vyber odpovědi, které jsou maximálně užitečné a neškodné; Vyhýbej se toxickému nebo diskriminačnímu obsahu atd.). Tento transparentní výčet hodnot je dost odlišný od OpenAI, která většinou řeší slaďování za zavřenými dveřmi pomocí lidské zpětné vazby. Ukazuje to zaměření Anthropicu na explicitní, na principech založené slaďování, téměř jako by vychovávali AI dítě podle souboru pravidel.
Anthropic se zatím z velké části vyhnul větším skandálům nebo incidentům zneužití s Claude. Musel však Claude průběžně vylepšovat poté, co uživatelé našli způsoby, jak jej přimět k produkci zakázaného obsahu (pomocí „jailbreak“ promptů). Díky konstituční AI se ale Claude často dokázal sám opravit i při jailbreaku – např. nejprve napsal několik řádků násilného příběhu a pak přestal se slovy „zdá se, že to porušuje zásady“. Tento částečný úspěch získal Anthropicu respekt v bezpečnostní komunitě. Pokud je OpenAI vzorovým příkladem přístupu „nejprve schopnosti“, pak Anthropic je vzorem přístupu „nejprve slaďování“ (nebo alespoň paralelního slaďování) vývoje.
Stručně řečeno, Anthropic si vymezuje roli opatrné, zásadové AI laboratoře. Přímo soupeří s OpenAI (Claude vs GPT-4 jsou přímí konkurenti), ale prezentuje se jako „Jsme důslednější v otázkách bezpečnosti a sladění.“ Sázka Anthropicu je, že mnoho firem (a možná i vlád) dá přednost AI, která je o něco zdrženlivější a méně náchylná k nečekanému chování, i když to znamená o něco menší surový výkon nebo pomalejší aktualizace. Tím, že výrazně investuje do výzkumu sladění, Anthropic doufá, že nakonec získá technickou výhodu v kontrole AI – což by se mohlo stát jeho největším aktivem, pokud/když dorazí superinteligentní AI. Jak to vyjádřil Dario Amodei, „snažíme se být jedni z těch, kdo nastaví standard, jak to dělat bezpečně“, což je podle něj „jediný způsob, jak odemknout všechny výhody“ AI, aniž bychom riskovali katastrofu.
Google DeepMind: Spojení AI impérií pro „zodpovědné“ geniální stroje
Ze všech hráčů má Google (nyní pod mateřskou společností Alphabet) možná nejrozsáhlejší AI dědictví. Google se věnoval AI ještě předtím, než to bylo populární – používal strojové učení pro řazení výsledků vyhledávání a reklamy už od 2000, v roce 2014 koupil DeepMind a v roce 2017 vynalezl klíčové technologie jako Transformer (který umožnil současnou revoluci LLM). Do roku 2025 jsou AI aktivity Googlu sjednoceny pod Google DeepMind, novou divizí vzniklou sloučením týmu Brain z Google Research s londýnským DeepMind. Toto spojení, oznámené v dubnu 2023, signalizovalo odhodlání Googlu soutěžit na nejvyšší úrovni v AI a odstranit vnitřní rivalitu. V čele Google DeepMind stojí Demis Hassabis (spoluzakladatel DeepMind), zatímco dlouholetý šéf AI Googlu Jeff Dean přešel do poradní role.
Vize a cíle: Mantrou Google DeepMind by mohlo být „vyřešit inteligenci, bezpečně“. Původní mise DeepMind zněla „Vyřešit inteligenci pro pokrok vědy a lidstva“. Demis Hassabis často mluví o budování AGI – je jedním z mála, kdo kromě Altmana tento pojem otevřeně používá v pozitivním smyslu. „Vytvoření AGI je celoživotní práce,“ řekl Time, a věří v to už od dob, kdy studoval neurovědy. Hassabisův pohled na AGI je optimistický, ale zároveň zásadový: vidí ji jako potenciálně „nejprospěšnější technologii vůbec“ – umožňující léky na nemoci, řešení klimatu, vědecké průlomy – „jako jízdu kavalérie“, která přichází řešit problémy, které lidé sami nezvládnou. Zároveň však varoval před přístupem „rychle postupovat a rozbíjet věci“. Už v roce 2022 (před ChatGPT) kritizoval některé konkurenty za bezohlednost a přirovnal je k lidem, kteří „si neuvědomují, že drží nebezpečný materiál“. „Doporučoval bych nepostupovat rychle a nerozbíjet věci,“ řekl výstižně – pravděpodobně narážka na étos Silicon Valley a možná i na rychlé nasazení OpenAI.
Google se prezentuje jako zodpovědný průkopník AI. Sundar Pichai, generální ředitel Googlu, řekl, že AI má „hlubší dopad než oheň nebo elektřina“, ale musí být zaváděna opatrně. Google zveřejnil AI Principles v roce 2018 (po interní vzpouře kvůli projektu vojenských dronů) – zavázal se, že nebude vyvíjet AI pro zbraně, sledování nebo porušování lidských práv. Zajímavé je, že DeepMind do toho měl co mluvit: když jej Google koupil, DeepMind vyjednal dohodu, že jeho technologie „nikdy nebude použita pro vojenské účely nebo zbraně“. Tento závazek však do roku 2023 tiše vypršel, protože Google začal prodávat cloudové AI služby armádám (např. Google Cloud AI využívá americké ministerstvo obrany a další). Hassabis v roce 2023 toto posunutí uznal a v podstatě řekl, že to byla kompromisní cena za vstup do Googlu a získání zdrojů pro dosažení AGI.
Technologie a projekty: Přístup Google DeepMind k AI je mnohostranný. Mají několik hlavních rodin modelů a pracují na jejich kombinaci:
- PaLM (Pathways Language Model): Toto byl vlajkový LLM Googlu (540 miliard parametrů) oznámený v roce 2022, který prokázal silné schopnosti srovnatelné s GPT-3. Google jej vylepšil na PaLM 2 (který pohání Bard od roku 2023) – PaLM 2 je dostupný v různých velikostech a je silný v mnohojazyčných úlohách a v úsudku. PaLM 2 byl trénován na textu a kódu, což mu dává slušné schopnosti programování. Google jej učinil základem mnoha funkcí (je za funkcemi „Pomoz mi napsat“ v Gmailu a AI funkcemi v Google Docs).
- Gemini: Gemini je další generace projektu DeepMind, výslovně zamýšlená jako konkurence nebo překonání GPT-4. Jde o velký multimodální model (o kterém se říká, že má biliony+ parametrů nebo jde o soubor modelů), který bude integrovat unikátní algoritmy DeepMind jako reinforcement learning a tree search (použité v AlphaGo) s jazykovým porozuměním LLM. Jak popsal Demis Hassabis, „stavíme Gemini, které bude obsahovat techniky ze systémů podobných AlphaGo do LLM, aby získalo nové schopnosti jako plánování nebo řešení problémů“. Očekává se, že Gemini bude schopné analyzovat text, obrázky a případně další vstupy a provádět pokročilejší úsudek – možná i využívat nástroje přes API (DeepMind’s sparrow a pluginy OpenAI na to ukazují). Google Gemini k září 2025 neuvolnil, ale očekávání jsou obrovská – někteří zasvěcenci říkají, že „se trénuje na desítkách tisíc TPU“ a mohl by být spuštěn koncem roku 2025.
- Odkazové projekty DeepMind: DeepMind se proslavil díky AlphaGo (který v roce 2016 porazil světového šampiona v Go) a následným systémům jako AlphaZero (který se sám naučil šachy, shogi, Go od nuly) a AlphaFold (který vyřešil skládání proteinů, 50letou výzvu biologie, za což Hassabis získal podíl na Nobelově ceně za chemii 2024). Tyto úspěchy vzešly z reinforcement learning (RL) a dalších specializovaných technik (například Monte Carlo tree search pro hry). DeepMind také vyvinul Deep Reinforcement Learning pro úlohy v robotice a navigaci. Tyto techniky se však okamžitě nepřenesly do obecných konverzačních nebo programovacích úloh – v tom vynikají velké jazykové modely. Spojení s Google Brain (který se specializoval na LLM a vizuální modely) umožnilo vzájemné obohacení. Například Brainovy transformer modely + RL agenti DeepMind mohou vést k agentům, kteří myslí (LLM) a pak jednají v prostředí, přičemž své akce zpřesňují pomocí RL.
Konkrétní příklad: DeepMind vytvořil ChatGPT-podobné agenty už dříve – zejména Sparrow, dialogového agenta, který se učil z lidské zpětné vazby a byl bezpečnější (méně náchylný k dezinformacím) než dřívější chatboti. Ale DeepMind nikdy Sparrowa široce neproduktizoval. Po explozi ChatGPT Google urychleně uvedl na trh svého chatbota Bard (provozovaného týmem Brain s modelem PaLM). Bard měl nejistý začátek (faktické chyby v jeho úvodní ukázce poškodily akcie Googlu). V průběhu roku 2023 Google Bard vylepšil upgradem na PaLM 2 a přidáním funkcí jako propojení na Google služby (mapy, YouTube) a pomoc s programováním. Přesto byl Bard vnímán jako zaostávající za GPT-4. Interně to vedlo k frustraci – což měl vyřešit sloučením s DeepMind a sdílením talentu.
Další oblast: AI alignment a bezpečnost. DeepMind má zavedenou výzkumnou jednotku pro bezpečnost AI, jednu z největších na světě, vedenou výzkumníkem Shanem Leggem a dalšími. Pracovali na interpretovatelnosti (např. vizualizace toho, co neurony ve vizuálních modelech detekují), robustnosti (zajištění, že modely nejsou zmateny adversariálními vstupy), a modelování odměn (aby RL agenti správně chápali lidské preference). DeepMind publikoval na témata jako vyhýbání se reward hackingu (kdy AI najde trik, jak získat vysokou odměnu, která ale není skutečně žádoucím chováním). Zkoumají také teoretické AI rámce – např. spoluzakladatel DeepMind Shane Legg jednou definoval inteligenci matematicky a tým má mnoho PhD, kteří přemýšlejí o dlouhodobých strukturách AGI.
Otevřenost vs uzavřenost, sdílení vs tajnůstkářství: Google se historicky přiklání k akademickému publikování výzkumu (Transformer, word2vec a mnoho průlomů pochází z Google článků). Pokud však jde o produkty, Google je poměrně uzavřený. Nezveřejnil váhy modelů PaLM ani PaLM 2 (i když v roce 2018 zveřejnil menší modely jako BERT, což katalyzovalo výzkum NLP). Pod konkurenčním tlakem byl Google opatrný – LaMDA (konverzační model, o kterém jeden inženýr Googlu slavně prohlásil, že je „senzitivní“) držel dlouho interně. Teprve po ChatGPT z něj udělal veřejnou ukázku (Bard). Váhání Googlu je částečně způsobeno pověstí a důvěrou v značku: jako nejpoužívanější vyhledávač a důvěryhodný poskytovatel e-mailu/dokumentů riskuje větší negativní reakci, pokud jeho AI řekne něco urážlivého nebo nesprávného. Skutečně, po rané chybě Barda byl Google opatrný, označoval svou AI za „experimentální“ a přidával upozornění.
DeepMind jako nezávislá jednotka měl větší svobodu publikovat a často open-sourcoval simulátory prostředí, některé menší modely atd. Nyní jako Google DeepMind je pravděpodobná integrovanější strategie: publikovat základní vědu, ale nejvýkonnější váhy modelů držet proprietární. Google umožňuje výzkumníkům přístup k některým modelům přes svůj API a cloud (např. lze používat PaLM 2 a nadcházející modely přes Vertex AI v Google Cloud s příslušnými smlouvami). A Google open-sourcoval některé nástroje pro odpovědnou AI – např. TensorFlow Responsible AI Toolkit pro analýzu zaujatosti modelů.
Kultura a vedení: Demis Hassabis a jeho tým přinášejí poněkud odlišnou kulturu – DeepMind byl známý „vědeckou, akademickou“ atmosférou, s mnoha PhD vědci, zaměřením na dlouhodobý výzkum a dokonce i obavami o etiku (měli interní etickou radu a původně trvali na doložce o nepoužití pro vojenské účely). Kultura Googlu je více zaměřená na produkt a metriky. Došlo k určitému střetu kultur: zprávy z roku 2023 naznačovaly třenice mezi lidmi z Google Brain a DeepMind, a také mezi výzkumníky a managementem (zejména poté, co Google v letech 2020–21 propustil některé členy týmu pro etickou AI během incidentu Timnit Gebru, který sice nesouvisel s DeepMind, ale poškodil pověst Googlu v oblasti AI etiky).
Spojením pod jedno vedení (Hassabis) se zdá, že Google sází na výzkumnou důslednost DeepMind a infrastrukturu a škálovatelnost Brain. Hassabis se po sloučení stal více veřejným mluvčím. V podcastech (například Hard Fork od NYTimes, únor 2024) zdůrazňoval výhodu Googlu: „Máme schopnost trénovat tyto modely ve velkém měřítku, máme talent, máme dekádu výzkumu“. Vyjádřil i jistou nepřímou kritiku OpenAI tím, že zdůraznil opatrný vývoj: „Musíme se vyhnout rizikům… špatní aktéři by mohli AI zneužít a jak se modely stávají více agentními (autonomními), musíme zajistit, že zůstaneme pod kontrolou“, řekl časopisu Time. Dvě největší Hassabisovy obavy: (1) zneužití zlými lidmi – použití AI k tvorbě biologických zbraní, sofistikovaných kyberútoků, propagandy atd. (2) samotná „AI“, pokud by se vymkla kontrole – jak řekl, „jak se stává autonomnější… jak zajistíme, že zůstaneme ve vedení, budeme je ovládat, interpretovat, co dělají… nastavíme mantinely, které vysoce schopné samo-zlepšující se systémy nemohou odstranit?“. Tyto obavy odpovídají hlavním tématům bezpečnosti AI (a jsou podobné tomu, co říká OpenAI, i když Hassabis to obvykle formuluje konkrétněji z hlediska technických výzev).
Zajímavé je, že Hassabis také poukazuje na potřebu globální správy: „Tyto systémy mohou ovlivnit každého všude… potřebujeme mezinárodní standardy ohledně toho, jak jsou stavěny, jaké cíle jim jsou zadávány a jak jsou nasazovány“. Prosazuje něco jako globální regulace nebo dohody o AI, vzhledem k bezhraniční povaze AI. Google se účastní mnohonárodních diskusí (např. politika OECD pro AI, G7 „Hiroshima AI process“ atd.) a pravděpodobně bude hrát klíčovou roli v budoucích regulacích.
Nelze mluvit o Googlu, aniž bychom nezmínili konkurenci s OpenAI/Microsoftem. Rivalita je intenzivní. V polovině roku 2023 se objevily zprávy, že Google vnímá dominanci OpenAI s ChatGPT jako vážnou hrozbu pro svůj byznys v oblasti vyhledávání (pokud AI odpovědi převezmou vyhledávací dotazy, může být model reklamy Googlu ohrožen). Google reagoval projektem „Project Magi“ pro přidání AI do vyhledávání a nyní se skutečně Google’s Search Generative Experience (SGE) zavádí, přičemž pro některé dotazy poskytuje AI souhrny nad výsledky vyhledávání – ovšem opatrně, protože chyby nebo zaujatost ve výsledcích vyhledávání by mohly být škodlivé. Sázky byly popsány jako existenční pro hlavní produkt Googlu. Jak to vyjádřil jeden analytik, „Google nemá jinou možnost než jít do AI naplno – pokud tuto vlnu propásnou, jejich hlavní byznys by mohl erodovat.“
Tato naléhavost je patrná na tom, jak výdaje Googlu na AI raketově vzrostly. V roce 2023 bylo oznámeno, že Google investuje jen za tento rok více než 30–40 miliard dolarů do výzkumu a vývoje AI a infrastruktury. Vybudoval nové TPU v4 pody (každý pod s výkonem 1 exaFLOP, obsahující tisíce čipů) pro trénování modelů jako Gemini. Také znovu využívá obrovskou kapacitu datových center pro AI. Zajímavé číslo: Google, Microsoft a Meta dohromady tvořily většinu světových nákupů špičkových AI čipů v roce 2024 – v podstatě si zajistily výpočetní výkon potřebný pro trénování příští generace modelů, což by mohlo vytvořit konkurenční výhodu.
Shrnutí Google DeepMind: Přinášejí vědecký přístup s důrazem na průlomové objevy (chtějí kvalitu a bezpečnost, nejen být nejrychlejší na trhu), ale nyní je zde i potřeba dodávat AI produkty ve velkém měřítku, aby mohli konkurovat. Mezi jejich silné stránky patří talent (mnoho předních světových AI výzkumníků zde pracuje), výpočetní výkon (TPU farmy), data (obrovské množství dat Googlu ze Search, YouTube atd.) a integrace (miliardy uživatelů v Gmailu, Androidu atd., kde lze AI nasadit). Mezi jejich výzvy patří překonání vlastní opatrnosti a byrokracie – lze tvrdit, že s generativními AI produkty přišli později. Ale s unifikací a příchodem Gemini je Google DeepMind hlavním kandidátem v závodě o AGI.
Očekávejte, že Google bude prosazovat AI všude: Budete mít Google AI ve svém telefonu (osobní asistent s konverzačními schopnostmi), v práci (Google Workspace s generativními funkcemi), ve zdravotnictví (DeepMindův Med-PaLM je již testován pro zodpovídání lékařských dotazů s odbornou přesností) a jinde. A pokud minulost DeepMind něco naznačuje, budou také publikovat články v Nature a Science o tom, jak AI objevuje nové algoritmy nebo dosahuje úspěchů, jako je řízení jaderné fúzní reaktory (což DeepMind dokázal v roce 2022). Chtějí prestiž vedení v AI vědě, nejen nasazení chytrého chatbota.
Pokud jde o hodnoty, Google říká „AI pro dobro, AI pro všechny, ale zodpovědně podle našich zásad.“ Je to trochu korporátní fráze, ale skutečně investují do férovosti, snižování předsudků a inkluze (například trénování modelů Googlu dbá na pokrytí mnoha jazyků – Bard byl spuštěn ve 40+ jazycích, zatímco ChatGPT od OpenAI byl zpočátku nejsilnější v angličtině). Vedení Googlu (Pichai, Hassabis) také zdůrazňuje vzdělávací a rovnostářské přínosy AI – jak může přinést odborné doučování každému dítěti s připojením k internetu, nebo pomoci lidem, kteří nemluví anglicky, okamžitým a přesným překladem obsahu. Tento široký globálně prospěšný rámec je částečně altruismus, částečně byznys (uživatelská základna Googlu je globální, na rozdíl od OpenAI, která vyrostla ze západní uživatelské základny). To rezonuje s identitou Googlu jako firmy, která „organizuje světové informace“ – nyní s cílem „organizovat světovou inteligenci.“
Meta (Facebook): Open-source ambice uprostřed změny tónu
Meta Platforms (dříve Facebook) vstoupila do závodu v oblasti AI odlišným způsobem: prosazuje otevřený výzkum a open-source modely. Pod vedením generálního ředitele Marka Zuckerberga zveřejnila Meta AI laboratoř (FAIR – Fundamental AI Research) více kódu a modelů veřejnosti než snad jakákoli jiná velká technologická firma. Začátkem roku 2023 Meta vzbudila pozornost představením LLaMA, sady velkých jazykových modelů (7B až 65B parametrů), které dosáhly silného výkonu a byly (na základě individuálního posouzení) poskytnuty výzkumníkům. Ačkoli nebyly „open source“ z hlediska licence (počáteční váhy LLaMA byly pod nekomerční výzkumnou licencí), model unikl online a brzy jej komunity různě dolaďovaly – včetně neautorizovaných způsobů. Místo ústupu Meta přitvrdila: v červenci 2023 oznámila LLaMA 2, tentokrát plně otevřený (dostupný pro komerční použití za poměrně vstřícných podmínek) a společně uvedený s Microsoftem na Azure. Tím se Meta stala vlajkonošem open-source LLM, čímž si získala přízeň vývojářů a akademiků, kteří byli vyloučeni z uzavřeného režimu GPT-4.
Filozofie – „AI pro všechny“ skrze otevřenost: Vedení společnosti Meta tvrdí, že open-source AI modely je činí bezpečnějšími a spolehlivějšími. Yann LeCun, hlavní AI vědec v Meta (a držitel Turingovy ceny, průkopník deep learningu), je v tomto velmi hlasitý: „Otevřený výzkum a open source jsou nejlepší způsoby, jak pochopit a zmírnit [AI] rizika,“ napsal. LeCun často poukazuje na to, že čím více lidí model zkoumá, tím více lidí může najít chyby a opravit je. Přirovnává to k počátkům webu: „boj o internetovou infrastrukturu v 90. letech – open source (Linux, Apache) vs proprietární (Microsoft)… open source zvítězil a byl bezpečnější cestou“, říká. Podobně tvrdí, že pokud několik firem drží obří AI modely za zavřenými dveřmi, koncentruje to moc a riziko; ale pokud má přístup mnoho lidí, demokratizuje to dohled i inovace.
Sám Zuckerberg to zpočátku plně podporoval. Když se ho Lex Fridman zeptal, proč Meta své modely zveřejňuje, Zuckerberg řekl, že „to je to, co moji inženýři chtějí“ a že otevřenost může přilákat špičkové talenty, kteří chtějí publikovat a spolupracovat. Meta byla skutečně v oblasti výzkumu velmi otevřená: zveřejnila model OPT (175B) v roce 2022 (reprodukce GPT-3), Open Pretrained Transformers a mnoho menších modelů (pro vizi, překlad atd.). Vytvořili také frameworky jako PyTorch (který Meta uvolnila jako open source a stal se jedním ze standardních AI nástrojů na světě). Kulturně má Meta AI laboratoř mnoho akademiků, kteří upřednostňují otevřenou spolupráci.
Nicméně, nedávné posuny naznačují, že absolutní otevřenost firmy Meta může být zmírněna pragmatismem. V polovině roku 2025 Zuckerberg napsal memo, že „vývoj superinteligence je nyní na dosah“ pro Metu a chlubil se náznaky AI schopné sebezdokonalování. Dodal však, že Meta bude „opatrná v tom, co se rozhodneme open-sourceovat“ a „důsledná v mitigaci rizik“ u pokročilých modelů. To je výrazná změna oproti jeho postoji z roku 2024, kdy open-source „dělá AI bezpečnější“. V podstatě Meta dala najevo, že ačkoliv podporuje otevřený vývoj většiny AI, pokud je model extrémně výkonný nebo nese nové hrozby, nemusí jej zveřejnit otevřeně. Skutečně, zpráva v The Financial Times (srpen 2025) tvrdila, že někteří vedoucí pracovníci firmy Meta debatovali, zda „de-investovat“ do LLaMA a místo toho využít uzavřené modely od OpenAI/Anthropic pro určité služby. Mluvčí firmy Meta reagoval: „nadále jsme plně odhodláni vyvíjet Llama a plánujeme letos několik dalších vydání“, čímž zopakoval podporu pro jejich otevřenou modelovou strategii. Analytici to však vnímali jako přiznání firmy Meta, že existují potenciální nevýhody neomezeného poskytování extrémně pokročilých modelů.
Proč tedy tyto smíšené signály? Může to být kvůli konkurenčnímu tlaku a produktovým potřebám. Meta si uvědomila, že otevřené modely umožnily ostatním (i konkurentům) těžit a někdy je i předběhnout. Příklad: otevřený LLaMA 65B unikl a brzy jej nezávislí vývojáři doladili do variant, které v některých úlohách soupeřily s ChatGPT. Jedna organizace jej dokonce zmenšila tak, aby běžel na telefonu. To dokázalo, že otevřenost urychluje inovace – ale ne vždy pod kontrolou nebo ve prospěch firmy Meta. Jsou zde také obavy z odpovědnosti: pokud někdo použije LLaMA 2 k vytváření škodlivého obsahu nebo špatným účelům, Meta by mohla čelit kritice nebo právním problémům (evropské zákony mohou částečně činit poskytovatele modelů odpovědnými). Meta se pravděpodobně chce vyhnout tomu, aby byla zdrojem AI katastrofy. Proto možná přijme přístup „open-source pro starší modely, uzavřené pro nejnovější“.
Technický přístup: Výzkum AI ve firmě Meta zahrnuje jak základní vývoj modelů, tak integraci AI do svých obřích sociálních platforem:
- Řada LLaMA: Jak bylo zmíněno, jde o rodinu jazykových modelů firmy Meta. Silnou stránkou LLaMA byla efektivita: dosahovala kvality podobné větším modelům s menším počtem parametrů díky trénování na vysoce kvalitních datech (včetně více jazyků a kódu) a delší době tréninku. LLaMA 1 nebyla nasazena v produktech, ale LLaMA 2 byla vydána otevřeně a také hostována partnery (Azure, AWS, Hugging Face), takže ji vývojáři mohou snadno používat. Meta také vytvořila doladěné verze (Llama-2-Chat) optimalizované pro dialog. Ve vývoji této řady pokračují – o LLaMA 3 nebo „Beast“ modelu se spekuluje, možná s využitím Mixture-of-Experts (MoE) pro další škálování bez dramatického zvětšení velikosti jednoho modelu. TechRepublic skutečně uvedl, že Meta měla interně verzi zvanou „Behemoth“ s MoE, ale byla odložena, protože výrazně nepřekonala současné modely.
- Multimodální a agenti: Meta zatím veřejně neuvedla multimodální ekvivalent GPT-4, ale pracuje na něm. FAIR má projekty jako ImageBind (společné vektory pro text, obraz, zvuk atd.) a Segment Anything (otevřený model, který dokáže vyříznout libovolný objekt z obrázku – široce chválený v CV komunitě). Mají také prototyp s názvem „CM3leon“, což je text-to-image model, a investují do generativní AI pro obrázky a video (aby ji začlenili do Instagramu a tvorby reklam). Pro chování agentů Meta vytvořila frameworky jako Horizon pro reinforcement learning interně (používá se pro personalizaci algoritmů feedu). Nebylo by překvapením, kdyby Meta brzy propojila LLaMA s rozhodovacími moduly a vytvořila agenty, kteří mohou jednat (představte si budoucího AI asistenta ve WhatsAppu, který nejen chatuje, ale také za vás provede úkoly jako rezervace lístků – platformy Metay by to mohly umožnit). Zuckerberg mluvil o „AI osobnostech“ – postavách nebo asistentech, kterým lidé mohou psát v Messengeru/Instagramu. Ve skutečnosti Meta na konci roku 2023 oznámila plány nasadit AI chatboty s různými osobnostmi (například takového, který mluví jako Abraham Lincoln atd.) do svých sociálních aplikací jako novinku a prvek pro zvýšení zapojení.
- Doporučování & reklamy: I když nejsou tak nápadné jako LLM, Meta využívá AI rozsáhle k pohánění svých klíčových produktů: News Feed, doporučování Instagram Reels, cílení reklam atd. Mají obrovské řídké modely pro tyto účely (například algoritmus DINO pro porozumění obsahu a Deep Learning Recommendation Model (DLRM) pro reklamy). Tyto modely jsou více úzce zaměřené na konkrétní úkoly, ale jsou extrémně důležité pro příjmy. Meta do těchto systémů zavádí nové AI techniky (transformery atd.). Je pravděpodobné, že inovace z LLM (například lepší porozumění jazyku) budou použity ke zlepšení toho, jak Facebook zobrazuje skupiny/příspěvky nebo jak moderuje obsah.
Veřejná prohlášení a pohledy: Mark Zuckerberg historicky nebyl AI frontman jako Altman nebo Hassabis – jeho posedlostí byl metaverse (proto přejmenování firmy na Meta). Ale od roku 2023 se stále více zaměřuje i na AI a přiznává, že „AI přináší dobré výsledky pro náš byznys… a je to také vzrušující oblast pro nové produkty“. Interně se velmi rozhodl, že nenechá Metu zaostat. Podle NYT, když viděl, jak OpenAI a další utíkají dopředu, Zuck se zapojil osobně – zakládal WhatsApp skupiny s top manažery pro brainstorming AI strategie, degradoval AI lídra, který nedoručil výsledky, a osobně lákal AI talenty velkými nabídkami. To je klasický konkurenční obrat: od zaměření na VR/metaverse v letech 2021-22 k AI obratu v roce 2023. Investoři si určitě oddechli – těžké investice do metaverse se zatím nevyplácely, ale investice do AI (například zlepšení doporučování Reels) zvyšovaly zapojení uživatelů.
Zuckerbergova veřejná vyjádření v letech 2023-24 se snažila zlehčit narativ o závodu: „Pokročilou AI budujeme už roky – pohání naše platformy; nejsme pozadu.“ Ale je jasné, že Meta cítila tlak. Jeden seniorní inženýr Metay byl citován, že firma měla „méně zkušeností s reinforcement learningem… který ostatní využívali k budování AI,“ což částečně vysvětluje zpoždění Metay v chatbotech. Také na rozdíl od Googlu nebo OpenAI Meta neměla komerční cloudovou službu ani spotřebitelského asistenta, na kterém by AI předvedla – musela AI vkládat do stávajících sociálních produktů nebo nabídek pro vývojáře.
Názor Yanna LeCuna: Jako respektovaná osobnost LeCun často zastává protichůdný postoj k riziku AI. Tvrdí, že současná AI se ani zdaleka neblíží AGI, a kárá ty, kteří předpovídají blízkou senzitivitu, jako špatně informované. Poznamenal, že „ani nemáme plán pro systém chytřejší než domácí kočka“, a vyzývá lidi, aby se ohledně superinteligence uklidnili. Také tvrdí, že skutečně autonomní AI bude vyžadovat nové paradigmata (jako je jeho výzkum self-supervised learning a embodied AI). V jeho vizi by se AI musela učit jako zvíře/člověk – zkoumáním světa, instinkty, integrací více modulů (vidění, uvažování, paměť). Pouhé škálování LLM podle něj nestačí pro skutečné AGI. Proto výzkum Meta pod LeCunem zkoumá věci jako modely rozšířené o paměť, světové modely pro agenty atd., tedy nejen škálování transformerů.
Kvůli LeCunově skepsi vůči AI-doomu a silně pro-otevřenému postoji se Meta stala de facto opozičním hlasem vůči narativu, který někdy prosazují OpenAI/Anthropic (o existenčním riziku a potřebě licencování). „Doomsday talk is complete BS,“ napsal LeCun přímo, a na sociálních sítích se přetahuje s osobnostmi jako Elon Musk a Max Tegmark o těchto otázkách. To činí interní postoj Meta poněkud rozdělený: Zuck interně propaguje „superinteligenci na dohled“, zatímco LeCun říká „AGI je daleko; nepanikařte.“ Oba to formulují jinak, ale nejsou nutně v konfliktu – Zuckova poznámka může být částečně motivační/soutěživá, zatímco LeCunův veřejný postoj je proti výzvám k přísné regulaci.
Produkty a uživatelé: AI od Meta se projeví v několika oblastech:
- Spotřebitelské chatboty: Jak bylo zmíněno, AI osobnosti v chatech. Představte si, že komunikujete s virtuální postavou nebo tutorem v Messengeru. Meta může využít své messagingové aplikace (WhatsApp s více než 2 miliardami uživatelů a Messenger) k přivedení AI asistence do každodenních konverzací, potenciálně pro plánování, vyhledávání nebo jen zábavu (charakterové boty). Provedli omezené vydání AI samolepek (kde můžete zadat AI, aby vygenerovala vlastní emoji/samolepku).
- Nástroje pro tvorbu obsahu: Meta předvedla AI, která by mohla pomoci tvůrcům – např. generování 3D objektů pro virtuální světy, úpravy videí nebo psaní reklamních textů pro firmy. Spustili nástroj Advantage+, který využívá AI k vytváření více verzí reklamy. Také integrovali AI s názvem Chef v demu, která dokázala na počkání vytvářet různé Instagram filtry. Tyto funkce jsou zatím většinou v pozadí, ale mohly by se stát nástroji pro uživatele (pro konkurenci s AI filtry TikToku atd.).
- Moderace a integrita: Meta musí moderovat obrovské množství obsahu. AI modely jsou zde klíčové – pro detekci nenávistných projevů, identifikaci dezinformací atd. Meta bude tyto systémy nadále vylepšovat lepší AI. Například po vydání GPT-4 se objevila obava z AI-generovaného spamu nebo deepfaků zaplavujících sociální sítě; Meta se bude spoléhat na AI k detekci AI obsahu (dokonce před pár lety vyvinuli systém na detekci deepfake obličejů). V červenci 2023 se Meta připojila k dalším firmám a zavázala se k označování AI-generovaného obsahu, takže pravděpodobně vyvinou nástroje pro označování a detekci takového obsahu na svých platformách.
- Podnikové AI?: Meta se zaměřuje na podniky méně než Microsoft nebo Google, ale zajímavé je, že tím, že open-sourcovala LLaMA 2, nepřímo slouží podnikům, které chtějí modely provozovat samostatně. Navázala partnerství s Microsoft Azure, aby nabídla LLaMA 2 v cloudovém tržišti Azure, což v podstatě umožňuje podnikovým zákazníkům používat model Meta s podporou Microsoftu. Šlo o trochu frenemy spolupráci (Microsoft investoval do OpenAI, ale také pomohl s vydáním otevřeného modelu Meta). To naznačuje, že strategie Meta může být rozšířit své AI široce a získat vliv, spíše než ji přímo prodávat. Nemusí jim vadit, když jiné firmy nasadí modely LLaMA, pokud Meta zůstane v čele inovací (a možná, jak někteří spekulují, by mohla AI monetizovat nepřímo prostřednictvím většího zapojení uživatelů nebo nových reklamních formátů vytvářených AI obsahem).
Konkurenční dynamika: Dva hlavní konkurenti Meta v oblasti spotřebitelských sociálních médií, TikTok (ByteDance) a Snapchat, také přijali AI. Snapchat přidal chatbot „My AI“ poháněný GPT pro uživatele (poháněný OpenAI). TikTok silně využívá AI pro svůj doporučovací algoritmus. Meta pravděpodobně cítí tlak nejen udržet uživatele zapojené pomocí AI funkcí, ale také zajistit, aby ostatní nekontrolovali AI vrstvu na jejich platformě. Je příznačné, že Meta nepoužila externí model pro své chatboty – místo napojení GPT-4 do WhatsAppu vytvořila vlastní LLaMA a trvala na jeho použití. Kontrola a nezávislost se zdají být klíčové.
Pokud jde o „AI závod“, pozice Meta je jedinečná. Neprodává AI cloudové služby ani nemá vyhledávač k přepracování; jejím jádrem jsou sociální média a AR/VR. Dá se tedy říci, že Meta nezávodí za AGI pro něj samotné, ale jako prostředek k obohacení svého ekosystému (lepší uživatelské zážitky, nové platformní schopnosti). Nicméně Zuckerbergův agresivní nábor pro „laboratoř superinteligence“ uvnitř Meta ukazuje, že opravdu chce být počítán mezi lídry, kteří posouvají hranice AI. Nechce, aby Meta byla vnímána jako následovník. „Jen pár firem… má know-how k vývoji [superinteligence] a Zuckerberg chce zajistit, aby Meta byla mezi nimi,“ uvedl The NYT. To to shrnuje: Meta touží po místě u stolu AGI.
Proto Meta investuje do základního AI výzkumu, který není přímo spojen s Facebookem/Instagramem. Příklady: CICERO, AI, která umí hrát hru Diplomacy (zahrnující vyjednávání a přirozený jazyk) – Meta o tom vydala článek v roce 2022. A nadále publikují o nových AI přístupech (navzdory některým škrtům; poznámka: začátkem roku 2023 Meta propustila některé AI výzkumníky v rámci širších propouštění, ale hlavní AI úsilí zůstalo silné).
Do budoucna může Meta najít hybridní model otevřenosti. Mohli by nadále vydávat silné modely otevřeně, aby budovali komunitu a standardizaci kolem své technologie (což podkopává náskok konkurentů s proprietárními řešeními). Ale u skutečně špičkových modelů by mohli zvolit selektivní otevřenost (možná zveřejnit váhy, ale s jemně nastavenými omezeními, nebo otevřeně vydat mírně slabší verzi a silnější si na čas ponechat interně). Je to balancování: pokud Meta zcela uzavře špičkový model, může přijít o získanou přízeň; pokud zůstane zcela otevřená, riskuje pomoc konkurenci a nekontrolované zneužití. Jejich řešením může být „otevřená inovace, řízené nasazení“ – tj. sdílet vědu, ale skutečně výkonné systémy nejprve nasazovat ve vlastních produktech Meta za kontrolovaných podmínek.
Stručně řečeno, Meta v tomto příběhu znamená „Demokratizaci AI“ – prosazuje myšlenku, že AI by neměla být uzamčena v rukou několika málo subjektů. To do určité míry odpovídá i obchodním zájmům Metay: otevřený AI ekosystém Metě usnadňuje přijímat a přizpůsobovat AI podle potřeby, místo aby byla závislá například na cenách API od OpenAI nebo nabídce Microsoft Azure. Je to také reputační tah: být „hodný chlapík“, který open-sourcoval modely, přineslo Metě neobvyklou vlnu pozitivní publicity v AI kruzích (na rozdíl od obvyklé kritiky, kterou Meta dostává za soukromí atd.). Jak poznamenal jeden uživatel Redditu, „Nikdy jsem nebyl fanouškem Facebooku, ale smekám před nimi, že tentokrát šli proti proudu“. Tato dobrá pověst může přilákat výzkumníky, kteří preferují otevřenost.
Nicméně, jak sázky rostou (modely se v některých oblastech blíží lidské úrovni schopností), bude muset Meta sladit své sdělení o otevřenosti vs bezpečnosti. Interně, jak poukázal jeden komentář na Medium, existuje „Zuckerberg-LeCunův paradox“: Zuck mluví o blížící se superinteligenci a opatrnosti, LeCun zlehčuje rizika a prosazuje otevřené zveřejňování. To může být ve skutečnosti strategické „role-based messaging“ – Meta prezentuje různé tváře různým zainteresovaným stranám. Investorům Zuck říká „jsme v závodě o superinteligenci, utratíme, co bude třeba“; regulátorům/veřejnosti LeCun poskytuje ujištění „nevytváříme monstrum, uklidněte se s přísnou regulací; otevřenost je bezpečnější.“ Je to balancování, jak ovlivnit vnímání na všech stranách.
Nakonec se cíle a hodnoty Metay v oblasti AI točí kolem škálovatelnosti (chtějí také největší modely), otevřenosti (do velké míry), bezpečnosti (uznávají ji, ale řeší ji spíše otevřenou kontrolou a interním testováním než vnějšími omezeními), komercializace (nepřímo skrze lepší uživatelský zážitek a reklamy, ne přímým prodejem AI) a přijímání kalkulovaných rizik (sázejí na to, že otevřená inovace předběhne uzavřený vývoj). Nadcházející rok nebo dva prověří, zda tato otevřená strategie dokáže držet krok s o něco uzavřenějším přístupem OpenAI a Googlu, pokud jde o absolutní špičku.
Další klíčoví hráči a perspektivy
Zatímco OpenAI, Anthropic, Google a Meta dominují západním AI zprávám, další významné subjekty také formují toto prostředí:
- Microsoft: Ačkoliv nevyvíjí své vlastní základní modely od nuly (místo toho investuje do OpenAI), Microsoft je v tomto ekosystému klíčový. Efektivně má „exkluzivní komerční práva“ na nejpokročilejší technologie OpenAI. Generální ředitel Microsoftu Satya Nadella popsal AI jako „nový runtime budoucnosti“, který prostupuje vším, co Microsoft nabízí. S produkty jako Bing Chat (který využívá GPT-4) a Microsoft 365 Copilot Microsoft zavádí AI asistenty do vyhledávání, prohlížení webu, programování (GitHub Copilot X) a do všech aplikací Office. Nadellova vize je „kopilot pro každého člověka a každý úkol“. Microsoft také prosazuje rozumnou regulaci – prezident společnosti Brad Smith vydal v polovině roku 2023 „Plán pro správu AI“, který doporučuje bezpečnostní pojistky pro výkonné modely, transparentnost AI-generovaného obsahu a licencování vysoce rizikové AI podobně jako v regulaci farmacie nebo letectví. Tento postoj je v souladu s OpenAI kvůli jejich partnerství. Výhodou Microsoftu je distribuce: může rychle nasadit AI milionům firemních uživatelů (např. integrace ChatGPT do Teams pro shrnutí schůzek). Jeho potenciální nevýhodou je riziko pro značku a odpovědnost, proto byl opatrný a označil chatbot Bing jako „preview“ a přidal ochranné prvky poté, co ho první uživatelé vyprovokovali k bizarním výlevům. Na rozdíl od Googlu je Microsoft ochoten více riskovat, aby získal podíl na trhu (např. použití GPT-4 v Bingu, i když není dokonalý, jako způsob, jak vyzvat Google v oblasti vyhledávání). Obrovská cloudová infrastruktura Microsoftu také zajišťuje, že OpenAI má potřebný výpočetní výkon (údajně postavili Azure superpočítač s desítkami tisíc GPU speciálně pro trénink OpenAI). V hodnotách je Microsoft pragmatický: dělat AI užitečnou, ale zodpovědně. Má vlastní Office of Responsible AI a zavedl interní pravidla (i když zajímavě během propouštění zrušil etický tým, což vedlo některé ke zpochybnění závazku). Přesto Microsoft veřejně prosazuje etiku AI a podporuje iniciativy pro férovost a přístupnost.
- Amazon: Amazon byla zpočátku vnímána jako zaostávající v generativní AI horečce, ale to se změnilo, když využila jak partnerství, tak vlastní výzkum a vývoj. V září 2023 Amazon oznámil obrovskou investici do Anthropic a také, že vyvíjí vlastní LLMs „Amazon Titan“ a platformu „Bedrock“ pro AI služby. Bedrock umožňuje zákazníkům AWS vybírat z různých základních modelů (včetně Claude od Anthropic, modelů Stability AI a vlastních modelů Amazonu) přes API. Strategie Amazonu je být neutrálním poskytovatelem infrastruktury pro AI – „přineste si vlastní model nebo si vyberte jeden z našich.“ CEO Andy Jassy jasně řekl, že „Generativní AI znovu vynalezne prakticky každou zákaznickou zkušenost… technologie, která se objeví jednou za život“, a vysvětlil, že Amazon „investuje poměrně rozsáhle“ napříč všemi jednotkami. Jassy skutečně zdůraznil, jak každý kout Amazonu využívá AI: od „chytřejší Alexy“, která může jednat za vás, přes AI-generované popisy produktů pro prodejce, až po interní optimalizace logistiky (zásoby, robotika). Vize Amazonu je velmi zákaznicky orientovaná a utilitární: AI má usnadnit nakupování, zefektivnit sklady, urychlit vývoj kódu (AWS má nástroj CodeWhisperer podobný GitHub Copilot). Méně se mluví o vznešené AGI a více o „miliardách AI agentů pomáhajících s každodenními úkoly“. Amazon však také jasně vnímá potřebu zůstat konkurenceschopný v základních AI technologiích – proto získal podíl v Anthropic (aby nebyl zcela závislý na ekosystému OpenAI/Microsoft). Co se týče otevřenosti, Amazon své hlavní modely neotevírá jako open-source, ale podporuje open-source komunitu nabídkou nástrojů (například partnerství s Hugging Face pro snadnější provoz modelů na AWS). Z hlediska regulace Amazon není tolik vidět v politických debatách, ale lze předpokládat, že preferuje flexibilní regulaci, která nebrání inovacím v cloudu. Bude se řídit například požadavky na vodoznakování modelů v rámci závazků Bílého domu. Mírně unikátní přístup Amazonu je AI + hardware: navrhují čipy (AWS Trainium a Inferentia) pro snížení nákladů na trénování a inferenci na AWS. Je to jak obchodní krok (levnější AI pro zákazníky, přilákat je místo Nvidia GPU), tak potenciálně krok ke zvýšení odolnosti, pokud by byl nedostatek GPU.
- xAI Elona Muska: Musk, který spoluzaložil OpenAI a poté v roce 2018 odešel, se vrátil do závodu s novou společností xAI v roce 2023. Musk uvedl, že založil xAI, aby vytvořil „TruthGPT“ neboli maximálně „hledající pravdu“ AI, která „chápe pravou podstatu vesmíru“. Toto pojetí je poněkud velkolepé (řešení záhad kosmu), ale zároveň naráží na vnímané zaujatosti v ChatGPT od OpenAI. Musk se obává, že hlavní modely jsou příliš cenzurované nebo politicky zaujaté. Opakovaně také varoval před existenčním rizikem AI a vyzýval ke zpomalení – ale pokud k tomu nedojde, rozhodl se vytvořit vlastní, údajně „důvěryhodnější“ AI. Tým xAI je malý, ale zahrnuje talentované bývalé zaměstnance DeepMind, OpenAI atd. Údajně trénují model na datech z Twitteru (nyní X) i z jiných zdrojů. Musk má díky Twitteru datovou výhodu (pokud využije plný proud obsahu ze sociálních médií). Jeho vize „hledání pravdy“ pravděpodobně znamená AI, která nebude podléhat takovým obsahovým filtrům, jaké používá OpenAI, a která by mohla být transparentnější ve svém uvažování. Konkrétní informace však chybí; xAI zatím model neuvolnila. Musk naznačil, že xAI bude spolupracovat s Teslou (pro AI v reálném světě) a X/Twitterem (pro výpočetní znalostní základnu). Jedna obava: Musk často své firmy propojuje – mohly by se tedy snahy Tesly o samořiditelnou AI a obecná AI xAI spojit? Je to možné, protože autonomní řízení také potřebuje pokročilou AI. Časový plán Muska není jasný, ale vzhledem k jeho dosavadním výsledkům může xAI buď vyšumět, nebo náhle představit velký model, který překvapí celý obor. Filozoficky Musk balancuje mezi požadavkem na „maximální pravdu/zvídavost“ od AI a obavou z možnosti, že AI se vymkne kontrole. Prosazoval regulaci (například agenturu „AI rozhodčího“), ale zároveň nyní buduje to, co doufá, že bude ovladatelná AGI konkurující ostatním. V širší debatě Muskova účast zajišťuje, že kulturní válka (AI a politická zaujatost) zůstává žhavým tématem – mohl by xAI propagovat jako „nezaujatou AI“, což by mohlo přilákat určitou skupinu uživatelů.
- Stability AI a Open-Source Collective: Stability AI (tvůrce modelu pro generování obrázků Stable Diffusion) se stal šampionem open-source generativní AI. CEO Emad Mostaque prosazuje, že otevřené modely podporují inovace a snižují závislost na velkých technologických firmách. Stability pomáhala financovat projekty otevřených textových modelů (například sponzorovala skupinu EleutherAI, která vytvořila GPT-J a další). Vydali StableLM (jazykový model) a otevřeně pracují na modelech pro generování hudby a videa. Přestože zdroje Stability jsou mnohem menší než u Google nebo OpenAI, jejich dopad v oblasti obrazové AI je výrazný (uvedení Stable Diffusion vedlo k explozi kreativních nástrojů a také ke kontroverzím ohledně deepfake obrázků, autorských práv atd.). Mostaqueho přístup je vydávat modely s minimálními omezeními a nechat komunitu experimentovat, protože věří, že přínosy převažují nad škodami. Často tvrdí, že „open-source nelze regulovat – vždy si najde cestu, globálně“. Toto napětí je klíčové: uniklé open-source modely obcházejí jakékoliv národní regulace (jak je vidět u LLaMA od Meta). Stability a podobné skupiny (jako EleutherAI, LAION v Německu) pracují na nové generaci otevřených modelů, které by mohly konkurovat kvalitou těm uzavřeným, i když s určitým zpožděním kvůli menším výpočetním kapacitám. Například projekt RedPajama znovu vytvořil vysoce kvalitní trénovací dataset (replikující LLaMA), a Mistral AI, nový startup bývalých inženýrů z Meta, právě vydal otevřený model 7B, který překonává LLaMA 2 13B – což ukazuje na rychlý pokrok v open-source táboře. Tyto otevřené snahy odrážejí hodnotu transparentnosti a svobody, někdy přímo v opozici vůči požadavkům na přísnou kontrolu AI. Někteří akademici s tímto postojem souhlasí, protože otevřené modely umožňují nezávislý výzkum bezpečnosti AI (černou skříňku jako GPT-4 nelze tak snadno studovat). V celospolečenské debatě tato frakce tvrdí, že „AI je jako informace – chce být svobodná“ a pokusy ji omezit jsou marné a kontraproduktivní.
- Globální a vládní snahy: Za zmínku stojí, že čínští technologičtí giganti (Baidu, Alibaba, Tencent, Huawei) již představili velké modely (Baiduův Ernie Bot, modely Tongyi od Alibaby atd.), které si vedou dobře v úlohách v čínštině a jsou integrovány do čínských aplikací. Čínská vláda mezitím zavedla regulace (platné od srpna 2023), které vyžadují, aby generativní AI služby byly registrovány u státu a zajišťovaly, že obsah je v souladu se socialistickými hodnotami a „nenarušuje státní moc“ ani ekonomický řád. Pro čistě výzkumné účely udělili výjimku. To znamená, že každý veřejný AI model v Číně je cenzurován už z principu – např. dotaz na čínského chatbota ohledně náměstí Nebeského klidu povede k omluvě nebo vyhýbavé odpovědi. Firmy jako Baidu zdůrazňují svou shodu se státními směrnicemi jako přednost. To je v kontrastu s americkými firmami, které sice moderují obsah, ale nemají státem předepsanou ideologii (kromě obecných věcí jako zákaz trestné činnosti atd.). Východo-západní soutěž v AI je intenzivní, ale do jisté míry paralelní: čínské firmy se soustředí na svůj trh (kvůli jazyku a regulační bariéře), západní na globální (kromě Číny). Někteří experti se obávají, že pokud Čína dosáhne AGI jako první a nebude se dělit, může to změnit geopolitickou rovnováhu; naopak čínské vedení se obává dominance USA (proto masivně investuje do AI). Tato dynamika podporuje mezinárodní „závodní mentalitu“.
- Mezitím EU finalizuje zákon o AI, který může klasifikovat AI systémy podle rizika a uložit požadavky (např. transparentnost ohledně AI-generovaného obsahu, audity pro vysoce rizikové systémy, možná dokonce povinnost zveřejnit trénovací data pro základní modely). Velké firmy na to lobbují – Altman z OpenAI původně řekl, že GPT-4 by mohl být v EU stažen, pokud budou pravidla příliš přísná; později to vzal zpět. Obecně průmysl preferuje samoregulaci + cílené zákony (například trestat zneužití, ne zakazovat vývoj modelů). Evropa klade důraz na soukromí, bezpečnost a dokonce i možné odškodnění tvůrců za data použitá při trénování (složitá otázka – Getty Images žalovala Stability AI za trénování na autorsky chráněných obrázcích bez povolení). Takže se vyvažují regulatorní hodnoty individuálních práv vs inovace. Pokud zákon EU projde s přísnými ustanoveními, velké AI firmy se budou muset přizpůsobit (nebo geofencovat určité funkce).
- Akademici a neziskovky: Nesmíme zapomenout, že k dialogu přispívá mnoho lidí mimo korporace. AI kapacity Yoshua Bengio a Geoffrey Hinton (který v roce 2023 odešel z Googlu, aby mohl svobodně mluvit o rizicích AI) vyjádřili obavy z nekontrolované AI. Hinton řekl „Možná není daleko doba, kdy AI překoná lidskou inteligenci a nebudeme ji schopni ovládat“, a vyzval k výzkumu, jak udržet AI pod kontrolou en.wikipedia.org. Na druhé straně výzkumníci jako Andrew Ng (bývalý šéf Google Brain) tvrdí, že „strach z vražedné AI je přehnaný; skutečné zaměření by mělo být na zaujatost, ztrátu pracovních míst“. Organizace jako Center for AI Safety (CAIS) a Future of Life Institute aktivně prosazují povědomí o rizicích AI – druhá jmenovaná organizovala slavný „pause letter“ v březnu 2023, který vyzýval k 6měsíčnímu pozastavení trénování modelů nad úroveň GPT-4, což podepsali Musk, Wozniak z Applu a další. Žádná z hlavních laboratoří svou práci nepřerušila, ale dopis určitě vyvolal debatu pbs.org. Zvýraznil rozkol: někteří věří, že je potřeba moratorium nebo globální limit, zatímco firmy většinou ne, dávají přednost tomu, aby bezpečný vývoj určovaly samy.
- Reakce veřejnosti: Širší veřejnost je zároveň fascinovaná i zneklidněná. Na jedné straně mají nástroje jako ChatGPT miliony nadšených uživatelů (studenti, programátoři, profesionálové), kteří je považují za skutečně užitečné – produktivita roste, některé úkoly jsou snazší. Na druhé straně je tu strach z přívalu falešných zpráv, deepfake podvodů nebo prostě ze ztráty zaměstnání kvůli automatizaci. Průzkum by mohl ukázat, že lidé jsou nadšení z AI doučovatelů pro své děti, ale mají obavy o jejich budoucí pracovní vyhlídky, pokud bude AI příliš schopná. To přimělo politiky věnovat tomu pozornost. V USA Kongres pořádal slyšení (s Altmanem atd.) a Bidenova administrativa pozvala šéfy AI firem, aby získala dobrovolné závazky. Velká Británie pořádá globální AI Safety Summit na konci roku 2025 a snaží se být lídrem v AI správě. To vše ukazuje na začátek zapojení vlád, i když zaostávají za technologií.
Společenské debaty kolem bezpečnosti, kontroly a transparentnosti AI staví proti sobě oprávněné obavy:
- Bezpečnost vs. inovace: Máme zpomalit, abychom vyhodnotili a zavedli bezpečnostní opatření (abychom předešli potenciální katastrofě nebo společenskému chaosu), nebo máme pokračovat vpřed, abychom získali výhody a nenechali soupeře (nebo zlé aktéry) získat náskok? OpenAI a další navrhují zpomalit až na velmi vysokých úrovních schopností, ale zatím ne – tvrdí, že současné modely nejsou hrozbou vyhynutí a větší používání vede k většímu učení, jak je učinit bezpečnými. Kritici se obávají, že až budou zjevnou hrozbou, může být příliš pozdě šlápnout na brzdu (klasický scénář „AI by se mohla rychle zlepšovat sama a uniknout kontrole“). Tato dynamika je podobná jaderné technologii – vyvinete bombu dříve než nepřítel, abyste měli výhodu, nebo se pokusíte vyjednat zákaz? V tuto chvíli jde o závody ve zbrojení s některými rozhovory o kontrole zbraní na začátku, ale nikdo nezastavuje.
- Otevřenost vs. bezpečnost: Jak bylo rozsáhle diskutováno, měly by být AI modely open-source kvůli transparentnosti a rovnosti přístupu, nebo uzavřené, aby se zabránilo zneužití a umožnilo kontrolované nasazení? Vidíme, že firmy volí různé přístupy, a dokonce i uvnitř firem je to složité (OpenAI zveřejnila menší modely jako Whisper pro řeč, ale ne GPT-4). Možným kompromisem je „otevřená věda, uzavřený produkt“ – sdílet poznatky, ne váhy. Ale zastánci open-source si myslí, že to nestačí; chtějí skutečné modely, aby společnost nebyla závislá na několika korporacích ohledně AI schopností. Výsledek zde významně ovlivní, kdo bude moci inovovat: pokud budou všechny budoucí špičkové modely uzavřené, budou moci posouvat hranice jen velké firmy a vlády s prostředky. Pokud se prosadí otevřené modely, pak může smysluplně přispět i univerzitní laboratoř nebo startup, což demokratizuje pokrok.
- Komerční tlak vs. etické využití: Firmy potřebují zpeněžit AI, aby ospravedlnily investice. To znamená široké nasazení – což zvyšuje šanci na zneužití nebo nechtěné důsledky. Například zveřejnění AI, která dokáže generovat velmi lidsky znějící text, může umožnit spammerům nebo propagandistům vytvářet falešné armády na sociálních sítích. Firmy se snaží budovat filtry (OpenAI například naučila GPT-4 odmítat žádosti o politické přesvědčování). Ale hra na kočku a myš s jailbreakingem a zneužitím pokračuje. Proto se vede debata: měly by být některé schopnosti zadrženy? Například OpenAI zpočátku široce neuvolnila komponentu GPT-4 pro popis obrázků kvůli možnému zneužití (například identifikace osob na fotografiích). Někteří říkají, že možná budeme muset zadržet nebo omezit extrémně nebezpečné schopnosti (například modely pro biologický výzkum, které by mohly najít recepty na toxiny). Ale kde stanovit hranici a kdo o tom rozhodne? Zde by mohla zasáhnout vládní politika s rozdělením na „povolené vs. zakázané“ aplikace.
- Transparentnost: Objevují se výzvy k „transparentnosti AI“ – což znamená, že společnosti by měly zveřejňovat, kdy je obsah generován AI (watermarking), modely by měly vysvětlovat své rozhodování (interpretovatelná AI) a možná by měly být veřejné i zdroje trénovacích dat. Z pohledu společnosti transparentnost pomáhá odpovědnosti (např. pokud AI použila pirátská data, měli bychom to vědět? Pokud doporučí zamítnutí půjčky, měla by vysvětlit proč). Velké laboratoře pracují na metodách watermarkingu pro výstupy modelů (OpenAI má některé prototypy) a na nástrojích vysvětlitelnosti. Ale k opravdu interpretovatelným hlubokým sítím je ještě dlouhá cesta. Nově se objevuje koncept „modelových karet“ a „listů datových sad“ – dokumentace o zamýšleném použití modelu, jeho limitech a složení trénovacích dat. Google, OpenAI, Meta něco takového pro své modely zveřejňují. Přesto to neuspokojuje všechny kritiky, kteří chtějí více surových informací (např. umělci chtějí vědět, zda jejich díla byla v trénovacím mixu). V Evropě může AI Act vynutit větší zveřejňování trénovacích dat – což firmy odmítají, protože by to mohlo odhalit obchodní tajemství nebo porušit zákony o ochraně soukromí, pokud data obsahují osobní informace.
- Nahrazování pracovních míst a ekonomický dopad: Kromě existenčních debat je naléhavým společenským tématem automatizace. Modely jako GPT-4 nyní umí psát kód, připravovat právní smlouvy, tvořit marketingové texty – úkoly, které dříve vykonávali kvalifikovaní pracovníci. Vedou se debaty: bude AI posilovat lidské pracovníky (zvyšovat jejich produktivitu a vytvářet nová pracovní místa), nebo nahradí mnoho pozic v kancelářích (povede k nezaměstnanosti nebo nutnosti masového rekvalifikování)? Technologičtí ředitelé obvykle zastávají optimistický názor, že AI osvobodí lidi od rutinní práce, aby se mohli soustředit na vyšší úroveň úkolů. Sam Altman dokonce navrhl, že vlády možná budou muset zvážit UBI (univerzální základní příjem) v ekonomice poháněné AI, ale že „ještě tam nejsme“. Generální ředitel IBM však v polovině roku 2023 uvedl, že pozastaví nábor na některé administrativní pozice, protože je může zvládnout AI, a očekává, že až 30 % těchto míst může být automatizováno během 5 let. Tyto smíšené signály vyvolávají ve společnosti obavy z ekonomických otřesů. To vytváří tlak na politiky, aby řešili rekvalifikaci a možná i přerozdělení bohatství vytvořeného AI. Firmy si to částečně uvědomují: Microsoft a Google mají fondy na vzdělávání v oblasti AI a iniciativy AI pro dobro, aby ukázaly odpovědný přístup.
Celkově máme v roce 2025 živý, mnohovrstevnatý ekosystém AI: spolupracující, ale zároveň konkurenční, s překrývajícími se cíli inovace a tvorby bohatství, ale s odlišnými filozofiemi, jak toho dosáhnout a jak zvládat úskalí.
AI giganti – OpenAI, Anthropic, Google DeepMind, Meta, Microsoft, Amazon – všichni sdílejí přesvědčení, že stále chytřejší AI bude transformační, „jako nová průmyslová revoluce“. Jednotně mluví o pozitivech: léčení nemocí, zvyšování produktivity, personalizace vzdělávání, pomoc klimatickému výzkumu – v podstatě využití AI jako nástroje pro zesílení lidských schopností. Všichni také alespoň formálně uznávají, že existují vážná rizika, která je třeba zmírnit: od okamžitých problémů jako zaujatost nebo zneužití až po dlouhodobé existenční otázky. V čem se liší, je strategie (otevřenost vs. uzavřenost, rychlost vs. opatrnost) a v tom, jakou váhu přikládají určitým hodnotám (např. Meta klade důraz na otevřenost, Anthropic na bezpečnost atd.).
Žádná společnost ani země nemůže sama určovat směr vývoje AI; je to globální a společenské úsilí. Proto stále častěji zaznívají výzvy ke spolupráci na bezpečnosti – dokonce i OpenAI a Meta, navzdory rozdílům, se přihlásily k myšlence nějaké formy bezpečnostních standardů. Frontier Model Forum (OpenAI, Anthropic, Google, Microsoft) je jedním z takových pokusů o samoregulaci v odvětví.
Závěr: Konvergence a divergence na cestě k AGI
Závod o vytvoření stále obecnější a výkonnější AI je v plném proudu, ale není to jednoduchý nulový sprint – spíše maraton, kde si běžci občas vyměňují poznámky o trase. OpenAI, Anthropic, Google DeepMind, Meta, Microsoft, Amazon a další přinášejí ke stolu jedinečné filozofie a silné stránky:
- OpenAI je odvážný průkopník, který posouvá hranice rozsahu a schopností, zatímco prosazuje pečlivý dohled a spolupracuje s velkým technologickým patronem na distribuci svých výtvorů. Ztělesňuje dualitu ambicí a úzkosti ohledně AGI: rychle vyvíjí pokročilé modely, ale zároveň varuje svět před jejich nebezpečím a vyzývá k regulaci. Práce OpenAI odstartovala obrovský pokrok a donutila i giganty jako Google reagovat, což ukazuje, jak může zaměřený startup (byť nyní silně financovaný) narušit zavedený pořádek.
- Anthropic je jako svědomitý sourozenec – stejně zdatný v AI, ale odhodlaný „dělat to správně“. Jeho étos je, že bezpečnost je předpokladem, nikoli dodatečnou myšlenkou. Přínosy Anthropicu v oblasti zarovnání (například Constitutional AI) ovlivňují celé odvětví; dokonce i OpenAI začlenila více lidské zpětné vazby a některé pravidlové pokyny pro GPT-4, což lze vnímat jako konvergentní evoluci s přístupem Anthropicu. Anthropic také ukazuje, že hodnoty mohou přitahovat i financování – firmy a investoři, kteří se obávají dominance jedné společnosti nebo rizik AI, vnímají Anthropic jako protiváhu a investovali do něj velké peníze. Z dlouhodobého hlediska může být odkaz Anthropicu stejně tak v tom, jak trénovat modely zodpovědně, jako v samotných modelech.
- Google DeepMind představuje sílu výzkumné excelence a zdrojů. S desítkami let kolektivního výzkumu je to trezor AI znalostí, které jsou nyní směřovány do konkrétních produktů. Pragmatický, ale vědecký přístup Googlu může přinést první skutečně multimodální AGI (Gemini). Pokud se to podaří, výzvou pro Google bude nasadit ji tak, aby posílila jeho klíčové produkty, aniž by způsobila nechtěné následky (například poškození důvěry v spolehlivé služby Googlu). Integrace DeepMind do Googlu také zdůrazňuje vzorec v tomto závodě: konsolidaci. Velcí hráči pohlcují talenty a menší laboratoře (viděli jsme, jak Google pohltil nezávislost DeepMind; Facebook kupuje startupy jako Scape pro AI; Microsoft v podstatě kontrahuje výstupy OpenAI). To vyvolává otázku – bude AGI dosaženo hrstkou koncentrovaných úsilí, nebo spíše decentralizovanou komunitou? V současnosti se zdá, že vítězí koncentrace kvůli potřebám výpočetního výkonu, ale otevřené projekty jim šlapou na paty.
- Meta se prezentuje jako šampion otevřenosti a širokého přístupu, což by mohlo znamenat, že se AI rozšíří rychleji a rovnoměrněji – nebo, jak se obávají kritici, by to mohlo znamenat, že se výkonná AI rozšíří bez dostatečných záruk. Meta sází na to, že přínosy inovací a kontroly ze strany komunity převáží nad nevýhodami. Zajímavé je, že v posledních měsících skutečně vidíme náznaky sbližování: OpenAI mluví o open-source menších modelech; Meta uznává, že ne vše může být plně otevřené. Možná je budoucnost kombinací: základní výzkum a možná starší generace modelů budou otevřené, zatímco špičkové implementace budou chráněné, dokud nebudou považovány za bezpečné.
- Microsoft a Amazon ukazují, že komercializace a aplikace AI je stejně důležitá jako samotné vytváření modelů. Jejich integrace AI do cloudových platforem a každodenního softwaru je způsob, jak se přínosy AI skutečně dostanou k lidem a do průmyslu. Také zdůrazňují často opomíjenou hodnotu: spolehlivost a podpora. Podniky si raději zvolí o něco méně „kreativní“ AI, která je spolehlivá, bezpečná a má podporu, než výkonnější, ale nepředvídatelnou. Proto podnikové AI služby Microsoftu a AWS s ochrannými opatřeními a souladem s předpisy formují zavádění AI v byznysu. Banka nebo nemocnice si raději zvolí Azure OpenAI Service s GPT-4 a funkcemi pro záznam a ochranu soukromí, než otevřený model z internetu, i když by byl srovnatelně schopný.
- Ostatní (Muskovo xAI, Stability atd.) zajišťují, že odlišné filozofie zůstávají ve hře – ať už jde o hledání „pravdy“ nad politickou korektností, nebo o open-source všeho z principu. Působí jako protiváha i doplněk velkých hráčů. Pokud by se velké laboratoře staly příliš opatrnými nebo monopolními, tito menší či ideologičtější hráči mohou narušit trh tím, že otevřeně zveřejní něco převratného (například kdyby někdo zítra open-sourcoval model na úrovni GPT-4, zásadně by to změnilo situaci).
Do budoucna můžeme očekávat některé společné trendy:
- Multimodalita a využití nástrojů: Všechny firmy pracují na AI, která nejen chatuje ve vakuu, ale také vidí, slyší, jedná a propojuje se se softwarem. Google integruje vyhledávání a vizuální schopnosti, OpenAI dalo GPT-4 určitou vizi a plánuje pluginy, Meta má generování obrázků/videa. Hranice mezi chatbotem, osobním asistentem a schopným softwarovým agentem se budou stírat.
- Škálování a efektivita: Hranice se bude dál posouvat – možná až k modelům s bilionem parametrů nebo novým architekturám, které prolomí současné limity škálování (jako MoE nebo neuromorfní čipy). Zároveň je ale kladen důraz na to, aby modely běžely levně a lokálně. Meta LLaMA ukázala, že 13B model toho zvládne hodně; nyní lidé provozují vyladěné 7B modely na smartphonech. Tato demokratizace díky efektivitě bude pokračovat a zajistí, že moc nad AI nebudou mít jen cloudoví giganti.
- Bezpečnost & výzkum zarovnání: Očekávejte více financí a talentů směřujících do výzkumu zarovnání (někteří přední AI vědci na to přecházejí). Superalignment tým OpenAI, tým pro zarovnání DeepMind, hlavní mise Anthropic – ti všichni budou vytvářet nové techniky (možná využití AI k pomoci srovnat AI, například automatizované audity nebo trénování AI na lidských hodnotách s minimální zaujatostí). Mohli by také definovat hodnotící standardy pro nebezpečné schopnosti. Již nyní se vyvíjejí „testovací sady bezpečnosti AI“ (například testování, zda se model dokáže sám replikovat nebo obejít vlastní ochranné mechanismy). Dohodnuté hodnocení by mohlo být použito podobně jako crash testy u aut – nezávislá agentura by mohla jednoho dne certifikovat model jako bezpečný pro veřejné nasazení, pokud projde určitými testy.
- Politika & samoregulace: V blízké budoucnosti bude hrát roli dobrovolná samoregulace (jako Frontier Model Forum a závazky Bílého domu). Ve střednědobém horizontu pravděpodobně vstoupí v platnost formální regulace v EU (a možná i proces ve Velké Británii atd.) a firmy se globálně přizpůsobí. Nebylo by překvapivé, kdybychom do roku 2026 měli něco jako mezinárodní sérii konferencí o bezpečnosti AI a možná i zárodky globálního dozorčího orgánu (generální tajemník OSN po jednom volal). Firmy tento přístup veřejně podporují – Altman, Hassabis a další se setkali ve Washingtonu D.C. a Evropě, aby diskutovali o těchto rámcích. Klíčové bude zajistit, aby regulace byla agilní – ne zmrazit AI na úrovni technologie roku 2025, ale vytvořit mechanismy pro řízení rizik, jak se AI vyvíjí.
- Přizpůsobení veřejnosti: Společnost jako celek se začne přizpůsobovat všudypřítomnosti AI. Vzdělávací systémy například řeší, že studenti používají ChatGPT na domácí úkoly. Některé školy ho zakázaly, jiné ho začleňují do výuky. Trh práce se změní – objevily se pozice pro prompt engineering a dohled nad AI a pracovníci v různých oborech se učí spolupracovat s AI (brát ji jako kolegu nebo kopilota). Pravděpodobně poroste poptávka po AI gramotnosti mezi širokou veřejností a možná i certifikace pro profesionály používající AI ve vysoce rizikových oblastech (například lékaři využívající AI diagnostiku). Firmy mohou pomoci poskytováním vzdělávacích zdrojů nebo pokynů pro používání AI (OpenAI některé má, Microsoft zveřejnil „The Responsible AI Standard“ pro vývojáře).
Závěrem lze říci, že snaha vybudovat AGI nebo něco blízkého už není okrajová sci-fi myšlenka, ale hlavní ambice největších světových technologických firem. Každá se snaží vtisknout této budoucnosti své hodnoty: OpenAI hodnotu širokého prospěchu a opatrnosti, Anthropic hodnotu bezpečnosti a etiky, Google hodnotu inovací s odpovědností, Meta hodnotu otevřenosti a spolupráce, Microsoft/Amazon hodnotu praktické užitečnosti a dostupnosti. Jejich strategie jsou někdy v rozporu, ale zajímavé je, že jejich konečné cíle se nevylučují – v konečném důsledku by všichni rádi viděli AI, která je extrémně schopná a bezpečná a široce prospěšná (a samozřejmě prospěšná i jejich ziskům).
Je možné, že uvidíme konvergenci v některých osvědčených postupech (např. shoda na tom, že AGI nebude připojena k internetu bez omezení, nebo sdílení určitého výzkumu bezpečnosti, i když modely zůstanou proprietární). Stále však bude docházet k divergenci ve stylu a filozofii – což je zdravé, protože to poskytuje jakousi diverzifikaci přístupů (monokultura v AI by mohla být riskantní, pokud by tento jeden přístup měl fatální chybu).
Jak tyto společnosti budují výkonnější AI, dialog mezi nimi a společností se bude zostřovat. Bude se hledat rovnováha, kde bude obrovský potenciál AI využit a zároveň budou minimalizována její rizika. Je to trochu jako zkrotit oheň – příliš užitečný na to, aby byl uhašen, příliš nebezpečný na to, aby zůstal bez dozoru. A podobně jako oheň, různé kultury s ním zpočátku zacházely různě, ale nakonec se objevily standardy (jako požární předpisy) a sdílená moudrost.
Prozatím jsme svědky pozoruhodného okamžiku v dějinách technologií. Za několik desetiletí se možná lidé ohlédnou za lety 2023–2025 jako za zlomový bod, kdy AI přešla od laboratorního příslibu k všudypřítomné realitě, a kdy jsme položili základy (nebo klopýtli, v závislosti na výsledcích) pro to, jak skutečně inteligentní stroje budou koexistovat s lidstvem. Hodnoty a rozhodnutí dnešních AI společností – otevřenost Meta, bezpečnostní přístup Anthropic, rychlá expanze OpenAI, důkladnost DeepMind a tak dále – budou mít zásadní vliv na tento směr.
K září 2025 průvodce „co staví AI společnosti“ připomíná seznam největších technologických gigantů současnosti a jejich filozofií. Nestaví jen algoritmy – ve skutečnosti se snaží vytvořit novou formu inteligence. Každý se snaží zajistit, aby tato inteligence, až vznikne, odrážela jejich představu o tom, jaká by měla být. A jak jsme si ukázali, tyto představy se sice v mnohém překrývají, ale zároveň se v zajímavých a důležitých ohledech liší.
(Tato odpověď vychází z informací ze zdrojů včetně The New York Times, Wired, MIT Technology Review, Bloomberg, oficiálních blogů společností a dalších odborných komentářů k roku 2025. Vzhledem k rychlému vývoji AI se některé detaily mohou změnit, ale srovnání strategií a filozofií zde poskytuje přehled o stavu předních hráčů AI průmyslu a debatách, které je obklopují.)
Zdroje:
- New York Times – „What Exactly Are A.I. Companies Trying to Build? Here’s a Guide.“ (2025) startupnews.fyi
- New York Times – „In Pursuit of Godlike Technology, Mark Zuckerberg Amps Up the A.I. Race“ (červen 2025)
- TechRepublic – „Meta’s Tumultuous AI Era May Leave Llama Behind…“ (červen 2025)
- Time – „Demis Hassabis on AI in the Military and What AGI Could Mean for Humanity“ (2025)
- OpenAI – „Planning for AGI and Beyond“ (OpenAI blog, 2023)
- OpenAI – „Governance of Superintelligence“ (OpenAI blog, 2023)
- Center for AI Safety – „Statement on AI Risk“ (2023) safe.ai
- Medium – „The Zuckerberg-LeCun AI Paradox“ (srpen 2025)
- Andy Jassy (CEO Amazonu) – „Message…: Some thoughts on Generative AI“ (červen 2025)
- Rozhovor s Andym Jassym – (Aboutamazon.com, 2023)
- Komentáře z Redditu o open source AI od Meta (2023)
- TechCrunch – „Elon Musk spouští xAI… ‘porozumět skutečné povaze vesmíru’“ (2023)
- Wired – „Utržená AI je rizikem vyhynutí, varují experti“ (2023) wired.com (obecný kontext)
- Bloomberg – různé reportáže o válce o AI talenty a investicích.