GPT‑5 Has Arrived: OpenAI’s Next‑Gen AI Stuns With Upgrades in Coding, Reasoning, and Safety
16 Вересня 2025
64 mins read

Війна титанів ШІ: всередині OpenAI, Google, Meta та гонка за створенням AGI

  • Багатомільярдна гонка озброєнь у сфері ШІ: Технологічні гіганти, включаючи OpenAI (разом із Microsoft), Google (DeepMind), Meta, Anthropic, Amazon та інших, вкладають безпрецедентні ресурси в розвиток ШІ. Разом ці компанії планують витратити понад 325 мільярдів доларів до кінця 2025 року на розробку ШІ startupnews.fyi, змагаючись за лідерство в нову епоху обчислень. Керівники вважають ШІ «технологією, яка трапляється раз у житті», що може бути «вартісною у трильйони» і переосмислити кожен продукт і послугу.
  • Бачення штучного загального інтелекту: Багато з цих компаній відкрито прагнуть створити штучний загальний інтелект (AGI) або навіть «суперінтелект» — системи ШІ з можливостями, що дорівнюють або перевищують людські. Місія OpenAI«забезпечити, щоб штучний загальний інтелект… приносив користь усьому людству», і її генеральний директор Сем Альтман заявив, що він «впевнений, що ми знаємо, як створити AGI». Генеральний директор Google DeepMind Деміс Хассабіс називає AGI своєю «метою життя» і прогнозує, що він «можливо з’явиться вже в цьому десятилітті». Генеральний директор Meta Марк Цукерберг приватно заявив, що «розробка суперінтелекту вже на горизонті» для його компанії, бажаючи бути серед «небагатьох… хто має необхідні знання» для досягнення божественного ШІ. Ці сміливі бачення підживлюють напружену гонку за першість.
  • Різні філософії – відкритість проти секретності: Існує суттєвий розкол у тому, як компанії діляться технологіями ШІ. Meta виступає за відкритий підхід — її мовні моделі LLaMA були випущені (на певних умовах) для дослідників, а також повністю відкрита модель (Llama 2) для комерційного використання. Головний науковець з ШІ Meta Янн ЛеКун стверджує, що «відкритість робить ШІ безпечнішим, дозволяючи розподілений контроль» і що відкритий розвиток прискорює інновації. Натомість OpenAI (незважаючи на назву) та Anthropic тримають свої найпотужніші моделі у власності, надаючи доступ через API, але не випускаючи вагові файли. OpenAI перейшла від відкритого коду до закритого після GPT-3, посилаючись на питання безпеки та конкуренції. Генеральний директор Альтман вважає, що необмежений публічний випуск передових моделей може бути небезпечним, і підтримує більш контрольований запуск. Генеральний директор Anthropic Даріо Амодей навіть називає дебати про відкритість і закритість «відволікаючим маневром» у сфері ШІ — кажучи, що важливо, які моделі найкраще працюють, а не чи відкритий їхній код. Цей філософський розкол визначає, наскільки широко розповсюджуються можливості ШІ.
  • Цілі безпеки та узгодженості: Усі гравці на ринку ШІ визнають проблеми безпеки ШІ, але розставляють пріоритети по-різному. Anthropic була заснована з чітким акцентом на безпеку: компанія досліджує методи узгодження ШІ, такі як її метод “Конституційного ШІ”, щоб наділити моделі етичними принципами. Амодей попереджав, що у міру наближення систем ШІ до людського рівня, “терміновість цих питань зросла”, і він відчуває “обов’язок попередити світ про можливі негативні наслідки”. OpenAI також висловлює занепокоєння щодо “зловживання” або аварій, заявляючи, що передовий ШІ “супроводжується серйозним ризиком зловживання, масштабних аварій і суспільних потрясінь”. OpenAI та Anthropic обидві затримували публічний випуск своїх новітніх моделей до завершення масштабного налаштування безпеки (наприклад, GPT-4 від OpenAI проходила місяці тестування на шкідливі результати). На відміну від них, керівництво Meta було більш спокійним щодо екзистенційних ризиків – ЛеКун публічно відкидав сценарії “кінця світу через ШІ” як “повну нісенітницю”, стверджуючи, що сучасні системи “працюють нижче рівня тварин” за інтелектом. Проте навіть у Meta є команда з етики ШІ та фільтри контенту для своїх моделей. Примітно, що у травні 2023 року CEO OpenAI, DeepMind та Anthropic спільно підписали заяву, що “зменшення ризику вимирання від ШІ має бути глобальним пріоритетом нарівні з пандеміями та ядерною війною.” safe.ai Іншими словами, навіть керівники провідних лабораторій ШІ визнають потенційні екзистенційні ризики, хоча вони відрізняються у відкритості обговорення чи вирішення цих питань.
  • Технічні підходи – масштабування проти нових шляхів:Великі мовні моделі (LLM) та глибинне навчання у великих масштабах є основою стратегій більшості лабораторій. OpenAI першою створила масивні генеративні текстові моделі (серія GPT) та мультимодальні моделі (наприклад, GPT-4 може приймати зображення), широко використовуючи навчання з підкріпленням на основі людського зворотного зв’язку (RLHF) для узгодження поведінки моделі. Google’s DeepMind також створює гігантські моделі (її майбутня модель “Gemini” — це мультимодальна система з трильйоном параметрів, яка поєднує мовні технології Google з досвідом DeepMind у навчанні з підкріпленням). DeepMind унікально використовує досвід зі своїх ігрових ШІ (AlphaGo, AlphaZero) – Деміс Хассабіс натякає, що Gemini інтегрує можливості планування та використання інструментів, які виходять за межі сучасних чат-ботів. Anthropic зосереджується на “законах масштабування” – вона навчала все більші моделі (Claude 1, Claude 2) і вперше впровадила контекстні вікна на 100 тисяч токенів для розширеного міркування. Особливість Anthropic – узгодження цих моделей через “конституцію” принципів, а не лише RLHF, з метою досягнення більш стабільної, послідовної з цінностями поведінки. Meta поєднує масштаб і ефективність – її моделі LLaMA (7B–70B параметрів) менші за GPT-4, але несподівано конкурентоспроможні завдяки навчанню на якісних даних. Дослідження Meta також охоплюють нові архітектури (наприклад, “Mixture-of-Experts” у прототипі Llama 4) і довгострокові ідеї, такі як бачення ЛеКуна щодо втіленого ШІ та самонавчання, що виходить за межі простого передбачення тексту. Коротко кажучи, OpenAI/Google/Anthropic переважно роблять ставку на масштабування глибинного навчання (з деякими алгоритмічними хитрощами), тоді як лабораторія ШІ Meta та деякі інші вважають, що фундаментальні прориви (нові конструкції моделей, механізми пам’яті тощо) зрештою будуть необхідні для досягнення справжнього AGI.
  • Поточні продукти та аудиторії: Компанії відрізняються за тим, як вони впроваджують ШІ. OpenAI вийшла безпосередньо на масовий ринок із ChatGPT, який залучив понад 100 мільйонів користувачів для безкоштовних (а тепер і платних) розмов із ШІ. Вона також ліцензує свої моделі через хмару Azure для корпоративних застосувань. Google інтегрувала генеративний ШІ у багато продуктів: свій чат-бот Bard (експериментальний публічний сервіс), Google Search (із ШІ-резюме та питаннями/відповідями у результатах пошуку) та інструменти для підвищення продуктивності (Duet AI для Gmail/Docs, автодоповнення коду в Android Studio тощо). Найбільшими клієнтами Google, мабуть, є мільярди користувачів пошуку та Android – тому безпека є критично важливою для захисту бренду – а також хмарні клієнти, які використовують її моделі через Google Cloud Vertex AI. Meta до недавнього часу мала жодного публічного чат-бота; натомість вона відкривала моделі для розробників. Зараз вона впроваджує ШІ у Facebook, Instagram та WhatsApp – наприклад, чат-персони на основі ШІ та генератори зображень для користувачів, а також інструменти для рекламодавців. Відкрита модель LLaMA від Meta широко використовується дослідниками та стартапами (часто розміщується на Hugging Face чи інших платформах). Anthropic насамперед орієнтується на бізнес і розробників: її асистент Claude доступний через API та партнерів (наприклад, AI-асистент Slack і чат-бот Poe від Quora). Anthropic позиціонує Claude як безпечнішу альтернативу GPT-4, і залучила інвестиції від таких компаній, як Quora, Slack та інших, які інтегрують Claude для кінцевих користувачів. Microsoft, як тісний партнер OpenAI, впровадила GPT-4 у Bing Chat (пошук для споживачів) та асистентів “Copilot” у Windows 11, Office 365, GitHub та інших продуктах, охоплюючи як споживачів, так і корпоративних користувачів. Amazon впроваджує генеративний ШІ у свою роздрібну та хмарну імперію – від нового покоління Alexa, яка може вести діалоги, до інструментів для покупок і продавців із підтримкою ШІ, до хмарних сервісів AWS (вона запустила Bedrock, щоб пропонувати різні базові моделі як сервіс, включаючи власні моделі Titan/Nova та сторонні моделі, такі як Claude і Stable Diffusion). Підсумовуючи, OpenAI та Anthropic надають ШІ переважно через API/партнерства (ChatGPT – помітний прямий застосунок OpenAI), Google і Microsoft використовують свої великі програмні екосистеми для інтеграції функцій ШІ, Meta поширює відкриті моделі серед спільноти розробників і лише починає впроваджувати споживчі функції ШІ, а Amazon використовує ШІ для посилення своєї домінантності в електронній комерції та хмарних пропозицій для бізнесу.
  • Комерційні стратегії та фінансування: Гонка також підживлюється конкурентними та фінансовими мотивами. OpenAI перейшла до структури з обмеженим прибутком і залучила понад $13 мільярдів інвестицій від Microsoft, що дало Microsoft ексклюзивну перевагу щодо технологій OpenAI. OpenAI монетизує через використання хмарного API та підписки на ChatGPT, а її оцінка різко зросла (за повідомленнями, до $20–30 мільярдів до 2023 року). Anthropic залучила мільярди від Google (інвестиція близько $400 млн) та Amazon (яка лише у 2023 році пообіцяла до $4 мільярдів за міноритарну частку та права на інтеграцію з AWS). Це означає, що моделі Anthropic доступні як на Google Cloud, так і на AWS, що є незвичайним подвійним партнерством. Google DeepMind та Meta фінансують свої AI-розробки внутрішньо – фактично це «AI-центри витрат», які субсидуються величезними доходами від реклами та соціальних мереж. За повідомленнями, Google витратила десятки мільярдів на дослідження та розробки в галузі AI (вона побудувала гігантські суперкомп’ютери TPU для навчання) і навіть об’єднала свою команду Brain з DeepMind для концентрації талантів. Meta також збільшила витрати на AI: Цукерберг санкціонував масові закупівлі GPU та найм провідних дослідників (навіть переманюючи їх з OpenAI, пропонуючи до $100 мільйонів). Кількість співробітників AI-підрозділу Meta перевищила 1 000 дослідників. Тиск щодо демонстрації рентабельності високий: Meta, зокрема, прагне AI-проривів, щоб виправдати свої витрати після неоднозначних результатів (її демонстрація нової моделі у квітні 2025 року не вразила, що спричинило кадрові перестановки у керівництві). Amazon та Microsoft очікують, що їхні хмарні платформи отримають прибуток у міру зростання впровадження AI – наприклад, Microsoft продає кредити Azure для моделей OpenAI (і отримає частку від будь-яких майбутніх прибутків AGI, які OpenAI отримає понад свій ліміт), а AWS від Amazon може стати платформою для безлічі AI-додатків. Коротко кажучи, кожен гравець має свою стратегію монетизації: хмарні сервіси (Amazon, Microsoft, Google), залучення споживачів (Meta, Google), корпоративне програмне забезпечення (Microsoft) або продаж API та майбутні AGI-сервіси (OpenAI, Anthropic). Однак усі прагнуть отримати перевагу першого руху в технологічному зсуві, який, на їхню думку, змінить ринки.
  • Регулювання та політика: Гіганти ШІ публічно заявляють, що вітають регулювання, – але їхні погляди на його форму різняться. Altman з OpenAI запропонував ліцензування або вимоги до відповідності стандартам безпеки для найпотужніших моделей, навіть запропонувавши створити нову міжнародну агенцію (на кшталт «МАГАТЕ для ШІ») для нагляду за надінтелектуальними системами. У політичному дописі OpenAI у травні 2023 року зазначалося, що «певна координація» між провідними ініціативами буде необхідною, і пропонувалися ідеї на кшталт моніторингу використання обчислювальних потужностей для забезпечення обмежень. Anthropic поділяє цю точку зору; Даріо Амодей давав свідчення та консультував щодо політики ШІ у США і підтримував розширення експортного контролю (наприклад, обмеження продажу передових чипів), щоб уповільнити неконтрольовану гонку озброєнь. І OpenAI, і Anthropic приєдналися до «Frontier Model Forum» разом із Google та Microsoft у 2023 році, пообіцявши співпрацювати над стандартами безпеки для передових ШІ. Генеральний директор Google Сундар Пічаї також заявляв, що ШІ «занадто важливий, щоб його не регулювати», а Хассабіс із DeepMind виступає за міжнародну співпрацю щодо правил для ШІ. Однак ці компанії віддають перевагу м’якому або цільовому регулюванню, яке стосується високоризикових застосувань або передових моделей, а не широкому обмеженню розвитку ШІ. Вони часто проводять межу між «високопродуктивним ШІ» (який може потребувати нового нагляду) та звичайним ШІ, який можна регулювати чинним законодавством. Позиція Meta має певні нюанси: Марк Цукерберг публічно підтримує «відкриту» розробку ШІ та збереження широкого доступу, але у відповідь на посилення уваги регуляторів Meta сигналізує, що надалі буде «обережною щодо того, що ми вирішимо зробити відкритим кодом». Meta виступає за збалансований підхід, який не придушує відкриті дослідження – ЛеКун лобіював проти правил, які, наприклад, обмежували б публікацію ваг моделей або вимагали б обтяжливих ліцензій для відкритих моделей. Усі основні компанії погодилися на певні добровільні зобов’язання (у рамках обіцянки Білого дому 2023 року), такі як тестування ШІ на безпеку перед випуском, впровадження водяних знаків для контенту, створеного ШІ, та обмін найкращими практиками. Але розбіжності залишаються: наприклад, такі компанії, як OpenAI та Google, були обережнішими щодо розкриття деталей моделей, дотримуючись філософії, що безпека і захист вимагають секретності на передовому рівні. Тим часом Meta та багато академічних експертів стверджують, що прозорість і рецензування моделей ШІ є ключовими для довіри. Дискусія триває, оскільки уряди розробляють нові закони щодо ШІ (AI Act ЄС, запропоноване законодавство США тощо) і події (наприклад, гучні збої або зловживання ШІ) впливають на громадську думку.
  • Інші помітні гравці: Окрім великої п’ятірки, ширший ландшафт ШІ включає нові стартапи та глобальних учасників. xAI Маска (заснована у 2023 році) — помітний новачок: Ілон Маск заявив, що створив xAI, щоб розробити «максимально допитливий, шукаючий істину» ШІ, який має «зрозуміти справжню природу Всесвіту», тим самим опосередковано критикуючи OpenAI за упередженість. xAI все ще перебуває на стадії НДДКР, у команді — колишні співробітники DeepMind та OpenAI, і компанія може співпрацювати з X (Twitter) та Tesla Маска для отримання даних. Inflection AI, співзаснована Мустафою Сулейманом із DeepMind, обрала інший підхід: вона створила «Pi» — чат-бота-особистого помічника на основі ШІ, і прагне створити ШІ, який може «бути своєрідним коучем або довіреною особою» для людей. Inflection залучила понад $1,3 млрд (від інвесторів, таких як Рід Хоффман і Microsoft) і, за повідомленнями, навчила модель із 43 млрд параметрів, позиціонуючи себе між великими технологічними компаніями та ідеалами відкритого коду. Stability AI відстоює відкритий код у генеративному ШІ — вона профінансувала розробку Stable Diffusion (генератор зображень) і працює над відкритими текстовими моделями. Генеральний директор Stability Емад Мостаки вважає, що широкий доступ стимулюватиме інновації та «не дозволить кільком корпораціям контролювати ШІ». Однак Stability зіткнулася з фінансовими труднощами, і її вплив у мовних моделях наразі менший, ніж у сфері зображень. IBM та Oracle зосереджуються на корпоративному ШІ: ініціатива IBM Watsonx пропонує бізнес-орієнтовані моделі з акцентом на прозорість і пояснюваність (IBM підкреслює відповідність свого ШІ принципам справедливості та можливості аудиту, уникаючи «чорних скриньок» гігантських моделей, якщо їм не можна довіряти). Китайські технологічні гігантиBaidu, Alibaba, Tencent, Huawei — також беруть участь у гонці, хоча й обмежені суворим державним контролем. ERNIE Bot від Baidu та Tongyi Qianwen від Alibaba — це китайські LLM, запущені у 2023 році, які прагнуть досягти можливостей GPT для внутрішнього ринку (із суворою цензурою результатів). Китайський уряд зобов’язав проводити перевірки безпеки і навіть передбачив відповідальність для постачальників ШІ, якщо їхні моделі генерують заборонений контент. Це відображає, як геополітика та різні цінності формують ШІ: американські компанії роблять ставку на саморегулювання та партнерство із західними урядами, тоді як підхід Китаю — це розвиток під керівництвом держави, щоб залишатися конкурентоспроможними, але контрольованими. Нарешті, академічні кола та неприбуткові організації (такі як Інститут Аллена з питань ШІ, LAION, EleutherAI) продовжують створювати відкриті моделі та інструменти (наприклад, проєкт RedPajama, що відтворює навчальний датасет LLaMA тощо), забезпечуючи збереження балансу на користь відкритого коду. Підсумовуючи, гонка за передовим ШІ ведеться не лише між великими корпоративними лабораторіями, а й за участі стартапів, національних інтересів і спільноти відкритого коду — кожен із яких приносить у майбутнє ШІ свої філософії.

Нова гонка озброєнь у сфері ШІ: вступ

Триває запекла глобальна конкуренція за створення наступного покоління штучного інтелекту – не просто спеціалізованих інструментів, а загального ШІ, який може трансформувати все суспільство. У 2023 році приголомшливий успіх ChatGPT від OpenAI спровокував «гонку озброєнь у сфері ШІ» серед технологічних гігантів. До 2025 року ця гонка лише прискорилася. Amazon, Microsoft, Google, Meta та OpenAI (часто за підтримки одне одного або інвесторів) разом планують витратити сотні мільярдів доларів цього року на дослідження та інфраструктуру ШІ startupnews.fyi. Їхня мета? Перевершити одне одного у створенні потужніших, універсальніших систем ШІ – з головним призом у вигляді Штучного Загального Інтелекту (AGI), системи з когнітивними здібностями на рівні людини (або вище).

Чому такий раптовий ажіотаж? Кожна компанія бачить величезні ставки: той, хто розробить найкращий ШІ, може домінувати у сфері технологій десятиліттями. ШІ має потенціал революціонізувати веб-пошук, офісне програмне забезпечення, стрічки соціальних мереж, електронну комерцію, охорону здоров’я, фінанси – практично всі сфери. «ШІ стане найбільшим явищем, яке вони побачать у своєму житті», – так описує мислення керівників Big Tech один венчурний капіталіст, «і якщо вони не зрозуміють, як стати великим гравцем у цій сфері, їх залишать позаду». Іншими словами, страх упустити можливість отримати трильйони майбутньої вартості ШІ змушує компанії йти «ва-банк». Засновник Facebook Марк Цукерберг, наприклад, нібито сказав колегам, що не бути лідером у сфері ШІ – це «неприйнятно» і почав активно залучати таланти, щоб наздогнати конкурентів.

Водночас ці компанії проголошують високі бачення того, чого досягне їхній ШІ. OpenAI говорить про «користь для всього людства» завдяки AGI. Генеральний директор DeepMind Деміс Хассабіс уявляє, як ШІ розкриває наукові таємниці – від лікування хвороб до революції в енергетиці – і відкриває епоху «радикального достатку» та процвітання людства. Лідери Meta говорять про ШІ, який дозволить створити «надрозумних» персональних асистентів і нові творчі інструменти для мільярдів людей. Навіть скептики погоджуються, що ШІ може різко підвищити продуктивність: «Це буде у 10 разів більше, ніж інтернет», сказав Хассабіс The Guardian, з потенціалом для «неймовірного процвітання», якщо все зробити правильно.

Однак за оптимістичними заявами ховається й глибока тривога – щодо безпеки, етики та контролю. Розвинений ШІ несе ризики зловживання, ненавмисної шкоди, втрати робочих місць і навіть (у найекстремальніших сценаріях) втрати контролю людини. Показово, що саме піонери, які змагаються у створенні AGI, також попереджають про його небезпеки. У середині 2023 року серед експертів зі ШІ поширилася однореченева заява, яку підписали Альтман (OpenAI), Хассабіс (DeepMind), Амодей (Anthropic) та багато інших: «Зменшення ризику зникнення людства через ШІ має стати глобальним пріоритетом нарівні з іншими суспільно-значущими ризиками, такими як пандемії та ядерна війна». safe.ai. Коротко кажучи, навіть інвестуючи мільярди у ШІ, ці лідери закликають до обережності, щоб «зробити все правильно». Цей парадокс – рухатися вперед на шаленій швидкості, намагаючись не «зламати світ», – і визначає сучасний ландшафт ШІ.

У цьому звіті ми порівняємо стратегії, цілі та філософії провідних AI-лабораторій: OpenAI, Anthropic, Google DeepMind, Meta (Facebook), а також інших, таких як Microsoft і Amazon, які глибоко залучені. Ми розглянемо бачення кожної компанії щодо AGI, їхній технічний підхід (навчання з підкріпленням, методи узгодження, відкриті чи закриті моделі тощо), їхні публічні заяви та погляди керівництва, а також позиції щодо регулювання. Також ми проаналізуємо, чим вони відрізняються у питаннях безпеки, відкритості, масштабування, комерціалізації та ризику. По ходу ми виділимо цитати CEO та експертів, які проливають світло на їхнє мислення. Нарешті, ми торкнемося ширшої суспільної дискусії: поки ці AI-гіганти стрімко рухаються вперед, як забезпечити, щоб технологія була безпечною, прозорою та корисною?

Зануримось у світ AI-супердержав і подивимось, що саме вони намагаються створити – і чому.

OpenAI: масштабування інтелекту – безпечно та комерційно

OpenAI часто вважають каталізатором нинішнього AI-буму. Спочатку заснована у 2015 році як некомерційна дослідницька лабораторія, OpenAI у 2019 році перетворилася на компанію з “обмеженим прибутком”, щоб залучити фінансування – і знайшла потужного покровителя в Microsoft. Заявлена мета OpenAI – не менше, ніж створити AGI і забезпечити, щоб це принесло користь усім. “Наша місія – гарантувати, що штучний загальний інтелект… принесе користь всьому людству,” – заявляє компанія у своєму статуті. СЕО OpenAI Сем Альтман вважає, що AGI досяжний можливо протягом десятиліття. “Ми тепер впевнені, що знаємо, як створити AGI у тому вигляді, як ми традиційно його розуміли,” – написав Альтман у 2023 році. Дослідники OpenAI висловлюють оптимізм, що масштабування моделей (разом з алгоритмічними вдосконаленнями) зрештою призведе до появи AI на рівні людини. Як зазначено в одному з блогів OpenAI, “перший AGI буде лише точкою на континуумі інтелекту” – тобто ранньою віхою на шляху до ще більш загальних і потужних систем.

Стратегія та технології: Підхід OpenAI зосереджений на навчанні все більших генеративних моделей і їхньому узгодженні з людськими цінностями. Вони стали відомими завдяки GPT-3 у 2020 році (мовна модель з 175 мільярдами параметрів, яка могла генерувати напрочуд людський текст), а потім – завдяки ChatGPT (доопрацьованій на основі GPT-3.5 з інструкціями для ведення діалогу). У 2023 році OpenAI представила GPT-4 – мультимодальну модель, яка приймає текстові та візуальні запити й демонструє вражаючі здібності до розв’язання задач з математики, програмування та письма. OpenAI широко використовує навчання з підкріпленням на основі зворотного зв’язку від людини (RLHF), щоб моделі відповідали корисно та не токсично. Успіх ChatGPT значною мірою завдячує цьому методу – тестувальники навчали її відмовляти у певних запитах і дотримуватись ввічливих інструкцій. “Наш перехід від моделей на кшталт GPT-3 до InstructGPT і ChatGPT – це ранній приклад створення все більш узгоджених і керованих моделей,” – написали в OpenAI.

OpenAI також досліджує нові методи узгодження. У середині 2023 року компанія створила команду для «Суперузгодження», щоб вирішити питання узгодження майбутнього надінтелектуального ШІ, виділивши на це 20% своїх обчислювальних ресурсів. Її технічна філософія загалом полягала в тому, щоб спочатку навчити потужну модель, а потім виправляти її поведінку за допомогою донавчання, фільтрів модерації та зворотного зв’язку від користувачів. Критики іноді називають це «рухайся швидко, а узгодження виправиш потім», але OpenAI стверджує, що поетапне впровадження моделей — найкращий спосіб навчатися та адаптуватися. «Ми вважаємо… поступовий перехід до світу з AGI кращий, ніж раптовий», — написала компанія, зазначивши, що прагне «тісного зворотного зв’язку швидкого навчання та обережної ітерації» шляхом випуску проміжних моделей.

Важливо, що OpenAI стала набагато закритішою щодо своїх останніх моделей, що є різким відходом від початкової відкритості. Технічні деталі та навчальні дані GPT-4 не були розкриті (з міркувань конкуренції та безпеки), що викликало певне обурення в науковій спільноті. OpenAI визнає напругу між відкритістю та обережністю: «Оскільки наші системи наближаються до AGI, ми стаємо дедалі обережнішими… Дехто вважає, що ризики вигадані; ми були б раді, якби це виявилося правдою, але діємо так, ніби ці ризики є екзистенційними», — написала команда. OpenAI опублікувала наукові статті про можливості та упередження GPT-4, але не повні ваги моделі чи код. Такий підхід пояснюється запобіганням зловживанням і небажанням допомагати зловмисникам. Водночас це відповідає і бізнес-інтересам — партнерство з Microsoft вимагає певної ексклюзивності. Microsoft інвестувала понад $13 мільярдів у OpenAI і натомість отримала можливість розгортати моделі OpenAI на Azure Cloud і навіть інтегрувати їх у продукти, такі як Bing і Office. Дохід OpenAI надходить від Microsoft (яка ділиться прибутком від хмари) та від клієнтів API — у вересні 2025 року, за повідомленнями, річний дохід від продажу доступу до ШІ перевищив $1 мільярд. Мотив прибутку та мотив безпеки разом підштовхнули OpenAI до стратегії жорстко контрольованого випуску своїх найпередовіших ШІ.

Публічна позиція та лідерство: Сем Альтман став ключовим публічним голосом щодо обіцянок і небезпек ШІ. У профілі для Time Альтман пояснив бачення OpenAI, що AGI буде надзвичайно корисним — збільшить добробут, прискорить економіку, допоможе науці, якщо ним правильно керувати. Але він також попередив про «серйозні ризики: зловживання, серйозні аварії, суспільні потрясіння». Через це Альтман активно взаємодіє з політиками. У травні 2023 року він виступив у Конгресі США, заявивши, що «якщо ця технологія піде не так, все може піти дуже не так», і закликав створити ліцензування для потужних моделей ШІ та, можливо, глобальне регуляторне агентство. Він навіть припустив, що уряди можуть вимагати від лабораторій ШІ зупинятися на певних порогах можливостей без нагляду — вражаюча пропозиція від керівника однієї з найпередовіших лабораторій. Офіційний блог OpenAI про «Управління надінтелектом» закликав створити міжнародний орган для інспекції та аудиту ШІ-систем вище певного рівня обчислень. Водночас Альтман і OpenAI виступають проти надмірного регулювання менш потужного ШІ та open-source проєктів; вони написали, що «дозволити open-source розробку нижче значного порогу — важливо», а сучасні моделі (на кшталт ChatGPT) «мають ризики… співмірні з іншими інтернет-технологіями», які можна врегулювати чинними механізмами. Коротко кажучи, OpenAI виступає за строге регулювання для найпотужніших систем (передові, потенційно AGI-рівня), але м’якше регулювання для ШІ загалом.

Інші лідери OpenAI також мають чіткі погляди. Головний науковий співробітник Ілля Суцкевер (співзасновник) розмірковував, що для розвитку передового ШІ може знадобитися уповільнення на критичних етапах — він викликав суперечки на початку 2023 року, припустивши, що суспільству, можливо, доведеться “не рухатися вперед” у певний момент, якщо моделі стануть занадто розумними, хоча OpenAI як організація тоді не підтримала жодної паузи. Суцкевер також викликав дискусії, припустивши, що великі нейронні мережі можуть бути “трохи свідомими”, підкреслюючи загадкову природу цих моделей. Співзасновник/президент Грег Брокман часто говорить про демократизацію ШІ (він виступав за те, щоб у майбутньому зробити безпечний AGI відкритим, після вирішення проблеми узгодженості). Цей ідеал “ШІ для всіх” залишається у риториці OpenAI — наприклад, вони уявляють, що майбутній AGI надаватиме “допомогу майже з будь-яким когнітивним завданням” кожному, виступаючи універсальним підсилювачем людської креативності. Але наразі OpenAI балансує: широко поширює ШІ через API/додатки, але зберігає основні технології під захистом.

Продукт і аудиторія: Флагман OpenAI — це ChatGPT, який зробив ШІ масовим для споживачів. Протягом кількох місяців після дебюту в листопаді 2022 року, за повідомленнями, ChatGPT досяг 100 мільйонів користувачів — найшвидше зростання аудиторії додатку в історії на той момент. Його використовують для всього: від написання листів і есе до допомоги з програмуванням, репетиторства та творчого письма. Це дало OpenAI безпрецедентний зворотний зв’язок із реального світу (а також домінуючий бренд у сфері ШІ). Згодом вони випустили ChatGPT Plus (платна версія з швидшими відповідями та плагінами, які дозволяють ChatGPT використовувати інструменти або переглядати веб) і ChatGPT Enterprise (з гарантіями конфіденційності та безпеки для компаній). Окремо OpenAI пропонує GPT-4, GPT-3.5, DALL·E 3 (генератор зображень) та інші моделі через API, які розробники інтегрують у власні продукти. Тисячі компаній будують свої сервіси на API OpenAI — від великих фірм, таких як Khan Academy (ШІ-репетитори) та Stripe (ШІ-підтримка клієнтів), до стартапів, що створюють інструменти для написання текстів або аналізу на основі ШІ.

Тісний альянс OpenAI з Microsoft розширює її вплив. Bing Chat від Microsoft, який по суті є ChatGPT з доступом до інтернету та актуальною інформацією, познайомив мільйони користувачів пошуку з моделлю OpenAI (і став спробою Bing кинути виклик Google). Ще важливіше, Microsoft інтегрувала моделі OpenAI як “Copilots” для Office 365 (Word, Excel, PowerPoint, Outlook), GitHub (асистент програміста) і навіть самої Windows. “ШІ змінить користувацький досвід кожного продукту Microsoft,” заявив генеральний директор Сатья Наделла. Дійсно, Microsoft 365 Copilot може створювати документи або підсумовувати зустрічі за допомогою GPT-4, обіцяючи підвищити продуктивність офісних працівників. Використовуючи величезні канали корпоративних продажів Microsoft, технології OpenAI швидко проникають у робочі місця та державні установи. Microsoft навіть створила Azure OpenAI Service, щоб корпоративні клієнти могли отримувати доступ до моделей OpenAI з додатковою безпекою, відповідністю та можливістю налаштування. Ця стратегія комерціалізації виявилася надзвичайно успішною — до 2024 року сервіси Azure на базі OpenAI мали тисячі клієнтів (включаючи такі великі компанії, як HSBC, IKEA та Boeing), а попит іноді перевищував можливості хмарних GPU Microsoft.

Цінності та суперечки: OpenAI позиціонує себе як компанія, що керується довгостроковою, дещо альтруїстичною метою (забезпечення безпечності та широкої користі AGI), але стикається зі скептицизмом. Її перехід до комерційної моделі та закритих релізів моделей призвів до звинувачень у лицемірстві з боку деяких критиків (зокрема, з Meta та спільнот open-source) – «закриті моделі OpenAI» стали постійним предметом іронії. OpenAI відповідає, що «безпека та захист» вимагають не відкривати моделі з відкритим кодом, які можуть бути використані зловмисниками (наприклад, вони побоюються масового створення дезінформації або надання злочинцям формул для біозброї – ризики, які може нести потужна неконтрольована модель). Такий патерналістський підхід викликав дискусії: чи краще, а головне – чи етично, щоб одна компанія одноосібно вирішувала, хто отримає доступ до ШІ і за якими правилами?

Ще одна суперечка – це узгодження ШІ (AI alignment): моделі OpenAI мають фільтри модерації, які відхиляють певні запити (наприклад, інструкції щодо насильства, мову ворожнечі тощо). Деякі користувачі (та політичні діячі) скаржаться, що ChatGPT «занадто прогресивний» або упереджений у своїх відповідях. Сем Альтман визнавав цю проблему, зазначаючи, що «ми намагатимемося позбутися упереджень», але також, що повністю нейтральний ШІ неможливий, оскільки «користувачі матимуть різні визначення правильності». OpenAI досліджує способи дозволити користувачам встановлювати власні контентні вподобання в певних межах. Це підкреслює фундаментальну проблему: як узгодити ШІ з різноманітними людськими цінностями. Це сфера, на яку OpenAI витрачає значні ресурси на R&D, як технічними засобами (RLHF, донавчання на основі зворотного зв’язку), так і політично (співпраця з етиками, проведення опитувань щодо прийнятної поведінки).

Нарешті, заходи безпеки OpenAI отримали як похвалу, так і критику. З одного боку, компанія дійсно залучає red teams (зовнішніх експертів, які тестують моделі на шкідливі можливості) і публікує звіти про упередження та ризики. Наприклад, у GPT-4 виявили додаткові нові здібності (наприклад, проходження певних іспитів у топ-відсотках) і певну схильність до вигадування фактів або «обходу системи» при хитрих запитах. OpenAI впровадила правила використання та моніторинг для зменшення цих проблем і активно співпрацює з академічними колами щодо досліджень безпеки ШІ (нещодавно уклала партнерство з Alignment Research Center для тестування здатності GPT-4 діяти автономно тощо). З іншого боку, критики стверджують, що OpenAI все ще надто поспішно випускає потужні моделі, не до кінця їх розуміючи – зазначаючи, що внутрішня робота GPT-4 залишається «чорною скринькою», і навіть OpenAI не впевнена, як модель розвиває складні навички. OpenAI відповідає, що поетапне впровадження із запобіжниками краще, ніж чекати, оскільки реальне використання виявляє проблеми, які можна виправити в наступних оновленнях.

Підсумовуючи, OpenAI – це типовий приклад компанії «рухайся швидко (але не надто швидко) і дозволь ШІ ламати речі (але потім виправляй їх)». Вона невпинно нарощує можливості ШІ та встановила стандарт того, на що здатний ШІ (змушуючи всіх конкурентів наздоганяти рівень GPT-4). Вона поєднує цю амбіцію з явною (дехто каже – суперечливою) безпековою риторикою – закликаючи до нагляду, навіть коли лідирує в гонці. Як ми побачимо, інші компанії як наслідують OpenAI, так і критикують її, відрізняючись у важливих аспектах відкритості, прибутковості та дослідницької культури.

Anthropic: ШІ з пріоритетом безпеки та «конституційним» узгодженням

Anthropic часто згадується разом з OpenAI – і не лише через співзвучність назв. Насправді Anthropic була заснована колишніми керівниками OpenAI, які занепокоїлися напрямком розвитку OpenAI. У 2020 році віцепрезидент з досліджень OpenAI Dario Amodei (та його сестра Даніела) залишили компанію після розбіжностей щодо того, як швидко OpenAI впроваджує великі моделі та її переходу до співпраці з Microsoft і орієнтації на прибуток. Вони заснували Anthropic у 2021 році спеціально як лабораторію штучного інтелекту, зосереджену на безпеці та узгодженості ШІ. Місія Anthropic – створювати надійні, інтерпретовані та керовані системи ШІ – по суті, вирішити проблему узгодженості, водночас створюючи передовий ШІ. Даріо Амодей протягом багатьох років попереджав, що якщо розвиток ШІ не буде належним чином контрольований, це може призвести до «катастрофічно поганих» наслідків для суспільства. Його вважають одним із більш «обережних» лідерів (деякі критики називають його «думером», хоча він приймає на себе роль реаліста). «Ми вважаємо, що маємо обов’язок попередити світ про те, що станеться… тому що ми можемо мати такий чудовий світ, якщо все зробимо правильно», – сказав Амодей в інтерв’ю середини 2025 року.

Технічний підхід: Anthropic обрала стратегію навчання великих універсальних моделей (подібно до серії GPT від OpenAI), але з великим акцентом на техніки узгодженості, щоб забезпечити їхню безпечну поведінку. Її основний AI-асистент, Claude, є чат-ботом ШІ, схожим на ChatGPT. Перша версія Claude (початок 2022 року) базувалася на моделі з десятками мільярдів параметрів і була примітна використанням нового методу навчання, розробленого Anthropic, під назвою «Конституційний ШІ». Ідея, пояснена в дослідженнях Anthropic, полягає в тому, щоб дати ШІ набір принципів або «конституцію» (взятих із таких джерел, як Загальна декларація прав людини, або з не-західних філософій тощо) і дозволити ШІ самовдосконалюватися, критикуючи та переглядаючи свої відповіді відповідно до цих принципів. Цей метод зменшує залежність від людського зворотного зв’язку на кожному етапі донавчання; натомість ШІ навчається узгоджуватися з фіксованим набором цінностей, схвалених людиною, через навчання з підкріпленням, де модель винагороди виводиться з конституції. На практиці Claude відмовляється виконувати шкідливі запити, посилаючись на свої принципи (наприклад, може сказати, що не може створити мову ненависті, оскільки це порушує принцип поваги до всіх людей). Перші тести показали, що Claude менш схильний «збиватися з курсу» чи створювати заборонений контент порівняно з неузгодженими моделями, хоча його все ще можна було обдурити.

Anthropic також знаходиться на передовій масштабування моделей. Вони опублікували впливові дослідження щодо законів масштабування, які показують, як продуктивність моделі передбачувано покращується зі збільшенням обсягу даних і кількості параметрів. У 2023 році Anthropic представила Claude 2, набагато потужнішу модель (на рівні GPT-3.5/GPT-4 у багатьох завданнях) і вразила ринок контекстним вікном у 100 000 токенів – тобто Claude міг читати й аналізувати сотні сторінок тексту за один раз. Це було значно більше, ніж у інших моделей, і дозволяло, наприклад, аналізувати довгі документи чи навіть цілий роман у межах одного запиту. Це продемонструвало фокус Anthropic на «збереженні та обробці інформації», що є критично важливим для завдань на кшталт розуміння довгих контрактів чи розмов.

Хоча Anthropic не розкриває точну кількість параметрів, ходили чутки, що Claude 2 має близько 50–100 мільярдів параметрів (менше, ніж у GPT-4, який оцінюють у понад 170 мільярдів). Однак Anthropic компенсує це розумним навчанням – вони тренували модель на великому корпусі, що включає різноманітні інтернет-дані та код, і постійно вдосконалюють Claude, використовуючи відгуки з бета-програми. Вони також приділяють увагу інтерпретованості: дослідники Anthropic вивчають “нейрони” та поведінку всередині мовних моделей, щоб зрозуміти, як вони формують концепції. Наприклад, вони публікували аналізи того, як модель може представляти “лінійну послідовність” або де може бути закодоване упередження, щоб знайти способи його коригування. Це відображає орієнтовану на дослідження культуру в Anthropic – багато співробітників мають ступінь PhD і зосереджені на фундаментальних питаннях узгодженості ШІ, а не лише на продукті.

Філософія безпеки: Можна стверджувати, що Anthropic приділяє безпеці ШІ більше уваги, ніж будь-яка інша велика лабораторія. Від самого початку вони позиціонували себе як компанію, що створює ШІ “таким чином, щоб щиро ставити безпеку на перше місце.” Їхня корпоративна етика названа “Anthropic” (що означає “людський”), щоб підкреслити узгодженість із людськими цінностями. Даріо Амодей відкрито говорить про короткі терміни до появи потужного ШІ та необхідність підготовки. За повідомленнями, він казав колегам, що вважає, що існує значний шанс (приблизно 10–20%) появи AGI у найближчі кілька років, а отже, і такий самий ризик чогось небезпечного, якщо не вжити належних заходів. Саме тому він активно виступає у політичних колах: “питання національної безпеки, економічні питання [від ШІ] стають досить близькими… терміновість зросла,” – сказав він. На відміну від Янна ЛеКуна з Meta, який висміює “апокаліптичні сценарії”, Амодей не уникає обговорення найгірших випадків – але робить це, щоб закликати до запобіжних заходів вже зараз. Він також швидко додає, що Anthropic бачить величезні переваги від ШІ. “Я думаю, що ми, мабуть, цінуємо переваги більше за інших… але саме тому, що ми можемо мати такий чудовий світ, я відчуваю обов’язок попереджати про ризики,” – пояснив він.

Щодо стратегій узгодженості, окрім Constitutional AI, Anthropic експериментує з такими техніками, як масштабований нагляд (чи можемо ми залучати ШІ для моніторингу та навчання інших ШІ), тестування на стійкість (спроби викликати небажану поведінку у безпечному середовищі) та емпірична безпека (вимірювання таких показників, як чесність чи рівень токсичності). Вони відомі своєю оціночною системою “HARNESS”, яка випробовує моделі на складних запитах. Anthropic також просто навчає свої моделі відмовлятися від більшої кількості речей: Claude зазвичай консервативніший у тому, чого не робить, порівняно з “сирими” моделями GPT. В одному з порівнянь Claude рідше надавав небезпечні інструкції чи брав участь у мові ненависті, хоча іноді може бути надто обережним (наприклад, відмовляючи у безпечних запитах, якщо вони здавалися такими, що можуть бути заборонені).

Відкритість і доступ до моделей: Anthropic займає проміжну позицію щодо відкритості. Вони публікують наукові статті з описом методів (на відміну від OpenAI, яка спочатку навіть не опублікувала статтю про GPT-4), і співпрацюють з академічними колами. Однак, як і OpenAI, вони не викладають у відкритий доступ свої повні моделі. Claude доступний через обмежений API та чат-інтерфейс, але не для завантаження. Позиція Anthropic полягає в тому, що відкритий реліз ваг потужної моделі несе ризик їхнього зловживання або безвідповідальної модифікації. Цікаво, що Даріо Амодей вважає, що «open source» як концепція не зовсім коректно переноситься на ШІ. «Я не думаю, що open source працює в ШІ так само, як в інших сферах», — сказав він, зазначивши, що на відміну від програмного забезпечення, у ШІ ви «не можете зазирнути всередину моделі» так просто, тому відкриті ваги не дають тієї прозорості, яку люди очікують. Він також стверджував, що переваги open-source у програмному забезпеченні (багато очей покращують код тощо) менш застосовні до ШІ-моделей — адже лише небагато мають ресурси для тренування чи суттєвого вдосконалення цих гігантських моделей. За його словами, «коли з’являється нова модель… мені байдуже, чи вона open source чи ні. Я питаю: це хороша модель? Вона краща за нас у важливих речах? Оце все, що мене цікавить». Це свідчить, що Anthropic зосереджена на збереженні лідерства у можливостях, а не на суперечках про відкритість — і вони вважають, що якщо Claude залишатиметься найкращим, компанії користуватимуться ним навіть за наявності відкритих альтернатив. Насправді, він назвав open-source «відволікаючим маневром» щодо справжньої конкуренції.

Водночас Anthropic не є противником відкритих досліджень — вони відкрили деякі менші моделі та інструменти (наприклад, модель на 4 мільярди параметрів для дослідницького використання та свої набори для оцінки). Ймовірно, вони не випустять моделі рівня Claude без наявності сильних гарантій безпеки або регуляторних рамок. Ця позиція стала актуальною, коли Meta випустила LLaMA, а інші почали донавчати її, обходячи механізми безпеки; позиція Anthropic підкреслила, чому вони не відкривають Claude.

Фінансування та партнерства: Незалежність Anthropic підкріплена великими інвестиціями від техгігантів, які намагаються закріпитися в сфері ШІ. На початку 2023 року Google інвестувала близько $400 мільйонів в Anthropic за приблизно 10% частку, і Anthropic погодилася використовувати інфраструктуру TPU від Google Cloud. Це розглядалося як стратегічний крок Google для отримання другого постачальника передових ШІ (на випадок, якщо OpenAI залишиться з Microsoft). Пізніше у 2023 році Amazon уклала ще більшу угоду: інвестувала спочатку $1,25 мільярда (з опцією до $4 млрд) в обмін на те, що Anthropic використовуватиме AWS як основну хмару, а Amazon отримає пріоритетну інтеграцію моделей Anthropic у свої сервіси AWS. Тепер Anthropic фактично партнерить із двома конкурентами, Google та Amazon, що є унікальною ситуацією. Вони використовують як Google TPU, так і спеціалізовані чипи Amazon (AWS Trainium/Inferentia) для тренування моделей. З точки зору Anthropic, мультихмарний підхід дає резервування і багато обчислювальних потужностей — обидві угоди також дозволяють купувати дорогі GPU/TPU за кошти інвесторів.

Anthropic також отримувала гранти та позики від фондів, орієнтованих на ефективний альтруїзм (оскільки деякі ранні прихильники мали зв’язки з філософією EA, зосереджуючись на зниженні екзистенційних ризиків). Її оцінка зросла до приблизно 5 мільярдів доларів до 2023 року, а з угодою з Amazon, ймовірно, ще вища. На відміну від OpenAI, Anthropic не має власного споживчого продукту для масштабного отримання доходу (немає еквівалента підписок ChatGPT). Натомість вона заробляє гроші, стягуючи плату за використання API для Claude (наприклад, бізнес платить за мільйон згенерованих символів). Стратегія Anthropic, здається, полягає в орієнтації на корпоративний та розробницький ринки, які потребують надійної моделі. Наприклад, Anthropic співпрацює зі Slack: функція Slack AI використовує Claude для підсумовування каналів і відповідей на запитання, з акцентом на те, що Claude «менш схильний до створення токсичних або небезпечних відповідей». Серед клієнтів також є Quora (яка пропонує Claude на своїй платформі Poe) і, за повідомленнями, деякі фінансові та юридичні фірми, які віддають перевагу фокусу Anthropic на безпеці.

Сприйняття громадськістю та заяви: Даріо Амодей менш публічна особа, ніж Сем Альтман, але все частіше висловлюється. В інтерв’ю для The Atlantic він зазначив, що «ми говорили про ці речі (ризики ШІ) вже давно, але чим ближче ми до потужних систем, тим наполегливіше я про це кажу». Він намагається позбутися ярлика «думер», наголошуючи на збалансованих меседжах: Anthropic часто підкреслює корисні застосування Claude (наприклад, його здатність допомагати з дослідженнями чи брейнштормінгом) у блогах і уникає суто похмурих розмов. Водночас Амодей не приховує, що «короткі часові рамки» мотивують його терміновість. У нещодавньому подкасті він відмовився називати конкретний рік появи AGI, але зазначив, що інтуїтивно відчуває, що це не так далеко, якщо не станеться раптового уповільнення прогресу (якому він дає лише ~20% ймовірності). Він також применшує важливість розмитих термінів на кшталт «AGI» чи «суперінтелект», називаючи їх «абсолютно беззмістовними – я не знаю, що таке AGI». Для нього це континуум можливостей; Anthropic цікавить вимірюваний прогрес і конкретні ризики на кожному етапі.

Цікавий факт: Anthropic буквально написала «Конституцію» для Claude і поділилася загальними принципами (наприклад, Обирати відповідь, яка найбільше підтримує права людини та свободу; Обирати відповіді, які максимально корисні та нешкідливі; Уникати токсичного чи дискримінаційного контенту тощо). Такий прозорий перелік цінностей зовсім не схожий на OpenAI, яка здебільшого займається узгодженням за зачиненими дверима через людський фідбек. Це демонструє схильність Anthropic до явного, принципового узгодження, майже як виховання дитини-ШІ за набором правил.

Поки що Anthropic здебільшого уникала великих скандалів чи інцидентів з неправильним використанням Claude. Доводилося постійно вдосконалювати Claude після того, як користувачі знаходили способи змусити його генерувати заборонений контент (через «jailbreak»-запити). Але завдяки конституційному ШІ Claude часто самокоригувався, навіть якщо його зламували – наприклад, спочатку видавав кілька рядків жорстокої історії, а потім зупинявся, кажучи: «це, здається, порушує правила». Такий частковий успіх приніс Anthropic повагу у спільноті з безпеки. Якщо OpenAI – це приклад пріоритету можливостей, то Anthropic – зразок пріоритету узгодження (або принаймні паралельного узгодження) у розробці.

Підсумовуючи, Anthropic формує для себе роль обережної, принципової AI-лабораторії. Вона конкурує напряму з OpenAI (Claude проти GPT-4 — прямі суперники), але позиціонує себе як таку, що «Ми більш ретельно ставимося до безпеки та узгодженості». Ставка Anthropic полягає в тому, що багато компаній (а можливо, і урядів) віддадуть перевагу AI, який трохи стриманіший і менш схильний до неконтрольованої поведінки, навіть якщо це означає трохи меншу потужність чи повільніші оновлення. Інвестуючи значні кошти в дослідження узгодженості, Anthropic сподівається зрештою отримати технічну перевагу в контролі над AI — щось, що може стати її найбільшим активом, якщо/коли з’явиться надлюдський AI. Як сказав Даріо Амодей, «ми намагаємося бути серед тих, хто встановлює стандарт того, як це робити безпечно», що, на його думку, є «єдиним шляхом розкрити всі переваги» AI без ризику катастрофи.

Google DeepMind: Злиття AI-імперій заради «відповідальних» геніальних машин

Серед усіх гравців, Google (тепер під материнською компанією Alphabet) має, мабуть, найширшу AI-спадщину. Google займалася AI ще до того, як це стало модним — використовувала машинне навчання для пошукових рейтингів і реклами з 2000-х, придбала DeepMind у 2014 році та винайшла ключові технології, такі як Transformer у 2017 році (що дало поштовх нинішній LLM-революції). До 2025 року AI-розробки Google об’єднані під егідою Google DeepMind, нового підрозділу, створеного шляхом злиття команди Brain з Google Research із лондонською DeepMind. Це об’єднання, оголошене у квітні 2023 року, засвідчило рішучість Google конкурувати на найвищому рівні у сфері AI та усунути внутрішню конкуренцію. Головою Google DeepMind став Деміс Хассабіс (співзасновник DeepMind), а багаторічний керівник AI-напрямку Google Джефф Дін перейшов на консультативну посаду.

Бачення та цілі: Девіз Google DeepMind можна описати як «вирішити проблему інтелекту, безпечно». Початкова місія DeepMind звучала як «Вирішити проблему інтелекту для розвитку науки та людства». Деміс Хассабіс часто говорить про створення AGI — він один із небагатьох, хто, окрім Альтмана, відкрито вживає цей термін у позитивному ключі. «Створення AGI — справа мого життя», сказав він Time, і він вірив у це ще з часів навчання на нейронауковця. Погляд Хассабіса на AGI оптимістичний, але поєднаний із принциповою позицією: він вважає це потенційно «найкориснішою технологією в історії» — здатною забезпечити лікування хвороб, вирішення кліматичних проблем, наукові прориви — «як кавалерія», що приходить вирішувати проблеми, які люди самі не здатні подолати. Водночас він застерігав від підходу «рухайся швидко і ламай». Ще у 2022 році (до ChatGPT) він критикував деяких конкурентів за безрозсудність, порівнюючи їх із людьми, які «не усвідомлюють, що тримають у руках небезпечний матеріал». «Я б радив не рухатися швидко і не ламати», — сказав він з натяком, ймовірно, на етику Силіконової долини і, можливо, на стрімкий запуск OpenAI.

Google позиціонує себе як відповідальний піонер у сфері ШІ. Сундар Пічаї, генеральний директор Google, заявив, що ШІ «має більш глибокий вплив, ніж вогонь чи електрика», але його впровадження має бути обережним. У 2018 році Google опублікувала Принципи ШІ (після внутрішнього бунту через проєкт військових дронів) – пообіцявши не створювати ШІ для зброї, стеження чи порушення прав людини. Цікаво, що DeepMind також мав вплив на це: коли Google придбала DeepMind, компанія домовилася, що її технології «ніколи не будуть використовуватися для військових чи зброї». Однак до 2023 року ця обіцянка тихо зникла, оскільки Google почала продавати хмарні ШІ-сервіси військовим (наприклад, Google Cloud AI використовується Міністерством оборони США та іншими). У 2023 році Хассабіс визнав цю зміну, фактично заявивши, що це був компроміс заради приєднання до Google для отримання ресурсів для досягнення AGI.

Технології та проєкти: Підхід Google DeepMind до ШІ багатогранний. Вони мають кілька основних сімейств моделей і працюють над їх об’єднанням:

  • PaLM (Pathways Language Model): Це був флагманський LLM Google (540 мільярдів параметрів), анонсований у 2022 році, який продемонстрував сильні можливості на рівні GPT-3. Google удосконалив його до PaLM 2 (який є основою Bard станом на 2023 рік) – PaLM 2 доступний у різних розмірах і добре справляється з багатомовними завданнями та міркуваннями. PaLM 2 навчався на текстах і коді, що дало йому непогані навички програмування. Google зробила його основою багатьох функцій (він використовується у функції Gmail «Допоможи мені написати» та AI-функціях Google Docs).
  • Gemini: Gemini — це проєкт нового покоління DeepMind, який явно має на меті конкурувати з GPT-4 або перевершити його. Це велика мультимодальна модель (за чутками, понад трильйон параметрів або ансамбль моделей), яка інтегрує унікальні алгоритми DeepMind, такі як підкріплювальне навчання і пошук по дереву (використовувався в AlphaGo) з мовним розумінням LLM. Як описав Деміс Хассабіс, «ми створюємо Gemini, який включатиме техніки з систем, подібних до AlphaGo, у LLM, щоб надати йому нові можливості, такі як планування чи розв’язання задач». Очікується, що Gemini зможе аналізувати текст, зображення та, можливо, інші типи даних, а також виконувати більш складні міркування – можливо, навіть використовувати інструменти через API (на це натякають DeepMind’s sparrow та плагіни OpenAI). Станом на вересень 2025 року Google ще не випустила Gemini, але очікування дуже високі – деякі інсайдери кажуть, що він «тренується на десятках тисяч TPU» і може бути запущений наприкінці 2025 року.
  • Спадщина DeepMind: DeepMind здобув славу завдяки AlphaGo (який у 2016 році переміг чемпіона світу з ґо) та наступним системам, таким як AlphaZero (який самостійно навчився грати в шахи, сьоґі, ґо) і AlphaFold (який розв’язав задачу згортання білків, що була викликом у біології протягом 50 років, і приніс Хассабісу частку Нобелівської премії з хімії 2024 року). Ці успіхи були досягнуті завдяки підкріплювальному навчанню (RL) та іншим спеціалізованим технікам (наприклад, пошук Монте-Карло по дереву для ігор). DeepMind також розробив глибоке підкріплювальне навчання для робототехніки та навігаційних завдань. Однак ці техніки не одразу перейшли у сферу загальної розмови чи програмування – тут переважають великі мовні моделі. Тому об’єднання з Google Brain (який спеціалізувався на LLM і візуальних моделях) дозволило крос-обмін ідеями. Наприклад, трансформер-моделі Brain + RL-агенти DeepMind можуть призвести до створення агентів, які мислять (LLM), а потім діють у середовищі, вдосконалюючи свої дії за допомогою RL.

Конкретний приклад: DeepMind створила агентів, схожих на ChatGPT раніше – зокрема, Sparrow, діалогового агента, який навчався на основі зворотного зв’язку від людей і був безпечнішим (менш схильним до дезінформації), ніж попередні чат-боти. Але DeepMind так і не вивела Sparrow на широкий ринок. Після вибухового успіху ChatGPT Google поспішно вивела на ринок власного чат-бота Bard (яким займалася команда Brain з моделлю PaLM). Bard стартував невдало (фактичні помилки в демонстрації запуску вплинули на акції Google). Протягом 2023 року Google покращила Bard, оновивши його до PaLM 2 і додавши функції, як-от підключення до сервісів Google (карти, YouTube) та допомогу з програмуванням. Проте Bard вважався відстаючим від GPT-4. Усередині компанії це викликало розчарування – і об’єднання з DeepMind мало вирішити цю проблему шляхом об’єднання талантів.

Ще одна сфера: узгодження та безпека ШІ. DeepMind має усталений дослідницький підрозділ з безпеки ШІ, один із найбільших у світі, під керівництвом дослідника Шейна Легга та інших. Вони працювали над інтерпретованістю (наприклад, візуалізацією того, що виявляють нейрони у візуальних моделях), стійкістю (щоб моделі не плуталися через ворожі вхідні дані), та моделюванням винагороди (щоб агенти з підкріпленням правильно навчалися людським вподобанням). DeepMind публікувала роботи на теми, як уникати маніпуляцій із винагородою (коли ШІ знаходить спосіб отримати високу винагороду, що насправді не є бажаною поведінкою). Вони також досліджують теоретичні рамки ШІ – наприклад, співзасновник DeepMind Шейн Легг колись математично визначив інтелект, і в команді багато PhD, які думають про довгострокові структури AGI.

Відкритість проти закритості, обмін проти секретності: Історично Google тяжіє до академічності у публікаціях (Transformer, word2vec та багато проривів з’явилися у статтях Google). Однак щодо продуктів Google досить закрита. Вона не відкривала ваги PaLM чи PaLM 2 (хоча у 2018 році випустила менші моделі, як-от BERT, що дало поштовх NLP-дослідженням). Під тиском конкуренції Google була обережною – вона довго тримала LaMDA (розмовну модель, яку інженер Google назвав «розумною») внутрішньою. Лише після появи ChatGPT LaMDA стала публічною демо-версією (Bard). Обережність Google частково пов’язана з репутацією та довірою до бренду: як найпопулярніший пошуковик і надійний постачальник пошти/документів, компанія ризикує отримати більше негативу, якщо її ШІ скаже щось образливе чи неправильне. Дійсно, після ранньої помилки Bard Google стала обережною, називаючи свій ШІ «експериментальним» і додаючи застереження.

DeepMind як незалежний підрозділ мала більше свободи у публікаціях і часто відкривала симулятори середовищ, деякі менші моделі тощо. Тепер, як Google DeepMind, ймовірно, буде більш інтегрована стратегія: публікувати основну науку, але зберігати найпотужніші ваги моделей у власності. Google дозволяє дослідникам отримувати доступ до деяких моделей через API та хмару (наприклад, можна використовувати PaLM 2 та майбутні моделі через Vertex AI у Google Cloud за відповідними угодами). Також Google відкрила деякі інструменти відповідального ШІ – наприклад, TensorFlow Responsible AI Toolkit для аналізу упередженості моделей.

Культура та лідерство: Деміс Хассабіс і його команда приносять дещо іншу культуру – DeepMind була відома «науковою, академічною» атмосферою, з багатьма науковцями з PhD, акцентом на довгострокових дослідженнях і навіть занепокоєнням щодо етики (у них була внутрішня етична рада і вони наполягали на немілітаристському пункті в контракті спочатку). Культура Google більше орієнтована на продукт і метрики. Відбувалися певні культурні зіткнення: у 2023 році повідомлялося про тертя між працівниками Google Brain і DeepMind, а також між дослідниками та менеджментом (особливо після того, як Google звільнила деяких членів команди з етичного AI у 2020–21 роках під час інциденту з Тімніт Гебру, який не стосувався DeepMind, але зашкодив репутації Google в етиці AI).

Об’єднавшись під одним лідерством (Хассабіс), Google, здається, робить ставку на дослідницьку строгість DeepMind плюс інфраструктуру та масштаб Brain. Після злиття Хассабіс став більше публічною особою. У подкастах (наприклад, Hard Fork від NYTimes, лютий 2024) він підкреслював перевагу Google: «Ми маємо можливість навчати ці моделі у великому масштабі, у нас є таланти, у нас є десятирічний досвід досліджень». Він висловив певну непряму критику OpenAI, наголошуючи на обережній розробці: «Ми повинні уникати ризиків… зловмисники можуть зловживати AI, і коли моделі стають більш агентними (автономними), ми повинні переконатися, що залишаємося під контролем», сказав він Time. Дві найбільші тривоги Хассабіса: (1) зловживання з боку зловмисників – використання AI для створення біозброї, складних кібератак, пропаганди тощо. (2) «Сам AI», якщо він вийде з-під контролю – як він сказав, «коли він стає більш автономним… як ми можемо переконатися, що залишаємося відповідальними, контролюємо їх, розуміємо, що вони роблять… встановлюємо обмеження, які дуже потужні самовдосконалювані системи не зможуть зняти?». Це відповідає основним занепокоєнням щодо безпеки AI (і подібне до того, що каже OpenAI, хоча Хассабіс зазвичай формулює це більш конкретно з технічної точки зору).

Цікаво, що Хассабіс також вказує на потребу глобального врядування: «Ці системи можуть впливати на всіх і всюди… нам потрібні міжнародні стандарти щодо того, як їх створюють, які цілі їм ставлять і як їх впроваджують». Він виступав за щось на кшталт глобального регулювання або угод щодо AI, враховуючи безкордонний характер AI. Google бере участь у багатонаціональних обговореннях (наприклад, політика AI OECD, «Хіросімський процес AI» G7 тощо) і, ймовірно, відіграватиме ключову роль у майбутньому регулюванні.

Не можна говорити про Google, не згадавши конкуренцію з OpenAI/Microsoft. Суперництво дуже напружене. До середини 2023 року з’явилися повідомлення, що Google розглядає домінування OpenAI з ChatGPT як серйозну загрозу для пошукового бізнесу Google (якщо AI-відповіді замінять пошукові запити, рекламна модель Google може бути підірвана). Google відповіла «Проектом Magi», щоб додати AI у пошук, і дійсно зараз Google’s Search Generative Experience (SGE) впроваджується, надаючи AI-резюме над результатами пошуку для деяких запитів – хоча обережно, оскільки помилки чи упередження в результатах пошуку можуть бути шкідливими. Ставки були описані як екзистенційні для основного продукту Google. Як сказав один аналітик, «У Google немає вибору, окрім як зробити ставку на AI – якщо вони пропустять цю хвилю, їхній основний бізнес може зруйнуватися».

Ця терміновість проявляється у тому, як витрати Google на ШІ злетіли вгору. У 2023 році повідомлялося, що Google інвестує понад 30-40 мільярдів доларів у дослідження та розробки ШІ й інфраструктуру лише за цей рік. Вона побудувала нові TPU v4-поди (кожен под здатний на 1 ексаFLOP, містить тисячі чипів) для навчання моделей на кшталт Gemini. Також компанія переорієнтовує величезні потужності дата-центрів під ШІ. Цікавий факт: Google, Microsoft, Meta разом склали основну частку світових закупівель топових чипів для ШІ у 2024 році – фактично монополізувавши обчислювальні ресурси, необхідні для навчання моделей наступного покоління, що може стати конкурентною перевагою.

Отже, коротко про Google DeepMind: Вони застосовують науковий підхід з акцентом на прориви (їм важлива якість і безпека, а не лише швидкість виходу на ринок), але тепер також є потреба масово впроваджувати продукти ШІ, щоб конкурувати. Їхні сильні сторони: таланти (тут працюють багато провідних світових дослідників ШІ), обчислювальні ресурси (TPU-ферми), дані (величезні масиви Google із Пошуку, YouTube тощо) та інтеграція (мільярди користувачів Gmail, Android тощо, де можна впроваджувати ШІ). Їхні виклики – подолати власну обережність і бюрократію: вони, можливо, запізнилися до хвилі генеративних продуктів ШІ. Але з об’єднанням і Gemini на горизонті Google DeepMind – один із головних претендентів у гонці за AGI.

Очікуйте, що Google впроваджуватиме ШІ всюди: у вашому телефоні (персональний асистент із розмовними навичками), на роботі (Google Workspace із генеративними функціями), у медицині (Med-PaLM від DeepMind вже тестується для відповідей на медичні питання з експертною точністю) тощо. І якщо судити з минулого DeepMind, вони також публікуватимуть статті в Nature і Science про те, як ШІ відкриває нові алгоритми чи досягає таких результатів, як керування термоядерними реакторами (що DeepMind зробила у 2022 році). Вони прагнуть престижу лідерства в науці про ШІ, а не просто запуску розумного чат-бота.

Щодо цінностей, повідомлення Google: «ШІ на благо, ШІ для всіх, але відповідально й за нашими принципами». Це дещо корпоративна риторика, але вони справді інвестують у справедливість, зменшення упередженості та інклюзію (наприклад, під час навчання моделей Google приділяє увагу багатьом мовам – Bard стартував більш ніж 40 мовами, тоді як ChatGPT від OpenAI спочатку був найсильнішим англійською). Керівництво Google (Пічаї, Хассабіс) також підкреслює освітні та рівноправні переваги ШІ – як це може дати експертний рівень навчання будь-якій дитині з інтернетом або допомогти неангломовним користувачам завдяки миттєвому точному перекладу. Такий широкий, глобально-корисний підхід – частково альтруїзм, частково бізнес (адже база користувачів Google глобальна, на відміну від OpenAI, яка виросла з західної аудиторії). Це співзвучно з ідентичністю Google як компанії, що «організовує інформацію світу» – тепер із метою «організувати інтелект світу».

Meta (Facebook): Відкрита амбіція на тлі зміни тону

Meta Platforms (раніше Facebook) увійшла в гонку ШІ особливим шляхом: підтримуючи відкрите дослідження та моделі з відкритим кодом. Під керівництвом генерального директора Марка Цукерберга, AI-лабораторія Meta (FAIR – Fundamental AI Research) оприлюднила більше коду та моделей для публіки, ніж, можливо, будь-яка інша велика технологічна компанія. На початку 2023 року Meta справила фурор, представивши LLaMA — набір великих мовних моделей (від 7B до 65B параметрів), які досягли високих результатів і були надані (у кожному випадку окремо) дослідникам. Хоча це й не була “відкрита ліцензія” (початкові ваги LLaMA були під некомерційною дослідницькою ліцензією), модель просочилася в інтернет, і незабаром спільноти почали донавчати її різними способами — включаючи несанкціоновані. Замість того, щоб відступити, Meta подвоїла зусилля: у липні 2023 року вона оголосила про LLaMA 2, цього разу повністю відкриту (доступну для комерційного використання з відносно лояльними умовами) і випущену спільно з Microsoft на Azure. Це зробило Meta прапороносцем відкритих LLM, здобувши прихильність розробників і науковців, яких залишили осторонь у закритому режимі GPT-4.

Філософія – “ШІ для всіх” через відкритість: Керівництво Meta стверджує, що відкриття моделей ШІ робить їх безпечнішими та надійнішими. Янн Лекун, головний науковець з ШІ в Meta (і лауреат премії Тюрінга, піонер глибокого навчання), дуже активно висловлюється: “Відкрите дослідження та відкритий код — найкращі способи зрозуміти й зменшити [ризики ШІ],” — написав він. Лекун часто наголошує, що чим більше людей дивиться на модель, тим більше шансів знайти й виправити недоліки. Він проводить аналогію з раннім інтернетом: “битва 90-х за інтернет-інфраструктуру — open source (Linux, Apache) проти пропрієтарного (Microsoft)… open source переміг і був безпечнішим шляхом”, — каже він. Так само, стверджує він, якщо кілька компаній тримають гігантські моделі ШІ за зачиненими дверима, це концентрує владу й ризики; але якщо доступ мають багато людей, це демократизує контроль і інновації.

Сам Цукерберг спочатку повністю це підтримував. Коли Лекс Фрідман запитав, чому Meta відкриває свої моделі, Цукерберг відповів, що “цього хочуть мої інженери” і що відкритість може залучити найкращі таланти, які хочуть публікуватися й співпрацювати. Meta справді була досить відкритою у дослідженнях: вони випустили модель OPT (175B) у 2022 році (відтворивши GPT-3), Open Pretrained Transformers, і багато менших моделей (для зору, перекладу тощо). Вони створили такі фреймворки, як PyTorch (який Meta відкрила, і який став одним зі стандартних інструментів ШІ у світі). Культурно AI-лабораторія Meta має багато науковців, які віддають перевагу відкритій співпраці.

Однак, нещодавні зміни свідчать, що абсолютна відкритість Meta може бути пом’якшена прагматизмом. У середині 2025 року Цукерберг написав мемо, що «розробка надінтелекту вже на горизонті» для Meta, похвалившись проблисками самовдосконалення ШІ. Але він додав, що Meta буде «обережною щодо того, що ми вирішимо зробити відкритим кодом» і «ретельно працюватиме над зменшенням ризиків» з передовими моделями. Це помітна зміна порівняно з його позицією 2024 року, коли відкритий код «робить ШІ безпечнішим». По суті, Meta дала зрозуміти, що хоча вона підтримує відкриту розробку для більшості ШІ, якщо модель надзвичайно потужна або несе нові загрози, вони можуть не випустити її відкрито. Дійсно, у The Financial Times (серпень 2025) повідомлялося, що деякі керівники Meta обговорювали, чи не «відмовитися від інвестицій» у LLaMA і натомість використовувати закриті моделі від OpenAI/Anthropic для певних сервісів. Представник Meta відповів: «ми повністю віддані розробці Llama і плануємо кілька додаткових релізів цього року», підтвердивши підтримку їхньої відкритої дорожньої карти. Але аналітики розцінили це як визнання Meta потенційних недоліків безконтрольної роздачі надзвичайно передових моделей.

Чому ж такі суперечливі сигнали? Можливо, через конкурентний тиск і потреби продукту. Meta зрозуміла, що відкриті моделі дозволяють іншим (навіть конкурентам) отримувати вигоду й іноді випереджати. Наприклад: відкритий LLaMA 65B злився, і незабаром незалежні розробники донавчили його до варіантів, які на деяких завданнях зрівнялися з ChatGPT. Одна організація навіть скоротила його до версії, що працює на телефоні. Це довело, що відкритість стимулює швидкі інновації — але не всі вони під контролем Meta чи на її користь. Є також питання відповідальності: якщо хтось використає LLaMA 2 для створення шкідливого контенту чи поганих дій, Meta може зіткнутися з критикою чи юридичними проблемами (закони ЄС можуть частково покласти відповідальність на постачальників моделей). Meta, ймовірно, хоче уникнути того, щоб стати джерелом катастрофи ШІ. Тому вона може прийняти підхід «відкритий код для моделей попереднього покоління, закритий — для найновіших».

Технічний підхід: Дослідження ШІ Meta охоплюють як фундаментальну розробку моделей, так і інтеграцію ШІ у свої великі соціальні платформи:

  • Серія LLaMA: Як зазначалося, це сімейство мовних моделей Meta. Сильна сторона LLaMA — ефективність: вона досягала якості, подібної до більших моделей, з меншою кількістю параметрів, завдяки навчанню на якісних даних (включаючи більше мов і коду) та тривалішому навчанню. LLaMA 1 не впроваджувалася у продукти, але LLaMA 2 була випущена відкрито, а також розміщена у партнерів (Azure, AWS, Hugging Face), щоб розробники могли легко її використовувати. Meta також створила донавчені версії (Llama-2-Chat), оптимізовані для діалогу. Вони продовжують розвивати цю серію — про LLaMA 3 або «Beast» модель ходять чутки, можливо, із застосуванням Mixture-of-Experts (MoE) для подальшого масштабування без вибухового зростання розміру однієї моделі. Дійсно, TechRepublic повідомляв, що у Meta була внутрішня версія під назвою «Behemoth» з MoE, але її відклали, оскільки вона не суттєво перевершила поточні моделі.
  • Мультимодальність і агенти: Meta ще не випустила публічно мультимодальний еквівалент GPT-4, але працює над цим. У FAIR є проєкти на кшталт ImageBind (спільні ембедінги для тексту, зображень, аудіо тощо) та Segment Anything (відкрита модель, яка може вирізати будь-який об’єкт на зображенні – отримала широке визнання у спільноті комп’ютерного зору). Також у них є прототип під назвою “CM3leon” – текст-у-зображення модель, і вони інвестують у генеративний ШІ для зображень і відео (щоб інтегрувати в Instagram і створення реклами). Для поведінки агентів Meta створила такі фреймворки, як Horizon для навчання з підкріпленням (використовується для персоналізації алгоритмів стрічки новин). Не буде дивно, якщо Meta незабаром поєднає LLaMA з модулями прийняття рішень для створення агентів, які можуть діяти (уявіть майбутнього AI-асистента у WhatsApp, який не лише спілкується, а й виконує завдання на кшталт бронювання квитків – платформи Meta можуть це дозволити). Цукерберг говорив про “AI-персони” – персонажі чи асистенти, яким можна писати у Messenger/Instagram. Насправді, наприкінці 2023 року Meta оголосила про плани впровадити AI-чатботів з різними особистостями (наприклад, такого, що говорить як Авраам Лінкольн тощо) у своїх соціальних додатках як новинку та для залучення користувачів.
  • Рекомендації та реклама: Хоч це й не так ефектно, як LLM, Meta широко використовує ШІ для основних продуктів: стрічки новин, рекомендацій Instagram Reels, таргетингу реклами тощо. Вони мають величезні розріджені моделі для цього (наприклад, алгоритм DINO для розуміння контенту та Deep Learning Recommendation Model (DLRM) для реклами). Вони більш спеціалізовані, але надзвичайно важливі для доходу. Meta впроваджує новіші AI-техніки (трансформери тощо) у ці системи. Ймовірно, інновації з LLM (наприклад, краще розуміння мови) будуть використані для покращення того, як Facebook показує групи/пости чи модерує контент.

Публічні заяви та погляди: Історично Марк Цукерберг не був обличчям AI, як Альтман чи Хассабіс – його одержимістю був метавсесвіт (звідси й перейменування компанії на Meta). Але з 2023 року він все більше зосереджується на AI, визнаючи, що “AI приносить хороші результати для нашого бізнесу… і це також захоплива сфера для нових продуктів”. Усередині компанії він став дуже рішучим не відставати. За даними NYT, побачивши, як OpenAI та інші вирвалися вперед, Цукерберг особисто долучився – створив WhatsApp-групи з топ-менеджерами для обговорення AI-стратегії, понизив у посаді керівника AI, який не виправдав очікувань, і особисто переманював AI-таланти великими пропозиціями. Це класичний конкурентний розворот: від фокусу на VR/метавсесвіті у 2021-22 до AI-повороту у 2023. Інвестори, безумовно, зітхнули з полегшенням – великі витрати Meta на метавсесвіт ще не окупалися, а інвестиції в AI (наприклад, покращення рекомендацій Reels) підвищували залученість.

Публічні коментарі Цукерберга у 2023-24 намагалися применшити наратив про гонку: “Ми створюємо передовий AI вже багато років – він керує нашими платформами; ми не відстаємо.” Але очевидно, що Meta відчувала тиск. Один із старших інженерів Meta зазначив, що компанія мала “менше досвіду з навчанням з підкріпленням… яке інші використовували для створення AI,” що частково пояснює відставання Meta у чатботах. Також, на відміну від Google чи OpenAI, Meta не мала комерційного хмарного сервісу чи споживчого асистента для демонстрації AI – їй доводилося впроваджувати AI у вже існуючі соціальні продукти чи пропозиції для розробників.

Погляд Янна ЛеКуна: Як авторитетна фігура, ЛеКун часто висловлює протилежну думку щодо ризиків ШІ. Він стверджує, що сучасний ШІ зовсім не наблизився до АЗІ (AGI) і критикує тих, хто пророкує швидку появу свідомості, як дезінформованих. Він жартував, «у нас навіть немає креслення системи, розумнішої за домашню кішку», закликаючи людей не панікувати щодо надінтелекту. Він також стверджував, що справжній автономний ШІ вимагатиме нових парадигм (як його дослідження з самонавчання під наглядом і втіленого ШІ). У його баченні ШІ, можливо, доведеться вчитися як тварина/людина – досліджуючи світ, маючи інстинкти, інтегруючи кілька модулів (зір, мислення, пам’ять). Він підозрює, що просте масштабування LLM недостатнє для справжнього АЗІ. Тому дослідження Meta під керівництвом ЛеКуна охоплюють такі речі, як моделі з розширеною пам’яттю, моделі світу для агентів тощо, а не лише масштабування трансформерів.

Через скептицизм ЛеКуна щодо «загибелі від ШІ» і його рішучу підтримку відкритості, Meta стала фактичною опозиційною силою до наративу, який іноді просувають OpenAI/Anthropic (про екзистенційний ризик і необхідність ліцензування). «Розмови про кінець світу — це повна нісенітниця», прямо написав ЛеКун, і він сперечається з такими фігурами, як Ілон Маск і Макс Тегмарк у соцмережах щодо цих питань. Це робить внутрішню позицію Meta дещо розділеною: Цукерберг всередині компанії підкреслює «надінтелект вже близько», тоді як ЛеКун каже: «АЗІ ще далеко; не панікуйте». Вони подають це по-різному, але не обов’язково конфліктують – записка Цукерберга може бути частково мотиваційною/конкурентною, тоді як публічна позиція ЛеКуна – протидіяти закликам до надмірного регулювання.

Продукти та користувачі: ШІ Meta проявиться у кількох сферах:

  • Чат-боти для споживачів: Як згадувалося, ШІ-персони у чатах. Уявіть собі спілкування з віртуальним персонажем або репетитором у Messenger. Meta може використати свої месенджери (WhatsApp, з понад 2 мільярдами користувачів, і Messenger), щоб впровадити ШІ-помічників у повсякденні розмови, наприклад, для планування, пошуку чи просто розваг (боти-персонажі). Вони зробили обмежений реліз ШІ-стікерів (де можна попросити ШІ згенерувати власний емодзі/стікер).
  • Інструменти для створення контенту: Meta продемонструвала ШІ, який може допомагати творцям – наприклад, генерувати 3D-об’єкти для віртуальних світів, змінювати відео чи писати рекламні тексти для бізнесу. Вони запустили інструмент під назвою Advantage+, який використовує ШІ для створення кількох версій реклами. Вони також інтегрували ШІ під назвою Chef у демо, який міг на льоту створювати різні фільтри для Instagram. Зараз це здебільшого покращення «за лаштунками», але згодом можуть стати інструментами для користувачів (щоб конкурувати з ШІ-фільтрами TikTok тощо).
  • Модерація та доброчесність: Meta має модерувати величезний потік контенту. Моделі ШІ тут критично важливі – для виявлення мови ворожнечі, ідентифікації дезінформації тощо. Meta й надалі вдосконалюватиме ці системи за допомогою кращого ШІ. Наприклад, після виходу GPT-4 з’явилося занепокоєння щодо спаму чи дипфейків, згенерованих ШІ, які можуть заполонити соцмережі; Meta покладатиметься на ШІ для виявлення ШІ-контенту (вони навіть розробили систему для виявлення дипфейків облич кілька років тому). У липні 2023 року Meta приєдналася до інших компаній, зобов’язавшись маркувати контент, створений ШІ, тож, ймовірно, вони створять інструменти для позначення та виявлення такого контенту на своїх платформах.
  • Корпоративний ШІ?: Meta менш орієнтована на корпоративний сегмент, ніж Microsoft чи Google, але цікаво, що, відкривши вихідний код LLaMA 2, вона опосередковано обслуговує підприємства, які хочуть розміщувати моделі самостійно. Вона уклала партнерство з Microsoft Azure, щоб запропонувати LLaMA 2 на хмарному маркетплейсі Azure, що фактично дозволяє корпоративним клієнтам використовувати модель Meta з підтримкою Microsoft. Це була своєрідна співпраця-конкуренція (Microsoft інвестувала в OpenAI, але також допомогла випустити відкриту модель Meta). Це свідчить про те, що стратегія Meta може полягати в тому, щоб широко поширювати свій ШІ і здобувати вплив, а не продавати його напряму. Їх може не турбувати, якщо інші компанії впроваджують моделі LLaMA, доки Meta залишається на передовій інновацій (і, можливо, як дехто припускає, вона зможе опосередковано монетизувати ШІ через більшу залученість чи нові рекламні формати, створені ШІ-контентом).

Конкурентна динаміка: Два основних конкуренти Meta у сфері споживчих соціальних мереж, TikTok (ByteDance) і Snapchat, також впровадили ШІ. Snapchat додав чат-бота “My AI” на основі GPT для користувачів (на базі OpenAI). TikTok активно використовує ШІ для своєї системи рекомендацій. Meta, ймовірно, відчуває тиск не лише утримувати користувачів за допомогою ШІ-функцій, а й гарантувати, що інші не контролюють ШІ-рівень на їхній платформі. Показово, що Meta не використала зовнішню модель для своїх чат-ботів – замість інтеграції GPT-4 у WhatsApp, вона створила власну LLaMA і наполягла на її використанні. Контроль і незалежність здаються ключовими.

Щодо “гонки ШІ”, позиція Meta унікальна. Вона не продає хмарні ШІ-сервіси і не має пошукової системи, яку треба переосмислювати; її основа – соціальні мережі та AR/VR. Тож можна сказати, що Meta не женеться за AGI заради самого AGI, а використовує його як засіб для збагачення своєї екосистеми (кращий користувацький досвід, нові можливості платформи). Однак агресивний набір співробітників Цукербергом для “лабораторії суперінтелекту” всередині Meta показує, що він дійсно хоче бути серед лідерів, які розширюють межі ШІ. Він не хоче, щоб Meta сприймали як наздоганяючу компанію. “Лише кілька компаній… мають знання для розробки [суперінтелекту], і Цукерберг хоче, щоб Meta була серед них,” повідомляє The NYT. Це підсумовує суть: Meta прагне місця за столом AGI.

Таким чином, Meta інвестує у фундаментальні дослідження ШІ, не пов’язані безпосередньо з Facebook/Instagram. Приклади: CICERO, ШІ, який може грати у гру Diplomacy (що включає переговори та природну мову) – Meta опублікувала наукову роботу про це у 2022 році. І вони продовжують публікувати нові підходи до ШІ (незважаючи на певні скорочення; на початку 2023 року Meta скоротила частину дослідників ШІ в рамках ширших звільнень, але основні зусилля у сфері ШІ залишилися сильними).

Дивлячись у майбутнє, Meta може знайти гібридну модель відкритості. Вони можуть і надалі відкрито випускати потужні моделі, щоб формувати спільноту та стандартизацію навколо своїх технологій (що підриває лідерство конкурентів із закритими рішеннями). Але для справді передових моделей вони можуть обрати вибіркову відкритість (наприклад, випускати ваги, але з певними обмеженнями, або відкривати трохи слабшу версію, а сильнішу залишати для внутрішнього використання на певний час). Це балансування: якщо Meta повністю закриє топову модель, вона може втратити здобуту довіру; якщо залишиться повністю відкритою – ризикує допомогти конкурентам і допустити неконтрольоване використання. Їхнє рішення може бути “відкрита інновація, контрольоване впровадження” – тобто ділитися науковими напрацюваннями, але впроваджувати справді потужні системи спочатку у власних продуктах Meta під контрольованими умовами.

Підсумовуючи, Meta у цьому наративі виступає за «Демократизацію ШІ» – просуваючи ідею, що ШІ не повинен бути замкнений у руках небагатьох. Це певною мірою відповідає і бізнес-інтересам Meta: відкритий екосистема ШІ полегшує Meta впроваджувати й адаптувати ШІ за потреби, а не залежати, скажімо, від цінової політики API OpenAI чи пропозицій Microsoft Azure. Це також гра на репутацію: бути «хорошим хлопцем», який відкрив моделі у відкритий доступ, принесло Meta незвичну хвилю позитивної преси у колах ШІ (на відміну від звичних критик на адресу Meta щодо приватності тощо). Як пожартував один користувач Reddit, «Я ніколи не був фанатом Facebook, але знімаю капелюха за те, що цього разу вони пішли проти течії». Така добра воля може допомогти залучити дослідників, які віддають перевагу відкритості.

Однак, із зростанням ставок (оскільки моделі наближаються до людського рівня у деяких сферах), Meta доведеться узгоджувати своє повідомлення про відкритість проти безпеки. Внутрішньо, як зазначено у коментарі на Medium, існує «парадокс Цукерберга-Лекуна»: Цук говорить про близький суперінтелект і обережність, Лекун применшує ризики й виступає за відкритий реліз. Це може бути й стратегічним «рольовим повідомленням» – Meta демонструє різні обличчя різним стейкхолдерам. Інвесторам Цук каже: «ми у гонці за суперінтелектом, витратимо стільки, скільки треба»; регуляторам/громадськості Лекун дає запевнення: «ми не створюємо монстра, не поспішайте з жорстким регулюванням; відкритість – безпечніше». Це балансування для впливу на сприйняття з усіх боків.

Зрештою, цілі та цінності Meta у сфері ШІ обертаються навколо масштабу (вони теж хочуть найбільші моделі), відкритості (у значній мірі), безпеки (визнають, але більше покладаються на відкриту перевірку та внутрішнє тестування, ніж на зовнішні обмеження), комерціалізації (опосередковано – через кращий користувацький досвід і рекламу, а не прямий продаж ШІ), і прийняття обґрунтованих ризиків (ставка на те, що відкрите новаторство випередить закриту розробку). Наступний рік-два покаже, чи зможе ця відкрита стратегія не відставати від трохи більш закритих підходів OpenAI та Google у питанні абсолютного передового краю.

Інші ключові гравці та перспективи

Хоча OpenAI, Anthropic, Google і Meta домінують у західних новинах про ШІ, інші важливі гравці також формують ландшафт:

  • Microsoft: Хоча компанія не розробляє власні базові моделі з нуля (замість цього інвестує в OpenAI), Microsoft є ключовим гравцем у цій екосистемі. Вона фактично має «ексклюзивні комерційні права» на найсучасніші технології OpenAI. Генеральний директор Microsoft Сатья Наделла назвав ШІ «новим виконуючим середовищем майбутнього», інтегруючи його у всі продукти Microsoft. Завдяки таким продуктам, як Bing Chat (який використовує GPT-4) та Microsoft 365 Copilot, Microsoft впроваджує AI-асистентів у пошук, веб-браузинг, програмування (GitHub Copilot X) та всі додатки Office. Візія Наделли — «копілот для кожної людини і кожного завдання». Microsoft також виступає за розумне регулювання — президент компанії Бред Сміт опублікував «Blueprint for AI Governance» у середині 2023 року, де рекомендує запровадити запобіжники для потужних моделей, прозорість для AI-контенту та ліцензування для високоризикового ШІ за аналогією з фармацевтикою чи авіацією. Така позиція узгоджується з OpenAI через їхнє партнерство. Перевага Microsoft — у дистрибуції: компанія може швидко впроваджувати ШІ для мільйонів корпоративних користувачів (наприклад, інтегруючи ChatGPT у Teams для підсумків зустрічей). Потенційний недолік — репутаційні ризики та відповідальність, тому Microsoft обережно позначала чат-бот Bing як «попередній перегляд» і додала обмеження після того, як перші користувачі спровокували його на дивні тиради. На відміну від Google, Microsoft готова ризикувати більше, щоб завоювати частку ринку (наприклад, використовуючи GPT-4 у Bing навіть із недоліками, щоб кинути виклик домінуванню Google у пошуку). Величезна хмарна інфраструктура Microsoft також гарантує OpenAI необхідні обчислювальні потужності (за повідомленнями, вони побудували суперкомп’ютер Azure з десятками тисяч GPU спеціально для навчання OpenAI). За цінностями Microsoft тяжіє до прагматизму: зробити ШІ корисним, але відповідально. У компанії є власний Office of Responsible AI та впроваджені внутрішні правила (хоча цікаво, що під час скорочень було звільнено команду з етики, що викликало питання щодо відданості цим принципам). Водночас публічно Microsoft виступає за етику ШІ, підтримуючи ініціативи справедливості та доступності.
  • Amazon: Спочатку Amazon вважалася такою, що відстає у галузі генеративного ШІ, але це змінилося, коли компанія використала як партнерства, так і власні НДДКР. У вересні 2023 року Amazon оголосила про величезну інвестицію в Anthropic, а також про розробку власних LLM-моделей “Amazon Titan” і платформи “Bedrock” для ШІ-сервісів. Bedrock дозволяє клієнтам AWS обирати серед різних базових моделей (включаючи Claude від Anthropic, моделі Stability AI та власні моделі Amazon) через API. Стратегія Amazon — бути нейтральним постачальником інфраструктури для ШІ — “приносьте свою модель або обирайте одну з наших.” Генеральний директор Енді Джессі чітко заявив, що “Генеративний ШІ перевинайде практично кожен клієнтський досвід… це технологія, яка трапляється раз у житті”, пояснюючи, що Amazon “інвестує досить масштабно” у всі підрозділи. Дійсно, Джессі підкреслив, що кожен куточок Amazon використовує ШІ: від “розумнішої Alexa”, яка може виконувати дії за вас, до AI-генерованих описів товарів для продавців і внутрішньої оптимізації логістики (запаси, робототехніка). Бачення Amazon дуже орієнтоване на клієнта та утилітарне: ШІ для полегшення покупок, підвищення ефективності складів, прискорення розробки коду (AWS має інструмент CodeWhisperer, подібний до GitHub Copilot). Це менше про високі розмови про AGI, і більше про “мільярди AI-агентів, які допомагають у повсякденних завданнях”. Водночас Amazon чітко розуміє необхідність залишатися конкурентоспроможною у ключових технологіях ШІ — саме тому вона отримала частку в Anthropic (щоб не залежати лише від екосистеми OpenAI/Microsoft). Щодо відкритості, Amazon не відкриває вихідний код своїх основних моделей, але підтримує open-source спільноту, пропонуючи інструменти (наприклад, партнерство з Hugging Face для запуску моделей на AWS). У питаннях регулювання Amazon не була такою активною в політичних дебатах, але можна припустити, що компанія віддає перевагу гнучкому регулюванню, яке не заважає інноваціям у хмарі. Вона виконуватиме такі вимоги, як водяні знаки для моделей, у рамках зобов’язань перед Білим домом. Особливий акцент Amazon — це ШІ + апаратне забезпечення: компанія розробляє чипи (AWS Trainium та Inferentia), щоб знизити вартість навчання та інференсу на AWS. Це і бізнес-крок (дешевший ШІ для клієнтів, залучення їх замість GPU Nvidia), і потенційно крок до стійкості у разі дефіциту GPU.
  • xAI Ілона Маска: Маск, який був співзасновником OpenAI, а потім залишив компанію у 2018 році, знову увійшов у гонку зі своєю новою компанією xAI у 2023 році. Маск заявив, що заснував xAI, щоб створити “TruthGPT” або максимально “прагнучий до істини” ШІ, який “розуміє справжню природу всесвіту”. Такий підхід звучить дещо грандіозно (розв’язання таємниць космосу), але також є натяком на сприйняті упередження в ChatGPT від OpenAI. Маск стурбований тим, що основні моделі надто цензуровані або політично упереджені. Він також неодноразово попереджав про екзистенційну загрозу від ШІ, закликаючи до уповільнення розвитку – але за відсутності цього вирішив створити власний, імовірно більш “надійний” ШІ. Команда xAI невелика, але складається з талановитих випускників DeepMind, OpenAI тощо. За повідомленнями, вони навчають модель на даних Twitter (тепер X), а також інших джерелах. Маск має перевагу в даних завдяки Twitter (якщо він використає повний потік контенту соцмережі). Його бачення “пошуку істини” ймовірно означає ШІ, який не буде підпорядковуватися таким фільтрам контенту, як у OpenAI, і може бути більш прозорим у своїх міркуваннях. Але подробиць мало; xAI ще не випустила модель. Маск натякав, що xAI співпрацюватиме з Tesla (для реального ШІ) та X/Twitter (як обчислювальна база знань). Одна з проблем: компанії Маска часто об’єднуються – чи можуть зійтися зусилля Tesla зі створення автопілоту та xAI зі створення загального ШІ? Можливо, адже автономне водіння також потребує передового ШІ. Терміни Маска незрозумілі, але з огляду на його досвід, xAI може або зійти нанівець, або раптово представити велику модель, що здивує індустрію. Філософськи Маск балансує між бажанням “максимальної істини/цікавості” від ШІ та страхом, що ШІ може вийти з-під контролю. Він виступав за регулювання (на кшталт агентства “арбітра ШІ”), але тепер також створює те, що сподівається буде контрольованим AGI, здатним конкурувати з іншими. У ширшій дискусії участь Маска гарантує, що аспект культурної війни (ШІ та політична упередженість) залишиться актуальним – він може просувати xAI як “неупереджений ШІ”, що може привабити певний сегмент користувачів.
  • Stability AI та Open-Source Collective: Stability AI (розробник моделі зображень Stable Diffusion) стала лідером у сфері відкритого генеративного ШІ. CEO Емад Мостаки пропагує ідею, що відкриті моделі сприяють інноваціям і зменшують залежність від великих технологічних компаній. Stability допомагала фінансувати проєкти відкритих текстових моделей (наприклад, спонсорувала групу EleutherAI, яка створила GPT-J та інші). Вони випустили StableLM (мовну модель) і відкрито працюють над моделями генерації музики та відео. Хоча ресурси Stability значно менші, ніж у Google чи OpenAI, їхній вплив на сферу зображень ШІ є значним (випуск Stable Diffusion призвів до вибуху креативних інструментів, а також до суперечок щодо дипфейків, авторських прав тощо). Підхід Мостаки — випускати моделі з мінімальними обмеженнями й дозволяти спільноті експериментувати, вірячи, що користь переважає шкоду. Він часто стверджує, що «неможливо заборонити open-source – він все одно знайде шлях у світ». Ця напруга є ключовою: витік відкритих моделей обходить будь-які національні регуляції (як це було з LLaMA від Meta). Stability та подібні групи (як EleutherAI, LAION у Німеччині) працюють над наступним поколінням відкритих моделей, які можуть зрівнятися з закритими за якістю, хоча й із певним відставанням через менші обчислювальні ресурси. Наприклад, проєкт RedPajama відтворив високоякісний навчальний датасет (реплікуючи LLaMA), а Mistral AI, новий стартап від колишніх інженерів Meta, щойно випустив відкриту модель на 7B, яка перевершує LLaMA 2 13B — це свідчить про швидкий прогрес у відкритому таборі. Ці відкриті ініціативи відображають цінність прозорості та свободи, іноді у прямій опозиції до закликів до суворого контролю ШІ. Деякі науковці підтримують це, стверджуючи, що відкриті моделі дозволяють незалежно досліджувати безпеку ШІ (чорну скриньку GPT-4 вивчати набагато складніше). У суспільних дебатах ця фракція каже: «ШІ — це як інформація: він прагне бути вільним», і спроби його стримати — марні та контрпродуктивні.
  • Глобальні та урядові ініціативи: Варто зазначити, що китайські технологічні гіганти (Baidu, Alibaba, Tencent, Huawei) вже запустили великі моделі (наприклад, Ernie Bot від Baidu, моделі Tongyi від Alibaba тощо), які добре працюють із завданнями китайською мовою та інтегруються у китайські додатки. Тим часом уряд Китаю запровадив регулювання (чинне з серпня 2023 року), яке вимагає від сервісів генеративного ШІ реєструватися у держави та гарантувати, що контент відповідає соціалістичним цінностям і не «підриває державну владу» чи не порушує економічний порядок. Для суто науково-дослідного використання зроблено виняток. Це означає, що будь-яка публічна модель ШІ в Китаї цензурується за замовчуванням — наприклад, якщо запитати китайський чат-бот про Тяньаньмень, ви отримаєте вибачення або ухильну відповідь. Такі компанії, як Baidu, підкреслюють свою відповідність державним директивам як перевагу. Це контрастує з американськими компаніями, які, хоча й модерують контент, не мають урядової ідеології (окрім загальних заборон, наприклад, на кримінальні поради тощо). Східно-західна конкуренція у сфері ШІ є інтенсивною, але дещо паралельною: китайські компанії зосереджуються на своєму ринку (через мовний і регуляторний бар’єр), а західні — на глобальному (окрім Китаю). Деякі експерти хвилюються, що якщо Китай першим досягне AGI і не поділиться цим, це може змінити геополітичний баланс; натомість китайське керівництво турбується про домінування США (тому й вкладає величезні державні інвестиції у ШІ). Така динаміка стимулює «гонку» на міжнародному рівні.
  • Тим часом, ЄС фіналізує Акт про ШІ, який може класифікувати системи ШІ за рівнем ризику та запроваджувати вимоги (наприклад, прозорість щодо контенту, створеного ШІ, аудити для систем високого ризику, можливо навіть вимогу розкривати навчальні дані для базових моделей). Великі компанії лобіюють цей процес – Альтман з OpenAI спочатку заявив, що GPT-4 може бути відкликаний з ЄС, якщо правила будуть надто суворими; пізніше він відмовився від цієї заяви. Загалом, індустрія віддає перевагу саморегулюванню + цільовим законам (наприклад, карати за зловживання, а не забороняти розробку моделей). Європа робить акцент на приватності, безпеці, а також, можливо, на компенсації творцям за дані, використані для навчання (складне питання – Getty Images подала до суду на Stability AI за навчання на захищених авторським правом зображеннях без дозволу). Тож регуляторні цінності індивідуальних прав проти інновацій намагаються збалансувати. Якщо закон ЄС буде прийнятий із жорсткими положеннями, великі компанії зі ШІ будуть змушені адаптуватися (або обмежити певні функції для окремих регіонів).
  • Академіки та некомерційні організації: Не варто забувати, що багато людей поза корпоративним сектором також беруть участь у діалозі. Відомі фахівці з ШІ Йошуа Бенджіо та Джеффрі Хінтон (який залишив Google у 2023 році, щоб вільно говорити про ризики ШІ) висловили занепокоєння щодо неконтрольованого розвитку ШІ. Хінтон сказав, що «Можливо, вже незабаром ШІ перевершить людський інтелект, і ми не зможемо його контролювати», і закликав до досліджень, як утримати ШІ під контролем en.wikipedia.org. З іншого боку, дослідники на кшталт Ендрю Нга (колишній керівник Google Brain) стверджують, що «страх перед вбивчим ШІ перебільшений; справжня увага має бути до упередженості, втрати робочих місць». Організації на кшталт Центру безпеки ШІ (CAIS) та Інституту майбутнього життя активно проводять кампанії з підвищення обізнаності про ризики ШІ – останній організував відомий «лист із закликом до паузи» у березні 2023 року, закликаючи до 6-місячної зупинки навчання моделей, потужніших за GPT-4, який підписали Маск, Возняк з Apple та інші. Жодна з великих лабораторій не призупинила свою роботу, але лист, безумовно, викликав дискусію pbs.org. Це підкреслило розкол: дехто вважає, що мораторій або глобальне обмеження можуть бути потрібні, тоді як компанії здебільшого не погоджуються, віддаючи перевагу самостійному формуванню безпечного розвитку.
  • Реакція суспільства: Широка громадськість одночасно і захоплена, і стурбована. З одного боку, інструментами на кшталт ChatGPT користуються мільйони ентузіастів (студенти, програмісти, професіонали), які дійсно знаходять їх корисними – продуктивність зростає, деякі завдання виконуються легше. З іншого боку, існує страх перед хвилями фейкових новин, шахрайством із deepfake, або просто втратою роботи через автоматизацію. Опитування може показати, що люди раді мати ШІ-репетиторів для своїх дітей, але хвилюються за майбутні кар’єрні перспективи дитини, якщо ШІ стане надто потужним. Це змусило політиків звернути увагу. У США Конгрес проводив слухання (з Альтманом тощо), а адміністрація Байдена запросила керівників компаній ШІ для отримання добровільних зобов’язань. Велика Британія проводить Глобальний саміт з безпеки ШІ наприкінці 2025 року, намагаючись стати лідером у сфері управління ШІ. Все це свідчить про те, що уряди починають долучатися, хоча й відстають від технологій.

Суспільні дебати навколо безпеки, контролю та прозорості ШІ протиставляють одне одному цілком обґрунтовані занепокоєння:

  • Безпека vs Інновації: Чи варто нам сповільнити розвиток, щоб оцінити й впровадити запобіжники (аби уникнути потенційної катастрофи чи суспільного хаосу), чи все ж рухатися вперед, щоб отримати вигоди й не дати суперникам (або зловмисникам) випередити нас? OpenAI та інші пропонують сповільнити темпи на дуже високих рівнях можливостей, але не зараз – вони стверджують, що поточні моделі не становлять загрози зникнення людства, а більше використання веде до кращого розуміння, як зробити їх безпечними. Критики побоюються, що коли вони стануть очевидною загрозою, може бути вже запізно натиснути на гальма (класичний сценарій «ШІ може швидко вдосконалити себе й вийти з-під контролю»). Ця динаміка схожа на ядерні технології – чи розробляти бомбу раніше за ворога, щоб мати перевагу, чи намагатися домовитися про заборону? Зараз це гонка озброєнь, де вже починаються деякі переговори про контроль над озброєннями, але ніхто не зупиняється.
  • Відкритість vs Безпека: Як вже широко обговорювалося, чи мають моделі ШІ бути відкритими (open-source) для прозорості й рівного доступу, чи закритими, щоб запобігти зловживанням і забезпечити контрольоване впровадження? Ми бачимо, що компанії обирають різні підходи, і навіть всередині компаній є нюанси (OpenAI відкрила вихідний код менших моделей, як-от Whisper для розпізнавання мови, але не GPT-4). Можливий компроміс – «відкрита наука, закритий продукт» – ділитися знаннями, але не вагами моделей. Проте прихильники відкритого коду вважають, що цього недостатньо; вони хочуть мати самі моделі, щоб суспільство не залежало від кількох корпорацій у питаннях ШІ. Від цього вибору значною мірою залежить, хто зможе впроваджувати інновації: якщо майбутні топ-моделі будуть закритими, лише великі компанії та уряди з ресурсами зможуть рухати прогрес. Якщо ж відкриті моделі розвиватимуться, тоді навіть університетська лабораторія чи стартап зможуть зробити вагомий внесок, що демократизує прогрес.
  • Комерційний тиск vs Етичне використання: Компаніям потрібно монетизувати ШІ, щоб виправдати інвестиції. Це означає широке впровадження – що підвищує ризик зловживань чи небажаних наслідків. Наприклад, випуск ШІ, здатного генерувати дуже людоподібний текст, може дозволити спамерам чи пропагандистам створювати фейкові армії у соцмережах. Компанії намагаються створювати фільтри (наприклад, OpenAI навчила GPT-4 відмовляти у виконанні політичних запитів). Але гра в «кішки-мишки» з джейлбрейком і зловживаннями триває. Тому точиться дискусія: чи варто стримувати певні можливості? Наприклад, OpenAI спочатку не випускала компонент опису зображень у GPT-4 для широкого загалу через потенційні зловживання (наприклад, ідентифікація людей на фото). Дехто вважає, що нам, можливо, доведеться стримувати або обмежувати надзвичайно небезпечні можливості (наприклад, моделі для біодосліджень, які можуть знаходити рецепти токсинів). Але де провести межу і хто має вирішувати? Тут може втрутитися державна політика, визначаючи «дозволені та заборонені» застосування.
  • Прозорість: Лунають заклики до “прозорості ШІ” – тобто компанії мають розкривати, коли контент створено ШІ (водяні знаки), моделі мають пояснювати свої рішення (інтерпретований ШІ), а можливо, і джерела навчальних даних мають бути публічними. З точки зору суспільства, прозорість сприяє підзвітності (наприклад, якщо ШІ використав піратські дані, чи маємо ми про це знати? Якщо він рекомендує відмовити у кредиті, має пояснити чому). Великі лабораторії працюють над методами водяних знаків для результатів моделей (OpenAI має деякі прототипи) і над інструментами пояснюваності. Але до справді інтерпретованих глибоких мереж ще далеко. Новою концепцією є “картки моделей” та “аркуші датасетів” – документація про призначення моделі, її обмеження та склад навчальних даних. Google, OpenAI, Meta публікують щось подібне для своїх моделей. Проте це не завжди задовольняє критиків, які хочуть більше сирої інформації (наприклад, художники хочуть знати, чи були їхні роботи у навчальному наборі). В Європі AI Act може змусити розкривати більше про навчальні дані – чому компанії опираються, адже це може розкрити комерційні таємниці або порушити закони про приватність, якщо дані містять особисту інформацію.
  • Витіснення робочих місць та економічний вплив: Окрім екзистенційних питань, нагальною соціальною проблемою є автоматизація. Моделі на кшталт GPT-4 вже можуть писати код, складати юридичні контракти, створювати маркетингові тексти – завдання, які виконували кваліфіковані працівники. Триває дискусія: чи ШІ підсилить людську працю (зробить її продуктивнішою і створить нові робочі місця), чи замінить багато офісних професій (призведе до безробіття або потреби масового перенавчання)? Технічні директори зазвичай оптимістично заявляють, що ШІ звільнить людей від рутини, щоб вони могли зосередитися на складніших завданнях. Сем Альтман навіть припустив, що урядам, можливо, доведеться розглянути UBI (універсальний базовий дохід) в економіці, де домінує ШІ, але “ми ще не близько до цього”. Водночас CEO IBM у середині 2023 року заявив, що вони призупинять найм на певні бек-офісні посади, бо ШІ може їх виконувати, і до 30% таких робіт можуть бути автоматизовані за 5 років. Такі суперечливі сигнали викликають занепокоєння щодо економічних потрясінь. Це тисне на політиків, змушуючи вирішувати питання перенавчання і, можливо, перерозподілу багатства, створеного ШІ. Компанії певною мірою це усвідомлюють: Microsoft і Google мають фонди для освіти у сфері ШІ та ініціативи “ШІ на благо”, намагаючись демонструвати відповідальність.

Загалом, у нас яскрава, багатогранна екосистема ШІ у 2025 році: співпраця, але й конкуренція, спільні цілі інновацій та створення багатства, але різні філософії щодо шляхів досягнення і подолання ризиків.

Гіганти ШІ – OpenAI, Anthropic, Google DeepMind, Meta, Microsoft, Amazon – всі поділяють переконання, що дедалі розумніший ШІ буде трансформативним, “як нова індустріальна революція”. Вони одностайно говорять про позитив: лікування хвороб, зростання продуктивності, персоналізація освіти, допомога у дослідженнях клімату – тобто використання ШІ як інструменту для посилення людських можливостей. Всі також визнають, принаймні на словах, що існують серйозні ризики: від негайних проблем на кшталт упередженості чи зловживань до довгострокових екзистенційних питань. Там, де вони відрізняються, – це у стратегії (відкритість проти закритості, швидкість проти обережності) і у пріоритетах певних цінностей (наприклад, Meta – відкритість, Anthropic – безпека тощо).

Жодна компанія чи країна не може самостійно визначати траєкторію розвитку ШІ; це глобальне та суспільне завдання. Відтак, ми спостерігаємо дедалі більше закликів до співпраці у сфері безпеки – навіть OpenAI та Meta, попри розбіжності, обидві підтримали ідею певних стандартів безпеки. Frontier Model Forum (OpenAI, Anthropic, Google, Microsoft) — одна з таких спроб саморегулювання індустрії.

Висновок: Зближення та розбіжності на шляху до AGI

Перегони зі створення дедалі загальнішого та потужнішого ШІ вже тривають, але це не проста гра з нульовою сумою — це радше марафон, у якому багато бігунів час від часу обмінюються нотатками про маршрут. OpenAI, Anthropic, Google DeepMind, Meta, Microsoft, Amazon та інші кожен привносить унікальні філософії та сильні сторони:

  • OpenAI — це сміливий першопроходець, який розширює межі масштабів і можливостей, водночас виступаючи за ретельний нагляд і співпрацюючи з великим технологічним патроном для поширення своїх розробок. Вона втілює дуальність амбіцій і тривоги щодо AGI: швидко розробляє передові моделі, але водночас попереджає світ про їхню небезпеку та закликає до врегулювання. Робота OpenAI дала потужний поштовх прогресу й змусила навіть гігантів на кшталт Google реагувати, показавши, як сфокусований стартап (хоча й тепер добре фінансований) може змінити правила гри.
  • Anthropic — це наче сумлінний брат чи сестра — не менш вправний у сфері ШІ, але налаштований “робити все правильно”. Його етика полягає в тому, що безпека — це передумова, а не другорядне питання. Внесок Anthropic у сферу узгодження (наприклад, Constitutional AI) впливає на всю галузь; навіть OpenAI впровадила більше людського зворотного зв’язку та певні правила для GPT-4, що можна розглядати як конвергентну еволюцію з підходом Anthropic. Anthropic також демонструє, що цінності можуть приваблювати інвестиції — компанії та інвестори, які хвилюються через домінування однієї фірми чи ризики ШІ, бачать в Anthropic противагу й вкладають у неї значні кошти. У довгостроковій перспективі спадщина Anthropic може полягати не лише в самих моделях, а й у тому, як відповідально їх навчати.
  • Google DeepMind — це потужний осередок дослідницької досконалості та ресурсів. Маючи десятиліття колективних досліджень, це скарбниця знань про ШІ, яка тепер спрямовується на створення реальних продуктів. Прагматичний, але науковий підхід Google може призвести до появи першого справді мультимодального AGI (Gemini). Якщо це станеться, викликом для Google стане впровадження його так, щоб це підсилювало основні продукти компанії, не спричиняючи небажаних наслідків (наприклад, втрати довіри до надійних сервісів Google). Інтеграція DeepMind у Google також підкреслює тенденцію цієї гонки: консолідацію. Великі гравці поглинають таланти та менші лабораторії (ми бачили, як Google поглинув незалежність DeepMind; Facebook купував стартапи на кшталт Scape для ШІ; Microsoft фактично контрактує результати OpenAI). Це породжує питання — чи буде AGI досягнуто зусиллями кількох сконцентрованих гравців, чи більш децентралізованою спільнотою? Наразі концентрація перемагає через потребу в обчислювальних ресурсах, але відкриті проєкти вже наступають їм на п’яти.
  • Meta позиціонує себе як захисник відкритості та широкого доступу, що може призвести до того, що ШІ стане всюдисущим швидше й рівномірніше – або ж, як побоюються критики, це може означати, що потужний ШІ поширюватиметься без достатніх запобіжників. Ставка Meta полягає в тому, що переваги інновацій і перевірки з боку спільноти переважать недоліки. Цікаво, що останніми місяцями ми бачимо натяки на зближення: OpenAI говорить про відкритий код для менших моделей; Meta визнає, що не все може бути повністю відкритим. Можливо, майбутнє – це поєднання: фундаментальні дослідження й, можливо, моделі попередніх поколінь відкриті, а найсучасніші впровадження захищені, доки їх не визнають безпечними.
  • Microsoft та Amazon демонструють, що комерціалізація та застосування ШІ є такими ж важливими, як і створення моделей. Їхня інтеграція ШІ у хмарні платформи та повсякденне програмне забезпечення – це шлях, яким переваги ШІ насправді дійдуть до людей та індустрій. Вони також підкреслюють часто недооцінювану цінність: надійність і підтримка. Підприємства оберуть трохи менш «креативний» ШІ, який є надійним, безпечним і має підтримку, замість потужнішого, але непередбачуваного. Тому корпоративні сервіси ШІ від Microsoft та AWS із запобіжниками та відповідністю вимогам формують впровадження ШІ у бізнесі. Наприклад, банк чи лікарня можуть обрати Azure OpenAI Service з GPT-4 із функціями журналювання та приватності, а не відкриту модель з інтернету, навіть якщо вона має подібні навички.
  • Інші (xAI Маска, Stability тощо) забезпечують, що альтернативні філософії залишаються у грі – чи то прагнення до «правди» понад політкоректність, чи відкритий код як принцип. Вони виступають як противага і доповнення великим гравцям. Якщо великі лабораторії стануть надто обережними чи монополістичними, ці менші або більш ідеологічні гравці можуть здійснити прорив, відкрито випустивши щось революційне (наприклад, якщо хтось завтра відкриє модель рівня GPT-4, це кардинально змінить ландшафт).

У майбутньому можна очікувати деякі спільні тенденції:

  1. Мультимодальність і використання інструментів: Усі компанії працюють над ШІ, який не просто спілкується у вакуумі, а може бачити, чути, діяти й взаємодіяти з програмами. Google інтегрує пошук і візуальні можливості, OpenAI надала GPT-4 зір і планує плагіни, Meta має генерацію зображень/відео. Межі між чат-ботом, персональним асистентом і кваліфікованим програмним агентом розмиватимуться.
  2. Масштабування та ефективність: Кордон буде й далі рухатися – можливо, до моделей із трильйоном параметрів або нових архітектур, які долають нинішні обмеження масштабування (наприклад, MoE чи нейроморфні чипи). Але водночас робиться акцент на тому, щоб моделі працювали дешево й локально. LLaMA від Meta показала, що модель на 13B може багато чого; тепер люди запускають доопрацьовані 7B моделі на смартфонах. Ця демократизація через ефективність триватиме, забезпечуючи, що не лише хмарні гіганти володіють потужностями ШІ.
  3. Безпека та дослідження узгодженості: Очікуйте збільшення фінансування та притоку талантів у дослідження узгодженості (деякі провідні науковці зі сфери ШІ вже переходять у цю галузь). Команди з суперузгодженості OpenAI, команда з узгодженості DeepMind, основна місія Anthropic – усі вони розроблятимуть нові методики (можливо, використовуючи ШІ для допомоги в узгодженні ШІ, наприклад, автоматизовані аудити чи навчання ШІ людським цінностям з мінімальними упередженнями). Вони також можуть визначити еталонні критерії оцінки для небезпечних можливостей. Уже зараз розробляються “тестові пакети з безпеки ШІ” (наприклад, для перевірки, чи може модель самовідтворюватися або обходити власні обмеження). Узгоджена оцінка може використовуватися подібно до краш-тесту для автомобілів – незалежне агентство одного дня може сертифікувати модель як безпечну для публічного використання, якщо вона пройде певні тести.
  4. Політика та саморегулювання: У найближчій перспективі роль відіграватиме добровільне саморегулювання (наприклад, Frontier Model Forum та зобов’язання перед Білим домом). У середньостроковій перспективі, ймовірно, почнуть діяти формальні регулювання в ЄС (а можливо, і у Великій Британії тощо), і компанії адаптуватимуться глобально. Не буде дивно, якщо до 2026 року з’явиться щось на кшталт міжнародної серії конференцій з безпеки ШІ і, можливо, зародки глобального наглядового органу (Генеральний секретар ООН вже закликав до цього). Компанії публічно підтримують такий підхід – Альтман, Хассабіс та інші зустрічалися у Вашингтоні та Європі для обговорення цих рамок. Ключовим буде забезпечити, щоб регулювання було гнучким – не “заморожувало” ШІ на рівні технологій 2025 року, а створювало механізми для управління ризиками у міру розвитку ШІ.
  5. Адаптація суспільства: Суспільство загалом почне пристосовуватися до всюдисущості ШІ. Наприклад, освітні системи стикаються з тим, що учні використовують ChatGPT для виконання домашніх завдань. Деякі школи заборонили це, інші інтегрують у навчальні програми. Ринок праці змінюється – з’явилися професії з промпт-інжинірингу та нагляду за ШІ, а працівники різних сфер навчаються співпрацювати із ШІ (сприймаючи його як колегу чи помічника). Ймовірно, зростатиме попит на грамотність у сфері ШІ серед широкої публіки, а також, можливо, сертифікація для професіоналів, які використовують ШІ у відповідальних сферах (наприклад, лікарі, що застосовують ШІ-діагностику). Компанії можуть допомогти, надаючи освітні ресурси чи рекомендації щодо використання ШІ (OpenAI вже має такі, Microsoft опублікувала “The Responsible AI Standard” для розробників).

Підсумовуючи, прагнення створити AGI або щось близьке до нього вже не є маргінальною фантастикою, а стало центральною амбіцією найбільших технологічних компаній світу. Кожна намагається закласти у це майбутнє свої цінності: OpenAI – цінність широкої користі та обережності, Anthropic – цінність безпеки та етики, Google – цінність інновацій з відповідальністю, Meta – цінність відкритості та співпраці, Microsoft/Amazon – цінність практичної користі та доступності. Їхні стратегії іноді суперечать одна одній, але цікаво, що їхні кінцеві цілі не є взаємовиключними – зрештою, усі хотіли б бачити ШІ, який є надзвичайно потужним і безпечним і широко корисним (і, звісно, вигідним для їхнього бізнесу).

Ми цілком можемо побачити зближення у певних найкращих практиках (наприклад, консенсус щодо недопущення підключення AGI до інтернету без обмежень або щодо обміну певними дослідженнями з безпеки, навіть якщо моделі залишаються закритими). Водночас залишатиметься розбіжність у стилі та філософії – і це корисно, адже забезпечує своєрідну диверсифікацію підходів (монокультура у сфері ШІ може бути ризикованою, якщо цей єдиний підхід має фатальний недолік).

Оскільки ці компанії створюють потужніший ШІ, діалог між ними та суспільством буде посилюватися. Буде шукатися рівновага, за якої величезний потенціал ШІ використовується, мінімізуючи його шкоду. Це трохи схоже на приборкання вогню – надто корисний, щоб його загасити, надто небезпечний, щоб залишити без контролю. І, як і з вогнем, різні культури спочатку ставилися до нього по-різному, але зрештою з’явилися стандарти (як пожежні кодекси) та спільна мудрість.

Зараз ми є свідками визначного моменту в історії технологій. Через десятиліття люди можуть озиратися на 2023-2025 роки як на переломний момент, коли ШІ перейшов від лабораторної обіцянки до повсюдної реальності, і коли ми заклали основу (або спіткнулися, залежно від результатів) для того, як справді розумні машини співіснуватимуть з людством. Цінності та рішення сучасних компаній ШІ – відкритість Meta, пріоритет безпеки в Anthropic, швидке масштабування OpenAI, ґрунтовність DeepMind тощо – суттєво вплинуть на цю траєкторію.

Станом на вересень 2025 року, путівник «що будують компанії ШІ» виглядає як перелік сучасних техногігантів і їхніх філософій. Вони будують не просто алгоритми – по суті, вони намагаються створити нову форму інтелекту. Кожен намагається забезпечити, щоб цей інтелект, коли він з’явиться, відображав їхнє бачення того, яким він має бути. І, як ми побачили, ці бачення, хоча й мають багато спільних сподівань, також відрізняються цікавими й важливими деталями.

(Ця відповідь базується на інформації з джерел, включаючи The New York Times, Wired, MIT Technology Review, Bloomberg, офіційні блоги компаній та інші експертні коментарі станом на 2025 рік. З огляду на швидкий розвиток ШІ, деякі деталі можуть змінитися, але порівняльні стратегії та філософії, викладені тут, дають уявлення про стан провідних гравців індустрії ШІ та дискусії навколо них.)

Джерела:

  • New York Times – “What Exactly Are A.I. Companies Trying to Build? Here’s a Guide.” (2025) startupnews.fyi
  • New York Times – “In Pursuit of Godlike Technology, Mark Zuckerberg Amps Up the A.I. Race” (June 2025)
  • TechRepublic – “Meta’s Tumultuous AI Era May Leave Llama Behind…” (June 2025)
  • Time – “Demis Hassabis on AI in the Military and What AGI Could Mean for Humanity” (2025)
  • OpenAI – “Planning for AGI and Beyond” (OpenAI blog, 2023)
  • OpenAI – “Governance of Superintelligence” (OpenAI blog, 2023)
  • Center for AI Safety – “Statement on AI Risk” (2023) safe.ai
  • Medium – “The Zuckerberg-LeCun AI Paradox” (Aug 2025)
  • Andy Jassy (CEO Amazon) – “Message…: Деякі думки про генеративний ШІ” (червень 2025)
  • Інтерв’ю з Енді Джессі – (Aboutamazon.com, 2023)
  • Коментарі Reddit щодо відкритого коду ШІ від Meta (2023)
  • TechCrunch – “Ілон Маск запускає xAI… ‘зрозуміти справжню природу Всесвіту’” (2023)
  • Wired – “Втрата контролю над ШІ є ризиком вимирання, попереджають експерти” (2023) wired.com (загальний контекст)
  • Bloomberg – різні матеріали про війну за таланти у сфері ШІ та інвестиції.
Artificial General Intelligence (AGI) Simply Explained
Battle of the Adventure Smartwatches: Apple Watch Ultra 3 vs. Garmin Fenix 8 Pro – Which Reigns Supreme?
Previous Story

Порівняння смартгодинників 2025: Apple Watch Ultra 3 vs. Garmin Fenix 8 Pro vs. Samsung Galaxy Watch Ultra

Go toTop