LIM Center, Aleje Jerozolimskie 65/79, 00-697 Warsaw, Poland
+48 (22) 364 58 00

AI-вихідні: глобальні прориви, великі ставки техгігантів та сміливі кроки (19–20 липня 2025 року)

AI-вихідні: глобальні прориви, великі ставки техгігантів та сміливі кроки (19–20 липня 2025 року)

AI Weekend Shockwave: Global Breakthroughs, Big Tech Bets & Bold Moves (July 19–20, 2025)

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

Держава та регулювання

ЄС впроваджує Закон про штучний інтелект: Брюссель підштовхнув регуляторні межі, зробивши конкретні кроки щодо реалізації свого знакового Закону про ШІ. 18 липня Європейська комісія оприлюднила детальні інструкції для “ШІ-моделей із системними ризиками” – тобто найбільш потужних універсальних ШІ-систем, які можуть впливати на громадську безпеку або основні права людини ts2.tech. Інструкції роз’яснюють жорсткі нові вимоги, із якими зіткнуться ці постачальники ШІ після набуття чинності Законом про ШІ 2 серпня. Згідно з правилами, великі розробники штучного інтелекту (Google, OpenAI, Meta, Anthropic, французька Mistral та інші) повинні проводити суворі оцінки ризиків, випробування з протидією вразливостям (adversarial testing) та повідомляти про серйозні інциденти чи збої регуляторам ЄС ts2.tech. Вони також повинні впроваджувати надійний кіберзахист, щоб запобігти зловмисному використанню своїх моделей ts2.tech. Прозорість – ключове: розробники базових моделей повинні документувати джерела навчальних даних, дотримуватися авторських прав і публікувати короткі звіти про зміст датасетів, використаних для навчання кожного ШІ ts2.tech. “Завдяки сьогоднішнім інструкціям Комісія сприяє плавному та ефективному застосуванню Закону про ШІ”, — сказала головна технологічна чиновниця ЄС Генна Вірккунен, підкресливши, що регулятори хочуть забезпечити чіткість для бізнесу, стримуючи потенційні ризики ts2.tech. У компаній є пільговий період до серпня 2026 року для повного виконання вимог ts2.tech. Після цього порушення можуть обійтися у величезні штрафи – до €35 млн або 7% світового обороту (що більше) ts2.tech. Нові інструкції з’явилися на тлі невдоволення окремих технологічних компаній тим, що європейські правила можуть бути надто обтяжливими, проте чиновники ЄС налаштовані довести, що вони можуть бути “глобальними наглядачами ШІ”, не душачи інновації.

Добровільний кодекс спричиняє суперечки: У тіні обов’язкового AI Act запропонований регуляторами ЄС добровільний «Кодекс практики ШІ» викликав трансатлантичну дискусію. Кодекс, розроблений експертами для заохочення раннього впровадження деяких принципів AI Act, закликає компанії, що займаються ШІ, проактивно дотримуватись певних заходів прозорості та безпеки вже зараз, до набуття чинності закону. Цього тижня серед американських технологічних гігантів виник розкол: Microsoft натякнула, що, ймовірно, приєднається, президент Бред Сміт заявив: «Я думаю, що ми, ймовірно, підпишемося… Наша мета — підтримувати» та привітав тісну співпрацю з AI-офісом ЄС reuters.com. У різкому контрасті Meta Platforms категорично відкинула цей добровільний кодекс. «Meta не підписуватиме його. Цей кодекс створює низку юридичних невизначеностей для розробників моделей, а також запроваджує заходи, що значно виходять за межі AI Act», — написав керівник з глобальних питань Meta Джоел Каплан 18 липня reuters.com. На його думку, рекомендації ЄС є надмірним регулюванням, яке може «загальмувати розвиток і впровадження передових моделей ШІ в Європі» і «поставити під загрозу європейські компанії», що працюють у сфері ШІ reuters.com. Позиція Meta збігається зі скаргами коаліції з 45 європейських технологічних компаній, що проєкт кодексу є надто обмежувальним. З іншого боку, OpenAI (розробник ChatGPT) та французька Mistral AI вже підписали кодекс, сигналізуючи, що деякі провідні гравці готові пристати на більшу прозорість і перевірки дотримання авторських прав у Європі ts2.tech. Такий розкол підкреслює зростання напруги: американські гіганти прагнуть уникати прецедентів, які могли б стати для них обов’язковими в усьому світі, тоді як європейські регулятори (і деякі стартапи) вже зараз вимагають більш високих стандартів. Те, як буде впроваджений цей добровільний кодекс, може вплинути на фактичні правила ШІ у всьому світі ще до вступу обов’язкового закону ЄС у дію.

США роблять ставку на інновації, а не на регулювання: У Вашингтоні підхід до ШІ залишається більш стимулювальним, ніж обмежувальним – принаймні наразі. Цього тижня Білий дім зібрав керівників технокомпаній, дослідників та законодавців на Саміт з технологій та інновацій, який приніс близько 90 мільярдів доларів нових галузевих зобов’язань щодо проєктів зі штучного інтелекту та виробництва напівпровідників у США ts2.tech. Десятки компаній — від Google до Intel і Blackstone — пообіцяли інвестувати мільярди у передові дата-центри, вітчизняні фабрики чипів та дослідницькі центри ШІ по всій Америці, укріплюючи технічну інфраструктуру у партнерстві з федеральними ініціативами ts2.tech. Послання від американських лідерів: замість того, щоб негайно встановлювати загальні закони щодо ШІ, вони підливають пального у вогонь інновацій, щоб зберегти перевагу над глобальними конкурентами, водночас аналізуючи вплив ШІ. Навіть Федеральна резервна система США звертає на це увагу. У промові 17 липня щодо технологій членка Ради керуючих Федрезерву Ліза Д. Кук назвала ШІ «потенційно наступною технологією загального призначення» – порівнюючи його трансформаційний потенціал із друкарським верстатом чи електрикою ts2.tech. Вона відзначила, що «понад пів мільярда користувачів» у світі вже щотижня взаємодіють з великими ШІ-моделями, і що за минулий рік поступ ШІ подвоїв ключові показники ts2.tech. Водночас Кук попередила й про «багатовимірні виклики». Хоча ШІ у довгостроковій перспективі може підвищити продуктивність (і навіть допомогти стримати інфляцію), його стрімке впровадження може спричинити короткострокові потрясіння — включаючи сплески інвестицій і витрат, які парадоксальним чином можуть підняти ціни до появи ефективності ts2.tech. Її виважена позиція — не перебільшувати ні утопію, ні катастрофу — відображає ширше консенсус у Вашингтоні: заохочувати розвиток ШІ обережно, уважно стежачи за впливом на робочі місця, рівень інфляції та нерівність після їх появи.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

Наукові та медичні прориви

Прискорення медичного аналізу: У сфері охорони здоров’я прориви в штучному інтелекті обіцяють швидші діагнози та безпечніші процедури. Дослідники з Університету Індіани та партнерських лікарень презентували систему штучного інтелекту “Інформатика раку”, яка здатна аналізувати оцифровані зразки патології, електронні медичні картки й навіть геномні дані для виявлення потенційних онкозахворювань і пропонування стадій пухлини. За словами головного дослідника Спирідона Бакаса, ця система скоротила деякі діагностичні процеси “з днів до секунд”, тріажуючи випадки з надлюдською швидкістю binaryverseai.com binaryverseai.com. Інструмент також виявив делікатні взаємозв’язки між мульти-модальними даними, які людина могла б пропустити, хоча команда наполягає: патологи залишаються незамінними для складних випадків і остаточних висновків binaryverseai.com. Проєкт ілюструє ширшу тенденцію до мультимодального медичного ШІ, що здатен аналізувати різні типи даних одночасно. Подібно до цього, радіологи повідомили про успіхи у використанні моделі ШІ під назвою mViT (модифікований vision transformer) для покращення дитячих КТ-сканувань binaryverseai.com binaryverseai.com. Фотонно-лічильні КТ-сканери дозволяють знижувати дозу рентгенівського випромінювання для дітей, але зазвичай дають шумні зображення; система mViT навчилася зменшувати шум сканів у реальному часі, роблячи артерії й тканини чіткішими без розмиття, яке виникало при старих методах зниження шуму binaryverseai.com binaryverseai.com. Під час тестування на 20 маленьких пацієнтах ШІ постійно перевершував традиційні фільтри, що потенційно відкриває шлях до чіткіших КТ із низькою дозою — перемога для безпеки дітей, коли КТ нового покоління отримують схвалення FDA binaryverseai.com.

Прориви в біології та матеріалознавстві: ШІ також сприяє базовій науці. Нове дослідження у Nature Communications описує, як тріада нейронних мереж тепер може встановлювати часову мітку розвитку ембріона з точністю до хвилини, що може змінити розвиток біології binaryverseai.com. Навчаючи згорткові нейромережі на зображеннях ембріонів плодових мух у високій роздільній здатності, система навчилася розпізнавати тонкі візуальні підказки циклів поділу клітин. Вона може визначати вік ембріона (з похибкою ±1 хвилина) без використання руйнівних флуоресцентних маркерів – досягаючи 98–100% точності на ембріонах ранніх стадій binaryverseai.com binaryverseai.com. Цей штучний “ембріональний годинник” дозволив команді зіставити сплески активації генів з небаченою часовою точністю, надаючи біологам потужний новий інструмент для вивчення формування органів. У матеріалознавстві дослідники з Великої Британії представили “CrystalGPT,” модель, навченої на 706 000 кристалічних структур для прогнозування властивостей матеріалів. Вивчаючи “мову” молекулярних кристалів (через пазли із замаскованими атомами та задачі на симетрію), CrystalGPT може передбачити густину, пористість чи стабільність нових сполук значно швидше, ніж прямі симуляції binaryverseai.com binaryverseai.com. Експерти відзначають її прозорість – ШІ навіть підсвічує, які саме атомні оточення найбільше вплинули на прогноз, – даючи хімікам упевненість замість “чорної скриньки” binaryverseai.com. Швидше моделювання кристалів може прискорити прогрес у створенні батарей, каталізаторів, напівпровідникових матеріалів, скорочуючи час і вартість науково-дослідних робіт.

ШІ для коду – із застереженнями: Не всі дослідження були оптимістичними; одне з них стало реалістичним поглядом на асистентів з програмування на основі ШІ. У контрольованому експерименті досвідчені розробники програмного забезпечення витратили на 19% більше часу на виконання завдання з допомогою ШІ-асистента, ніж контрольна група без ШІ ts2.tech. Досвідчені програмісти очікували, що ШІ (інструмент підказки коду) зробить їх швидшими, але він часто надавав лише “правильні у напрямку, але не зовсім такі, як потрібно” фрагменти коду ts2.tech. Час втрачався на перегляд і виправлення цих майже правильних підказок. Натомість попередні дослідження показали значне підвищення швидкості у менш досвідчених програмістів на простіших завданнях. “Це більше схоже на редагування есе, ніж на написання з нуля,” – сказав один із досвідчених розробників про працю з ШІ-асистентом – можливо, більш розслаблено, зате повільніше ts2.tech. Дослідники з METR дійшли висновку, що нинішні асистенти на основі ШІ не є чарівною паличкою для підвищення продуктивності експертів у складному програмуванні і що суттєве доопрацювання (і людський контроль) досі необхідні ts2.tech. Це нюансоване спостереження стримує поспішне впровадження генераторів коду на основі ШІ для всіх розробників.

Зазирнути всередину “мозку” ШІ: Консорціум провідних науковців зі сфери штучного інтелекту (з OpenAI, DeepMind, Anthropic та провідних університетів) опублікував примітну статтю із закликом до розробки нових технік для моніторингу “ланцюга роздумів” ШІ – по суті, прихованих кроків міркування, які моделі ШІ генерують всередині себе ts2.tech. Оскільки системи ШІ стають дедалі автономнішими (як агенти, що з’являються сьогодні), автори стверджують, що можливість перевіряти ці проміжні думки може стати критично важливою для безпеки ts2.tech. Спостерігаючи поетапне міркування ШІ, розробники можуть вчасно виявити помилки чи небезпечні відхилення до того, як ШІ почне діяти. Однак у статті попереджається, що зі зростанням складності моделей “немає гарантії, що нинішній рівень прозорості збережеться” – майбутні ШІ можуть приховати процеси мислення так, що їх буде важко відстежити ts2.tech. Команда закликала спільноту “максимально ефективно використовувати можливість моніторингу [ланцюга роздумів]” вже сьогодні і прагнути зберігати прозорість у майбутньому ts2.tech. Примітно, що під цим закликом до дії підписалися найвідоміші фахівці у сфері ШІ – серед них Джеффрі Хінтон, головний науковець OpenAI Ілля Суцкевер (та керівник напряму узгодження Ян Лейке), співзасновник DeepMind Шейн Легг та інші ts2.tech. Це рідкісний приклад єдності між конкурентними лабораторіями, що відображає спільну стурбованість: оскільки ШІ наближається до людського рівня міркування, ми не повинні дозволити йому перетворитись на незбагненну “чорну скриньку”. Дослідження “сканування мозку ШІ” – тобто читання його думок – можуть стати не менш важливими, ніж створення самого ШІ.

Держава та регулювання

ЄС впроваджує Закон про штучний інтелект: Брюссель підштовхнув регуляторні межі, зробивши конкретні кроки щодо реалізації свого знакового Закону про ШІ. 18 липня Європейська комісія оприлюднила детальні інструкції для “ШІ-моделей із системними ризиками” – тобто найбільш потужних універсальних ШІ-систем, які можуть впливати на громадську безпеку або основні права людини ts2.tech. Інструкції роз’яснюють жорсткі нові вимоги, із якими зіткнуться ці постачальники ШІ після набуття чинності Законом про ШІ 2 серпня. Згідно з правилами, великі розробники штучного інтелекту (Google, OpenAI, Meta, Anthropic, французька Mistral та інші) повинні проводити суворі оцінки ризиків, випробування з протидією вразливостям (adversarial testing) та повідомляти про серйозні інциденти чи збої регуляторам ЄС ts2.tech. Вони також повинні впроваджувати надійний кіберзахист, щоб запобігти зловмисному використанню своїх моделей ts2.tech. Прозорість – ключове: розробники базових моделей повинні документувати джерела навчальних даних, дотримуватися авторських прав і публікувати короткі звіти про зміст датасетів, використаних для навчання кожного ШІ ts2.tech. “Завдяки сьогоднішнім інструкціям Комісія сприяє плавному та ефективному застосуванню Закону про ШІ”, — сказала головна технологічна чиновниця ЄС Генна Вірккунен, підкресливши, що регулятори хочуть забезпечити чіткість для бізнесу, стримуючи потенційні ризики ts2.tech. У компаній є пільговий період до серпня 2026 року для повного виконання вимог ts2.tech. Після цього порушення можуть обійтися у величезні штрафи – до €35 млн або 7% світового обороту (що більше) ts2.tech. Нові інструкції з’явилися на тлі невдоволення окремих технологічних компаній тим, що європейські правила можуть бути надто обтяжливими, проте чиновники ЄС налаштовані довести, що вони можуть бути “глобальними наглядачами ШІ”, не душачи інновації.

Добровільний кодекс спричиняє суперечки: У тіні обов’язкового AI Act запропонований регуляторами ЄС добровільний «Кодекс практики ШІ» викликав трансатлантичну дискусію. Кодекс, розроблений експертами для заохочення раннього впровадження деяких принципів AI Act, закликає компанії, що займаються ШІ, проактивно дотримуватись певних заходів прозорості та безпеки вже зараз, до набуття чинності закону. Цього тижня серед американських технологічних гігантів виник розкол: Microsoft натякнула, що, ймовірно, приєднається, президент Бред Сміт заявив: «Я думаю, що ми, ймовірно, підпишемося… Наша мета — підтримувати» та привітав тісну співпрацю з AI-офісом ЄС reuters.com. У різкому контрасті Meta Platforms категорично відкинула цей добровільний кодекс. «Meta не підписуватиме його. Цей кодекс створює низку юридичних невизначеностей для розробників моделей, а також запроваджує заходи, що значно виходять за межі AI Act», — написав керівник з глобальних питань Meta Джоел Каплан 18 липня reuters.com. На його думку, рекомендації ЄС є надмірним регулюванням, яке може «загальмувати розвиток і впровадження передових моделей ШІ в Європі» і «поставити під загрозу європейські компанії», що працюють у сфері ШІ reuters.com. Позиція Meta збігається зі скаргами коаліції з 45 європейських технологічних компаній, що проєкт кодексу є надто обмежувальним. З іншого боку, OpenAI (розробник ChatGPT) та французька Mistral AI вже підписали кодекс, сигналізуючи, що деякі провідні гравці готові пристати на більшу прозорість і перевірки дотримання авторських прав у Європі ts2.tech. Такий розкол підкреслює зростання напруги: американські гіганти прагнуть уникати прецедентів, які могли б стати для них обов’язковими в усьому світі, тоді як європейські регулятори (і деякі стартапи) вже зараз вимагають більш високих стандартів. Те, як буде впроваджений цей добровільний кодекс, може вплинути на фактичні правила ШІ у всьому світі ще до вступу обов’язкового закону ЄС у дію.

США роблять ставку на інновації, а не на регулювання: У Вашингтоні підхід до ШІ залишається більш стимулювальним, ніж обмежувальним – принаймні наразі. Цього тижня Білий дім зібрав керівників технокомпаній, дослідників та законодавців на Саміт з технологій та інновацій, який приніс близько 90 мільярдів доларів нових галузевих зобов’язань щодо проєктів зі штучного інтелекту та виробництва напівпровідників у США ts2.tech. Десятки компаній — від Google до Intel і Blackstone — пообіцяли інвестувати мільярди у передові дата-центри, вітчизняні фабрики чипів та дослідницькі центри ШІ по всій Америці, укріплюючи технічну інфраструктуру у партнерстві з федеральними ініціативами ts2.tech. Послання від американських лідерів: замість того, щоб негайно встановлювати загальні закони щодо ШІ, вони підливають пального у вогонь інновацій, щоб зберегти перевагу над глобальними конкурентами, водночас аналізуючи вплив ШІ. Навіть Федеральна резервна система США звертає на це увагу. У промові 17 липня щодо технологій членка Ради керуючих Федрезерву Ліза Д. Кук назвала ШІ «потенційно наступною технологією загального призначення» – порівнюючи його трансформаційний потенціал із друкарським верстатом чи електрикою ts2.tech. Вона відзначила, що «понад пів мільярда користувачів» у світі вже щотижня взаємодіють з великими ШІ-моделями, і що за минулий рік поступ ШІ подвоїв ключові показники ts2.tech. Водночас Кук попередила й про «багатовимірні виклики». Хоча ШІ у довгостроковій перспективі може підвищити продуктивність (і навіть допомогти стримати інфляцію), його стрімке впровадження може спричинити короткострокові потрясіння — включаючи сплески інвестицій і витрат, які парадоксальним чином можуть підняти ціни до появи ефективності ts2.tech. Її виважена позиція — не перебільшувати ні утопію, ні катастрофу — відображає ширше консенсус у Вашингтоні: заохочувати розвиток ШІ обережно, уважно стежачи за впливом на робочі місця, рівень інфляції та нерівність після їх появи.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

Фінанси, бізнес та інвестиції в ШІ

ШІ, спеціально створений для фінансів: Фінансовий сектор став свідком активного впровадження ШІ як у продуктах, так і в прибутках. Стартап Anthropic запустив Claude for Financial Services — версію свого асистента Claude-4, спеціалізованого для аналітиків ринку та банкірів. Anthropic стверджує, що Claude-4 перевершує інші провідні моделі у фінансових завданнях згідно з галузевими бенчмарками anthropic.com. Платформа може підключатися до поточних ринкових даних (через партнерів, таких як Bloomberg, FactSet та ін.) і обробляти значні обсяги робіт: від моделювання ризиків до оформлення документів для відповідності. Перші користувачі повідомляють про суттєві переваги — наприклад, генеральний директор суверенного фонду багатства Норвегії на $1,4 трлн (NBIM) заявив, що Claude “фундаментально змінив” їхню роботу, забезпечивши орієнтовно 20% приросту продуктивності (близько 213 000 зекономлених робочих годин) завдяки тому, що персонал може безперешкодно працювати з даними й ефективніше аналізувати фінансові звіти anthropic.com. З його слів, Claude фактично став “незамінним” для аналітиків та менеджерів з ризиків цієї компанії anthropic.com. Великі банки й фонди також досліджують можливості асистентів ШІ для прискорення досліджень з повним аудит-трейлом і автоматизації рутинних завдань, які зазвичай гальмують роботу фінансових команд.

Уолл-стріт робить ставки на AI-стартапи: Інвестори продовжують вкладати гроші в штучний інтелект із вражаючими оцінками. Цього вікенду надійшла новина, що стартап Perplexity AI, відомий своїм чат-ботом для пошуку на основі ШІ, залучив ще $100 мільйонів фінансування – і підняв свою оцінку до приблизно $18 мільярдів theindependent.sg. (Для порівняння, ще два місяці тому Perplexity оцінювали приблизно у $14 мільярдів, а минулого року – лише у $1 мільярд, що відображає стрімке зростання генеративного ШІ theindependent.sg.) З’являються і нові фонди з фокусом на ШІ: наприклад, один із ранніх інвесторів Instacart запустив фонд “Verified Capital” зі $175 мільйонами, орієнтованими на AI-стартапи (анонсовано 20 липня). А у сфері хмарних обчислень традиційні компанії пристосовуються до епохи ШІ – іноді болісно. Amazon підтвердила, що скорочує кілька сотень працівників AWS (переважно в службі підтримки хмарних сервісів), після того як генеральний директор Енді Джессі попередив, що ефективність ШІ призведе до зменшення певних “проміжних” посад binaryverseai.com. Внутрішні електронні листи цього тижня вказують, що деякі спеціалізовані команди з міграції у хмару стали непотрібними – “перше видиме підтвердження в межах AWS” автоматизації під керуванням ШІ, як зазначив Reuters binaryverseai.com binaryverseai.com. Аналітики стверджують, що навіть підрозділи з великою маржею не захищені: “ШІ поглинає завдання, які він освоює, а потім компанії або перенаправляють, або звільняють людей,” – сухо зазначив один із них binaryverseai.com. Попри значні прибутки, хмарний гігант проводить оптимізацію, демонструючи, як зростання продуктивності від ШІ також може на практиці призводити до скорочення робочої сили.

Наукові та медичні прориви

Прискорення медичного аналізу: У сфері охорони здоров’я прориви в штучному інтелекті обіцяють швидші діагнози та безпечніші процедури. Дослідники з Університету Індіани та партнерських лікарень презентували систему штучного інтелекту “Інформатика раку”, яка здатна аналізувати оцифровані зразки патології, електронні медичні картки й навіть геномні дані для виявлення потенційних онкозахворювань і пропонування стадій пухлини. За словами головного дослідника Спирідона Бакаса, ця система скоротила деякі діагностичні процеси “з днів до секунд”, тріажуючи випадки з надлюдською швидкістю binaryverseai.com binaryverseai.com. Інструмент також виявив делікатні взаємозв’язки між мульти-модальними даними, які людина могла б пропустити, хоча команда наполягає: патологи залишаються незамінними для складних випадків і остаточних висновків binaryverseai.com. Проєкт ілюструє ширшу тенденцію до мультимодального медичного ШІ, що здатен аналізувати різні типи даних одночасно. Подібно до цього, радіологи повідомили про успіхи у використанні моделі ШІ під назвою mViT (модифікований vision transformer) для покращення дитячих КТ-сканувань binaryverseai.com binaryverseai.com. Фотонно-лічильні КТ-сканери дозволяють знижувати дозу рентгенівського випромінювання для дітей, але зазвичай дають шумні зображення; система mViT навчилася зменшувати шум сканів у реальному часі, роблячи артерії й тканини чіткішими без розмиття, яке виникало при старих методах зниження шуму binaryverseai.com binaryverseai.com. Під час тестування на 20 маленьких пацієнтах ШІ постійно перевершував традиційні фільтри, що потенційно відкриває шлях до чіткіших КТ із низькою дозою — перемога для безпеки дітей, коли КТ нового покоління отримують схвалення FDA binaryverseai.com.

Прориви в біології та матеріалознавстві: ШІ також сприяє базовій науці. Нове дослідження у Nature Communications описує, як тріада нейронних мереж тепер може встановлювати часову мітку розвитку ембріона з точністю до хвилини, що може змінити розвиток біології binaryverseai.com. Навчаючи згорткові нейромережі на зображеннях ембріонів плодових мух у високій роздільній здатності, система навчилася розпізнавати тонкі візуальні підказки циклів поділу клітин. Вона може визначати вік ембріона (з похибкою ±1 хвилина) без використання руйнівних флуоресцентних маркерів – досягаючи 98–100% точності на ембріонах ранніх стадій binaryverseai.com binaryverseai.com. Цей штучний “ембріональний годинник” дозволив команді зіставити сплески активації генів з небаченою часовою точністю, надаючи біологам потужний новий інструмент для вивчення формування органів. У матеріалознавстві дослідники з Великої Британії представили “CrystalGPT,” модель, навченої на 706 000 кристалічних структур для прогнозування властивостей матеріалів. Вивчаючи “мову” молекулярних кристалів (через пазли із замаскованими атомами та задачі на симетрію), CrystalGPT може передбачити густину, пористість чи стабільність нових сполук значно швидше, ніж прямі симуляції binaryverseai.com binaryverseai.com. Експерти відзначають її прозорість – ШІ навіть підсвічує, які саме атомні оточення найбільше вплинули на прогноз, – даючи хімікам упевненість замість “чорної скриньки” binaryverseai.com. Швидше моделювання кристалів може прискорити прогрес у створенні батарей, каталізаторів, напівпровідникових матеріалів, скорочуючи час і вартість науково-дослідних робіт.

ШІ для коду – із застереженнями: Не всі дослідження були оптимістичними; одне з них стало реалістичним поглядом на асистентів з програмування на основі ШІ. У контрольованому експерименті досвідчені розробники програмного забезпечення витратили на 19% більше часу на виконання завдання з допомогою ШІ-асистента, ніж контрольна група без ШІ ts2.tech. Досвідчені програмісти очікували, що ШІ (інструмент підказки коду) зробить їх швидшими, але він часто надавав лише “правильні у напрямку, але не зовсім такі, як потрібно” фрагменти коду ts2.tech. Час втрачався на перегляд і виправлення цих майже правильних підказок. Натомість попередні дослідження показали значне підвищення швидкості у менш досвідчених програмістів на простіших завданнях. “Це більше схоже на редагування есе, ніж на написання з нуля,” – сказав один із досвідчених розробників про працю з ШІ-асистентом – можливо, більш розслаблено, зате повільніше ts2.tech. Дослідники з METR дійшли висновку, що нинішні асистенти на основі ШІ не є чарівною паличкою для підвищення продуктивності експертів у складному програмуванні і що суттєве доопрацювання (і людський контроль) досі необхідні ts2.tech. Це нюансоване спостереження стримує поспішне впровадження генераторів коду на основі ШІ для всіх розробників.

Зазирнути всередину “мозку” ШІ: Консорціум провідних науковців зі сфери штучного інтелекту (з OpenAI, DeepMind, Anthropic та провідних університетів) опублікував примітну статтю із закликом до розробки нових технік для моніторингу “ланцюга роздумів” ШІ – по суті, прихованих кроків міркування, які моделі ШІ генерують всередині себе ts2.tech. Оскільки системи ШІ стають дедалі автономнішими (як агенти, що з’являються сьогодні), автори стверджують, що можливість перевіряти ці проміжні думки може стати критично важливою для безпеки ts2.tech. Спостерігаючи поетапне міркування ШІ, розробники можуть вчасно виявити помилки чи небезпечні відхилення до того, як ШІ почне діяти. Однак у статті попереджається, що зі зростанням складності моделей “немає гарантії, що нинішній рівень прозорості збережеться” – майбутні ШІ можуть приховати процеси мислення так, що їх буде важко відстежити ts2.tech. Команда закликала спільноту “максимально ефективно використовувати можливість моніторингу [ланцюга роздумів]” вже сьогодні і прагнути зберігати прозорість у майбутньому ts2.tech. Примітно, що під цим закликом до дії підписалися найвідоміші фахівці у сфері ШІ – серед них Джеффрі Хінтон, головний науковець OpenAI Ілля Суцкевер (та керівник напряму узгодження Ян Лейке), співзасновник DeepMind Шейн Легг та інші ts2.tech. Це рідкісний приклад єдності між конкурентними лабораторіями, що відображає спільну стурбованість: оскільки ШІ наближається до людського рівня міркування, ми не повинні дозволити йому перетворитись на незбагненну “чорну скриньку”. Дослідження “сканування мозку ШІ” – тобто читання його думок – можуть стати не менш важливими, ніж створення самого ШІ.

Держава та регулювання

ЄС впроваджує Закон про штучний інтелект: Брюссель підштовхнув регуляторні межі, зробивши конкретні кроки щодо реалізації свого знакового Закону про ШІ. 18 липня Європейська комісія оприлюднила детальні інструкції для “ШІ-моделей із системними ризиками” – тобто найбільш потужних універсальних ШІ-систем, які можуть впливати на громадську безпеку або основні права людини ts2.tech. Інструкції роз’яснюють жорсткі нові вимоги, із якими зіткнуться ці постачальники ШІ після набуття чинності Законом про ШІ 2 серпня. Згідно з правилами, великі розробники штучного інтелекту (Google, OpenAI, Meta, Anthropic, французька Mistral та інші) повинні проводити суворі оцінки ризиків, випробування з протидією вразливостям (adversarial testing) та повідомляти про серйозні інциденти чи збої регуляторам ЄС ts2.tech. Вони також повинні впроваджувати надійний кіберзахист, щоб запобігти зловмисному використанню своїх моделей ts2.tech. Прозорість – ключове: розробники базових моделей повинні документувати джерела навчальних даних, дотримуватися авторських прав і публікувати короткі звіти про зміст датасетів, використаних для навчання кожного ШІ ts2.tech. “Завдяки сьогоднішнім інструкціям Комісія сприяє плавному та ефективному застосуванню Закону про ШІ”, — сказала головна технологічна чиновниця ЄС Генна Вірккунен, підкресливши, що регулятори хочуть забезпечити чіткість для бізнесу, стримуючи потенційні ризики ts2.tech. У компаній є пільговий період до серпня 2026 року для повного виконання вимог ts2.tech. Після цього порушення можуть обійтися у величезні штрафи – до €35 млн або 7% світового обороту (що більше) ts2.tech. Нові інструкції з’явилися на тлі невдоволення окремих технологічних компаній тим, що європейські правила можуть бути надто обтяжливими, проте чиновники ЄС налаштовані довести, що вони можуть бути “глобальними наглядачами ШІ”, не душачи інновації.

Добровільний кодекс спричиняє суперечки: У тіні обов’язкового AI Act запропонований регуляторами ЄС добровільний «Кодекс практики ШІ» викликав трансатлантичну дискусію. Кодекс, розроблений експертами для заохочення раннього впровадження деяких принципів AI Act, закликає компанії, що займаються ШІ, проактивно дотримуватись певних заходів прозорості та безпеки вже зараз, до набуття чинності закону. Цього тижня серед американських технологічних гігантів виник розкол: Microsoft натякнула, що, ймовірно, приєднається, президент Бред Сміт заявив: «Я думаю, що ми, ймовірно, підпишемося… Наша мета — підтримувати» та привітав тісну співпрацю з AI-офісом ЄС reuters.com. У різкому контрасті Meta Platforms категорично відкинула цей добровільний кодекс. «Meta не підписуватиме його. Цей кодекс створює низку юридичних невизначеностей для розробників моделей, а також запроваджує заходи, що значно виходять за межі AI Act», — написав керівник з глобальних питань Meta Джоел Каплан 18 липня reuters.com. На його думку, рекомендації ЄС є надмірним регулюванням, яке може «загальмувати розвиток і впровадження передових моделей ШІ в Європі» і «поставити під загрозу європейські компанії», що працюють у сфері ШІ reuters.com. Позиція Meta збігається зі скаргами коаліції з 45 європейських технологічних компаній, що проєкт кодексу є надто обмежувальним. З іншого боку, OpenAI (розробник ChatGPT) та французька Mistral AI вже підписали кодекс, сигналізуючи, що деякі провідні гравці готові пристати на більшу прозорість і перевірки дотримання авторських прав у Європі ts2.tech. Такий розкол підкреслює зростання напруги: американські гіганти прагнуть уникати прецедентів, які могли б стати для них обов’язковими в усьому світі, тоді як європейські регулятори (і деякі стартапи) вже зараз вимагають більш високих стандартів. Те, як буде впроваджений цей добровільний кодекс, може вплинути на фактичні правила ШІ у всьому світі ще до вступу обов’язкового закону ЄС у дію.

США роблять ставку на інновації, а не на регулювання: У Вашингтоні підхід до ШІ залишається більш стимулювальним, ніж обмежувальним – принаймні наразі. Цього тижня Білий дім зібрав керівників технокомпаній, дослідників та законодавців на Саміт з технологій та інновацій, який приніс близько 90 мільярдів доларів нових галузевих зобов’язань щодо проєктів зі штучного інтелекту та виробництва напівпровідників у США ts2.tech. Десятки компаній — від Google до Intel і Blackstone — пообіцяли інвестувати мільярди у передові дата-центри, вітчизняні фабрики чипів та дослідницькі центри ШІ по всій Америці, укріплюючи технічну інфраструктуру у партнерстві з федеральними ініціативами ts2.tech. Послання від американських лідерів: замість того, щоб негайно встановлювати загальні закони щодо ШІ, вони підливають пального у вогонь інновацій, щоб зберегти перевагу над глобальними конкурентами, водночас аналізуючи вплив ШІ. Навіть Федеральна резервна система США звертає на це увагу. У промові 17 липня щодо технологій членка Ради керуючих Федрезерву Ліза Д. Кук назвала ШІ «потенційно наступною технологією загального призначення» – порівнюючи його трансформаційний потенціал із друкарським верстатом чи електрикою ts2.tech. Вона відзначила, що «понад пів мільярда користувачів» у світі вже щотижня взаємодіють з великими ШІ-моделями, і що за минулий рік поступ ШІ подвоїв ключові показники ts2.tech. Водночас Кук попередила й про «багатовимірні виклики». Хоча ШІ у довгостроковій перспективі може підвищити продуктивність (і навіть допомогти стримати інфляцію), його стрімке впровадження може спричинити короткострокові потрясіння — включаючи сплески інвестицій і витрат, які парадоксальним чином можуть підняти ціни до появи ефективності ts2.tech. Її виважена позиція — не перебільшувати ні утопію, ні катастрофу — відображає ширше консенсус у Вашингтоні: заохочувати розвиток ШІ обережно, уважно стежачи за впливом на робочі місця, рівень інфляції та нерівність після їх появи.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

ШІ в медіа, розвагах і креативних індустріях

Netflix використовує ШІ для VFX: У Голлівуді відбулася визначна подія: Netflix повідомив у своєму звіті про прибутки, що почав використовувати генеративний ШІ у виробництві контенту, включаючи перші в історії кадри, створені ШІ, у шоу Netflix ts2.tech. В аргентинському науково-фантастичному серіалі «Ель Етернаута» цілу сцену обвалення будівлі було створено за допомогою ШІ — це зайняло у 10 разів менше часу та коштувало дешевше, ніж традиційні візуальні ефекти techcrunch.com. Спів-генеральний директор Тед Сарандос підкреслив, що ШІ використовується для підсилення творців, а не для їхньої заміни, заявивши: «ШІ відкриває неймовірні можливості допомогти творцям робити фільми та серіали кращими, а не просто дешевшими… це справжні люди, які виконують справжню роботу з кращими інструментами.» techcrunch.com Він зазначив, що художники Netflix вже відчувають переваги у препродакшн-візуалізації та плануванні кадрів. Netflix також використовує генеративний ШІ не лише для VFX – компанія застосовує його для персоналізованого відкриття контенту і вже готується запустити інтерактивну рекламу на базі ШІ до кінця цього року techcrunch.com.

Генеративна мода та відео-чари: Творчий підхід ШІ поширився й на моду та відео. Дослідники з Південної Кореї експериментували з «генеративним кутюром», використовуючи ChatGPT для прогнозування майбутніх модних трендів і DALL·E 3 для створення понад 100 віртуальних образів для колекції осінь/зима binaryverseai.com binaryverseai.com. Близько двох третин дизайнів, створених ШІ, відповідали реальним стилям, що натякає на здатність генеративних моделей виявляти тренди раніше, ніж це зроблять дизайнери. (ШІ зазнав труднощів із абстрактними поняттями, такими як гендерно-нейтральний дизайн, що підкреслює: людські дизайнери все ще тримають креативний компас binaryverseai.com.) У сфері технологій для кіновиробництва NVIDIA разом із партнерами з університетів презентували DiffusionRenderer — дворівневу систему ШІ, яка поєднує інверсний і прямий рендеринг, роблячи сучасні відеоефекти доступними для незалежних творців binaryverseai.com binaryverseai.com. В одному з демонстраційних відео користувач міг зняти простий кадр і додати CGI-дракона, тінь від якого виглядає реалістично без складних сенсорів чи ручного налаштування світла – ШІ самостійно вивчив геометрію та освітлення сцени за відео binaryverseai.com binaryverseai.com. У підсумку це звужує прірву між великими студіями і маленькими творцями, натякаючи на майбутнє з «майже магічним» відеомонтажем для всіх.

Фінанси, бізнес та інвестиції в ШІ

ШІ, спеціально створений для фінансів: Фінансовий сектор став свідком активного впровадження ШІ як у продуктах, так і в прибутках. Стартап Anthropic запустив Claude for Financial Services — версію свого асистента Claude-4, спеціалізованого для аналітиків ринку та банкірів. Anthropic стверджує, що Claude-4 перевершує інші провідні моделі у фінансових завданнях згідно з галузевими бенчмарками anthropic.com. Платформа може підключатися до поточних ринкових даних (через партнерів, таких як Bloomberg, FactSet та ін.) і обробляти значні обсяги робіт: від моделювання ризиків до оформлення документів для відповідності. Перші користувачі повідомляють про суттєві переваги — наприклад, генеральний директор суверенного фонду багатства Норвегії на $1,4 трлн (NBIM) заявив, що Claude “фундаментально змінив” їхню роботу, забезпечивши орієнтовно 20% приросту продуктивності (близько 213 000 зекономлених робочих годин) завдяки тому, що персонал може безперешкодно працювати з даними й ефективніше аналізувати фінансові звіти anthropic.com. З його слів, Claude фактично став “незамінним” для аналітиків та менеджерів з ризиків цієї компанії anthropic.com. Великі банки й фонди також досліджують можливості асистентів ШІ для прискорення досліджень з повним аудит-трейлом і автоматизації рутинних завдань, які зазвичай гальмують роботу фінансових команд.

Уолл-стріт робить ставки на AI-стартапи: Інвестори продовжують вкладати гроші в штучний інтелект із вражаючими оцінками. Цього вікенду надійшла новина, що стартап Perplexity AI, відомий своїм чат-ботом для пошуку на основі ШІ, залучив ще $100 мільйонів фінансування – і підняв свою оцінку до приблизно $18 мільярдів theindependent.sg. (Для порівняння, ще два місяці тому Perplexity оцінювали приблизно у $14 мільярдів, а минулого року – лише у $1 мільярд, що відображає стрімке зростання генеративного ШІ theindependent.sg.) З’являються і нові фонди з фокусом на ШІ: наприклад, один із ранніх інвесторів Instacart запустив фонд “Verified Capital” зі $175 мільйонами, орієнтованими на AI-стартапи (анонсовано 20 липня). А у сфері хмарних обчислень традиційні компанії пристосовуються до епохи ШІ – іноді болісно. Amazon підтвердила, що скорочує кілька сотень працівників AWS (переважно в службі підтримки хмарних сервісів), після того як генеральний директор Енді Джессі попередив, що ефективність ШІ призведе до зменшення певних “проміжних” посад binaryverseai.com. Внутрішні електронні листи цього тижня вказують, що деякі спеціалізовані команди з міграції у хмару стали непотрібними – “перше видиме підтвердження в межах AWS” автоматизації під керуванням ШІ, як зазначив Reuters binaryverseai.com binaryverseai.com. Аналітики стверджують, що навіть підрозділи з великою маржею не захищені: “ШІ поглинає завдання, які він освоює, а потім компанії або перенаправляють, або звільняють людей,” – сухо зазначив один із них binaryverseai.com. Попри значні прибутки, хмарний гігант проводить оптимізацію, демонструючи, як зростання продуктивності від ШІ також може на практиці призводити до скорочення робочої сили.

Наукові та медичні прориви

Прискорення медичного аналізу: У сфері охорони здоров’я прориви в штучному інтелекті обіцяють швидші діагнози та безпечніші процедури. Дослідники з Університету Індіани та партнерських лікарень презентували систему штучного інтелекту “Інформатика раку”, яка здатна аналізувати оцифровані зразки патології, електронні медичні картки й навіть геномні дані для виявлення потенційних онкозахворювань і пропонування стадій пухлини. За словами головного дослідника Спирідона Бакаса, ця система скоротила деякі діагностичні процеси “з днів до секунд”, тріажуючи випадки з надлюдською швидкістю binaryverseai.com binaryverseai.com. Інструмент також виявив делікатні взаємозв’язки між мульти-модальними даними, які людина могла б пропустити, хоча команда наполягає: патологи залишаються незамінними для складних випадків і остаточних висновків binaryverseai.com. Проєкт ілюструє ширшу тенденцію до мультимодального медичного ШІ, що здатен аналізувати різні типи даних одночасно. Подібно до цього, радіологи повідомили про успіхи у використанні моделі ШІ під назвою mViT (модифікований vision transformer) для покращення дитячих КТ-сканувань binaryverseai.com binaryverseai.com. Фотонно-лічильні КТ-сканери дозволяють знижувати дозу рентгенівського випромінювання для дітей, але зазвичай дають шумні зображення; система mViT навчилася зменшувати шум сканів у реальному часі, роблячи артерії й тканини чіткішими без розмиття, яке виникало при старих методах зниження шуму binaryverseai.com binaryverseai.com. Під час тестування на 20 маленьких пацієнтах ШІ постійно перевершував традиційні фільтри, що потенційно відкриває шлях до чіткіших КТ із низькою дозою — перемога для безпеки дітей, коли КТ нового покоління отримують схвалення FDA binaryverseai.com.

Прориви в біології та матеріалознавстві: ШІ також сприяє базовій науці. Нове дослідження у Nature Communications описує, як тріада нейронних мереж тепер може встановлювати часову мітку розвитку ембріона з точністю до хвилини, що може змінити розвиток біології binaryverseai.com. Навчаючи згорткові нейромережі на зображеннях ембріонів плодових мух у високій роздільній здатності, система навчилася розпізнавати тонкі візуальні підказки циклів поділу клітин. Вона може визначати вік ембріона (з похибкою ±1 хвилина) без використання руйнівних флуоресцентних маркерів – досягаючи 98–100% точності на ембріонах ранніх стадій binaryverseai.com binaryverseai.com. Цей штучний “ембріональний годинник” дозволив команді зіставити сплески активації генів з небаченою часовою точністю, надаючи біологам потужний новий інструмент для вивчення формування органів. У матеріалознавстві дослідники з Великої Британії представили “CrystalGPT,” модель, навченої на 706 000 кристалічних структур для прогнозування властивостей матеріалів. Вивчаючи “мову” молекулярних кристалів (через пазли із замаскованими атомами та задачі на симетрію), CrystalGPT може передбачити густину, пористість чи стабільність нових сполук значно швидше, ніж прямі симуляції binaryverseai.com binaryverseai.com. Експерти відзначають її прозорість – ШІ навіть підсвічує, які саме атомні оточення найбільше вплинули на прогноз, – даючи хімікам упевненість замість “чорної скриньки” binaryverseai.com. Швидше моделювання кристалів може прискорити прогрес у створенні батарей, каталізаторів, напівпровідникових матеріалів, скорочуючи час і вартість науково-дослідних робіт.

ШІ для коду – із застереженнями: Не всі дослідження були оптимістичними; одне з них стало реалістичним поглядом на асистентів з програмування на основі ШІ. У контрольованому експерименті досвідчені розробники програмного забезпечення витратили на 19% більше часу на виконання завдання з допомогою ШІ-асистента, ніж контрольна група без ШІ ts2.tech. Досвідчені програмісти очікували, що ШІ (інструмент підказки коду) зробить їх швидшими, але він часто надавав лише “правильні у напрямку, але не зовсім такі, як потрібно” фрагменти коду ts2.tech. Час втрачався на перегляд і виправлення цих майже правильних підказок. Натомість попередні дослідження показали значне підвищення швидкості у менш досвідчених програмістів на простіших завданнях. “Це більше схоже на редагування есе, ніж на написання з нуля,” – сказав один із досвідчених розробників про працю з ШІ-асистентом – можливо, більш розслаблено, зате повільніше ts2.tech. Дослідники з METR дійшли висновку, що нинішні асистенти на основі ШІ не є чарівною паличкою для підвищення продуктивності експертів у складному програмуванні і що суттєве доопрацювання (і людський контроль) досі необхідні ts2.tech. Це нюансоване спостереження стримує поспішне впровадження генераторів коду на основі ШІ для всіх розробників.

Зазирнути всередину “мозку” ШІ: Консорціум провідних науковців зі сфери штучного інтелекту (з OpenAI, DeepMind, Anthropic та провідних університетів) опублікував примітну статтю із закликом до розробки нових технік для моніторингу “ланцюга роздумів” ШІ – по суті, прихованих кроків міркування, які моделі ШІ генерують всередині себе ts2.tech. Оскільки системи ШІ стають дедалі автономнішими (як агенти, що з’являються сьогодні), автори стверджують, що можливість перевіряти ці проміжні думки може стати критично важливою для безпеки ts2.tech. Спостерігаючи поетапне міркування ШІ, розробники можуть вчасно виявити помилки чи небезпечні відхилення до того, як ШІ почне діяти. Однак у статті попереджається, що зі зростанням складності моделей “немає гарантії, що нинішній рівень прозорості збережеться” – майбутні ШІ можуть приховати процеси мислення так, що їх буде важко відстежити ts2.tech. Команда закликала спільноту “максимально ефективно використовувати можливість моніторингу [ланцюга роздумів]” вже сьогодні і прагнути зберігати прозорість у майбутньому ts2.tech. Примітно, що під цим закликом до дії підписалися найвідоміші фахівці у сфері ШІ – серед них Джеффрі Хінтон, головний науковець OpenAI Ілля Суцкевер (та керівник напряму узгодження Ян Лейке), співзасновник DeepMind Шейн Легг та інші ts2.tech. Це рідкісний приклад єдності між конкурентними лабораторіями, що відображає спільну стурбованість: оскільки ШІ наближається до людського рівня міркування, ми не повинні дозволити йому перетворитись на незбагненну “чорну скриньку”. Дослідження “сканування мозку ШІ” – тобто читання його думок – можуть стати не менш важливими, ніж створення самого ШІ.

Держава та регулювання

ЄС впроваджує Закон про штучний інтелект: Брюссель підштовхнув регуляторні межі, зробивши конкретні кроки щодо реалізації свого знакового Закону про ШІ. 18 липня Європейська комісія оприлюднила детальні інструкції для “ШІ-моделей із системними ризиками” – тобто найбільш потужних універсальних ШІ-систем, які можуть впливати на громадську безпеку або основні права людини ts2.tech. Інструкції роз’яснюють жорсткі нові вимоги, із якими зіткнуться ці постачальники ШІ після набуття чинності Законом про ШІ 2 серпня. Згідно з правилами, великі розробники штучного інтелекту (Google, OpenAI, Meta, Anthropic, французька Mistral та інші) повинні проводити суворі оцінки ризиків, випробування з протидією вразливостям (adversarial testing) та повідомляти про серйозні інциденти чи збої регуляторам ЄС ts2.tech. Вони також повинні впроваджувати надійний кіберзахист, щоб запобігти зловмисному використанню своїх моделей ts2.tech. Прозорість – ключове: розробники базових моделей повинні документувати джерела навчальних даних, дотримуватися авторських прав і публікувати короткі звіти про зміст датасетів, використаних для навчання кожного ШІ ts2.tech. “Завдяки сьогоднішнім інструкціям Комісія сприяє плавному та ефективному застосуванню Закону про ШІ”, — сказала головна технологічна чиновниця ЄС Генна Вірккунен, підкресливши, що регулятори хочуть забезпечити чіткість для бізнесу, стримуючи потенційні ризики ts2.tech. У компаній є пільговий період до серпня 2026 року для повного виконання вимог ts2.tech. Після цього порушення можуть обійтися у величезні штрафи – до €35 млн або 7% світового обороту (що більше) ts2.tech. Нові інструкції з’явилися на тлі невдоволення окремих технологічних компаній тим, що європейські правила можуть бути надто обтяжливими, проте чиновники ЄС налаштовані довести, що вони можуть бути “глобальними наглядачами ШІ”, не душачи інновації.

Добровільний кодекс спричиняє суперечки: У тіні обов’язкового AI Act запропонований регуляторами ЄС добровільний «Кодекс практики ШІ» викликав трансатлантичну дискусію. Кодекс, розроблений експертами для заохочення раннього впровадження деяких принципів AI Act, закликає компанії, що займаються ШІ, проактивно дотримуватись певних заходів прозорості та безпеки вже зараз, до набуття чинності закону. Цього тижня серед американських технологічних гігантів виник розкол: Microsoft натякнула, що, ймовірно, приєднається, президент Бред Сміт заявив: «Я думаю, що ми, ймовірно, підпишемося… Наша мета — підтримувати» та привітав тісну співпрацю з AI-офісом ЄС reuters.com. У різкому контрасті Meta Platforms категорично відкинула цей добровільний кодекс. «Meta не підписуватиме його. Цей кодекс створює низку юридичних невизначеностей для розробників моделей, а також запроваджує заходи, що значно виходять за межі AI Act», — написав керівник з глобальних питань Meta Джоел Каплан 18 липня reuters.com. На його думку, рекомендації ЄС є надмірним регулюванням, яке може «загальмувати розвиток і впровадження передових моделей ШІ в Європі» і «поставити під загрозу європейські компанії», що працюють у сфері ШІ reuters.com. Позиція Meta збігається зі скаргами коаліції з 45 європейських технологічних компаній, що проєкт кодексу є надто обмежувальним. З іншого боку, OpenAI (розробник ChatGPT) та французька Mistral AI вже підписали кодекс, сигналізуючи, що деякі провідні гравці готові пристати на більшу прозорість і перевірки дотримання авторських прав у Європі ts2.tech. Такий розкол підкреслює зростання напруги: американські гіганти прагнуть уникати прецедентів, які могли б стати для них обов’язковими в усьому світі, тоді як європейські регулятори (і деякі стартапи) вже зараз вимагають більш високих стандартів. Те, як буде впроваджений цей добровільний кодекс, може вплинути на фактичні правила ШІ у всьому світі ще до вступу обов’язкового закону ЄС у дію.

США роблять ставку на інновації, а не на регулювання: У Вашингтоні підхід до ШІ залишається більш стимулювальним, ніж обмежувальним – принаймні наразі. Цього тижня Білий дім зібрав керівників технокомпаній, дослідників та законодавців на Саміт з технологій та інновацій, який приніс близько 90 мільярдів доларів нових галузевих зобов’язань щодо проєктів зі штучного інтелекту та виробництва напівпровідників у США ts2.tech. Десятки компаній — від Google до Intel і Blackstone — пообіцяли інвестувати мільярди у передові дата-центри, вітчизняні фабрики чипів та дослідницькі центри ШІ по всій Америці, укріплюючи технічну інфраструктуру у партнерстві з федеральними ініціативами ts2.tech. Послання від американських лідерів: замість того, щоб негайно встановлювати загальні закони щодо ШІ, вони підливають пального у вогонь інновацій, щоб зберегти перевагу над глобальними конкурентами, водночас аналізуючи вплив ШІ. Навіть Федеральна резервна система США звертає на це увагу. У промові 17 липня щодо технологій членка Ради керуючих Федрезерву Ліза Д. Кук назвала ШІ «потенційно наступною технологією загального призначення» – порівнюючи його трансформаційний потенціал із друкарським верстатом чи електрикою ts2.tech. Вона відзначила, що «понад пів мільярда користувачів» у світі вже щотижня взаємодіють з великими ШІ-моделями, і що за минулий рік поступ ШІ подвоїв ключові показники ts2.tech. Водночас Кук попередила й про «багатовимірні виклики». Хоча ШІ у довгостроковій перспективі може підвищити продуктивність (і навіть допомогти стримати інфляцію), його стрімке впровадження може спричинити короткострокові потрясіння — включаючи сплески інвестицій і витрат, які парадоксальним чином можуть підняти ціни до появи ефективності ts2.tech. Її виважена позиція — не перебільшувати ні утопію, ні катастрофу — відображає ширше консенсус у Вашингтоні: заохочувати розвиток ШІ обережно, уважно стежачи за впливом на робочі місця, рівень інфляції та нерівність після їх появи.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

ШІ в медіа, розвагах і креативних індустріях

Netflix використовує ШІ для VFX: У Голлівуді відбулася визначна подія: Netflix повідомив у своєму звіті про прибутки, що почав використовувати генеративний ШІ у виробництві контенту, включаючи перші в історії кадри, створені ШІ, у шоу Netflix ts2.tech. В аргентинському науково-фантастичному серіалі «Ель Етернаута» цілу сцену обвалення будівлі було створено за допомогою ШІ — це зайняло у 10 разів менше часу та коштувало дешевше, ніж традиційні візуальні ефекти techcrunch.com. Спів-генеральний директор Тед Сарандос підкреслив, що ШІ використовується для підсилення творців, а не для їхньої заміни, заявивши: «ШІ відкриває неймовірні можливості допомогти творцям робити фільми та серіали кращими, а не просто дешевшими… це справжні люди, які виконують справжню роботу з кращими інструментами.» techcrunch.com Він зазначив, що художники Netflix вже відчувають переваги у препродакшн-візуалізації та плануванні кадрів. Netflix також використовує генеративний ШІ не лише для VFX – компанія застосовує його для персоналізованого відкриття контенту і вже готується запустити інтерактивну рекламу на базі ШІ до кінця цього року techcrunch.com.

Генеративна мода та відео-чари: Творчий підхід ШІ поширився й на моду та відео. Дослідники з Південної Кореї експериментували з «генеративним кутюром», використовуючи ChatGPT для прогнозування майбутніх модних трендів і DALL·E 3 для створення понад 100 віртуальних образів для колекції осінь/зима binaryverseai.com binaryverseai.com. Близько двох третин дизайнів, створених ШІ, відповідали реальним стилям, що натякає на здатність генеративних моделей виявляти тренди раніше, ніж це зроблять дизайнери. (ШІ зазнав труднощів із абстрактними поняттями, такими як гендерно-нейтральний дизайн, що підкреслює: людські дизайнери все ще тримають креативний компас binaryverseai.com.) У сфері технологій для кіновиробництва NVIDIA разом із партнерами з університетів презентували DiffusionRenderer — дворівневу систему ШІ, яка поєднує інверсний і прямий рендеринг, роблячи сучасні відеоефекти доступними для незалежних творців binaryverseai.com binaryverseai.com. В одному з демонстраційних відео користувач міг зняти простий кадр і додати CGI-дракона, тінь від якого виглядає реалістично без складних сенсорів чи ручного налаштування світла – ШІ самостійно вивчив геометрію та освітлення сцени за відео binaryverseai.com binaryverseai.com. У підсумку це звужує прірву між великими студіями і маленькими творцями, натякаючи на майбутнє з «майже магічним» відеомонтажем для всіх.

Фінанси, бізнес та інвестиції в ШІ

ШІ, спеціально створений для фінансів: Фінансовий сектор став свідком активного впровадження ШІ як у продуктах, так і в прибутках. Стартап Anthropic запустив Claude for Financial Services — версію свого асистента Claude-4, спеціалізованого для аналітиків ринку та банкірів. Anthropic стверджує, що Claude-4 перевершує інші провідні моделі у фінансових завданнях згідно з галузевими бенчмарками anthropic.com. Платформа може підключатися до поточних ринкових даних (через партнерів, таких як Bloomberg, FactSet та ін.) і обробляти значні обсяги робіт: від моделювання ризиків до оформлення документів для відповідності. Перші користувачі повідомляють про суттєві переваги — наприклад, генеральний директор суверенного фонду багатства Норвегії на $1,4 трлн (NBIM) заявив, що Claude “фундаментально змінив” їхню роботу, забезпечивши орієнтовно 20% приросту продуктивності (близько 213 000 зекономлених робочих годин) завдяки тому, що персонал може безперешкодно працювати з даними й ефективніше аналізувати фінансові звіти anthropic.com. З його слів, Claude фактично став “незамінним” для аналітиків та менеджерів з ризиків цієї компанії anthropic.com. Великі банки й фонди також досліджують можливості асистентів ШІ для прискорення досліджень з повним аудит-трейлом і автоматизації рутинних завдань, які зазвичай гальмують роботу фінансових команд.

Уолл-стріт робить ставки на AI-стартапи: Інвестори продовжують вкладати гроші в штучний інтелект із вражаючими оцінками. Цього вікенду надійшла новина, що стартап Perplexity AI, відомий своїм чат-ботом для пошуку на основі ШІ, залучив ще $100 мільйонів фінансування – і підняв свою оцінку до приблизно $18 мільярдів theindependent.sg. (Для порівняння, ще два місяці тому Perplexity оцінювали приблизно у $14 мільярдів, а минулого року – лише у $1 мільярд, що відображає стрімке зростання генеративного ШІ theindependent.sg.) З’являються і нові фонди з фокусом на ШІ: наприклад, один із ранніх інвесторів Instacart запустив фонд “Verified Capital” зі $175 мільйонами, орієнтованими на AI-стартапи (анонсовано 20 липня). А у сфері хмарних обчислень традиційні компанії пристосовуються до епохи ШІ – іноді болісно. Amazon підтвердила, що скорочує кілька сотень працівників AWS (переважно в службі підтримки хмарних сервісів), після того як генеральний директор Енді Джессі попередив, що ефективність ШІ призведе до зменшення певних “проміжних” посад binaryverseai.com. Внутрішні електронні листи цього тижня вказують, що деякі спеціалізовані команди з міграції у хмару стали непотрібними – “перше видиме підтвердження в межах AWS” автоматизації під керуванням ШІ, як зазначив Reuters binaryverseai.com binaryverseai.com. Аналітики стверджують, що навіть підрозділи з великою маржею не захищені: “ШІ поглинає завдання, які він освоює, а потім компанії або перенаправляють, або звільняють людей,” – сухо зазначив один із них binaryverseai.com. Попри значні прибутки, хмарний гігант проводить оптимізацію, демонструючи, як зростання продуктивності від ШІ також може на практиці призводити до скорочення робочої сили.

Наукові та медичні прориви

Прискорення медичного аналізу: У сфері охорони здоров’я прориви в штучному інтелекті обіцяють швидші діагнози та безпечніші процедури. Дослідники з Університету Індіани та партнерських лікарень презентували систему штучного інтелекту “Інформатика раку”, яка здатна аналізувати оцифровані зразки патології, електронні медичні картки й навіть геномні дані для виявлення потенційних онкозахворювань і пропонування стадій пухлини. За словами головного дослідника Спирідона Бакаса, ця система скоротила деякі діагностичні процеси “з днів до секунд”, тріажуючи випадки з надлюдською швидкістю binaryverseai.com binaryverseai.com. Інструмент також виявив делікатні взаємозв’язки між мульти-модальними даними, які людина могла б пропустити, хоча команда наполягає: патологи залишаються незамінними для складних випадків і остаточних висновків binaryverseai.com. Проєкт ілюструє ширшу тенденцію до мультимодального медичного ШІ, що здатен аналізувати різні типи даних одночасно. Подібно до цього, радіологи повідомили про успіхи у використанні моделі ШІ під назвою mViT (модифікований vision transformer) для покращення дитячих КТ-сканувань binaryverseai.com binaryverseai.com. Фотонно-лічильні КТ-сканери дозволяють знижувати дозу рентгенівського випромінювання для дітей, але зазвичай дають шумні зображення; система mViT навчилася зменшувати шум сканів у реальному часі, роблячи артерії й тканини чіткішими без розмиття, яке виникало при старих методах зниження шуму binaryverseai.com binaryverseai.com. Під час тестування на 20 маленьких пацієнтах ШІ постійно перевершував традиційні фільтри, що потенційно відкриває шлях до чіткіших КТ із низькою дозою — перемога для безпеки дітей, коли КТ нового покоління отримують схвалення FDA binaryverseai.com.

Прориви в біології та матеріалознавстві: ШІ також сприяє базовій науці. Нове дослідження у Nature Communications описує, як тріада нейронних мереж тепер може встановлювати часову мітку розвитку ембріона з точністю до хвилини, що може змінити розвиток біології binaryverseai.com. Навчаючи згорткові нейромережі на зображеннях ембріонів плодових мух у високій роздільній здатності, система навчилася розпізнавати тонкі візуальні підказки циклів поділу клітин. Вона може визначати вік ембріона (з похибкою ±1 хвилина) без використання руйнівних флуоресцентних маркерів – досягаючи 98–100% точності на ембріонах ранніх стадій binaryverseai.com binaryverseai.com. Цей штучний “ембріональний годинник” дозволив команді зіставити сплески активації генів з небаченою часовою точністю, надаючи біологам потужний новий інструмент для вивчення формування органів. У матеріалознавстві дослідники з Великої Британії представили “CrystalGPT,” модель, навченої на 706 000 кристалічних структур для прогнозування властивостей матеріалів. Вивчаючи “мову” молекулярних кристалів (через пазли із замаскованими атомами та задачі на симетрію), CrystalGPT може передбачити густину, пористість чи стабільність нових сполук значно швидше, ніж прямі симуляції binaryverseai.com binaryverseai.com. Експерти відзначають її прозорість – ШІ навіть підсвічує, які саме атомні оточення найбільше вплинули на прогноз, – даючи хімікам упевненість замість “чорної скриньки” binaryverseai.com. Швидше моделювання кристалів може прискорити прогрес у створенні батарей, каталізаторів, напівпровідникових матеріалів, скорочуючи час і вартість науково-дослідних робіт.

ШІ для коду – із застереженнями: Не всі дослідження були оптимістичними; одне з них стало реалістичним поглядом на асистентів з програмування на основі ШІ. У контрольованому експерименті досвідчені розробники програмного забезпечення витратили на 19% більше часу на виконання завдання з допомогою ШІ-асистента, ніж контрольна група без ШІ ts2.tech. Досвідчені програмісти очікували, що ШІ (інструмент підказки коду) зробить їх швидшими, але він часто надавав лише “правильні у напрямку, але не зовсім такі, як потрібно” фрагменти коду ts2.tech. Час втрачався на перегляд і виправлення цих майже правильних підказок. Натомість попередні дослідження показали значне підвищення швидкості у менш досвідчених програмістів на простіших завданнях. “Це більше схоже на редагування есе, ніж на написання з нуля,” – сказав один із досвідчених розробників про працю з ШІ-асистентом – можливо, більш розслаблено, зате повільніше ts2.tech. Дослідники з METR дійшли висновку, що нинішні асистенти на основі ШІ не є чарівною паличкою для підвищення продуктивності експертів у складному програмуванні і що суттєве доопрацювання (і людський контроль) досі необхідні ts2.tech. Це нюансоване спостереження стримує поспішне впровадження генераторів коду на основі ШІ для всіх розробників.

Зазирнути всередину “мозку” ШІ: Консорціум провідних науковців зі сфери штучного інтелекту (з OpenAI, DeepMind, Anthropic та провідних університетів) опублікував примітну статтю із закликом до розробки нових технік для моніторингу “ланцюга роздумів” ШІ – по суті, прихованих кроків міркування, які моделі ШІ генерують всередині себе ts2.tech. Оскільки системи ШІ стають дедалі автономнішими (як агенти, що з’являються сьогодні), автори стверджують, що можливість перевіряти ці проміжні думки може стати критично важливою для безпеки ts2.tech. Спостерігаючи поетапне міркування ШІ, розробники можуть вчасно виявити помилки чи небезпечні відхилення до того, як ШІ почне діяти. Однак у статті попереджається, що зі зростанням складності моделей “немає гарантії, що нинішній рівень прозорості збережеться” – майбутні ШІ можуть приховати процеси мислення так, що їх буде важко відстежити ts2.tech. Команда закликала спільноту “максимально ефективно використовувати можливість моніторингу [ланцюга роздумів]” вже сьогодні і прагнути зберігати прозорість у майбутньому ts2.tech. Примітно, що під цим закликом до дії підписалися найвідоміші фахівці у сфері ШІ – серед них Джеффрі Хінтон, головний науковець OpenAI Ілля Суцкевер (та керівник напряму узгодження Ян Лейке), співзасновник DeepMind Шейн Легг та інші ts2.tech. Це рідкісний приклад єдності між конкурентними лабораторіями, що відображає спільну стурбованість: оскільки ШІ наближається до людського рівня міркування, ми не повинні дозволити йому перетворитись на незбагненну “чорну скриньку”. Дослідження “сканування мозку ШІ” – тобто читання його думок – можуть стати не менш важливими, ніж створення самого ШІ.

Держава та регулювання

ЄС впроваджує Закон про штучний інтелект: Брюссель підштовхнув регуляторні межі, зробивши конкретні кроки щодо реалізації свого знакового Закону про ШІ. 18 липня Європейська комісія оприлюднила детальні інструкції для “ШІ-моделей із системними ризиками” – тобто найбільш потужних універсальних ШІ-систем, які можуть впливати на громадську безпеку або основні права людини ts2.tech. Інструкції роз’яснюють жорсткі нові вимоги, із якими зіткнуться ці постачальники ШІ після набуття чинності Законом про ШІ 2 серпня. Згідно з правилами, великі розробники штучного інтелекту (Google, OpenAI, Meta, Anthropic, французька Mistral та інші) повинні проводити суворі оцінки ризиків, випробування з протидією вразливостям (adversarial testing) та повідомляти про серйозні інциденти чи збої регуляторам ЄС ts2.tech. Вони також повинні впроваджувати надійний кіберзахист, щоб запобігти зловмисному використанню своїх моделей ts2.tech. Прозорість – ключове: розробники базових моделей повинні документувати джерела навчальних даних, дотримуватися авторських прав і публікувати короткі звіти про зміст датасетів, використаних для навчання кожного ШІ ts2.tech. “Завдяки сьогоднішнім інструкціям Комісія сприяє плавному та ефективному застосуванню Закону про ШІ”, — сказала головна технологічна чиновниця ЄС Генна Вірккунен, підкресливши, що регулятори хочуть забезпечити чіткість для бізнесу, стримуючи потенційні ризики ts2.tech. У компаній є пільговий період до серпня 2026 року для повного виконання вимог ts2.tech. Після цього порушення можуть обійтися у величезні штрафи – до €35 млн або 7% світового обороту (що більше) ts2.tech. Нові інструкції з’явилися на тлі невдоволення окремих технологічних компаній тим, що європейські правила можуть бути надто обтяжливими, проте чиновники ЄС налаштовані довести, що вони можуть бути “глобальними наглядачами ШІ”, не душачи інновації.

Добровільний кодекс спричиняє суперечки: У тіні обов’язкового AI Act запропонований регуляторами ЄС добровільний «Кодекс практики ШІ» викликав трансатлантичну дискусію. Кодекс, розроблений експертами для заохочення раннього впровадження деяких принципів AI Act, закликає компанії, що займаються ШІ, проактивно дотримуватись певних заходів прозорості та безпеки вже зараз, до набуття чинності закону. Цього тижня серед американських технологічних гігантів виник розкол: Microsoft натякнула, що, ймовірно, приєднається, президент Бред Сміт заявив: «Я думаю, що ми, ймовірно, підпишемося… Наша мета — підтримувати» та привітав тісну співпрацю з AI-офісом ЄС reuters.com. У різкому контрасті Meta Platforms категорично відкинула цей добровільний кодекс. «Meta не підписуватиме його. Цей кодекс створює низку юридичних невизначеностей для розробників моделей, а також запроваджує заходи, що значно виходять за межі AI Act», — написав керівник з глобальних питань Meta Джоел Каплан 18 липня reuters.com. На його думку, рекомендації ЄС є надмірним регулюванням, яке може «загальмувати розвиток і впровадження передових моделей ШІ в Європі» і «поставити під загрозу європейські компанії», що працюють у сфері ШІ reuters.com. Позиція Meta збігається зі скаргами коаліції з 45 європейських технологічних компаній, що проєкт кодексу є надто обмежувальним. З іншого боку, OpenAI (розробник ChatGPT) та французька Mistral AI вже підписали кодекс, сигналізуючи, що деякі провідні гравці готові пристати на більшу прозорість і перевірки дотримання авторських прав у Європі ts2.tech. Такий розкол підкреслює зростання напруги: американські гіганти прагнуть уникати прецедентів, які могли б стати для них обов’язковими в усьому світі, тоді як європейські регулятори (і деякі стартапи) вже зараз вимагають більш високих стандартів. Те, як буде впроваджений цей добровільний кодекс, може вплинути на фактичні правила ШІ у всьому світі ще до вступу обов’язкового закону ЄС у дію.

США роблять ставку на інновації, а не на регулювання: У Вашингтоні підхід до ШІ залишається більш стимулювальним, ніж обмежувальним – принаймні наразі. Цього тижня Білий дім зібрав керівників технокомпаній, дослідників та законодавців на Саміт з технологій та інновацій, який приніс близько 90 мільярдів доларів нових галузевих зобов’язань щодо проєктів зі штучного інтелекту та виробництва напівпровідників у США ts2.tech. Десятки компаній — від Google до Intel і Blackstone — пообіцяли інвестувати мільярди у передові дата-центри, вітчизняні фабрики чипів та дослідницькі центри ШІ по всій Америці, укріплюючи технічну інфраструктуру у партнерстві з федеральними ініціативами ts2.tech. Послання від американських лідерів: замість того, щоб негайно встановлювати загальні закони щодо ШІ, вони підливають пального у вогонь інновацій, щоб зберегти перевагу над глобальними конкурентами, водночас аналізуючи вплив ШІ. Навіть Федеральна резервна система США звертає на це увагу. У промові 17 липня щодо технологій членка Ради керуючих Федрезерву Ліза Д. Кук назвала ШІ «потенційно наступною технологією загального призначення» – порівнюючи його трансформаційний потенціал із друкарським верстатом чи електрикою ts2.tech. Вона відзначила, що «понад пів мільярда користувачів» у світі вже щотижня взаємодіють з великими ШІ-моделями, і що за минулий рік поступ ШІ подвоїв ключові показники ts2.tech. Водночас Кук попередила й про «багатовимірні виклики». Хоча ШІ у довгостроковій перспективі може підвищити продуктивність (і навіть допомогти стримати інфляцію), його стрімке впровадження може спричинити короткострокові потрясіння — включаючи сплески інвестицій і витрат, які парадоксальним чином можуть підняти ціни до появи ефективності ts2.tech. Її виважена позиція — не перебільшувати ні утопію, ні катастрофу — відображає ширше консенсус у Вашингтоні: заохочувати розвиток ШІ обережно, уважно стежачи за впливом на робочі місця, рівень інфляції та нерівність після їх появи.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

ШІ в медіа, розвагах і креативних індустріях

Netflix використовує ШІ для VFX: У Голлівуді відбулася визначна подія: Netflix повідомив у своєму звіті про прибутки, що почав використовувати генеративний ШІ у виробництві контенту, включаючи перші в історії кадри, створені ШІ, у шоу Netflix ts2.tech. В аргентинському науково-фантастичному серіалі «Ель Етернаута» цілу сцену обвалення будівлі було створено за допомогою ШІ — це зайняло у 10 разів менше часу та коштувало дешевше, ніж традиційні візуальні ефекти techcrunch.com. Спів-генеральний директор Тед Сарандос підкреслив, що ШІ використовується для підсилення творців, а не для їхньої заміни, заявивши: «ШІ відкриває неймовірні можливості допомогти творцям робити фільми та серіали кращими, а не просто дешевшими… це справжні люди, які виконують справжню роботу з кращими інструментами.» techcrunch.com Він зазначив, що художники Netflix вже відчувають переваги у препродакшн-візуалізації та плануванні кадрів. Netflix також використовує генеративний ШІ не лише для VFX – компанія застосовує його для персоналізованого відкриття контенту і вже готується запустити інтерактивну рекламу на базі ШІ до кінця цього року techcrunch.com.

Генеративна мода та відео-чари: Творчий підхід ШІ поширився й на моду та відео. Дослідники з Південної Кореї експериментували з «генеративним кутюром», використовуючи ChatGPT для прогнозування майбутніх модних трендів і DALL·E 3 для створення понад 100 віртуальних образів для колекції осінь/зима binaryverseai.com binaryverseai.com. Близько двох третин дизайнів, створених ШІ, відповідали реальним стилям, що натякає на здатність генеративних моделей виявляти тренди раніше, ніж це зроблять дизайнери. (ШІ зазнав труднощів із абстрактними поняттями, такими як гендерно-нейтральний дизайн, що підкреслює: людські дизайнери все ще тримають креативний компас binaryverseai.com.) У сфері технологій для кіновиробництва NVIDIA разом із партнерами з університетів презентували DiffusionRenderer — дворівневу систему ШІ, яка поєднує інверсний і прямий рендеринг, роблячи сучасні відеоефекти доступними для незалежних творців binaryverseai.com binaryverseai.com. В одному з демонстраційних відео користувач міг зняти простий кадр і додати CGI-дракона, тінь від якого виглядає реалістично без складних сенсорів чи ручного налаштування світла – ШІ самостійно вивчив геометрію та освітлення сцени за відео binaryverseai.com binaryverseai.com. У підсумку це звужує прірву між великими студіями і маленькими творцями, натякаючи на майбутнє з «майже магічним» відеомонтажем для всіх.

Фінанси, бізнес та інвестиції в ШІ

ШІ, спеціально створений для фінансів: Фінансовий сектор став свідком активного впровадження ШІ як у продуктах, так і в прибутках. Стартап Anthropic запустив Claude for Financial Services — версію свого асистента Claude-4, спеціалізованого для аналітиків ринку та банкірів. Anthropic стверджує, що Claude-4 перевершує інші провідні моделі у фінансових завданнях згідно з галузевими бенчмарками anthropic.com. Платформа може підключатися до поточних ринкових даних (через партнерів, таких як Bloomberg, FactSet та ін.) і обробляти значні обсяги робіт: від моделювання ризиків до оформлення документів для відповідності. Перші користувачі повідомляють про суттєві переваги — наприклад, генеральний директор суверенного фонду багатства Норвегії на $1,4 трлн (NBIM) заявив, що Claude “фундаментально змінив” їхню роботу, забезпечивши орієнтовно 20% приросту продуктивності (близько 213 000 зекономлених робочих годин) завдяки тому, що персонал може безперешкодно працювати з даними й ефективніше аналізувати фінансові звіти anthropic.com. З його слів, Claude фактично став “незамінним” для аналітиків та менеджерів з ризиків цієї компанії anthropic.com. Великі банки й фонди також досліджують можливості асистентів ШІ для прискорення досліджень з повним аудит-трейлом і автоматизації рутинних завдань, які зазвичай гальмують роботу фінансових команд.

Уолл-стріт робить ставки на AI-стартапи: Інвестори продовжують вкладати гроші в штучний інтелект із вражаючими оцінками. Цього вікенду надійшла новина, що стартап Perplexity AI, відомий своїм чат-ботом для пошуку на основі ШІ, залучив ще $100 мільйонів фінансування – і підняв свою оцінку до приблизно $18 мільярдів theindependent.sg. (Для порівняння, ще два місяці тому Perplexity оцінювали приблизно у $14 мільярдів, а минулого року – лише у $1 мільярд, що відображає стрімке зростання генеративного ШІ theindependent.sg.) З’являються і нові фонди з фокусом на ШІ: наприклад, один із ранніх інвесторів Instacart запустив фонд “Verified Capital” зі $175 мільйонами, орієнтованими на AI-стартапи (анонсовано 20 липня). А у сфері хмарних обчислень традиційні компанії пристосовуються до епохи ШІ – іноді болісно. Amazon підтвердила, що скорочує кілька сотень працівників AWS (переважно в службі підтримки хмарних сервісів), після того як генеральний директор Енді Джессі попередив, що ефективність ШІ призведе до зменшення певних “проміжних” посад binaryverseai.com. Внутрішні електронні листи цього тижня вказують, що деякі спеціалізовані команди з міграції у хмару стали непотрібними – “перше видиме підтвердження в межах AWS” автоматизації під керуванням ШІ, як зазначив Reuters binaryverseai.com binaryverseai.com. Аналітики стверджують, що навіть підрозділи з великою маржею не захищені: “ШІ поглинає завдання, які він освоює, а потім компанії або перенаправляють, або звільняють людей,” – сухо зазначив один із них binaryverseai.com. Попри значні прибутки, хмарний гігант проводить оптимізацію, демонструючи, як зростання продуктивності від ШІ також може на практиці призводити до скорочення робочої сили.

Наукові та медичні прориви

Прискорення медичного аналізу: У сфері охорони здоров’я прориви в штучному інтелекті обіцяють швидші діагнози та безпечніші процедури. Дослідники з Університету Індіани та партнерських лікарень презентували систему штучного інтелекту “Інформатика раку”, яка здатна аналізувати оцифровані зразки патології, електронні медичні картки й навіть геномні дані для виявлення потенційних онкозахворювань і пропонування стадій пухлини. За словами головного дослідника Спирідона Бакаса, ця система скоротила деякі діагностичні процеси “з днів до секунд”, тріажуючи випадки з надлюдською швидкістю binaryverseai.com binaryverseai.com. Інструмент також виявив делікатні взаємозв’язки між мульти-модальними даними, які людина могла б пропустити, хоча команда наполягає: патологи залишаються незамінними для складних випадків і остаточних висновків binaryverseai.com. Проєкт ілюструє ширшу тенденцію до мультимодального медичного ШІ, що здатен аналізувати різні типи даних одночасно. Подібно до цього, радіологи повідомили про успіхи у використанні моделі ШІ під назвою mViT (модифікований vision transformer) для покращення дитячих КТ-сканувань binaryverseai.com binaryverseai.com. Фотонно-лічильні КТ-сканери дозволяють знижувати дозу рентгенівського випромінювання для дітей, але зазвичай дають шумні зображення; система mViT навчилася зменшувати шум сканів у реальному часі, роблячи артерії й тканини чіткішими без розмиття, яке виникало при старих методах зниження шуму binaryverseai.com binaryverseai.com. Під час тестування на 20 маленьких пацієнтах ШІ постійно перевершував традиційні фільтри, що потенційно відкриває шлях до чіткіших КТ із низькою дозою — перемога для безпеки дітей, коли КТ нового покоління отримують схвалення FDA binaryverseai.com.

Прориви в біології та матеріалознавстві: ШІ також сприяє базовій науці. Нове дослідження у Nature Communications описує, як тріада нейронних мереж тепер може встановлювати часову мітку розвитку ембріона з точністю до хвилини, що може змінити розвиток біології binaryverseai.com. Навчаючи згорткові нейромережі на зображеннях ембріонів плодових мух у високій роздільній здатності, система навчилася розпізнавати тонкі візуальні підказки циклів поділу клітин. Вона може визначати вік ембріона (з похибкою ±1 хвилина) без використання руйнівних флуоресцентних маркерів – досягаючи 98–100% точності на ембріонах ранніх стадій binaryverseai.com binaryverseai.com. Цей штучний “ембріональний годинник” дозволив команді зіставити сплески активації генів з небаченою часовою точністю, надаючи біологам потужний новий інструмент для вивчення формування органів. У матеріалознавстві дослідники з Великої Британії представили “CrystalGPT,” модель, навченої на 706 000 кристалічних структур для прогнозування властивостей матеріалів. Вивчаючи “мову” молекулярних кристалів (через пазли із замаскованими атомами та задачі на симетрію), CrystalGPT може передбачити густину, пористість чи стабільність нових сполук значно швидше, ніж прямі симуляції binaryverseai.com binaryverseai.com. Експерти відзначають її прозорість – ШІ навіть підсвічує, які саме атомні оточення найбільше вплинули на прогноз, – даючи хімікам упевненість замість “чорної скриньки” binaryverseai.com. Швидше моделювання кристалів може прискорити прогрес у створенні батарей, каталізаторів, напівпровідникових матеріалів, скорочуючи час і вартість науково-дослідних робіт.

ШІ для коду – із застереженнями: Не всі дослідження були оптимістичними; одне з них стало реалістичним поглядом на асистентів з програмування на основі ШІ. У контрольованому експерименті досвідчені розробники програмного забезпечення витратили на 19% більше часу на виконання завдання з допомогою ШІ-асистента, ніж контрольна група без ШІ ts2.tech. Досвідчені програмісти очікували, що ШІ (інструмент підказки коду) зробить їх швидшими, але він часто надавав лише “правильні у напрямку, але не зовсім такі, як потрібно” фрагменти коду ts2.tech. Час втрачався на перегляд і виправлення цих майже правильних підказок. Натомість попередні дослідження показали значне підвищення швидкості у менш досвідчених програмістів на простіших завданнях. “Це більше схоже на редагування есе, ніж на написання з нуля,” – сказав один із досвідчених розробників про працю з ШІ-асистентом – можливо, більш розслаблено, зате повільніше ts2.tech. Дослідники з METR дійшли висновку, що нинішні асистенти на основі ШІ не є чарівною паличкою для підвищення продуктивності експертів у складному програмуванні і що суттєве доопрацювання (і людський контроль) досі необхідні ts2.tech. Це нюансоване спостереження стримує поспішне впровадження генераторів коду на основі ШІ для всіх розробників.

Зазирнути всередину “мозку” ШІ: Консорціум провідних науковців зі сфери штучного інтелекту (з OpenAI, DeepMind, Anthropic та провідних університетів) опублікував примітну статтю із закликом до розробки нових технік для моніторингу “ланцюга роздумів” ШІ – по суті, прихованих кроків міркування, які моделі ШІ генерують всередині себе ts2.tech. Оскільки системи ШІ стають дедалі автономнішими (як агенти, що з’являються сьогодні), автори стверджують, що можливість перевіряти ці проміжні думки може стати критично важливою для безпеки ts2.tech. Спостерігаючи поетапне міркування ШІ, розробники можуть вчасно виявити помилки чи небезпечні відхилення до того, як ШІ почне діяти. Однак у статті попереджається, що зі зростанням складності моделей “немає гарантії, що нинішній рівень прозорості збережеться” – майбутні ШІ можуть приховати процеси мислення так, що їх буде важко відстежити ts2.tech. Команда закликала спільноту “максимально ефективно використовувати можливість моніторингу [ланцюга роздумів]” вже сьогодні і прагнути зберігати прозорість у майбутньому ts2.tech. Примітно, що під цим закликом до дії підписалися найвідоміші фахівці у сфері ШІ – серед них Джеффрі Хінтон, головний науковець OpenAI Ілля Суцкевер (та керівник напряму узгодження Ян Лейке), співзасновник DeepMind Шейн Легг та інші ts2.tech. Це рідкісний приклад єдності між конкурентними лабораторіями, що відображає спільну стурбованість: оскільки ШІ наближається до людського рівня міркування, ми не повинні дозволити йому перетворитись на незбагненну “чорну скриньку”. Дослідження “сканування мозку ШІ” – тобто читання його думок – можуть стати не менш важливими, ніж створення самого ШІ.

Держава та регулювання

ЄС впроваджує Закон про штучний інтелект: Брюссель підштовхнув регуляторні межі, зробивши конкретні кроки щодо реалізації свого знакового Закону про ШІ. 18 липня Європейська комісія оприлюднила детальні інструкції для “ШІ-моделей із системними ризиками” – тобто найбільш потужних універсальних ШІ-систем, які можуть впливати на громадську безпеку або основні права людини ts2.tech. Інструкції роз’яснюють жорсткі нові вимоги, із якими зіткнуться ці постачальники ШІ після набуття чинності Законом про ШІ 2 серпня. Згідно з правилами, великі розробники штучного інтелекту (Google, OpenAI, Meta, Anthropic, французька Mistral та інші) повинні проводити суворі оцінки ризиків, випробування з протидією вразливостям (adversarial testing) та повідомляти про серйозні інциденти чи збої регуляторам ЄС ts2.tech. Вони також повинні впроваджувати надійний кіберзахист, щоб запобігти зловмисному використанню своїх моделей ts2.tech. Прозорість – ключове: розробники базових моделей повинні документувати джерела навчальних даних, дотримуватися авторських прав і публікувати короткі звіти про зміст датасетів, використаних для навчання кожного ШІ ts2.tech. “Завдяки сьогоднішнім інструкціям Комісія сприяє плавному та ефективному застосуванню Закону про ШІ”, — сказала головна технологічна чиновниця ЄС Генна Вірккунен, підкресливши, що регулятори хочуть забезпечити чіткість для бізнесу, стримуючи потенційні ризики ts2.tech. У компаній є пільговий період до серпня 2026 року для повного виконання вимог ts2.tech. Після цього порушення можуть обійтися у величезні штрафи – до €35 млн або 7% світового обороту (що більше) ts2.tech. Нові інструкції з’явилися на тлі невдоволення окремих технологічних компаній тим, що європейські правила можуть бути надто обтяжливими, проте чиновники ЄС налаштовані довести, що вони можуть бути “глобальними наглядачами ШІ”, не душачи інновації.

Добровільний кодекс спричиняє суперечки: У тіні обов’язкового AI Act запропонований регуляторами ЄС добровільний «Кодекс практики ШІ» викликав трансатлантичну дискусію. Кодекс, розроблений експертами для заохочення раннього впровадження деяких принципів AI Act, закликає компанії, що займаються ШІ, проактивно дотримуватись певних заходів прозорості та безпеки вже зараз, до набуття чинності закону. Цього тижня серед американських технологічних гігантів виник розкол: Microsoft натякнула, що, ймовірно, приєднається, президент Бред Сміт заявив: «Я думаю, що ми, ймовірно, підпишемося… Наша мета — підтримувати» та привітав тісну співпрацю з AI-офісом ЄС reuters.com. У різкому контрасті Meta Platforms категорично відкинула цей добровільний кодекс. «Meta не підписуватиме його. Цей кодекс створює низку юридичних невизначеностей для розробників моделей, а також запроваджує заходи, що значно виходять за межі AI Act», — написав керівник з глобальних питань Meta Джоел Каплан 18 липня reuters.com. На його думку, рекомендації ЄС є надмірним регулюванням, яке може «загальмувати розвиток і впровадження передових моделей ШІ в Європі» і «поставити під загрозу європейські компанії», що працюють у сфері ШІ reuters.com. Позиція Meta збігається зі скаргами коаліції з 45 європейських технологічних компаній, що проєкт кодексу є надто обмежувальним. З іншого боку, OpenAI (розробник ChatGPT) та французька Mistral AI вже підписали кодекс, сигналізуючи, що деякі провідні гравці готові пристати на більшу прозорість і перевірки дотримання авторських прав у Європі ts2.tech. Такий розкол підкреслює зростання напруги: американські гіганти прагнуть уникати прецедентів, які могли б стати для них обов’язковими в усьому світі, тоді як європейські регулятори (і деякі стартапи) вже зараз вимагають більш високих стандартів. Те, як буде впроваджений цей добровільний кодекс, може вплинути на фактичні правила ШІ у всьому світі ще до вступу обов’язкового закону ЄС у дію.

США роблять ставку на інновації, а не на регулювання: У Вашингтоні підхід до ШІ залишається більш стимулювальним, ніж обмежувальним – принаймні наразі. Цього тижня Білий дім зібрав керівників технокомпаній, дослідників та законодавців на Саміт з технологій та інновацій, який приніс близько 90 мільярдів доларів нових галузевих зобов’язань щодо проєктів зі штучного інтелекту та виробництва напівпровідників у США ts2.tech. Десятки компаній — від Google до Intel і Blackstone — пообіцяли інвестувати мільярди у передові дата-центри, вітчизняні фабрики чипів та дослідницькі центри ШІ по всій Америці, укріплюючи технічну інфраструктуру у партнерстві з федеральними ініціативами ts2.tech. Послання від американських лідерів: замість того, щоб негайно встановлювати загальні закони щодо ШІ, вони підливають пального у вогонь інновацій, щоб зберегти перевагу над глобальними конкурентами, водночас аналізуючи вплив ШІ. Навіть Федеральна резервна система США звертає на це увагу. У промові 17 липня щодо технологій членка Ради керуючих Федрезерву Ліза Д. Кук назвала ШІ «потенційно наступною технологією загального призначення» – порівнюючи його трансформаційний потенціал із друкарським верстатом чи електрикою ts2.tech. Вона відзначила, що «понад пів мільярда користувачів» у світі вже щотижня взаємодіють з великими ШІ-моделями, і що за минулий рік поступ ШІ подвоїв ключові показники ts2.tech. Водночас Кук попередила й про «багатовимірні виклики». Хоча ШІ у довгостроковій перспективі може підвищити продуктивність (і навіть допомогти стримати інфляцію), його стрімке впровадження може спричинити короткострокові потрясіння — включаючи сплески інвестицій і витрат, які парадоксальним чином можуть підняти ціни до появи ефективності ts2.tech. Її виважена позиція — не перебільшувати ні утопію, ні катастрофу — відображає ширше консенсус у Вашингтоні: заохочувати розвиток ШІ обережно, уважно стежачи за впливом на робочі місця, рівень інфляції та нерівність після їх появи.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

Держава та регулювання

ЄС впроваджує Закон про штучний інтелект: Брюссель підштовхнув регуляторні межі, зробивши конкретні кроки щодо реалізації свого знакового Закону про ШІ. 18 липня Європейська комісія оприлюднила детальні інструкції для “ШІ-моделей із системними ризиками” – тобто найбільш потужних універсальних ШІ-систем, які можуть впливати на громадську безпеку або основні права людини ts2.tech. Інструкції роз’яснюють жорсткі нові вимоги, із якими зіткнуться ці постачальники ШІ після набуття чинності Законом про ШІ 2 серпня. Згідно з правилами, великі розробники штучного інтелекту (Google, OpenAI, Meta, Anthropic, французька Mistral та інші) повинні проводити суворі оцінки ризиків, випробування з протидією вразливостям (adversarial testing) та повідомляти про серйозні інциденти чи збої регуляторам ЄС ts2.tech. Вони також повинні впроваджувати надійний кіберзахист, щоб запобігти зловмисному використанню своїх моделей ts2.tech. Прозорість – ключове: розробники базових моделей повинні документувати джерела навчальних даних, дотримуватися авторських прав і публікувати короткі звіти про зміст датасетів, використаних для навчання кожного ШІ ts2.tech. “Завдяки сьогоднішнім інструкціям Комісія сприяє плавному та ефективному застосуванню Закону про ШІ”, — сказала головна технологічна чиновниця ЄС Генна Вірккунен, підкресливши, що регулятори хочуть забезпечити чіткість для бізнесу, стримуючи потенційні ризики ts2.tech. У компаній є пільговий період до серпня 2026 року для повного виконання вимог ts2.tech. Після цього порушення можуть обійтися у величезні штрафи – до €35 млн або 7% світового обороту (що більше) ts2.tech. Нові інструкції з’явилися на тлі невдоволення окремих технологічних компаній тим, що європейські правила можуть бути надто обтяжливими, проте чиновники ЄС налаштовані довести, що вони можуть бути “глобальними наглядачами ШІ”, не душачи інновації.

Добровільний кодекс спричиняє суперечки: У тіні обов’язкового AI Act запропонований регуляторами ЄС добровільний «Кодекс практики ШІ» викликав трансатлантичну дискусію. Кодекс, розроблений експертами для заохочення раннього впровадження деяких принципів AI Act, закликає компанії, що займаються ШІ, проактивно дотримуватись певних заходів прозорості та безпеки вже зараз, до набуття чинності закону. Цього тижня серед американських технологічних гігантів виник розкол: Microsoft натякнула, що, ймовірно, приєднається, президент Бред Сміт заявив: «Я думаю, що ми, ймовірно, підпишемося… Наша мета — підтримувати» та привітав тісну співпрацю з AI-офісом ЄС reuters.com. У різкому контрасті Meta Platforms категорично відкинула цей добровільний кодекс. «Meta не підписуватиме його. Цей кодекс створює низку юридичних невизначеностей для розробників моделей, а також запроваджує заходи, що значно виходять за межі AI Act», — написав керівник з глобальних питань Meta Джоел Каплан 18 липня reuters.com. На його думку, рекомендації ЄС є надмірним регулюванням, яке може «загальмувати розвиток і впровадження передових моделей ШІ в Європі» і «поставити під загрозу європейські компанії», що працюють у сфері ШІ reuters.com. Позиція Meta збігається зі скаргами коаліції з 45 європейських технологічних компаній, що проєкт кодексу є надто обмежувальним. З іншого боку, OpenAI (розробник ChatGPT) та французька Mistral AI вже підписали кодекс, сигналізуючи, що деякі провідні гравці готові пристати на більшу прозорість і перевірки дотримання авторських прав у Європі ts2.tech. Такий розкол підкреслює зростання напруги: американські гіганти прагнуть уникати прецедентів, які могли б стати для них обов’язковими в усьому світі, тоді як європейські регулятори (і деякі стартапи) вже зараз вимагають більш високих стандартів. Те, як буде впроваджений цей добровільний кодекс, може вплинути на фактичні правила ШІ у всьому світі ще до вступу обов’язкового закону ЄС у дію.

США роблять ставку на інновації, а не на регулювання: У Вашингтоні підхід до ШІ залишається більш стимулювальним, ніж обмежувальним – принаймні наразі. Цього тижня Білий дім зібрав керівників технокомпаній, дослідників та законодавців на Саміт з технологій та інновацій, який приніс близько 90 мільярдів доларів нових галузевих зобов’язань щодо проєктів зі штучного інтелекту та виробництва напівпровідників у США ts2.tech. Десятки компаній — від Google до Intel і Blackstone — пообіцяли інвестувати мільярди у передові дата-центри, вітчизняні фабрики чипів та дослідницькі центри ШІ по всій Америці, укріплюючи технічну інфраструктуру у партнерстві з федеральними ініціативами ts2.tech. Послання від американських лідерів: замість того, щоб негайно встановлювати загальні закони щодо ШІ, вони підливають пального у вогонь інновацій, щоб зберегти перевагу над глобальними конкурентами, водночас аналізуючи вплив ШІ. Навіть Федеральна резервна система США звертає на це увагу. У промові 17 липня щодо технологій членка Ради керуючих Федрезерву Ліза Д. Кук назвала ШІ «потенційно наступною технологією загального призначення» – порівнюючи його трансформаційний потенціал із друкарським верстатом чи електрикою ts2.tech. Вона відзначила, що «понад пів мільярда користувачів» у світі вже щотижня взаємодіють з великими ШІ-моделями, і що за минулий рік поступ ШІ подвоїв ключові показники ts2.tech. Водночас Кук попередила й про «багатовимірні виклики». Хоча ШІ у довгостроковій перспективі може підвищити продуктивність (і навіть допомогти стримати інфляцію), його стрімке впровадження може спричинити короткострокові потрясіння — включаючи сплески інвестицій і витрат, які парадоксальним чином можуть підняти ціни до появи ефективності ts2.tech. Її виважена позиція — не перебільшувати ні утопію, ні катастрофу — відображає ширше консенсус у Вашингтоні: заохочувати розвиток ШІ обережно, уважно стежачи за впливом на робочі місця, рівень інфляції та нерівність після їх появи.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

ШІ в медіа, розвагах і креативних індустріях

Netflix використовує ШІ для VFX: У Голлівуді відбулася визначна подія: Netflix повідомив у своєму звіті про прибутки, що почав використовувати генеративний ШІ у виробництві контенту, включаючи перші в історії кадри, створені ШІ, у шоу Netflix ts2.tech. В аргентинському науково-фантастичному серіалі «Ель Етернаута» цілу сцену обвалення будівлі було створено за допомогою ШІ — це зайняло у 10 разів менше часу та коштувало дешевше, ніж традиційні візуальні ефекти techcrunch.com. Спів-генеральний директор Тед Сарандос підкреслив, що ШІ використовується для підсилення творців, а не для їхньої заміни, заявивши: «ШІ відкриває неймовірні можливості допомогти творцям робити фільми та серіали кращими, а не просто дешевшими… це справжні люди, які виконують справжню роботу з кращими інструментами.» techcrunch.com Він зазначив, що художники Netflix вже відчувають переваги у препродакшн-візуалізації та плануванні кадрів. Netflix також використовує генеративний ШІ не лише для VFX – компанія застосовує його для персоналізованого відкриття контенту і вже готується запустити інтерактивну рекламу на базі ШІ до кінця цього року techcrunch.com.

Генеративна мода та відео-чари: Творчий підхід ШІ поширився й на моду та відео. Дослідники з Південної Кореї експериментували з «генеративним кутюром», використовуючи ChatGPT для прогнозування майбутніх модних трендів і DALL·E 3 для створення понад 100 віртуальних образів для колекції осінь/зима binaryverseai.com binaryverseai.com. Близько двох третин дизайнів, створених ШІ, відповідали реальним стилям, що натякає на здатність генеративних моделей виявляти тренди раніше, ніж це зроблять дизайнери. (ШІ зазнав труднощів із абстрактними поняттями, такими як гендерно-нейтральний дизайн, що підкреслює: людські дизайнери все ще тримають креативний компас binaryverseai.com.) У сфері технологій для кіновиробництва NVIDIA разом із партнерами з університетів презентували DiffusionRenderer — дворівневу систему ШІ, яка поєднує інверсний і прямий рендеринг, роблячи сучасні відеоефекти доступними для незалежних творців binaryverseai.com binaryverseai.com. В одному з демонстраційних відео користувач міг зняти простий кадр і додати CGI-дракона, тінь від якого виглядає реалістично без складних сенсорів чи ручного налаштування світла – ШІ самостійно вивчив геометрію та освітлення сцени за відео binaryverseai.com binaryverseai.com. У підсумку це звужує прірву між великими студіями і маленькими творцями, натякаючи на майбутнє з «майже магічним» відеомонтажем для всіх.

Фінанси, бізнес та інвестиції в ШІ

ШІ, спеціально створений для фінансів: Фінансовий сектор став свідком активного впровадження ШІ як у продуктах, так і в прибутках. Стартап Anthropic запустив Claude for Financial Services — версію свого асистента Claude-4, спеціалізованого для аналітиків ринку та банкірів. Anthropic стверджує, що Claude-4 перевершує інші провідні моделі у фінансових завданнях згідно з галузевими бенчмарками anthropic.com. Платформа може підключатися до поточних ринкових даних (через партнерів, таких як Bloomberg, FactSet та ін.) і обробляти значні обсяги робіт: від моделювання ризиків до оформлення документів для відповідності. Перші користувачі повідомляють про суттєві переваги — наприклад, генеральний директор суверенного фонду багатства Норвегії на $1,4 трлн (NBIM) заявив, що Claude “фундаментально змінив” їхню роботу, забезпечивши орієнтовно 20% приросту продуктивності (близько 213 000 зекономлених робочих годин) завдяки тому, що персонал може безперешкодно працювати з даними й ефективніше аналізувати фінансові звіти anthropic.com. З його слів, Claude фактично став “незамінним” для аналітиків та менеджерів з ризиків цієї компанії anthropic.com. Великі банки й фонди також досліджують можливості асистентів ШІ для прискорення досліджень з повним аудит-трейлом і автоматизації рутинних завдань, які зазвичай гальмують роботу фінансових команд.

Уолл-стріт робить ставки на AI-стартапи: Інвестори продовжують вкладати гроші в штучний інтелект із вражаючими оцінками. Цього вікенду надійшла новина, що стартап Perplexity AI, відомий своїм чат-ботом для пошуку на основі ШІ, залучив ще $100 мільйонів фінансування – і підняв свою оцінку до приблизно $18 мільярдів theindependent.sg. (Для порівняння, ще два місяці тому Perplexity оцінювали приблизно у $14 мільярдів, а минулого року – лише у $1 мільярд, що відображає стрімке зростання генеративного ШІ theindependent.sg.) З’являються і нові фонди з фокусом на ШІ: наприклад, один із ранніх інвесторів Instacart запустив фонд “Verified Capital” зі $175 мільйонами, орієнтованими на AI-стартапи (анонсовано 20 липня). А у сфері хмарних обчислень традиційні компанії пристосовуються до епохи ШІ – іноді болісно. Amazon підтвердила, що скорочує кілька сотень працівників AWS (переважно в службі підтримки хмарних сервісів), після того як генеральний директор Енді Джессі попередив, що ефективність ШІ призведе до зменшення певних “проміжних” посад binaryverseai.com. Внутрішні електронні листи цього тижня вказують, що деякі спеціалізовані команди з міграції у хмару стали непотрібними – “перше видиме підтвердження в межах AWS” автоматизації під керуванням ШІ, як зазначив Reuters binaryverseai.com binaryverseai.com. Аналітики стверджують, що навіть підрозділи з великою маржею не захищені: “ШІ поглинає завдання, які він освоює, а потім компанії або перенаправляють, або звільняють людей,” – сухо зазначив один із них binaryverseai.com. Попри значні прибутки, хмарний гігант проводить оптимізацію, демонструючи, як зростання продуктивності від ШІ також може на практиці призводити до скорочення робочої сили.

Наукові та медичні прориви

Прискорення медичного аналізу: У сфері охорони здоров’я прориви в штучному інтелекті обіцяють швидші діагнози та безпечніші процедури. Дослідники з Університету Індіани та партнерських лікарень презентували систему штучного інтелекту “Інформатика раку”, яка здатна аналізувати оцифровані зразки патології, електронні медичні картки й навіть геномні дані для виявлення потенційних онкозахворювань і пропонування стадій пухлини. За словами головного дослідника Спирідона Бакаса, ця система скоротила деякі діагностичні процеси “з днів до секунд”, тріажуючи випадки з надлюдською швидкістю binaryverseai.com binaryverseai.com. Інструмент також виявив делікатні взаємозв’язки між мульти-модальними даними, які людина могла б пропустити, хоча команда наполягає: патологи залишаються незамінними для складних випадків і остаточних висновків binaryverseai.com. Проєкт ілюструє ширшу тенденцію до мультимодального медичного ШІ, що здатен аналізувати різні типи даних одночасно. Подібно до цього, радіологи повідомили про успіхи у використанні моделі ШІ під назвою mViT (модифікований vision transformer) для покращення дитячих КТ-сканувань binaryverseai.com binaryverseai.com. Фотонно-лічильні КТ-сканери дозволяють знижувати дозу рентгенівського випромінювання для дітей, але зазвичай дають шумні зображення; система mViT навчилася зменшувати шум сканів у реальному часі, роблячи артерії й тканини чіткішими без розмиття, яке виникало при старих методах зниження шуму binaryverseai.com binaryverseai.com. Під час тестування на 20 маленьких пацієнтах ШІ постійно перевершував традиційні фільтри, що потенційно відкриває шлях до чіткіших КТ із низькою дозою — перемога для безпеки дітей, коли КТ нового покоління отримують схвалення FDA binaryverseai.com.

Прориви в біології та матеріалознавстві: ШІ також сприяє базовій науці. Нове дослідження у Nature Communications описує, як тріада нейронних мереж тепер може встановлювати часову мітку розвитку ембріона з точністю до хвилини, що може змінити розвиток біології binaryverseai.com. Навчаючи згорткові нейромережі на зображеннях ембріонів плодових мух у високій роздільній здатності, система навчилася розпізнавати тонкі візуальні підказки циклів поділу клітин. Вона може визначати вік ембріона (з похибкою ±1 хвилина) без використання руйнівних флуоресцентних маркерів – досягаючи 98–100% точності на ембріонах ранніх стадій binaryverseai.com binaryverseai.com. Цей штучний “ембріональний годинник” дозволив команді зіставити сплески активації генів з небаченою часовою точністю, надаючи біологам потужний новий інструмент для вивчення формування органів. У матеріалознавстві дослідники з Великої Британії представили “CrystalGPT,” модель, навченої на 706 000 кристалічних структур для прогнозування властивостей матеріалів. Вивчаючи “мову” молекулярних кристалів (через пазли із замаскованими атомами та задачі на симетрію), CrystalGPT може передбачити густину, пористість чи стабільність нових сполук значно швидше, ніж прямі симуляції binaryverseai.com binaryverseai.com. Експерти відзначають її прозорість – ШІ навіть підсвічує, які саме атомні оточення найбільше вплинули на прогноз, – даючи хімікам упевненість замість “чорної скриньки” binaryverseai.com. Швидше моделювання кристалів може прискорити прогрес у створенні батарей, каталізаторів, напівпровідникових матеріалів, скорочуючи час і вартість науково-дослідних робіт.

ШІ для коду – із застереженнями: Не всі дослідження були оптимістичними; одне з них стало реалістичним поглядом на асистентів з програмування на основі ШІ. У контрольованому експерименті досвідчені розробники програмного забезпечення витратили на 19% більше часу на виконання завдання з допомогою ШІ-асистента, ніж контрольна група без ШІ ts2.tech. Досвідчені програмісти очікували, що ШІ (інструмент підказки коду) зробить їх швидшими, але він часто надавав лише “правильні у напрямку, але не зовсім такі, як потрібно” фрагменти коду ts2.tech. Час втрачався на перегляд і виправлення цих майже правильних підказок. Натомість попередні дослідження показали значне підвищення швидкості у менш досвідчених програмістів на простіших завданнях. “Це більше схоже на редагування есе, ніж на написання з нуля,” – сказав один із досвідчених розробників про працю з ШІ-асистентом – можливо, більш розслаблено, зате повільніше ts2.tech. Дослідники з METR дійшли висновку, що нинішні асистенти на основі ШІ не є чарівною паличкою для підвищення продуктивності експертів у складному програмуванні і що суттєве доопрацювання (і людський контроль) досі необхідні ts2.tech. Це нюансоване спостереження стримує поспішне впровадження генераторів коду на основі ШІ для всіх розробників.

Зазирнути всередину “мозку” ШІ: Консорціум провідних науковців зі сфери штучного інтелекту (з OpenAI, DeepMind, Anthropic та провідних університетів) опублікував примітну статтю із закликом до розробки нових технік для моніторингу “ланцюга роздумів” ШІ – по суті, прихованих кроків міркування, які моделі ШІ генерують всередині себе ts2.tech. Оскільки системи ШІ стають дедалі автономнішими (як агенти, що з’являються сьогодні), автори стверджують, що можливість перевіряти ці проміжні думки може стати критично важливою для безпеки ts2.tech. Спостерігаючи поетапне міркування ШІ, розробники можуть вчасно виявити помилки чи небезпечні відхилення до того, як ШІ почне діяти. Однак у статті попереджається, що зі зростанням складності моделей “немає гарантії, що нинішній рівень прозорості збережеться” – майбутні ШІ можуть приховати процеси мислення так, що їх буде важко відстежити ts2.tech. Команда закликала спільноту “максимально ефективно використовувати можливість моніторингу [ланцюга роздумів]” вже сьогодні і прагнути зберігати прозорість у майбутньому ts2.tech. Примітно, що під цим закликом до дії підписалися найвідоміші фахівці у сфері ШІ – серед них Джеффрі Хінтон, головний науковець OpenAI Ілля Суцкевер (та керівник напряму узгодження Ян Лейке), співзасновник DeepMind Шейн Легг та інші ts2.tech. Це рідкісний приклад єдності між конкурентними лабораторіями, що відображає спільну стурбованість: оскільки ШІ наближається до людського рівня міркування, ми не повинні дозволити йому перетворитись на незбагненну “чорну скриньку”. Дослідження “сканування мозку ШІ” – тобто читання його думок – можуть стати не менш важливими, ніж створення самого ШІ.

Держава та регулювання

ЄС впроваджує Закон про штучний інтелект: Брюссель підштовхнув регуляторні межі, зробивши конкретні кроки щодо реалізації свого знакового Закону про ШІ. 18 липня Європейська комісія оприлюднила детальні інструкції для “ШІ-моделей із системними ризиками” – тобто найбільш потужних універсальних ШІ-систем, які можуть впливати на громадську безпеку або основні права людини ts2.tech. Інструкції роз’яснюють жорсткі нові вимоги, із якими зіткнуться ці постачальники ШІ після набуття чинності Законом про ШІ 2 серпня. Згідно з правилами, великі розробники штучного інтелекту (Google, OpenAI, Meta, Anthropic, французька Mistral та інші) повинні проводити суворі оцінки ризиків, випробування з протидією вразливостям (adversarial testing) та повідомляти про серйозні інциденти чи збої регуляторам ЄС ts2.tech. Вони також повинні впроваджувати надійний кіберзахист, щоб запобігти зловмисному використанню своїх моделей ts2.tech. Прозорість – ключове: розробники базових моделей повинні документувати джерела навчальних даних, дотримуватися авторських прав і публікувати короткі звіти про зміст датасетів, використаних для навчання кожного ШІ ts2.tech. “Завдяки сьогоднішнім інструкціям Комісія сприяє плавному та ефективному застосуванню Закону про ШІ”, — сказала головна технологічна чиновниця ЄС Генна Вірккунен, підкресливши, що регулятори хочуть забезпечити чіткість для бізнесу, стримуючи потенційні ризики ts2.tech. У компаній є пільговий період до серпня 2026 року для повного виконання вимог ts2.tech. Після цього порушення можуть обійтися у величезні штрафи – до €35 млн або 7% світового обороту (що більше) ts2.tech. Нові інструкції з’явилися на тлі невдоволення окремих технологічних компаній тим, що європейські правила можуть бути надто обтяжливими, проте чиновники ЄС налаштовані довести, що вони можуть бути “глобальними наглядачами ШІ”, не душачи інновації.

Добровільний кодекс спричиняє суперечки: У тіні обов’язкового AI Act запропонований регуляторами ЄС добровільний «Кодекс практики ШІ» викликав трансатлантичну дискусію. Кодекс, розроблений експертами для заохочення раннього впровадження деяких принципів AI Act, закликає компанії, що займаються ШІ, проактивно дотримуватись певних заходів прозорості та безпеки вже зараз, до набуття чинності закону. Цього тижня серед американських технологічних гігантів виник розкол: Microsoft натякнула, що, ймовірно, приєднається, президент Бред Сміт заявив: «Я думаю, що ми, ймовірно, підпишемося… Наша мета — підтримувати» та привітав тісну співпрацю з AI-офісом ЄС reuters.com. У різкому контрасті Meta Platforms категорично відкинула цей добровільний кодекс. «Meta не підписуватиме його. Цей кодекс створює низку юридичних невизначеностей для розробників моделей, а також запроваджує заходи, що значно виходять за межі AI Act», — написав керівник з глобальних питань Meta Джоел Каплан 18 липня reuters.com. На його думку, рекомендації ЄС є надмірним регулюванням, яке може «загальмувати розвиток і впровадження передових моделей ШІ в Європі» і «поставити під загрозу європейські компанії», що працюють у сфері ШІ reuters.com. Позиція Meta збігається зі скаргами коаліції з 45 європейських технологічних компаній, що проєкт кодексу є надто обмежувальним. З іншого боку, OpenAI (розробник ChatGPT) та французька Mistral AI вже підписали кодекс, сигналізуючи, що деякі провідні гравці готові пристати на більшу прозорість і перевірки дотримання авторських прав у Європі ts2.tech. Такий розкол підкреслює зростання напруги: американські гіганти прагнуть уникати прецедентів, які могли б стати для них обов’язковими в усьому світі, тоді як європейські регулятори (і деякі стартапи) вже зараз вимагають більш високих стандартів. Те, як буде впроваджений цей добровільний кодекс, може вплинути на фактичні правила ШІ у всьому світі ще до вступу обов’язкового закону ЄС у дію.

США роблять ставку на інновації, а не на регулювання: У Вашингтоні підхід до ШІ залишається більш стимулювальним, ніж обмежувальним – принаймні наразі. Цього тижня Білий дім зібрав керівників технокомпаній, дослідників та законодавців на Саміт з технологій та інновацій, який приніс близько 90 мільярдів доларів нових галузевих зобов’язань щодо проєктів зі штучного інтелекту та виробництва напівпровідників у США ts2.tech. Десятки компаній — від Google до Intel і Blackstone — пообіцяли інвестувати мільярди у передові дата-центри, вітчизняні фабрики чипів та дослідницькі центри ШІ по всій Америці, укріплюючи технічну інфраструктуру у партнерстві з федеральними ініціативами ts2.tech. Послання від американських лідерів: замість того, щоб негайно встановлювати загальні закони щодо ШІ, вони підливають пального у вогонь інновацій, щоб зберегти перевагу над глобальними конкурентами, водночас аналізуючи вплив ШІ. Навіть Федеральна резервна система США звертає на це увагу. У промові 17 липня щодо технологій членка Ради керуючих Федрезерву Ліза Д. Кук назвала ШІ «потенційно наступною технологією загального призначення» – порівнюючи його трансформаційний потенціал із друкарським верстатом чи електрикою ts2.tech. Вона відзначила, що «понад пів мільярда користувачів» у світі вже щотижня взаємодіють з великими ШІ-моделями, і що за минулий рік поступ ШІ подвоїв ключові показники ts2.tech. Водночас Кук попередила й про «багатовимірні виклики». Хоча ШІ у довгостроковій перспективі може підвищити продуктивність (і навіть допомогти стримати інфляцію), його стрімке впровадження може спричинити короткострокові потрясіння — включаючи сплески інвестицій і витрат, які парадоксальним чином можуть підняти ціни до появи ефективності ts2.tech. Її виважена позиція — не перебільшувати ні утопію, ні катастрофу — відображає ширше консенсус у Вашингтоні: заохочувати розвиток ШІ обережно, уважно стежачи за впливом на робочі місця, рівень інфляції та нерівність після їх появи.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

Наукові та медичні прориви

Прискорення медичного аналізу: У сфері охорони здоров’я прориви в штучному інтелекті обіцяють швидші діагнози та безпечніші процедури. Дослідники з Університету Індіани та партнерських лікарень презентували систему штучного інтелекту “Інформатика раку”, яка здатна аналізувати оцифровані зразки патології, електронні медичні картки й навіть геномні дані для виявлення потенційних онкозахворювань і пропонування стадій пухлини. За словами головного дослідника Спирідона Бакаса, ця система скоротила деякі діагностичні процеси “з днів до секунд”, тріажуючи випадки з надлюдською швидкістю binaryverseai.com binaryverseai.com. Інструмент також виявив делікатні взаємозв’язки між мульти-модальними даними, які людина могла б пропустити, хоча команда наполягає: патологи залишаються незамінними для складних випадків і остаточних висновків binaryverseai.com. Проєкт ілюструє ширшу тенденцію до мультимодального медичного ШІ, що здатен аналізувати різні типи даних одночасно. Подібно до цього, радіологи повідомили про успіхи у використанні моделі ШІ під назвою mViT (модифікований vision transformer) для покращення дитячих КТ-сканувань binaryverseai.com binaryverseai.com. Фотонно-лічильні КТ-сканери дозволяють знижувати дозу рентгенівського випромінювання для дітей, але зазвичай дають шумні зображення; система mViT навчилася зменшувати шум сканів у реальному часі, роблячи артерії й тканини чіткішими без розмиття, яке виникало при старих методах зниження шуму binaryverseai.com binaryverseai.com. Під час тестування на 20 маленьких пацієнтах ШІ постійно перевершував традиційні фільтри, що потенційно відкриває шлях до чіткіших КТ із низькою дозою — перемога для безпеки дітей, коли КТ нового покоління отримують схвалення FDA binaryverseai.com.

Прориви в біології та матеріалознавстві: ШІ також сприяє базовій науці. Нове дослідження у Nature Communications описує, як тріада нейронних мереж тепер може встановлювати часову мітку розвитку ембріона з точністю до хвилини, що може змінити розвиток біології binaryverseai.com. Навчаючи згорткові нейромережі на зображеннях ембріонів плодових мух у високій роздільній здатності, система навчилася розпізнавати тонкі візуальні підказки циклів поділу клітин. Вона може визначати вік ембріона (з похибкою ±1 хвилина) без використання руйнівних флуоресцентних маркерів – досягаючи 98–100% точності на ембріонах ранніх стадій binaryverseai.com binaryverseai.com. Цей штучний “ембріональний годинник” дозволив команді зіставити сплески активації генів з небаченою часовою точністю, надаючи біологам потужний новий інструмент для вивчення формування органів. У матеріалознавстві дослідники з Великої Британії представили “CrystalGPT,” модель, навченої на 706 000 кристалічних структур для прогнозування властивостей матеріалів. Вивчаючи “мову” молекулярних кристалів (через пазли із замаскованими атомами та задачі на симетрію), CrystalGPT може передбачити густину, пористість чи стабільність нових сполук значно швидше, ніж прямі симуляції binaryverseai.com binaryverseai.com. Експерти відзначають її прозорість – ШІ навіть підсвічує, які саме атомні оточення найбільше вплинули на прогноз, – даючи хімікам упевненість замість “чорної скриньки” binaryverseai.com. Швидше моделювання кристалів може прискорити прогрес у створенні батарей, каталізаторів, напівпровідникових матеріалів, скорочуючи час і вартість науково-дослідних робіт.

ШІ для коду – із застереженнями: Не всі дослідження були оптимістичними; одне з них стало реалістичним поглядом на асистентів з програмування на основі ШІ. У контрольованому експерименті досвідчені розробники програмного забезпечення витратили на 19% більше часу на виконання завдання з допомогою ШІ-асистента, ніж контрольна група без ШІ ts2.tech. Досвідчені програмісти очікували, що ШІ (інструмент підказки коду) зробить їх швидшими, але він часто надавав лише “правильні у напрямку, але не зовсім такі, як потрібно” фрагменти коду ts2.tech. Час втрачався на перегляд і виправлення цих майже правильних підказок. Натомість попередні дослідження показали значне підвищення швидкості у менш досвідчених програмістів на простіших завданнях. “Це більше схоже на редагування есе, ніж на написання з нуля,” – сказав один із досвідчених розробників про працю з ШІ-асистентом – можливо, більш розслаблено, зате повільніше ts2.tech. Дослідники з METR дійшли висновку, що нинішні асистенти на основі ШІ не є чарівною паличкою для підвищення продуктивності експертів у складному програмуванні і що суттєве доопрацювання (і людський контроль) досі необхідні ts2.tech. Це нюансоване спостереження стримує поспішне впровадження генераторів коду на основі ШІ для всіх розробників.

Зазирнути всередину “мозку” ШІ: Консорціум провідних науковців зі сфери штучного інтелекту (з OpenAI, DeepMind, Anthropic та провідних університетів) опублікував примітну статтю із закликом до розробки нових технік для моніторингу “ланцюга роздумів” ШІ – по суті, прихованих кроків міркування, які моделі ШІ генерують всередині себе ts2.tech. Оскільки системи ШІ стають дедалі автономнішими (як агенти, що з’являються сьогодні), автори стверджують, що можливість перевіряти ці проміжні думки може стати критично важливою для безпеки ts2.tech. Спостерігаючи поетапне міркування ШІ, розробники можуть вчасно виявити помилки чи небезпечні відхилення до того, як ШІ почне діяти. Однак у статті попереджається, що зі зростанням складності моделей “немає гарантії, що нинішній рівень прозорості збережеться” – майбутні ШІ можуть приховати процеси мислення так, що їх буде важко відстежити ts2.tech. Команда закликала спільноту “максимально ефективно використовувати можливість моніторингу [ланцюга роздумів]” вже сьогодні і прагнути зберігати прозорість у майбутньому ts2.tech. Примітно, що під цим закликом до дії підписалися найвідоміші фахівці у сфері ШІ – серед них Джеффрі Хінтон, головний науковець OpenAI Ілля Суцкевер (та керівник напряму узгодження Ян Лейке), співзасновник DeepMind Шейн Легг та інші ts2.tech. Це рідкісний приклад єдності між конкурентними лабораторіями, що відображає спільну стурбованість: оскільки ШІ наближається до людського рівня міркування, ми не повинні дозволити йому перетворитись на незбагненну “чорну скриньку”. Дослідження “сканування мозку ШІ” – тобто читання його думок – можуть стати не менш важливими, ніж створення самого ШІ.

Держава та регулювання

ЄС впроваджує Закон про штучний інтелект: Брюссель підштовхнув регуляторні межі, зробивши конкретні кроки щодо реалізації свого знакового Закону про ШІ. 18 липня Європейська комісія оприлюднила детальні інструкції для “ШІ-моделей із системними ризиками” – тобто найбільш потужних універсальних ШІ-систем, які можуть впливати на громадську безпеку або основні права людини ts2.tech. Інструкції роз’яснюють жорсткі нові вимоги, із якими зіткнуться ці постачальники ШІ після набуття чинності Законом про ШІ 2 серпня. Згідно з правилами, великі розробники штучного інтелекту (Google, OpenAI, Meta, Anthropic, французька Mistral та інші) повинні проводити суворі оцінки ризиків, випробування з протидією вразливостям (adversarial testing) та повідомляти про серйозні інциденти чи збої регуляторам ЄС ts2.tech. Вони також повинні впроваджувати надійний кіберзахист, щоб запобігти зловмисному використанню своїх моделей ts2.tech. Прозорість – ключове: розробники базових моделей повинні документувати джерела навчальних даних, дотримуватися авторських прав і публікувати короткі звіти про зміст датасетів, використаних для навчання кожного ШІ ts2.tech. “Завдяки сьогоднішнім інструкціям Комісія сприяє плавному та ефективному застосуванню Закону про ШІ”, — сказала головна технологічна чиновниця ЄС Генна Вірккунен, підкресливши, що регулятори хочуть забезпечити чіткість для бізнесу, стримуючи потенційні ризики ts2.tech. У компаній є пільговий період до серпня 2026 року для повного виконання вимог ts2.tech. Після цього порушення можуть обійтися у величезні штрафи – до €35 млн або 7% світового обороту (що більше) ts2.tech. Нові інструкції з’явилися на тлі невдоволення окремих технологічних компаній тим, що європейські правила можуть бути надто обтяжливими, проте чиновники ЄС налаштовані довести, що вони можуть бути “глобальними наглядачами ШІ”, не душачи інновації.

Добровільний кодекс спричиняє суперечки: У тіні обов’язкового AI Act запропонований регуляторами ЄС добровільний «Кодекс практики ШІ» викликав трансатлантичну дискусію. Кодекс, розроблений експертами для заохочення раннього впровадження деяких принципів AI Act, закликає компанії, що займаються ШІ, проактивно дотримуватись певних заходів прозорості та безпеки вже зараз, до набуття чинності закону. Цього тижня серед американських технологічних гігантів виник розкол: Microsoft натякнула, що, ймовірно, приєднається, президент Бред Сміт заявив: «Я думаю, що ми, ймовірно, підпишемося… Наша мета — підтримувати» та привітав тісну співпрацю з AI-офісом ЄС reuters.com. У різкому контрасті Meta Platforms категорично відкинула цей добровільний кодекс. «Meta не підписуватиме його. Цей кодекс створює низку юридичних невизначеностей для розробників моделей, а також запроваджує заходи, що значно виходять за межі AI Act», — написав керівник з глобальних питань Meta Джоел Каплан 18 липня reuters.com. На його думку, рекомендації ЄС є надмірним регулюванням, яке може «загальмувати розвиток і впровадження передових моделей ШІ в Європі» і «поставити під загрозу європейські компанії», що працюють у сфері ШІ reuters.com. Позиція Meta збігається зі скаргами коаліції з 45 європейських технологічних компаній, що проєкт кодексу є надто обмежувальним. З іншого боку, OpenAI (розробник ChatGPT) та французька Mistral AI вже підписали кодекс, сигналізуючи, що деякі провідні гравці готові пристати на більшу прозорість і перевірки дотримання авторських прав у Європі ts2.tech. Такий розкол підкреслює зростання напруги: американські гіганти прагнуть уникати прецедентів, які могли б стати для них обов’язковими в усьому світі, тоді як європейські регулятори (і деякі стартапи) вже зараз вимагають більш високих стандартів. Те, як буде впроваджений цей добровільний кодекс, може вплинути на фактичні правила ШІ у всьому світі ще до вступу обов’язкового закону ЄС у дію.

США роблять ставку на інновації, а не на регулювання: У Вашингтоні підхід до ШІ залишається більш стимулювальним, ніж обмежувальним – принаймні наразі. Цього тижня Білий дім зібрав керівників технокомпаній, дослідників та законодавців на Саміт з технологій та інновацій, який приніс близько 90 мільярдів доларів нових галузевих зобов’язань щодо проєктів зі штучного інтелекту та виробництва напівпровідників у США ts2.tech. Десятки компаній — від Google до Intel і Blackstone — пообіцяли інвестувати мільярди у передові дата-центри, вітчизняні фабрики чипів та дослідницькі центри ШІ по всій Америці, укріплюючи технічну інфраструктуру у партнерстві з федеральними ініціативами ts2.tech. Послання від американських лідерів: замість того, щоб негайно встановлювати загальні закони щодо ШІ, вони підливають пального у вогонь інновацій, щоб зберегти перевагу над глобальними конкурентами, водночас аналізуючи вплив ШІ. Навіть Федеральна резервна система США звертає на це увагу. У промові 17 липня щодо технологій членка Ради керуючих Федрезерву Ліза Д. Кук назвала ШІ «потенційно наступною технологією загального призначення» – порівнюючи його трансформаційний потенціал із друкарським верстатом чи електрикою ts2.tech. Вона відзначила, що «понад пів мільярда користувачів» у світі вже щотижня взаємодіють з великими ШІ-моделями, і що за минулий рік поступ ШІ подвоїв ключові показники ts2.tech. Водночас Кук попередила й про «багатовимірні виклики». Хоча ШІ у довгостроковій перспективі може підвищити продуктивність (і навіть допомогти стримати інфляцію), його стрімке впровадження може спричинити короткострокові потрясіння — включаючи сплески інвестицій і витрат, які парадоксальним чином можуть підняти ціни до появи ефективності ts2.tech. Її виважена позиція — не перебільшувати ні утопію, ні катастрофу — відображає ширше консенсус у Вашингтоні: заохочувати розвиток ШІ обережно, уважно стежачи за впливом на робочі місця, рівень інфляції та нерівність після їх появи.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

ШІ в медіа, розвагах і креативних індустріях

Netflix використовує ШІ для VFX: У Голлівуді відбулася визначна подія: Netflix повідомив у своєму звіті про прибутки, що почав використовувати генеративний ШІ у виробництві контенту, включаючи перші в історії кадри, створені ШІ, у шоу Netflix ts2.tech. В аргентинському науково-фантастичному серіалі «Ель Етернаута» цілу сцену обвалення будівлі було створено за допомогою ШІ — це зайняло у 10 разів менше часу та коштувало дешевше, ніж традиційні візуальні ефекти techcrunch.com. Спів-генеральний директор Тед Сарандос підкреслив, що ШІ використовується для підсилення творців, а не для їхньої заміни, заявивши: «ШІ відкриває неймовірні можливості допомогти творцям робити фільми та серіали кращими, а не просто дешевшими… це справжні люди, які виконують справжню роботу з кращими інструментами.» techcrunch.com Він зазначив, що художники Netflix вже відчувають переваги у препродакшн-візуалізації та плануванні кадрів. Netflix також використовує генеративний ШІ не лише для VFX – компанія застосовує його для персоналізованого відкриття контенту і вже готується запустити інтерактивну рекламу на базі ШІ до кінця цього року techcrunch.com.

Генеративна мода та відео-чари: Творчий підхід ШІ поширився й на моду та відео. Дослідники з Південної Кореї експериментували з «генеративним кутюром», використовуючи ChatGPT для прогнозування майбутніх модних трендів і DALL·E 3 для створення понад 100 віртуальних образів для колекції осінь/зима binaryverseai.com binaryverseai.com. Близько двох третин дизайнів, створених ШІ, відповідали реальним стилям, що натякає на здатність генеративних моделей виявляти тренди раніше, ніж це зроблять дизайнери. (ШІ зазнав труднощів із абстрактними поняттями, такими як гендерно-нейтральний дизайн, що підкреслює: людські дизайнери все ще тримають креативний компас binaryverseai.com.) У сфері технологій для кіновиробництва NVIDIA разом із партнерами з університетів презентували DiffusionRenderer — дворівневу систему ШІ, яка поєднує інверсний і прямий рендеринг, роблячи сучасні відеоефекти доступними для незалежних творців binaryverseai.com binaryverseai.com. В одному з демонстраційних відео користувач міг зняти простий кадр і додати CGI-дракона, тінь від якого виглядає реалістично без складних сенсорів чи ручного налаштування світла – ШІ самостійно вивчив геометрію та освітлення сцени за відео binaryverseai.com binaryverseai.com. У підсумку це звужує прірву між великими студіями і маленькими творцями, натякаючи на майбутнє з «майже магічним» відеомонтажем для всіх.

Фінанси, бізнес та інвестиції в ШІ

ШІ, спеціально створений для фінансів: Фінансовий сектор став свідком активного впровадження ШІ як у продуктах, так і в прибутках. Стартап Anthropic запустив Claude for Financial Services — версію свого асистента Claude-4, спеціалізованого для аналітиків ринку та банкірів. Anthropic стверджує, що Claude-4 перевершує інші провідні моделі у фінансових завданнях згідно з галузевими бенчмарками anthropic.com. Платформа може підключатися до поточних ринкових даних (через партнерів, таких як Bloomberg, FactSet та ін.) і обробляти значні обсяги робіт: від моделювання ризиків до оформлення документів для відповідності. Перші користувачі повідомляють про суттєві переваги — наприклад, генеральний директор суверенного фонду багатства Норвегії на $1,4 трлн (NBIM) заявив, що Claude “фундаментально змінив” їхню роботу, забезпечивши орієнтовно 20% приросту продуктивності (близько 213 000 зекономлених робочих годин) завдяки тому, що персонал може безперешкодно працювати з даними й ефективніше аналізувати фінансові звіти anthropic.com. З його слів, Claude фактично став “незамінним” для аналітиків та менеджерів з ризиків цієї компанії anthropic.com. Великі банки й фонди також досліджують можливості асистентів ШІ для прискорення досліджень з повним аудит-трейлом і автоматизації рутинних завдань, які зазвичай гальмують роботу фінансових команд.

Уолл-стріт робить ставки на AI-стартапи: Інвестори продовжують вкладати гроші в штучний інтелект із вражаючими оцінками. Цього вікенду надійшла новина, що стартап Perplexity AI, відомий своїм чат-ботом для пошуку на основі ШІ, залучив ще $100 мільйонів фінансування – і підняв свою оцінку до приблизно $18 мільярдів theindependent.sg. (Для порівняння, ще два місяці тому Perplexity оцінювали приблизно у $14 мільярдів, а минулого року – лише у $1 мільярд, що відображає стрімке зростання генеративного ШІ theindependent.sg.) З’являються і нові фонди з фокусом на ШІ: наприклад, один із ранніх інвесторів Instacart запустив фонд “Verified Capital” зі $175 мільйонами, орієнтованими на AI-стартапи (анонсовано 20 липня). А у сфері хмарних обчислень традиційні компанії пристосовуються до епохи ШІ – іноді болісно. Amazon підтвердила, що скорочує кілька сотень працівників AWS (переважно в службі підтримки хмарних сервісів), після того як генеральний директор Енді Джессі попередив, що ефективність ШІ призведе до зменшення певних “проміжних” посад binaryverseai.com. Внутрішні електронні листи цього тижня вказують, що деякі спеціалізовані команди з міграції у хмару стали непотрібними – “перше видиме підтвердження в межах AWS” автоматизації під керуванням ШІ, як зазначив Reuters binaryverseai.com binaryverseai.com. Аналітики стверджують, що навіть підрозділи з великою маржею не захищені: “ШІ поглинає завдання, які він освоює, а потім компанії або перенаправляють, або звільняють людей,” – сухо зазначив один із них binaryverseai.com. Попри значні прибутки, хмарний гігант проводить оптимізацію, демонструючи, як зростання продуктивності від ШІ також може на практиці призводити до скорочення робочої сили.

Наукові та медичні прориви

Прискорення медичного аналізу: У сфері охорони здоров’я прориви в штучному інтелекті обіцяють швидші діагнози та безпечніші процедури. Дослідники з Університету Індіани та партнерських лікарень презентували систему штучного інтелекту “Інформатика раку”, яка здатна аналізувати оцифровані зразки патології, електронні медичні картки й навіть геномні дані для виявлення потенційних онкозахворювань і пропонування стадій пухлини. За словами головного дослідника Спирідона Бакаса, ця система скоротила деякі діагностичні процеси “з днів до секунд”, тріажуючи випадки з надлюдською швидкістю binaryverseai.com binaryverseai.com. Інструмент також виявив делікатні взаємозв’язки між мульти-модальними даними, які людина могла б пропустити, хоча команда наполягає: патологи залишаються незамінними для складних випадків і остаточних висновків binaryverseai.com. Проєкт ілюструє ширшу тенденцію до мультимодального медичного ШІ, що здатен аналізувати різні типи даних одночасно. Подібно до цього, радіологи повідомили про успіхи у використанні моделі ШІ під назвою mViT (модифікований vision transformer) для покращення дитячих КТ-сканувань binaryverseai.com binaryverseai.com. Фотонно-лічильні КТ-сканери дозволяють знижувати дозу рентгенівського випромінювання для дітей, але зазвичай дають шумні зображення; система mViT навчилася зменшувати шум сканів у реальному часі, роблячи артерії й тканини чіткішими без розмиття, яке виникало при старих методах зниження шуму binaryverseai.com binaryverseai.com. Під час тестування на 20 маленьких пацієнтах ШІ постійно перевершував традиційні фільтри, що потенційно відкриває шлях до чіткіших КТ із низькою дозою — перемога для безпеки дітей, коли КТ нового покоління отримують схвалення FDA binaryverseai.com.

Прориви в біології та матеріалознавстві: ШІ також сприяє базовій науці. Нове дослідження у Nature Communications описує, як тріада нейронних мереж тепер може встановлювати часову мітку розвитку ембріона з точністю до хвилини, що може змінити розвиток біології binaryverseai.com. Навчаючи згорткові нейромережі на зображеннях ембріонів плодових мух у високій роздільній здатності, система навчилася розпізнавати тонкі візуальні підказки циклів поділу клітин. Вона може визначати вік ембріона (з похибкою ±1 хвилина) без використання руйнівних флуоресцентних маркерів – досягаючи 98–100% точності на ембріонах ранніх стадій binaryverseai.com binaryverseai.com. Цей штучний “ембріональний годинник” дозволив команді зіставити сплески активації генів з небаченою часовою точністю, надаючи біологам потужний новий інструмент для вивчення формування органів. У матеріалознавстві дослідники з Великої Британії представили “CrystalGPT,” модель, навченої на 706 000 кристалічних структур для прогнозування властивостей матеріалів. Вивчаючи “мову” молекулярних кристалів (через пазли із замаскованими атомами та задачі на симетрію), CrystalGPT може передбачити густину, пористість чи стабільність нових сполук значно швидше, ніж прямі симуляції binaryverseai.com binaryverseai.com. Експерти відзначають її прозорість – ШІ навіть підсвічує, які саме атомні оточення найбільше вплинули на прогноз, – даючи хімікам упевненість замість “чорної скриньки” binaryverseai.com. Швидше моделювання кристалів може прискорити прогрес у створенні батарей, каталізаторів, напівпровідникових матеріалів, скорочуючи час і вартість науково-дослідних робіт.

ШІ для коду – із застереженнями: Не всі дослідження були оптимістичними; одне з них стало реалістичним поглядом на асистентів з програмування на основі ШІ. У контрольованому експерименті досвідчені розробники програмного забезпечення витратили на 19% більше часу на виконання завдання з допомогою ШІ-асистента, ніж контрольна група без ШІ ts2.tech. Досвідчені програмісти очікували, що ШІ (інструмент підказки коду) зробить їх швидшими, але він часто надавав лише “правильні у напрямку, але не зовсім такі, як потрібно” фрагменти коду ts2.tech. Час втрачався на перегляд і виправлення цих майже правильних підказок. Натомість попередні дослідження показали значне підвищення швидкості у менш досвідчених програмістів на простіших завданнях. “Це більше схоже на редагування есе, ніж на написання з нуля,” – сказав один із досвідчених розробників про працю з ШІ-асистентом – можливо, більш розслаблено, зате повільніше ts2.tech. Дослідники з METR дійшли висновку, що нинішні асистенти на основі ШІ не є чарівною паличкою для підвищення продуктивності експертів у складному програмуванні і що суттєве доопрацювання (і людський контроль) досі необхідні ts2.tech. Це нюансоване спостереження стримує поспішне впровадження генераторів коду на основі ШІ для всіх розробників.

Зазирнути всередину “мозку” ШІ: Консорціум провідних науковців зі сфери штучного інтелекту (з OpenAI, DeepMind, Anthropic та провідних університетів) опублікував примітну статтю із закликом до розробки нових технік для моніторингу “ланцюга роздумів” ШІ – по суті, прихованих кроків міркування, які моделі ШІ генерують всередині себе ts2.tech. Оскільки системи ШІ стають дедалі автономнішими (як агенти, що з’являються сьогодні), автори стверджують, що можливість перевіряти ці проміжні думки може стати критично важливою для безпеки ts2.tech. Спостерігаючи поетапне міркування ШІ, розробники можуть вчасно виявити помилки чи небезпечні відхилення до того, як ШІ почне діяти. Однак у статті попереджається, що зі зростанням складності моделей “немає гарантії, що нинішній рівень прозорості збережеться” – майбутні ШІ можуть приховати процеси мислення так, що їх буде важко відстежити ts2.tech. Команда закликала спільноту “максимально ефективно використовувати можливість моніторингу [ланцюга роздумів]” вже сьогодні і прагнути зберігати прозорість у майбутньому ts2.tech. Примітно, що під цим закликом до дії підписалися найвідоміші фахівці у сфері ШІ – серед них Джеффрі Хінтон, головний науковець OpenAI Ілля Суцкевер (та керівник напряму узгодження Ян Лейке), співзасновник DeepMind Шейн Легг та інші ts2.tech. Це рідкісний приклад єдності між конкурентними лабораторіями, що відображає спільну стурбованість: оскільки ШІ наближається до людського рівня міркування, ми не повинні дозволити йому перетворитись на незбагненну “чорну скриньку”. Дослідження “сканування мозку ШІ” – тобто читання його думок – можуть стати не менш важливими, ніж створення самого ШІ.

Держава та регулювання

ЄС впроваджує Закон про штучний інтелект: Брюссель підштовхнув регуляторні межі, зробивши конкретні кроки щодо реалізації свого знакового Закону про ШІ. 18 липня Європейська комісія оприлюднила детальні інструкції для “ШІ-моделей із системними ризиками” – тобто найбільш потужних універсальних ШІ-систем, які можуть впливати на громадську безпеку або основні права людини ts2.tech. Інструкції роз’яснюють жорсткі нові вимоги, із якими зіткнуться ці постачальники ШІ після набуття чинності Законом про ШІ 2 серпня. Згідно з правилами, великі розробники штучного інтелекту (Google, OpenAI, Meta, Anthropic, французька Mistral та інші) повинні проводити суворі оцінки ризиків, випробування з протидією вразливостям (adversarial testing) та повідомляти про серйозні інциденти чи збої регуляторам ЄС ts2.tech. Вони також повинні впроваджувати надійний кіберзахист, щоб запобігти зловмисному використанню своїх моделей ts2.tech. Прозорість – ключове: розробники базових моделей повинні документувати джерела навчальних даних, дотримуватися авторських прав і публікувати короткі звіти про зміст датасетів, використаних для навчання кожного ШІ ts2.tech. “Завдяки сьогоднішнім інструкціям Комісія сприяє плавному та ефективному застосуванню Закону про ШІ”, — сказала головна технологічна чиновниця ЄС Генна Вірккунен, підкресливши, що регулятори хочуть забезпечити чіткість для бізнесу, стримуючи потенційні ризики ts2.tech. У компаній є пільговий період до серпня 2026 року для повного виконання вимог ts2.tech. Після цього порушення можуть обійтися у величезні штрафи – до €35 млн або 7% світового обороту (що більше) ts2.tech. Нові інструкції з’явилися на тлі невдоволення окремих технологічних компаній тим, що європейські правила можуть бути надто обтяжливими, проте чиновники ЄС налаштовані довести, що вони можуть бути “глобальними наглядачами ШІ”, не душачи інновації.

Добровільний кодекс спричиняє суперечки: У тіні обов’язкового AI Act запропонований регуляторами ЄС добровільний «Кодекс практики ШІ» викликав трансатлантичну дискусію. Кодекс, розроблений експертами для заохочення раннього впровадження деяких принципів AI Act, закликає компанії, що займаються ШІ, проактивно дотримуватись певних заходів прозорості та безпеки вже зараз, до набуття чинності закону. Цього тижня серед американських технологічних гігантів виник розкол: Microsoft натякнула, що, ймовірно, приєднається, президент Бред Сміт заявив: «Я думаю, що ми, ймовірно, підпишемося… Наша мета — підтримувати» та привітав тісну співпрацю з AI-офісом ЄС reuters.com. У різкому контрасті Meta Platforms категорично відкинула цей добровільний кодекс. «Meta не підписуватиме його. Цей кодекс створює низку юридичних невизначеностей для розробників моделей, а також запроваджує заходи, що значно виходять за межі AI Act», — написав керівник з глобальних питань Meta Джоел Каплан 18 липня reuters.com. На його думку, рекомендації ЄС є надмірним регулюванням, яке може «загальмувати розвиток і впровадження передових моделей ШІ в Європі» і «поставити під загрозу європейські компанії», що працюють у сфері ШІ reuters.com. Позиція Meta збігається зі скаргами коаліції з 45 європейських технологічних компаній, що проєкт кодексу є надто обмежувальним. З іншого боку, OpenAI (розробник ChatGPT) та французька Mistral AI вже підписали кодекс, сигналізуючи, що деякі провідні гравці готові пристати на більшу прозорість і перевірки дотримання авторських прав у Європі ts2.tech. Такий розкол підкреслює зростання напруги: американські гіганти прагнуть уникати прецедентів, які могли б стати для них обов’язковими в усьому світі, тоді як європейські регулятори (і деякі стартапи) вже зараз вимагають більш високих стандартів. Те, як буде впроваджений цей добровільний кодекс, може вплинути на фактичні правила ШІ у всьому світі ще до вступу обов’язкового закону ЄС у дію.

США роблять ставку на інновації, а не на регулювання: У Вашингтоні підхід до ШІ залишається більш стимулювальним, ніж обмежувальним – принаймні наразі. Цього тижня Білий дім зібрав керівників технокомпаній, дослідників та законодавців на Саміт з технологій та інновацій, який приніс близько 90 мільярдів доларів нових галузевих зобов’язань щодо проєктів зі штучного інтелекту та виробництва напівпровідників у США ts2.tech. Десятки компаній — від Google до Intel і Blackstone — пообіцяли інвестувати мільярди у передові дата-центри, вітчизняні фабрики чипів та дослідницькі центри ШІ по всій Америці, укріплюючи технічну інфраструктуру у партнерстві з федеральними ініціативами ts2.tech. Послання від американських лідерів: замість того, щоб негайно встановлювати загальні закони щодо ШІ, вони підливають пального у вогонь інновацій, щоб зберегти перевагу над глобальними конкурентами, водночас аналізуючи вплив ШІ. Навіть Федеральна резервна система США звертає на це увагу. У промові 17 липня щодо технологій членка Ради керуючих Федрезерву Ліза Д. Кук назвала ШІ «потенційно наступною технологією загального призначення» – порівнюючи його трансформаційний потенціал із друкарським верстатом чи електрикою ts2.tech. Вона відзначила, що «понад пів мільярда користувачів» у світі вже щотижня взаємодіють з великими ШІ-моделями, і що за минулий рік поступ ШІ подвоїв ключові показники ts2.tech. Водночас Кук попередила й про «багатовимірні виклики». Хоча ШІ у довгостроковій перспективі може підвищити продуктивність (і навіть допомогти стримати інфляцію), його стрімке впровадження може спричинити короткострокові потрясіння — включаючи сплески інвестицій і витрат, які парадоксальним чином можуть підняти ціни до появи ефективності ts2.tech. Її виважена позиція — не перебільшувати ні утопію, ні катастрофу — відображає ширше консенсус у Вашингтоні: заохочувати розвиток ШІ обережно, уважно стежачи за впливом на робочі місця, рівень інфляції та нерівність після їх появи.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

Фінанси, бізнес та інвестиції в ШІ

ШІ, спеціально створений для фінансів: Фінансовий сектор став свідком активного впровадження ШІ як у продуктах, так і в прибутках. Стартап Anthropic запустив Claude for Financial Services — версію свого асистента Claude-4, спеціалізованого для аналітиків ринку та банкірів. Anthropic стверджує, що Claude-4 перевершує інші провідні моделі у фінансових завданнях згідно з галузевими бенчмарками anthropic.com. Платформа може підключатися до поточних ринкових даних (через партнерів, таких як Bloomberg, FactSet та ін.) і обробляти значні обсяги робіт: від моделювання ризиків до оформлення документів для відповідності. Перші користувачі повідомляють про суттєві переваги — наприклад, генеральний директор суверенного фонду багатства Норвегії на $1,4 трлн (NBIM) заявив, що Claude “фундаментально змінив” їхню роботу, забезпечивши орієнтовно 20% приросту продуктивності (близько 213 000 зекономлених робочих годин) завдяки тому, що персонал може безперешкодно працювати з даними й ефективніше аналізувати фінансові звіти anthropic.com. З його слів, Claude фактично став “незамінним” для аналітиків та менеджерів з ризиків цієї компанії anthropic.com. Великі банки й фонди також досліджують можливості асистентів ШІ для прискорення досліджень з повним аудит-трейлом і автоматизації рутинних завдань, які зазвичай гальмують роботу фінансових команд.

Уолл-стріт робить ставки на AI-стартапи: Інвестори продовжують вкладати гроші в штучний інтелект із вражаючими оцінками. Цього вікенду надійшла новина, що стартап Perplexity AI, відомий своїм чат-ботом для пошуку на основі ШІ, залучив ще $100 мільйонів фінансування – і підняв свою оцінку до приблизно $18 мільярдів theindependent.sg. (Для порівняння, ще два місяці тому Perplexity оцінювали приблизно у $14 мільярдів, а минулого року – лише у $1 мільярд, що відображає стрімке зростання генеративного ШІ theindependent.sg.) З’являються і нові фонди з фокусом на ШІ: наприклад, один із ранніх інвесторів Instacart запустив фонд “Verified Capital” зі $175 мільйонами, орієнтованими на AI-стартапи (анонсовано 20 липня). А у сфері хмарних обчислень традиційні компанії пристосовуються до епохи ШІ – іноді болісно. Amazon підтвердила, що скорочує кілька сотень працівників AWS (переважно в службі підтримки хмарних сервісів), після того як генеральний директор Енді Джессі попередив, що ефективність ШІ призведе до зменшення певних “проміжних” посад binaryverseai.com. Внутрішні електронні листи цього тижня вказують, що деякі спеціалізовані команди з міграції у хмару стали непотрібними – “перше видиме підтвердження в межах AWS” автоматизації під керуванням ШІ, як зазначив Reuters binaryverseai.com binaryverseai.com. Аналітики стверджують, що навіть підрозділи з великою маржею не захищені: “ШІ поглинає завдання, які він освоює, а потім компанії або перенаправляють, або звільняють людей,” – сухо зазначив один із них binaryverseai.com. Попри значні прибутки, хмарний гігант проводить оптимізацію, демонструючи, як зростання продуктивності від ШІ також може на практиці призводити до скорочення робочої сили.

Наукові та медичні прориви

Прискорення медичного аналізу: У сфері охорони здоров’я прориви в штучному інтелекті обіцяють швидші діагнози та безпечніші процедури. Дослідники з Університету Індіани та партнерських лікарень презентували систему штучного інтелекту “Інформатика раку”, яка здатна аналізувати оцифровані зразки патології, електронні медичні картки й навіть геномні дані для виявлення потенційних онкозахворювань і пропонування стадій пухлини. За словами головного дослідника Спирідона Бакаса, ця система скоротила деякі діагностичні процеси “з днів до секунд”, тріажуючи випадки з надлюдською швидкістю binaryverseai.com binaryverseai.com. Інструмент також виявив делікатні взаємозв’язки між мульти-модальними даними, які людина могла б пропустити, хоча команда наполягає: патологи залишаються незамінними для складних випадків і остаточних висновків binaryverseai.com. Проєкт ілюструє ширшу тенденцію до мультимодального медичного ШІ, що здатен аналізувати різні типи даних одночасно. Подібно до цього, радіологи повідомили про успіхи у використанні моделі ШІ під назвою mViT (модифікований vision transformer) для покращення дитячих КТ-сканувань binaryverseai.com binaryverseai.com. Фотонно-лічильні КТ-сканери дозволяють знижувати дозу рентгенівського випромінювання для дітей, але зазвичай дають шумні зображення; система mViT навчилася зменшувати шум сканів у реальному часі, роблячи артерії й тканини чіткішими без розмиття, яке виникало при старих методах зниження шуму binaryverseai.com binaryverseai.com. Під час тестування на 20 маленьких пацієнтах ШІ постійно перевершував традиційні фільтри, що потенційно відкриває шлях до чіткіших КТ із низькою дозою — перемога для безпеки дітей, коли КТ нового покоління отримують схвалення FDA binaryverseai.com.

Прориви в біології та матеріалознавстві: ШІ також сприяє базовій науці. Нове дослідження у Nature Communications описує, як тріада нейронних мереж тепер може встановлювати часову мітку розвитку ембріона з точністю до хвилини, що може змінити розвиток біології binaryverseai.com. Навчаючи згорткові нейромережі на зображеннях ембріонів плодових мух у високій роздільній здатності, система навчилася розпізнавати тонкі візуальні підказки циклів поділу клітин. Вона може визначати вік ембріона (з похибкою ±1 хвилина) без використання руйнівних флуоресцентних маркерів – досягаючи 98–100% точності на ембріонах ранніх стадій binaryverseai.com binaryverseai.com. Цей штучний “ембріональний годинник” дозволив команді зіставити сплески активації генів з небаченою часовою точністю, надаючи біологам потужний новий інструмент для вивчення формування органів. У матеріалознавстві дослідники з Великої Британії представили “CrystalGPT,” модель, навченої на 706 000 кристалічних структур для прогнозування властивостей матеріалів. Вивчаючи “мову” молекулярних кристалів (через пазли із замаскованими атомами та задачі на симетрію), CrystalGPT може передбачити густину, пористість чи стабільність нових сполук значно швидше, ніж прямі симуляції binaryverseai.com binaryverseai.com. Експерти відзначають її прозорість – ШІ навіть підсвічує, які саме атомні оточення найбільше вплинули на прогноз, – даючи хімікам упевненість замість “чорної скриньки” binaryverseai.com. Швидше моделювання кристалів може прискорити прогрес у створенні батарей, каталізаторів, напівпровідникових матеріалів, скорочуючи час і вартість науково-дослідних робіт.

ШІ для коду – із застереженнями: Не всі дослідження були оптимістичними; одне з них стало реалістичним поглядом на асистентів з програмування на основі ШІ. У контрольованому експерименті досвідчені розробники програмного забезпечення витратили на 19% більше часу на виконання завдання з допомогою ШІ-асистента, ніж контрольна група без ШІ ts2.tech. Досвідчені програмісти очікували, що ШІ (інструмент підказки коду) зробить їх швидшими, але він часто надавав лише “правильні у напрямку, але не зовсім такі, як потрібно” фрагменти коду ts2.tech. Час втрачався на перегляд і виправлення цих майже правильних підказок. Натомість попередні дослідження показали значне підвищення швидкості у менш досвідчених програмістів на простіших завданнях. “Це більше схоже на редагування есе, ніж на написання з нуля,” – сказав один із досвідчених розробників про працю з ШІ-асистентом – можливо, більш розслаблено, зате повільніше ts2.tech. Дослідники з METR дійшли висновку, що нинішні асистенти на основі ШІ не є чарівною паличкою для підвищення продуктивності експертів у складному програмуванні і що суттєве доопрацювання (і людський контроль) досі необхідні ts2.tech. Це нюансоване спостереження стримує поспішне впровадження генераторів коду на основі ШІ для всіх розробників.

Зазирнути всередину “мозку” ШІ: Консорціум провідних науковців зі сфери штучного інтелекту (з OpenAI, DeepMind, Anthropic та провідних університетів) опублікував примітну статтю із закликом до розробки нових технік для моніторингу “ланцюга роздумів” ШІ – по суті, прихованих кроків міркування, які моделі ШІ генерують всередині себе ts2.tech. Оскільки системи ШІ стають дедалі автономнішими (як агенти, що з’являються сьогодні), автори стверджують, що можливість перевіряти ці проміжні думки може стати критично важливою для безпеки ts2.tech. Спостерігаючи поетапне міркування ШІ, розробники можуть вчасно виявити помилки чи небезпечні відхилення до того, як ШІ почне діяти. Однак у статті попереджається, що зі зростанням складності моделей “немає гарантії, що нинішній рівень прозорості збережеться” – майбутні ШІ можуть приховати процеси мислення так, що їх буде важко відстежити ts2.tech. Команда закликала спільноту “максимально ефективно використовувати можливість моніторингу [ланцюга роздумів]” вже сьогодні і прагнути зберігати прозорість у майбутньому ts2.tech. Примітно, що під цим закликом до дії підписалися найвідоміші фахівці у сфері ШІ – серед них Джеффрі Хінтон, головний науковець OpenAI Ілля Суцкевер (та керівник напряму узгодження Ян Лейке), співзасновник DeepMind Шейн Легг та інші ts2.tech. Це рідкісний приклад єдності між конкурентними лабораторіями, що відображає спільну стурбованість: оскільки ШІ наближається до людського рівня міркування, ми не повинні дозволити йому перетворитись на незбагненну “чорну скриньку”. Дослідження “сканування мозку ШІ” – тобто читання його думок – можуть стати не менш важливими, ніж створення самого ШІ.

Держава та регулювання

ЄС впроваджує Закон про штучний інтелект: Брюссель підштовхнув регуляторні межі, зробивши конкретні кроки щодо реалізації свого знакового Закону про ШІ. 18 липня Європейська комісія оприлюднила детальні інструкції для “ШІ-моделей із системними ризиками” – тобто найбільш потужних універсальних ШІ-систем, які можуть впливати на громадську безпеку або основні права людини ts2.tech. Інструкції роз’яснюють жорсткі нові вимоги, із якими зіткнуться ці постачальники ШІ після набуття чинності Законом про ШІ 2 серпня. Згідно з правилами, великі розробники штучного інтелекту (Google, OpenAI, Meta, Anthropic, французька Mistral та інші) повинні проводити суворі оцінки ризиків, випробування з протидією вразливостям (adversarial testing) та повідомляти про серйозні інциденти чи збої регуляторам ЄС ts2.tech. Вони також повинні впроваджувати надійний кіберзахист, щоб запобігти зловмисному використанню своїх моделей ts2.tech. Прозорість – ключове: розробники базових моделей повинні документувати джерела навчальних даних, дотримуватися авторських прав і публікувати короткі звіти про зміст датасетів, використаних для навчання кожного ШІ ts2.tech. “Завдяки сьогоднішнім інструкціям Комісія сприяє плавному та ефективному застосуванню Закону про ШІ”, — сказала головна технологічна чиновниця ЄС Генна Вірккунен, підкресливши, що регулятори хочуть забезпечити чіткість для бізнесу, стримуючи потенційні ризики ts2.tech. У компаній є пільговий період до серпня 2026 року для повного виконання вимог ts2.tech. Після цього порушення можуть обійтися у величезні штрафи – до €35 млн або 7% світового обороту (що більше) ts2.tech. Нові інструкції з’явилися на тлі невдоволення окремих технологічних компаній тим, що європейські правила можуть бути надто обтяжливими, проте чиновники ЄС налаштовані довести, що вони можуть бути “глобальними наглядачами ШІ”, не душачи інновації.

Добровільний кодекс спричиняє суперечки: У тіні обов’язкового AI Act запропонований регуляторами ЄС добровільний «Кодекс практики ШІ» викликав трансатлантичну дискусію. Кодекс, розроблений експертами для заохочення раннього впровадження деяких принципів AI Act, закликає компанії, що займаються ШІ, проактивно дотримуватись певних заходів прозорості та безпеки вже зараз, до набуття чинності закону. Цього тижня серед американських технологічних гігантів виник розкол: Microsoft натякнула, що, ймовірно, приєднається, президент Бред Сміт заявив: «Я думаю, що ми, ймовірно, підпишемося… Наша мета — підтримувати» та привітав тісну співпрацю з AI-офісом ЄС reuters.com. У різкому контрасті Meta Platforms категорично відкинула цей добровільний кодекс. «Meta не підписуватиме його. Цей кодекс створює низку юридичних невизначеностей для розробників моделей, а також запроваджує заходи, що значно виходять за межі AI Act», — написав керівник з глобальних питань Meta Джоел Каплан 18 липня reuters.com. На його думку, рекомендації ЄС є надмірним регулюванням, яке може «загальмувати розвиток і впровадження передових моделей ШІ в Європі» і «поставити під загрозу європейські компанії», що працюють у сфері ШІ reuters.com. Позиція Meta збігається зі скаргами коаліції з 45 європейських технологічних компаній, що проєкт кодексу є надто обмежувальним. З іншого боку, OpenAI (розробник ChatGPT) та французька Mistral AI вже підписали кодекс, сигналізуючи, що деякі провідні гравці готові пристати на більшу прозорість і перевірки дотримання авторських прав у Європі ts2.tech. Такий розкол підкреслює зростання напруги: американські гіганти прагнуть уникати прецедентів, які могли б стати для них обов’язковими в усьому світі, тоді як європейські регулятори (і деякі стартапи) вже зараз вимагають більш високих стандартів. Те, як буде впроваджений цей добровільний кодекс, може вплинути на фактичні правила ШІ у всьому світі ще до вступу обов’язкового закону ЄС у дію.

США роблять ставку на інновації, а не на регулювання: У Вашингтоні підхід до ШІ залишається більш стимулювальним, ніж обмежувальним – принаймні наразі. Цього тижня Білий дім зібрав керівників технокомпаній, дослідників та законодавців на Саміт з технологій та інновацій, який приніс близько 90 мільярдів доларів нових галузевих зобов’язань щодо проєктів зі штучного інтелекту та виробництва напівпровідників у США ts2.tech. Десятки компаній — від Google до Intel і Blackstone — пообіцяли інвестувати мільярди у передові дата-центри, вітчизняні фабрики чипів та дослідницькі центри ШІ по всій Америці, укріплюючи технічну інфраструктуру у партнерстві з федеральними ініціативами ts2.tech. Послання від американських лідерів: замість того, щоб негайно встановлювати загальні закони щодо ШІ, вони підливають пального у вогонь інновацій, щоб зберегти перевагу над глобальними конкурентами, водночас аналізуючи вплив ШІ. Навіть Федеральна резервна система США звертає на це увагу. У промові 17 липня щодо технологій членка Ради керуючих Федрезерву Ліза Д. Кук назвала ШІ «потенційно наступною технологією загального призначення» – порівнюючи його трансформаційний потенціал із друкарським верстатом чи електрикою ts2.tech. Вона відзначила, що «понад пів мільярда користувачів» у світі вже щотижня взаємодіють з великими ШІ-моделями, і що за минулий рік поступ ШІ подвоїв ключові показники ts2.tech. Водночас Кук попередила й про «багатовимірні виклики». Хоча ШІ у довгостроковій перспективі може підвищити продуктивність (і навіть допомогти стримати інфляцію), його стрімке впровадження може спричинити короткострокові потрясіння — включаючи сплески інвестицій і витрат, які парадоксальним чином можуть підняти ціни до появи ефективності ts2.tech. Її виважена позиція — не перебільшувати ні утопію, ні катастрофу — відображає ширше консенсус у Вашингтоні: заохочувати розвиток ШІ обережно, уважно стежачи за впливом на робочі місця, рівень інфляції та нерівність після їх появи.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

ШІ в медіа, розвагах і креативних індустріях

Netflix використовує ШІ для VFX: У Голлівуді відбулася визначна подія: Netflix повідомив у своєму звіті про прибутки, що почав використовувати генеративний ШІ у виробництві контенту, включаючи перші в історії кадри, створені ШІ, у шоу Netflix ts2.tech. В аргентинському науково-фантастичному серіалі «Ель Етернаута» цілу сцену обвалення будівлі було створено за допомогою ШІ — це зайняло у 10 разів менше часу та коштувало дешевше, ніж традиційні візуальні ефекти techcrunch.com. Спів-генеральний директор Тед Сарандос підкреслив, що ШІ використовується для підсилення творців, а не для їхньої заміни, заявивши: «ШІ відкриває неймовірні можливості допомогти творцям робити фільми та серіали кращими, а не просто дешевшими… це справжні люди, які виконують справжню роботу з кращими інструментами.» techcrunch.com Він зазначив, що художники Netflix вже відчувають переваги у препродакшн-візуалізації та плануванні кадрів. Netflix також використовує генеративний ШІ не лише для VFX – компанія застосовує його для персоналізованого відкриття контенту і вже готується запустити інтерактивну рекламу на базі ШІ до кінця цього року techcrunch.com.

Генеративна мода та відео-чари: Творчий підхід ШІ поширився й на моду та відео. Дослідники з Південної Кореї експериментували з «генеративним кутюром», використовуючи ChatGPT для прогнозування майбутніх модних трендів і DALL·E 3 для створення понад 100 віртуальних образів для колекції осінь/зима binaryverseai.com binaryverseai.com. Близько двох третин дизайнів, створених ШІ, відповідали реальним стилям, що натякає на здатність генеративних моделей виявляти тренди раніше, ніж це зроблять дизайнери. (ШІ зазнав труднощів із абстрактними поняттями, такими як гендерно-нейтральний дизайн, що підкреслює: людські дизайнери все ще тримають креативний компас binaryverseai.com.) У сфері технологій для кіновиробництва NVIDIA разом із партнерами з університетів презентували DiffusionRenderer — дворівневу систему ШІ, яка поєднує інверсний і прямий рендеринг, роблячи сучасні відеоефекти доступними для незалежних творців binaryverseai.com binaryverseai.com. В одному з демонстраційних відео користувач міг зняти простий кадр і додати CGI-дракона, тінь від якого виглядає реалістично без складних сенсорів чи ручного налаштування світла – ШІ самостійно вивчив геометрію та освітлення сцени за відео binaryverseai.com binaryverseai.com. У підсумку це звужує прірву між великими студіями і маленькими творцями, натякаючи на майбутнє з «майже магічним» відеомонтажем для всіх.

Фінанси, бізнес та інвестиції в ШІ

ШІ, спеціально створений для фінансів: Фінансовий сектор став свідком активного впровадження ШІ як у продуктах, так і в прибутках. Стартап Anthropic запустив Claude for Financial Services — версію свого асистента Claude-4, спеціалізованого для аналітиків ринку та банкірів. Anthropic стверджує, що Claude-4 перевершує інші провідні моделі у фінансових завданнях згідно з галузевими бенчмарками anthropic.com. Платформа може підключатися до поточних ринкових даних (через партнерів, таких як Bloomberg, FactSet та ін.) і обробляти значні обсяги робіт: від моделювання ризиків до оформлення документів для відповідності. Перші користувачі повідомляють про суттєві переваги — наприклад, генеральний директор суверенного фонду багатства Норвегії на $1,4 трлн (NBIM) заявив, що Claude “фундаментально змінив” їхню роботу, забезпечивши орієнтовно 20% приросту продуктивності (близько 213 000 зекономлених робочих годин) завдяки тому, що персонал може безперешкодно працювати з даними й ефективніше аналізувати фінансові звіти anthropic.com. З його слів, Claude фактично став “незамінним” для аналітиків та менеджерів з ризиків цієї компанії anthropic.com. Великі банки й фонди також досліджують можливості асистентів ШІ для прискорення досліджень з повним аудит-трейлом і автоматизації рутинних завдань, які зазвичай гальмують роботу фінансових команд.

Уолл-стріт робить ставки на AI-стартапи: Інвестори продовжують вкладати гроші в штучний інтелект із вражаючими оцінками. Цього вікенду надійшла новина, що стартап Perplexity AI, відомий своїм чат-ботом для пошуку на основі ШІ, залучив ще $100 мільйонів фінансування – і підняв свою оцінку до приблизно $18 мільярдів theindependent.sg. (Для порівняння, ще два місяці тому Perplexity оцінювали приблизно у $14 мільярдів, а минулого року – лише у $1 мільярд, що відображає стрімке зростання генеративного ШІ theindependent.sg.) З’являються і нові фонди з фокусом на ШІ: наприклад, один із ранніх інвесторів Instacart запустив фонд “Verified Capital” зі $175 мільйонами, орієнтованими на AI-стартапи (анонсовано 20 липня). А у сфері хмарних обчислень традиційні компанії пристосовуються до епохи ШІ – іноді болісно. Amazon підтвердила, що скорочує кілька сотень працівників AWS (переважно в службі підтримки хмарних сервісів), після того як генеральний директор Енді Джессі попередив, що ефективність ШІ призведе до зменшення певних “проміжних” посад binaryverseai.com. Внутрішні електронні листи цього тижня вказують, що деякі спеціалізовані команди з міграції у хмару стали непотрібними – “перше видиме підтвердження в межах AWS” автоматизації під керуванням ШІ, як зазначив Reuters binaryverseai.com binaryverseai.com. Аналітики стверджують, що навіть підрозділи з великою маржею не захищені: “ШІ поглинає завдання, які він освоює, а потім компанії або перенаправляють, або звільняють людей,” – сухо зазначив один із них binaryverseai.com. Попри значні прибутки, хмарний гігант проводить оптимізацію, демонструючи, як зростання продуктивності від ШІ також може на практиці призводити до скорочення робочої сили.

Наукові та медичні прориви

Прискорення медичного аналізу: У сфері охорони здоров’я прориви в штучному інтелекті обіцяють швидші діагнози та безпечніші процедури. Дослідники з Університету Індіани та партнерських лікарень презентували систему штучного інтелекту “Інформатика раку”, яка здатна аналізувати оцифровані зразки патології, електронні медичні картки й навіть геномні дані для виявлення потенційних онкозахворювань і пропонування стадій пухлини. За словами головного дослідника Спирідона Бакаса, ця система скоротила деякі діагностичні процеси “з днів до секунд”, тріажуючи випадки з надлюдською швидкістю binaryverseai.com binaryverseai.com. Інструмент також виявив делікатні взаємозв’язки між мульти-модальними даними, які людина могла б пропустити, хоча команда наполягає: патологи залишаються незамінними для складних випадків і остаточних висновків binaryverseai.com. Проєкт ілюструє ширшу тенденцію до мультимодального медичного ШІ, що здатен аналізувати різні типи даних одночасно. Подібно до цього, радіологи повідомили про успіхи у використанні моделі ШІ під назвою mViT (модифікований vision transformer) для покращення дитячих КТ-сканувань binaryverseai.com binaryverseai.com. Фотонно-лічильні КТ-сканери дозволяють знижувати дозу рентгенівського випромінювання для дітей, але зазвичай дають шумні зображення; система mViT навчилася зменшувати шум сканів у реальному часі, роблячи артерії й тканини чіткішими без розмиття, яке виникало при старих методах зниження шуму binaryverseai.com binaryverseai.com. Під час тестування на 20 маленьких пацієнтах ШІ постійно перевершував традиційні фільтри, що потенційно відкриває шлях до чіткіших КТ із низькою дозою — перемога для безпеки дітей, коли КТ нового покоління отримують схвалення FDA binaryverseai.com.

Прориви в біології та матеріалознавстві: ШІ також сприяє базовій науці. Нове дослідження у Nature Communications описує, як тріада нейронних мереж тепер може встановлювати часову мітку розвитку ембріона з точністю до хвилини, що може змінити розвиток біології binaryverseai.com. Навчаючи згорткові нейромережі на зображеннях ембріонів плодових мух у високій роздільній здатності, система навчилася розпізнавати тонкі візуальні підказки циклів поділу клітин. Вона може визначати вік ембріона (з похибкою ±1 хвилина) без використання руйнівних флуоресцентних маркерів – досягаючи 98–100% точності на ембріонах ранніх стадій binaryverseai.com binaryverseai.com. Цей штучний “ембріональний годинник” дозволив команді зіставити сплески активації генів з небаченою часовою точністю, надаючи біологам потужний новий інструмент для вивчення формування органів. У матеріалознавстві дослідники з Великої Британії представили “CrystalGPT,” модель, навченої на 706 000 кристалічних структур для прогнозування властивостей матеріалів. Вивчаючи “мову” молекулярних кристалів (через пазли із замаскованими атомами та задачі на симетрію), CrystalGPT може передбачити густину, пористість чи стабільність нових сполук значно швидше, ніж прямі симуляції binaryverseai.com binaryverseai.com. Експерти відзначають її прозорість – ШІ навіть підсвічує, які саме атомні оточення найбільше вплинули на прогноз, – даючи хімікам упевненість замість “чорної скриньки” binaryverseai.com. Швидше моделювання кристалів може прискорити прогрес у створенні батарей, каталізаторів, напівпровідникових матеріалів, скорочуючи час і вартість науково-дослідних робіт.

ШІ для коду – із застереженнями: Не всі дослідження були оптимістичними; одне з них стало реалістичним поглядом на асистентів з програмування на основі ШІ. У контрольованому експерименті досвідчені розробники програмного забезпечення витратили на 19% більше часу на виконання завдання з допомогою ШІ-асистента, ніж контрольна група без ШІ ts2.tech. Досвідчені програмісти очікували, що ШІ (інструмент підказки коду) зробить їх швидшими, але він часто надавав лише “правильні у напрямку, але не зовсім такі, як потрібно” фрагменти коду ts2.tech. Час втрачався на перегляд і виправлення цих майже правильних підказок. Натомість попередні дослідження показали значне підвищення швидкості у менш досвідчених програмістів на простіших завданнях. “Це більше схоже на редагування есе, ніж на написання з нуля,” – сказав один із досвідчених розробників про працю з ШІ-асистентом – можливо, більш розслаблено, зате повільніше ts2.tech. Дослідники з METR дійшли висновку, що нинішні асистенти на основі ШІ не є чарівною паличкою для підвищення продуктивності експертів у складному програмуванні і що суттєве доопрацювання (і людський контроль) досі необхідні ts2.tech. Це нюансоване спостереження стримує поспішне впровадження генераторів коду на основі ШІ для всіх розробників.

Зазирнути всередину “мозку” ШІ: Консорціум провідних науковців зі сфери штучного інтелекту (з OpenAI, DeepMind, Anthropic та провідних університетів) опублікував примітну статтю із закликом до розробки нових технік для моніторингу “ланцюга роздумів” ШІ – по суті, прихованих кроків міркування, які моделі ШІ генерують всередині себе ts2.tech. Оскільки системи ШІ стають дедалі автономнішими (як агенти, що з’являються сьогодні), автори стверджують, що можливість перевіряти ці проміжні думки може стати критично важливою для безпеки ts2.tech. Спостерігаючи поетапне міркування ШІ, розробники можуть вчасно виявити помилки чи небезпечні відхилення до того, як ШІ почне діяти. Однак у статті попереджається, що зі зростанням складності моделей “немає гарантії, що нинішній рівень прозорості збережеться” – майбутні ШІ можуть приховати процеси мислення так, що їх буде важко відстежити ts2.tech. Команда закликала спільноту “максимально ефективно використовувати можливість моніторингу [ланцюга роздумів]” вже сьогодні і прагнути зберігати прозорість у майбутньому ts2.tech. Примітно, що під цим закликом до дії підписалися найвідоміші фахівці у сфері ШІ – серед них Джеффрі Хінтон, головний науковець OpenAI Ілля Суцкевер (та керівник напряму узгодження Ян Лейке), співзасновник DeepMind Шейн Легг та інші ts2.tech. Це рідкісний приклад єдності між конкурентними лабораторіями, що відображає спільну стурбованість: оскільки ШІ наближається до людського рівня міркування, ми не повинні дозволити йому перетворитись на незбагненну “чорну скриньку”. Дослідження “сканування мозку ШІ” – тобто читання його думок – можуть стати не менш важливими, ніж створення самого ШІ.

Держава та регулювання

ЄС впроваджує Закон про штучний інтелект: Брюссель підштовхнув регуляторні межі, зробивши конкретні кроки щодо реалізації свого знакового Закону про ШІ. 18 липня Європейська комісія оприлюднила детальні інструкції для “ШІ-моделей із системними ризиками” – тобто найбільш потужних універсальних ШІ-систем, які можуть впливати на громадську безпеку або основні права людини ts2.tech. Інструкції роз’яснюють жорсткі нові вимоги, із якими зіткнуться ці постачальники ШІ після набуття чинності Законом про ШІ 2 серпня. Згідно з правилами, великі розробники штучного інтелекту (Google, OpenAI, Meta, Anthropic, французька Mistral та інші) повинні проводити суворі оцінки ризиків, випробування з протидією вразливостям (adversarial testing) та повідомляти про серйозні інциденти чи збої регуляторам ЄС ts2.tech. Вони також повинні впроваджувати надійний кіберзахист, щоб запобігти зловмисному використанню своїх моделей ts2.tech. Прозорість – ключове: розробники базових моделей повинні документувати джерела навчальних даних, дотримуватися авторських прав і публікувати короткі звіти про зміст датасетів, використаних для навчання кожного ШІ ts2.tech. “Завдяки сьогоднішнім інструкціям Комісія сприяє плавному та ефективному застосуванню Закону про ШІ”, — сказала головна технологічна чиновниця ЄС Генна Вірккунен, підкресливши, що регулятори хочуть забезпечити чіткість для бізнесу, стримуючи потенційні ризики ts2.tech. У компаній є пільговий період до серпня 2026 року для повного виконання вимог ts2.tech. Після цього порушення можуть обійтися у величезні штрафи – до €35 млн або 7% світового обороту (що більше) ts2.tech. Нові інструкції з’явилися на тлі невдоволення окремих технологічних компаній тим, що європейські правила можуть бути надто обтяжливими, проте чиновники ЄС налаштовані довести, що вони можуть бути “глобальними наглядачами ШІ”, не душачи інновації.

Добровільний кодекс спричиняє суперечки: У тіні обов’язкового AI Act запропонований регуляторами ЄС добровільний «Кодекс практики ШІ» викликав трансатлантичну дискусію. Кодекс, розроблений експертами для заохочення раннього впровадження деяких принципів AI Act, закликає компанії, що займаються ШІ, проактивно дотримуватись певних заходів прозорості та безпеки вже зараз, до набуття чинності закону. Цього тижня серед американських технологічних гігантів виник розкол: Microsoft натякнула, що, ймовірно, приєднається, президент Бред Сміт заявив: «Я думаю, що ми, ймовірно, підпишемося… Наша мета — підтримувати» та привітав тісну співпрацю з AI-офісом ЄС reuters.com. У різкому контрасті Meta Platforms категорично відкинула цей добровільний кодекс. «Meta не підписуватиме його. Цей кодекс створює низку юридичних невизначеностей для розробників моделей, а також запроваджує заходи, що значно виходять за межі AI Act», — написав керівник з глобальних питань Meta Джоел Каплан 18 липня reuters.com. На його думку, рекомендації ЄС є надмірним регулюванням, яке може «загальмувати розвиток і впровадження передових моделей ШІ в Європі» і «поставити під загрозу європейські компанії», що працюють у сфері ШІ reuters.com. Позиція Meta збігається зі скаргами коаліції з 45 європейських технологічних компаній, що проєкт кодексу є надто обмежувальним. З іншого боку, OpenAI (розробник ChatGPT) та французька Mistral AI вже підписали кодекс, сигналізуючи, що деякі провідні гравці готові пристати на більшу прозорість і перевірки дотримання авторських прав у Європі ts2.tech. Такий розкол підкреслює зростання напруги: американські гіганти прагнуть уникати прецедентів, які могли б стати для них обов’язковими в усьому світі, тоді як європейські регулятори (і деякі стартапи) вже зараз вимагають більш високих стандартів. Те, як буде впроваджений цей добровільний кодекс, може вплинути на фактичні правила ШІ у всьому світі ще до вступу обов’язкового закону ЄС у дію.

США роблять ставку на інновації, а не на регулювання: У Вашингтоні підхід до ШІ залишається більш стимулювальним, ніж обмежувальним – принаймні наразі. Цього тижня Білий дім зібрав керівників технокомпаній, дослідників та законодавців на Саміт з технологій та інновацій, який приніс близько 90 мільярдів доларів нових галузевих зобов’язань щодо проєктів зі штучного інтелекту та виробництва напівпровідників у США ts2.tech. Десятки компаній — від Google до Intel і Blackstone — пообіцяли інвестувати мільярди у передові дата-центри, вітчизняні фабрики чипів та дослідницькі центри ШІ по всій Америці, укріплюючи технічну інфраструктуру у партнерстві з федеральними ініціативами ts2.tech. Послання від американських лідерів: замість того, щоб негайно встановлювати загальні закони щодо ШІ, вони підливають пального у вогонь інновацій, щоб зберегти перевагу над глобальними конкурентами, водночас аналізуючи вплив ШІ. Навіть Федеральна резервна система США звертає на це увагу. У промові 17 липня щодо технологій членка Ради керуючих Федрезерву Ліза Д. Кук назвала ШІ «потенційно наступною технологією загального призначення» – порівнюючи його трансформаційний потенціал із друкарським верстатом чи електрикою ts2.tech. Вона відзначила, що «понад пів мільярда користувачів» у світі вже щотижня взаємодіють з великими ШІ-моделями, і що за минулий рік поступ ШІ подвоїв ключові показники ts2.tech. Водночас Кук попередила й про «багатовимірні виклики». Хоча ШІ у довгостроковій перспективі може підвищити продуктивність (і навіть допомогти стримати інфляцію), його стрімке впровадження може спричинити короткострокові потрясіння — включаючи сплески інвестицій і витрат, які парадоксальним чином можуть підняти ціни до появи ефективності ts2.tech. Її виважена позиція — не перебільшувати ні утопію, ні катастрофу — відображає ширше консенсус у Вашингтоні: заохочувати розвиток ШІ обережно, уважно стежачи за впливом на робочі місця, рівень інфляції та нерівність після їх появи.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

Фінанси, бізнес та інвестиції в ШІ

ШІ, спеціально створений для фінансів: Фінансовий сектор став свідком активного впровадження ШІ як у продуктах, так і в прибутках. Стартап Anthropic запустив Claude for Financial Services — версію свого асистента Claude-4, спеціалізованого для аналітиків ринку та банкірів. Anthropic стверджує, що Claude-4 перевершує інші провідні моделі у фінансових завданнях згідно з галузевими бенчмарками anthropic.com. Платформа може підключатися до поточних ринкових даних (через партнерів, таких як Bloomberg, FactSet та ін.) і обробляти значні обсяги робіт: від моделювання ризиків до оформлення документів для відповідності. Перші користувачі повідомляють про суттєві переваги — наприклад, генеральний директор суверенного фонду багатства Норвегії на $1,4 трлн (NBIM) заявив, що Claude “фундаментально змінив” їхню роботу, забезпечивши орієнтовно 20% приросту продуктивності (близько 213 000 зекономлених робочих годин) завдяки тому, що персонал може безперешкодно працювати з даними й ефективніше аналізувати фінансові звіти anthropic.com. З його слів, Claude фактично став “незамінним” для аналітиків та менеджерів з ризиків цієї компанії anthropic.com. Великі банки й фонди також досліджують можливості асистентів ШІ для прискорення досліджень з повним аудит-трейлом і автоматизації рутинних завдань, які зазвичай гальмують роботу фінансових команд.

Уолл-стріт робить ставки на AI-стартапи: Інвестори продовжують вкладати гроші в штучний інтелект із вражаючими оцінками. Цього вікенду надійшла новина, що стартап Perplexity AI, відомий своїм чат-ботом для пошуку на основі ШІ, залучив ще $100 мільйонів фінансування – і підняв свою оцінку до приблизно $18 мільярдів theindependent.sg. (Для порівняння, ще два місяці тому Perplexity оцінювали приблизно у $14 мільярдів, а минулого року – лише у $1 мільярд, що відображає стрімке зростання генеративного ШІ theindependent.sg.) З’являються і нові фонди з фокусом на ШІ: наприклад, один із ранніх інвесторів Instacart запустив фонд “Verified Capital” зі $175 мільйонами, орієнтованими на AI-стартапи (анонсовано 20 липня). А у сфері хмарних обчислень традиційні компанії пристосовуються до епохи ШІ – іноді болісно. Amazon підтвердила, що скорочує кілька сотень працівників AWS (переважно в службі підтримки хмарних сервісів), після того як генеральний директор Енді Джессі попередив, що ефективність ШІ призведе до зменшення певних “проміжних” посад binaryverseai.com. Внутрішні електронні листи цього тижня вказують, що деякі спеціалізовані команди з міграції у хмару стали непотрібними – “перше видиме підтвердження в межах AWS” автоматизації під керуванням ШІ, як зазначив Reuters binaryverseai.com binaryverseai.com. Аналітики стверджують, що навіть підрозділи з великою маржею не захищені: “ШІ поглинає завдання, які він освоює, а потім компанії або перенаправляють, або звільняють людей,” – сухо зазначив один із них binaryverseai.com. Попри значні прибутки, хмарний гігант проводить оптимізацію, демонструючи, як зростання продуктивності від ШІ також може на практиці призводити до скорочення робочої сили.

Наукові та медичні прориви

Прискорення медичного аналізу: У сфері охорони здоров’я прориви в штучному інтелекті обіцяють швидші діагнози та безпечніші процедури. Дослідники з Університету Індіани та партнерських лікарень презентували систему штучного інтелекту “Інформатика раку”, яка здатна аналізувати оцифровані зразки патології, електронні медичні картки й навіть геномні дані для виявлення потенційних онкозахворювань і пропонування стадій пухлини. За словами головного дослідника Спирідона Бакаса, ця система скоротила деякі діагностичні процеси “з днів до секунд”, тріажуючи випадки з надлюдською швидкістю binaryverseai.com binaryverseai.com. Інструмент також виявив делікатні взаємозв’язки між мульти-модальними даними, які людина могла б пропустити, хоча команда наполягає: патологи залишаються незамінними для складних випадків і остаточних висновків binaryverseai.com. Проєкт ілюструє ширшу тенденцію до мультимодального медичного ШІ, що здатен аналізувати різні типи даних одночасно. Подібно до цього, радіологи повідомили про успіхи у використанні моделі ШІ під назвою mViT (модифікований vision transformer) для покращення дитячих КТ-сканувань binaryverseai.com binaryverseai.com. Фотонно-лічильні КТ-сканери дозволяють знижувати дозу рентгенівського випромінювання для дітей, але зазвичай дають шумні зображення; система mViT навчилася зменшувати шум сканів у реальному часі, роблячи артерії й тканини чіткішими без розмиття, яке виникало при старих методах зниження шуму binaryverseai.com binaryverseai.com. Під час тестування на 20 маленьких пацієнтах ШІ постійно перевершував традиційні фільтри, що потенційно відкриває шлях до чіткіших КТ із низькою дозою — перемога для безпеки дітей, коли КТ нового покоління отримують схвалення FDA binaryverseai.com.

Прориви в біології та матеріалознавстві: ШІ також сприяє базовій науці. Нове дослідження у Nature Communications описує, як тріада нейронних мереж тепер може встановлювати часову мітку розвитку ембріона з точністю до хвилини, що може змінити розвиток біології binaryverseai.com. Навчаючи згорткові нейромережі на зображеннях ембріонів плодових мух у високій роздільній здатності, система навчилася розпізнавати тонкі візуальні підказки циклів поділу клітин. Вона може визначати вік ембріона (з похибкою ±1 хвилина) без використання руйнівних флуоресцентних маркерів – досягаючи 98–100% точності на ембріонах ранніх стадій binaryverseai.com binaryverseai.com. Цей штучний “ембріональний годинник” дозволив команді зіставити сплески активації генів з небаченою часовою точністю, надаючи біологам потужний новий інструмент для вивчення формування органів. У матеріалознавстві дослідники з Великої Британії представили “CrystalGPT,” модель, навченої на 706 000 кристалічних структур для прогнозування властивостей матеріалів. Вивчаючи “мову” молекулярних кристалів (через пазли із замаскованими атомами та задачі на симетрію), CrystalGPT може передбачити густину, пористість чи стабільність нових сполук значно швидше, ніж прямі симуляції binaryverseai.com binaryverseai.com. Експерти відзначають її прозорість – ШІ навіть підсвічує, які саме атомні оточення найбільше вплинули на прогноз, – даючи хімікам упевненість замість “чорної скриньки” binaryverseai.com. Швидше моделювання кристалів може прискорити прогрес у створенні батарей, каталізаторів, напівпровідникових матеріалів, скорочуючи час і вартість науково-дослідних робіт.

ШІ для коду – із застереженнями: Не всі дослідження були оптимістичними; одне з них стало реалістичним поглядом на асистентів з програмування на основі ШІ. У контрольованому експерименті досвідчені розробники програмного забезпечення витратили на 19% більше часу на виконання завдання з допомогою ШІ-асистента, ніж контрольна група без ШІ ts2.tech. Досвідчені програмісти очікували, що ШІ (інструмент підказки коду) зробить їх швидшими, але він часто надавав лише “правильні у напрямку, але не зовсім такі, як потрібно” фрагменти коду ts2.tech. Час втрачався на перегляд і виправлення цих майже правильних підказок. Натомість попередні дослідження показали значне підвищення швидкості у менш досвідчених програмістів на простіших завданнях. “Це більше схоже на редагування есе, ніж на написання з нуля,” – сказав один із досвідчених розробників про працю з ШІ-асистентом – можливо, більш розслаблено, зате повільніше ts2.tech. Дослідники з METR дійшли висновку, що нинішні асистенти на основі ШІ не є чарівною паличкою для підвищення продуктивності експертів у складному програмуванні і що суттєве доопрацювання (і людський контроль) досі необхідні ts2.tech. Це нюансоване спостереження стримує поспішне впровадження генераторів коду на основі ШІ для всіх розробників.

Зазирнути всередину “мозку” ШІ: Консорціум провідних науковців зі сфери штучного інтелекту (з OpenAI, DeepMind, Anthropic та провідних університетів) опублікував примітну статтю із закликом до розробки нових технік для моніторингу “ланцюга роздумів” ШІ – по суті, прихованих кроків міркування, які моделі ШІ генерують всередині себе ts2.tech. Оскільки системи ШІ стають дедалі автономнішими (як агенти, що з’являються сьогодні), автори стверджують, що можливість перевіряти ці проміжні думки може стати критично важливою для безпеки ts2.tech. Спостерігаючи поетапне міркування ШІ, розробники можуть вчасно виявити помилки чи небезпечні відхилення до того, як ШІ почне діяти. Однак у статті попереджається, що зі зростанням складності моделей “немає гарантії, що нинішній рівень прозорості збережеться” – майбутні ШІ можуть приховати процеси мислення так, що їх буде важко відстежити ts2.tech. Команда закликала спільноту “максимально ефективно використовувати можливість моніторингу [ланцюга роздумів]” вже сьогодні і прагнути зберігати прозорість у майбутньому ts2.tech. Примітно, що під цим закликом до дії підписалися найвідоміші фахівці у сфері ШІ – серед них Джеффрі Хінтон, головний науковець OpenAI Ілля Суцкевер (та керівник напряму узгодження Ян Лейке), співзасновник DeepMind Шейн Легг та інші ts2.tech. Це рідкісний приклад єдності між конкурентними лабораторіями, що відображає спільну стурбованість: оскільки ШІ наближається до людського рівня міркування, ми не повинні дозволити йому перетворитись на незбагненну “чорну скриньку”. Дослідження “сканування мозку ШІ” – тобто читання його думок – можуть стати не менш важливими, ніж створення самого ШІ.

Держава та регулювання

ЄС впроваджує Закон про штучний інтелект: Брюссель підштовхнув регуляторні межі, зробивши конкретні кроки щодо реалізації свого знакового Закону про ШІ. 18 липня Європейська комісія оприлюднила детальні інструкції для “ШІ-моделей із системними ризиками” – тобто найбільш потужних універсальних ШІ-систем, які можуть впливати на громадську безпеку або основні права людини ts2.tech. Інструкції роз’яснюють жорсткі нові вимоги, із якими зіткнуться ці постачальники ШІ після набуття чинності Законом про ШІ 2 серпня. Згідно з правилами, великі розробники штучного інтелекту (Google, OpenAI, Meta, Anthropic, французька Mistral та інші) повинні проводити суворі оцінки ризиків, випробування з протидією вразливостям (adversarial testing) та повідомляти про серйозні інциденти чи збої регуляторам ЄС ts2.tech. Вони також повинні впроваджувати надійний кіберзахист, щоб запобігти зловмисному використанню своїх моделей ts2.tech. Прозорість – ключове: розробники базових моделей повинні документувати джерела навчальних даних, дотримуватися авторських прав і публікувати короткі звіти про зміст датасетів, використаних для навчання кожного ШІ ts2.tech. “Завдяки сьогоднішнім інструкціям Комісія сприяє плавному та ефективному застосуванню Закону про ШІ”, — сказала головна технологічна чиновниця ЄС Генна Вірккунен, підкресливши, що регулятори хочуть забезпечити чіткість для бізнесу, стримуючи потенційні ризики ts2.tech. У компаній є пільговий період до серпня 2026 року для повного виконання вимог ts2.tech. Після цього порушення можуть обійтися у величезні штрафи – до €35 млн або 7% світового обороту (що більше) ts2.tech. Нові інструкції з’явилися на тлі невдоволення окремих технологічних компаній тим, що європейські правила можуть бути надто обтяжливими, проте чиновники ЄС налаштовані довести, що вони можуть бути “глобальними наглядачами ШІ”, не душачи інновації.

Добровільний кодекс спричиняє суперечки: У тіні обов’язкового AI Act запропонований регуляторами ЄС добровільний «Кодекс практики ШІ» викликав трансатлантичну дискусію. Кодекс, розроблений експертами для заохочення раннього впровадження деяких принципів AI Act, закликає компанії, що займаються ШІ, проактивно дотримуватись певних заходів прозорості та безпеки вже зараз, до набуття чинності закону. Цього тижня серед американських технологічних гігантів виник розкол: Microsoft натякнула, що, ймовірно, приєднається, президент Бред Сміт заявив: «Я думаю, що ми, ймовірно, підпишемося… Наша мета — підтримувати» та привітав тісну співпрацю з AI-офісом ЄС reuters.com. У різкому контрасті Meta Platforms категорично відкинула цей добровільний кодекс. «Meta не підписуватиме його. Цей кодекс створює низку юридичних невизначеностей для розробників моделей, а також запроваджує заходи, що значно виходять за межі AI Act», — написав керівник з глобальних питань Meta Джоел Каплан 18 липня reuters.com. На його думку, рекомендації ЄС є надмірним регулюванням, яке може «загальмувати розвиток і впровадження передових моделей ШІ в Європі» і «поставити під загрозу європейські компанії», що працюють у сфері ШІ reuters.com. Позиція Meta збігається зі скаргами коаліції з 45 європейських технологічних компаній, що проєкт кодексу є надто обмежувальним. З іншого боку, OpenAI (розробник ChatGPT) та французька Mistral AI вже підписали кодекс, сигналізуючи, що деякі провідні гравці готові пристати на більшу прозорість і перевірки дотримання авторських прав у Європі ts2.tech. Такий розкол підкреслює зростання напруги: американські гіганти прагнуть уникати прецедентів, які могли б стати для них обов’язковими в усьому світі, тоді як європейські регулятори (і деякі стартапи) вже зараз вимагають більш високих стандартів. Те, як буде впроваджений цей добровільний кодекс, може вплинути на фактичні правила ШІ у всьому світі ще до вступу обов’язкового закону ЄС у дію.

США роблять ставку на інновації, а не на регулювання: У Вашингтоні підхід до ШІ залишається більш стимулювальним, ніж обмежувальним – принаймні наразі. Цього тижня Білий дім зібрав керівників технокомпаній, дослідників та законодавців на Саміт з технологій та інновацій, який приніс близько 90 мільярдів доларів нових галузевих зобов’язань щодо проєктів зі штучного інтелекту та виробництва напівпровідників у США ts2.tech. Десятки компаній — від Google до Intel і Blackstone — пообіцяли інвестувати мільярди у передові дата-центри, вітчизняні фабрики чипів та дослідницькі центри ШІ по всій Америці, укріплюючи технічну інфраструктуру у партнерстві з федеральними ініціативами ts2.tech. Послання від американських лідерів: замість того, щоб негайно встановлювати загальні закони щодо ШІ, вони підливають пального у вогонь інновацій, щоб зберегти перевагу над глобальними конкурентами, водночас аналізуючи вплив ШІ. Навіть Федеральна резервна система США звертає на це увагу. У промові 17 липня щодо технологій членка Ради керуючих Федрезерву Ліза Д. Кук назвала ШІ «потенційно наступною технологією загального призначення» – порівнюючи його трансформаційний потенціал із друкарським верстатом чи електрикою ts2.tech. Вона відзначила, що «понад пів мільярда користувачів» у світі вже щотижня взаємодіють з великими ШІ-моделями, і що за минулий рік поступ ШІ подвоїв ключові показники ts2.tech. Водночас Кук попередила й про «багатовимірні виклики». Хоча ШІ у довгостроковій перспективі може підвищити продуктивність (і навіть допомогти стримати інфляцію), його стрімке впровадження може спричинити короткострокові потрясіння — включаючи сплески інвестицій і витрат, які парадоксальним чином можуть підняти ціни до появи ефективності ts2.tech. Її виважена позиція — не перебільшувати ні утопію, ні катастрофу — відображає ширше консенсус у Вашингтоні: заохочувати розвиток ШІ обережно, уважно стежачи за впливом на робочі місця, рівень інфляції та нерівність після їх появи.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

ШІ в медіа, розвагах і креативних індустріях

Netflix використовує ШІ для VFX: У Голлівуді відбулася визначна подія: Netflix повідомив у своєму звіті про прибутки, що почав використовувати генеративний ШІ у виробництві контенту, включаючи перші в історії кадри, створені ШІ, у шоу Netflix ts2.tech. В аргентинському науково-фантастичному серіалі «Ель Етернаута» цілу сцену обвалення будівлі було створено за допомогою ШІ — це зайняло у 10 разів менше часу та коштувало дешевше, ніж традиційні візуальні ефекти techcrunch.com. Спів-генеральний директор Тед Сарандос підкреслив, що ШІ використовується для підсилення творців, а не для їхньої заміни, заявивши: «ШІ відкриває неймовірні можливості допомогти творцям робити фільми та серіали кращими, а не просто дешевшими… це справжні люди, які виконують справжню роботу з кращими інструментами.» techcrunch.com Він зазначив, що художники Netflix вже відчувають переваги у препродакшн-візуалізації та плануванні кадрів. Netflix також використовує генеративний ШІ не лише для VFX – компанія застосовує його для персоналізованого відкриття контенту і вже готується запустити інтерактивну рекламу на базі ШІ до кінця цього року techcrunch.com.

Генеративна мода та відео-чари: Творчий підхід ШІ поширився й на моду та відео. Дослідники з Південної Кореї експериментували з «генеративним кутюром», використовуючи ChatGPT для прогнозування майбутніх модних трендів і DALL·E 3 для створення понад 100 віртуальних образів для колекції осінь/зима binaryverseai.com binaryverseai.com. Близько двох третин дизайнів, створених ШІ, відповідали реальним стилям, що натякає на здатність генеративних моделей виявляти тренди раніше, ніж це зроблять дизайнери. (ШІ зазнав труднощів із абстрактними поняттями, такими як гендерно-нейтральний дизайн, що підкреслює: людські дизайнери все ще тримають креативний компас binaryverseai.com.) У сфері технологій для кіновиробництва NVIDIA разом із партнерами з університетів презентували DiffusionRenderer — дворівневу систему ШІ, яка поєднує інверсний і прямий рендеринг, роблячи сучасні відеоефекти доступними для незалежних творців binaryverseai.com binaryverseai.com. В одному з демонстраційних відео користувач міг зняти простий кадр і додати CGI-дракона, тінь від якого виглядає реалістично без складних сенсорів чи ручного налаштування світла – ШІ самостійно вивчив геометрію та освітлення сцени за відео binaryverseai.com binaryverseai.com. У підсумку це звужує прірву між великими студіями і маленькими творцями, натякаючи на майбутнє з «майже магічним» відеомонтажем для всіх.

Фінанси, бізнес та інвестиції в ШІ

ШІ, спеціально створений для фінансів: Фінансовий сектор став свідком активного впровадження ШІ як у продуктах, так і в прибутках. Стартап Anthropic запустив Claude for Financial Services — версію свого асистента Claude-4, спеціалізованого для аналітиків ринку та банкірів. Anthropic стверджує, що Claude-4 перевершує інші провідні моделі у фінансових завданнях згідно з галузевими бенчмарками anthropic.com. Платформа може підключатися до поточних ринкових даних (через партнерів, таких як Bloomberg, FactSet та ін.) і обробляти значні обсяги робіт: від моделювання ризиків до оформлення документів для відповідності. Перші користувачі повідомляють про суттєві переваги — наприклад, генеральний директор суверенного фонду багатства Норвегії на $1,4 трлн (NBIM) заявив, що Claude “фундаментально змінив” їхню роботу, забезпечивши орієнтовно 20% приросту продуктивності (близько 213 000 зекономлених робочих годин) завдяки тому, що персонал може безперешкодно працювати з даними й ефективніше аналізувати фінансові звіти anthropic.com. З його слів, Claude фактично став “незамінним” для аналітиків та менеджерів з ризиків цієї компанії anthropic.com. Великі банки й фонди також досліджують можливості асистентів ШІ для прискорення досліджень з повним аудит-трейлом і автоматизації рутинних завдань, які зазвичай гальмують роботу фінансових команд.

Уолл-стріт робить ставки на AI-стартапи: Інвестори продовжують вкладати гроші в штучний інтелект із вражаючими оцінками. Цього вікенду надійшла новина, що стартап Perplexity AI, відомий своїм чат-ботом для пошуку на основі ШІ, залучив ще $100 мільйонів фінансування – і підняв свою оцінку до приблизно $18 мільярдів theindependent.sg. (Для порівняння, ще два місяці тому Perplexity оцінювали приблизно у $14 мільярдів, а минулого року – лише у $1 мільярд, що відображає стрімке зростання генеративного ШІ theindependent.sg.) З’являються і нові фонди з фокусом на ШІ: наприклад, один із ранніх інвесторів Instacart запустив фонд “Verified Capital” зі $175 мільйонами, орієнтованими на AI-стартапи (анонсовано 20 липня). А у сфері хмарних обчислень традиційні компанії пристосовуються до епохи ШІ – іноді болісно. Amazon підтвердила, що скорочує кілька сотень працівників AWS (переважно в службі підтримки хмарних сервісів), після того як генеральний директор Енді Джессі попередив, що ефективність ШІ призведе до зменшення певних “проміжних” посад binaryverseai.com. Внутрішні електронні листи цього тижня вказують, що деякі спеціалізовані команди з міграції у хмару стали непотрібними – “перше видиме підтвердження в межах AWS” автоматизації під керуванням ШІ, як зазначив Reuters binaryverseai.com binaryverseai.com. Аналітики стверджують, що навіть підрозділи з великою маржею не захищені: “ШІ поглинає завдання, які він освоює, а потім компанії або перенаправляють, або звільняють людей,” – сухо зазначив один із них binaryverseai.com. Попри значні прибутки, хмарний гігант проводить оптимізацію, демонструючи, як зростання продуктивності від ШІ також може на практиці призводити до скорочення робочої сили.

Наукові та медичні прориви

Прискорення медичного аналізу: У сфері охорони здоров’я прориви в штучному інтелекті обіцяють швидші діагнози та безпечніші процедури. Дослідники з Університету Індіани та партнерських лікарень презентували систему штучного інтелекту “Інформатика раку”, яка здатна аналізувати оцифровані зразки патології, електронні медичні картки й навіть геномні дані для виявлення потенційних онкозахворювань і пропонування стадій пухлини. За словами головного дослідника Спирідона Бакаса, ця система скоротила деякі діагностичні процеси “з днів до секунд”, тріажуючи випадки з надлюдською швидкістю binaryverseai.com binaryverseai.com. Інструмент також виявив делікатні взаємозв’язки між мульти-модальними даними, які людина могла б пропустити, хоча команда наполягає: патологи залишаються незамінними для складних випадків і остаточних висновків binaryverseai.com. Проєкт ілюструє ширшу тенденцію до мультимодального медичного ШІ, що здатен аналізувати різні типи даних одночасно. Подібно до цього, радіологи повідомили про успіхи у використанні моделі ШІ під назвою mViT (модифікований vision transformer) для покращення дитячих КТ-сканувань binaryverseai.com binaryverseai.com. Фотонно-лічильні КТ-сканери дозволяють знижувати дозу рентгенівського випромінювання для дітей, але зазвичай дають шумні зображення; система mViT навчилася зменшувати шум сканів у реальному часі, роблячи артерії й тканини чіткішими без розмиття, яке виникало при старих методах зниження шуму binaryverseai.com binaryverseai.com. Під час тестування на 20 маленьких пацієнтах ШІ постійно перевершував традиційні фільтри, що потенційно відкриває шлях до чіткіших КТ із низькою дозою — перемога для безпеки дітей, коли КТ нового покоління отримують схвалення FDA binaryverseai.com.

Прориви в біології та матеріалознавстві: ШІ також сприяє базовій науці. Нове дослідження у Nature Communications описує, як тріада нейронних мереж тепер може встановлювати часову мітку розвитку ембріона з точністю до хвилини, що може змінити розвиток біології binaryverseai.com. Навчаючи згорткові нейромережі на зображеннях ембріонів плодових мух у високій роздільній здатності, система навчилася розпізнавати тонкі візуальні підказки циклів поділу клітин. Вона може визначати вік ембріона (з похибкою ±1 хвилина) без використання руйнівних флуоресцентних маркерів – досягаючи 98–100% точності на ембріонах ранніх стадій binaryverseai.com binaryverseai.com. Цей штучний “ембріональний годинник” дозволив команді зіставити сплески активації генів з небаченою часовою точністю, надаючи біологам потужний новий інструмент для вивчення формування органів. У матеріалознавстві дослідники з Великої Британії представили “CrystalGPT,” модель, навченої на 706 000 кристалічних структур для прогнозування властивостей матеріалів. Вивчаючи “мову” молекулярних кристалів (через пазли із замаскованими атомами та задачі на симетрію), CrystalGPT може передбачити густину, пористість чи стабільність нових сполук значно швидше, ніж прямі симуляції binaryverseai.com binaryverseai.com. Експерти відзначають її прозорість – ШІ навіть підсвічує, які саме атомні оточення найбільше вплинули на прогноз, – даючи хімікам упевненість замість “чорної скриньки” binaryverseai.com. Швидше моделювання кристалів може прискорити прогрес у створенні батарей, каталізаторів, напівпровідникових матеріалів, скорочуючи час і вартість науково-дослідних робіт.

ШІ для коду – із застереженнями: Не всі дослідження були оптимістичними; одне з них стало реалістичним поглядом на асистентів з програмування на основі ШІ. У контрольованому експерименті досвідчені розробники програмного забезпечення витратили на 19% більше часу на виконання завдання з допомогою ШІ-асистента, ніж контрольна група без ШІ ts2.tech. Досвідчені програмісти очікували, що ШІ (інструмент підказки коду) зробить їх швидшими, але він часто надавав лише “правильні у напрямку, але не зовсім такі, як потрібно” фрагменти коду ts2.tech. Час втрачався на перегляд і виправлення цих майже правильних підказок. Натомість попередні дослідження показали значне підвищення швидкості у менш досвідчених програмістів на простіших завданнях. “Це більше схоже на редагування есе, ніж на написання з нуля,” – сказав один із досвідчених розробників про працю з ШІ-асистентом – можливо, більш розслаблено, зате повільніше ts2.tech. Дослідники з METR дійшли висновку, що нинішні асистенти на основі ШІ не є чарівною паличкою для підвищення продуктивності експертів у складному програмуванні і що суттєве доопрацювання (і людський контроль) досі необхідні ts2.tech. Це нюансоване спостереження стримує поспішне впровадження генераторів коду на основі ШІ для всіх розробників.

Зазирнути всередину “мозку” ШІ: Консорціум провідних науковців зі сфери штучного інтелекту (з OpenAI, DeepMind, Anthropic та провідних університетів) опублікував примітну статтю із закликом до розробки нових технік для моніторингу “ланцюга роздумів” ШІ – по суті, прихованих кроків міркування, які моделі ШІ генерують всередині себе ts2.tech. Оскільки системи ШІ стають дедалі автономнішими (як агенти, що з’являються сьогодні), автори стверджують, що можливість перевіряти ці проміжні думки може стати критично важливою для безпеки ts2.tech. Спостерігаючи поетапне міркування ШІ, розробники можуть вчасно виявити помилки чи небезпечні відхилення до того, як ШІ почне діяти. Однак у статті попереджається, що зі зростанням складності моделей “немає гарантії, що нинішній рівень прозорості збережеться” – майбутні ШІ можуть приховати процеси мислення так, що їх буде важко відстежити ts2.tech. Команда закликала спільноту “максимально ефективно використовувати можливість моніторингу [ланцюга роздумів]” вже сьогодні і прагнути зберігати прозорість у майбутньому ts2.tech. Примітно, що під цим закликом до дії підписалися найвідоміші фахівці у сфері ШІ – серед них Джеффрі Хінтон, головний науковець OpenAI Ілля Суцкевер (та керівник напряму узгодження Ян Лейке), співзасновник DeepMind Шейн Легг та інші ts2.tech. Це рідкісний приклад єдності між конкурентними лабораторіями, що відображає спільну стурбованість: оскільки ШІ наближається до людського рівня міркування, ми не повинні дозволити йому перетворитись на незбагненну “чорну скриньку”. Дослідження “сканування мозку ШІ” – тобто читання його думок – можуть стати не менш важливими, ніж створення самого ШІ.

Держава та регулювання

ЄС впроваджує Закон про штучний інтелект: Брюссель підштовхнув регуляторні межі, зробивши конкретні кроки щодо реалізації свого знакового Закону про ШІ. 18 липня Європейська комісія оприлюднила детальні інструкції для “ШІ-моделей із системними ризиками” – тобто найбільш потужних універсальних ШІ-систем, які можуть впливати на громадську безпеку або основні права людини ts2.tech. Інструкції роз’яснюють жорсткі нові вимоги, із якими зіткнуться ці постачальники ШІ після набуття чинності Законом про ШІ 2 серпня. Згідно з правилами, великі розробники штучного інтелекту (Google, OpenAI, Meta, Anthropic, французька Mistral та інші) повинні проводити суворі оцінки ризиків, випробування з протидією вразливостям (adversarial testing) та повідомляти про серйозні інциденти чи збої регуляторам ЄС ts2.tech. Вони також повинні впроваджувати надійний кіберзахист, щоб запобігти зловмисному використанню своїх моделей ts2.tech. Прозорість – ключове: розробники базових моделей повинні документувати джерела навчальних даних, дотримуватися авторських прав і публікувати короткі звіти про зміст датасетів, використаних для навчання кожного ШІ ts2.tech. “Завдяки сьогоднішнім інструкціям Комісія сприяє плавному та ефективному застосуванню Закону про ШІ”, — сказала головна технологічна чиновниця ЄС Генна Вірккунен, підкресливши, що регулятори хочуть забезпечити чіткість для бізнесу, стримуючи потенційні ризики ts2.tech. У компаній є пільговий період до серпня 2026 року для повного виконання вимог ts2.tech. Після цього порушення можуть обійтися у величезні штрафи – до €35 млн або 7% світового обороту (що більше) ts2.tech. Нові інструкції з’явилися на тлі невдоволення окремих технологічних компаній тим, що європейські правила можуть бути надто обтяжливими, проте чиновники ЄС налаштовані довести, що вони можуть бути “глобальними наглядачами ШІ”, не душачи інновації.

Добровільний кодекс спричиняє суперечки: У тіні обов’язкового AI Act запропонований регуляторами ЄС добровільний «Кодекс практики ШІ» викликав трансатлантичну дискусію. Кодекс, розроблений експертами для заохочення раннього впровадження деяких принципів AI Act, закликає компанії, що займаються ШІ, проактивно дотримуватись певних заходів прозорості та безпеки вже зараз, до набуття чинності закону. Цього тижня серед американських технологічних гігантів виник розкол: Microsoft натякнула, що, ймовірно, приєднається, президент Бред Сміт заявив: «Я думаю, що ми, ймовірно, підпишемося… Наша мета — підтримувати» та привітав тісну співпрацю з AI-офісом ЄС reuters.com. У різкому контрасті Meta Platforms категорично відкинула цей добровільний кодекс. «Meta не підписуватиме його. Цей кодекс створює низку юридичних невизначеностей для розробників моделей, а також запроваджує заходи, що значно виходять за межі AI Act», — написав керівник з глобальних питань Meta Джоел Каплан 18 липня reuters.com. На його думку, рекомендації ЄС є надмірним регулюванням, яке може «загальмувати розвиток і впровадження передових моделей ШІ в Європі» і «поставити під загрозу європейські компанії», що працюють у сфері ШІ reuters.com. Позиція Meta збігається зі скаргами коаліції з 45 європейських технологічних компаній, що проєкт кодексу є надто обмежувальним. З іншого боку, OpenAI (розробник ChatGPT) та французька Mistral AI вже підписали кодекс, сигналізуючи, що деякі провідні гравці готові пристати на більшу прозорість і перевірки дотримання авторських прав у Європі ts2.tech. Такий розкол підкреслює зростання напруги: американські гіганти прагнуть уникати прецедентів, які могли б стати для них обов’язковими в усьому світі, тоді як європейські регулятори (і деякі стартапи) вже зараз вимагають більш високих стандартів. Те, як буде впроваджений цей добровільний кодекс, може вплинути на фактичні правила ШІ у всьому світі ще до вступу обов’язкового закону ЄС у дію.

США роблять ставку на інновації, а не на регулювання: У Вашингтоні підхід до ШІ залишається більш стимулювальним, ніж обмежувальним – принаймні наразі. Цього тижня Білий дім зібрав керівників технокомпаній, дослідників та законодавців на Саміт з технологій та інновацій, який приніс близько 90 мільярдів доларів нових галузевих зобов’язань щодо проєктів зі штучного інтелекту та виробництва напівпровідників у США ts2.tech. Десятки компаній — від Google до Intel і Blackstone — пообіцяли інвестувати мільярди у передові дата-центри, вітчизняні фабрики чипів та дослідницькі центри ШІ по всій Америці, укріплюючи технічну інфраструктуру у партнерстві з федеральними ініціативами ts2.tech. Послання від американських лідерів: замість того, щоб негайно встановлювати загальні закони щодо ШІ, вони підливають пального у вогонь інновацій, щоб зберегти перевагу над глобальними конкурентами, водночас аналізуючи вплив ШІ. Навіть Федеральна резервна система США звертає на це увагу. У промові 17 липня щодо технологій членка Ради керуючих Федрезерву Ліза Д. Кук назвала ШІ «потенційно наступною технологією загального призначення» – порівнюючи його трансформаційний потенціал із друкарським верстатом чи електрикою ts2.tech. Вона відзначила, що «понад пів мільярда користувачів» у світі вже щотижня взаємодіють з великими ШІ-моделями, і що за минулий рік поступ ШІ подвоїв ключові показники ts2.tech. Водночас Кук попередила й про «багатовимірні виклики». Хоча ШІ у довгостроковій перспективі може підвищити продуктивність (і навіть допомогти стримати інфляцію), його стрімке впровадження може спричинити короткострокові потрясіння — включаючи сплески інвестицій і витрат, які парадоксальним чином можуть підняти ціни до появи ефективності ts2.tech. Її виважена позиція — не перебільшувати ні утопію, ні катастрофу — відображає ширше консенсус у Вашингтоні: заохочувати розвиток ШІ обережно, уважно стежачи за впливом на робочі місця, рівень інфляції та нерівність після їх появи.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

Фінанси, бізнес та інвестиції в ШІ

ШІ, спеціально створений для фінансів: Фінансовий сектор став свідком активного впровадження ШІ як у продуктах, так і в прибутках. Стартап Anthropic запустив Claude for Financial Services — версію свого асистента Claude-4, спеціалізованого для аналітиків ринку та банкірів. Anthropic стверджує, що Claude-4 перевершує інші провідні моделі у фінансових завданнях згідно з галузевими бенчмарками anthropic.com. Платформа може підключатися до поточних ринкових даних (через партнерів, таких як Bloomberg, FactSet та ін.) і обробляти значні обсяги робіт: від моделювання ризиків до оформлення документів для відповідності. Перші користувачі повідомляють про суттєві переваги — наприклад, генеральний директор суверенного фонду багатства Норвегії на $1,4 трлн (NBIM) заявив, що Claude “фундаментально змінив” їхню роботу, забезпечивши орієнтовно 20% приросту продуктивності (близько 213 000 зекономлених робочих годин) завдяки тому, що персонал може безперешкодно працювати з даними й ефективніше аналізувати фінансові звіти anthropic.com. З його слів, Claude фактично став “незамінним” для аналітиків та менеджерів з ризиків цієї компанії anthropic.com. Великі банки й фонди також досліджують можливості асистентів ШІ для прискорення досліджень з повним аудит-трейлом і автоматизації рутинних завдань, які зазвичай гальмують роботу фінансових команд.

Уолл-стріт робить ставки на AI-стартапи: Інвестори продовжують вкладати гроші в штучний інтелект із вражаючими оцінками. Цього вікенду надійшла новина, що стартап Perplexity AI, відомий своїм чат-ботом для пошуку на основі ШІ, залучив ще $100 мільйонів фінансування – і підняв свою оцінку до приблизно $18 мільярдів theindependent.sg. (Для порівняння, ще два місяці тому Perplexity оцінювали приблизно у $14 мільярдів, а минулого року – лише у $1 мільярд, що відображає стрімке зростання генеративного ШІ theindependent.sg.) З’являються і нові фонди з фокусом на ШІ: наприклад, один із ранніх інвесторів Instacart запустив фонд “Verified Capital” зі $175 мільйонами, орієнтованими на AI-стартапи (анонсовано 20 липня). А у сфері хмарних обчислень традиційні компанії пристосовуються до епохи ШІ – іноді болісно. Amazon підтвердила, що скорочує кілька сотень працівників AWS (переважно в службі підтримки хмарних сервісів), після того як генеральний директор Енді Джессі попередив, що ефективність ШІ призведе до зменшення певних “проміжних” посад binaryverseai.com. Внутрішні електронні листи цього тижня вказують, що деякі спеціалізовані команди з міграції у хмару стали непотрібними – “перше видиме підтвердження в межах AWS” автоматизації під керуванням ШІ, як зазначив Reuters binaryverseai.com binaryverseai.com. Аналітики стверджують, що навіть підрозділи з великою маржею не захищені: “ШІ поглинає завдання, які він освоює, а потім компанії або перенаправляють, або звільняють людей,” – сухо зазначив один із них binaryverseai.com. Попри значні прибутки, хмарний гігант проводить оптимізацію, демонструючи, як зростання продуктивності від ШІ також може на практиці призводити до скорочення робочої сили.

Наукові та медичні прориви

Прискорення медичного аналізу: У сфері охорони здоров’я прориви в штучному інтелекті обіцяють швидші діагнози та безпечніші процедури. Дослідники з Університету Індіани та партнерських лікарень презентували систему штучного інтелекту “Інформатика раку”, яка здатна аналізувати оцифровані зразки патології, електронні медичні картки й навіть геномні дані для виявлення потенційних онкозахворювань і пропонування стадій пухлини. За словами головного дослідника Спирідона Бакаса, ця система скоротила деякі діагностичні процеси “з днів до секунд”, тріажуючи випадки з надлюдською швидкістю binaryverseai.com binaryverseai.com. Інструмент також виявив делікатні взаємозв’язки між мульти-модальними даними, які людина могла б пропустити, хоча команда наполягає: патологи залишаються незамінними для складних випадків і остаточних висновків binaryverseai.com. Проєкт ілюструє ширшу тенденцію до мультимодального медичного ШІ, що здатен аналізувати різні типи даних одночасно. Подібно до цього, радіологи повідомили про успіхи у використанні моделі ШІ під назвою mViT (модифікований vision transformer) для покращення дитячих КТ-сканувань binaryverseai.com binaryverseai.com. Фотонно-лічильні КТ-сканери дозволяють знижувати дозу рентгенівського випромінювання для дітей, але зазвичай дають шумні зображення; система mViT навчилася зменшувати шум сканів у реальному часі, роблячи артерії й тканини чіткішими без розмиття, яке виникало при старих методах зниження шуму binaryverseai.com binaryverseai.com. Під час тестування на 20 маленьких пацієнтах ШІ постійно перевершував традиційні фільтри, що потенційно відкриває шлях до чіткіших КТ із низькою дозою — перемога для безпеки дітей, коли КТ нового покоління отримують схвалення FDA binaryverseai.com.

Прориви в біології та матеріалознавстві: ШІ також сприяє базовій науці. Нове дослідження у Nature Communications описує, як тріада нейронних мереж тепер може встановлювати часову мітку розвитку ембріона з точністю до хвилини, що може змінити розвиток біології binaryverseai.com. Навчаючи згорткові нейромережі на зображеннях ембріонів плодових мух у високій роздільній здатності, система навчилася розпізнавати тонкі візуальні підказки циклів поділу клітин. Вона може визначати вік ембріона (з похибкою ±1 хвилина) без використання руйнівних флуоресцентних маркерів – досягаючи 98–100% точності на ембріонах ранніх стадій binaryverseai.com binaryverseai.com. Цей штучний “ембріональний годинник” дозволив команді зіставити сплески активації генів з небаченою часовою точністю, надаючи біологам потужний новий інструмент для вивчення формування органів. У матеріалознавстві дослідники з Великої Британії представили “CrystalGPT,” модель, навченої на 706 000 кристалічних структур для прогнозування властивостей матеріалів. Вивчаючи “мову” молекулярних кристалів (через пазли із замаскованими атомами та задачі на симетрію), CrystalGPT може передбачити густину, пористість чи стабільність нових сполук значно швидше, ніж прямі симуляції binaryverseai.com binaryverseai.com. Експерти відзначають її прозорість – ШІ навіть підсвічує, які саме атомні оточення найбільше вплинули на прогноз, – даючи хімікам упевненість замість “чорної скриньки” binaryverseai.com. Швидше моделювання кристалів може прискорити прогрес у створенні батарей, каталізаторів, напівпровідникових матеріалів, скорочуючи час і вартість науково-дослідних робіт.

ШІ для коду – із застереженнями: Не всі дослідження були оптимістичними; одне з них стало реалістичним поглядом на асистентів з програмування на основі ШІ. У контрольованому експерименті досвідчені розробники програмного забезпечення витратили на 19% більше часу на виконання завдання з допомогою ШІ-асистента, ніж контрольна група без ШІ ts2.tech. Досвідчені програмісти очікували, що ШІ (інструмент підказки коду) зробить їх швидшими, але він часто надавав лише “правильні у напрямку, але не зовсім такі, як потрібно” фрагменти коду ts2.tech. Час втрачався на перегляд і виправлення цих майже правильних підказок. Натомість попередні дослідження показали значне підвищення швидкості у менш досвідчених програмістів на простіших завданнях. “Це більше схоже на редагування есе, ніж на написання з нуля,” – сказав один із досвідчених розробників про працю з ШІ-асистентом – можливо, більш розслаблено, зате повільніше ts2.tech. Дослідники з METR дійшли висновку, що нинішні асистенти на основі ШІ не є чарівною паличкою для підвищення продуктивності експертів у складному програмуванні і що суттєве доопрацювання (і людський контроль) досі необхідні ts2.tech. Це нюансоване спостереження стримує поспішне впровадження генераторів коду на основі ШІ для всіх розробників.

Зазирнути всередину “мозку” ШІ: Консорціум провідних науковців зі сфери штучного інтелекту (з OpenAI, DeepMind, Anthropic та провідних університетів) опублікував примітну статтю із закликом до розробки нових технік для моніторингу “ланцюга роздумів” ШІ – по суті, прихованих кроків міркування, які моделі ШІ генерують всередині себе ts2.tech. Оскільки системи ШІ стають дедалі автономнішими (як агенти, що з’являються сьогодні), автори стверджують, що можливість перевіряти ці проміжні думки може стати критично важливою для безпеки ts2.tech. Спостерігаючи поетапне міркування ШІ, розробники можуть вчасно виявити помилки чи небезпечні відхилення до того, як ШІ почне діяти. Однак у статті попереджається, що зі зростанням складності моделей “немає гарантії, що нинішній рівень прозорості збережеться” – майбутні ШІ можуть приховати процеси мислення так, що їх буде важко відстежити ts2.tech. Команда закликала спільноту “максимально ефективно використовувати можливість моніторингу [ланцюга роздумів]” вже сьогодні і прагнути зберігати прозорість у майбутньому ts2.tech. Примітно, що під цим закликом до дії підписалися найвідоміші фахівці у сфері ШІ – серед них Джеффрі Хінтон, головний науковець OpenAI Ілля Суцкевер (та керівник напряму узгодження Ян Лейке), співзасновник DeepMind Шейн Легг та інші ts2.tech. Це рідкісний приклад єдності між конкурентними лабораторіями, що відображає спільну стурбованість: оскільки ШІ наближається до людського рівня міркування, ми не повинні дозволити йому перетворитись на незбагненну “чорну скриньку”. Дослідження “сканування мозку ШІ” – тобто читання його думок – можуть стати не менш важливими, ніж створення самого ШІ.

Держава та регулювання

ЄС впроваджує Закон про штучний інтелект: Брюссель підштовхнув регуляторні межі, зробивши конкретні кроки щодо реалізації свого знакового Закону про ШІ. 18 липня Європейська комісія оприлюднила детальні інструкції для “ШІ-моделей із системними ризиками” – тобто найбільш потужних універсальних ШІ-систем, які можуть впливати на громадську безпеку або основні права людини ts2.tech. Інструкції роз’яснюють жорсткі нові вимоги, із якими зіткнуться ці постачальники ШІ після набуття чинності Законом про ШІ 2 серпня. Згідно з правилами, великі розробники штучного інтелекту (Google, OpenAI, Meta, Anthropic, французька Mistral та інші) повинні проводити суворі оцінки ризиків, випробування з протидією вразливостям (adversarial testing) та повідомляти про серйозні інциденти чи збої регуляторам ЄС ts2.tech. Вони також повинні впроваджувати надійний кіберзахист, щоб запобігти зловмисному використанню своїх моделей ts2.tech. Прозорість – ключове: розробники базових моделей повинні документувати джерела навчальних даних, дотримуватися авторських прав і публікувати короткі звіти про зміст датасетів, використаних для навчання кожного ШІ ts2.tech. “Завдяки сьогоднішнім інструкціям Комісія сприяє плавному та ефективному застосуванню Закону про ШІ”, — сказала головна технологічна чиновниця ЄС Генна Вірккунен, підкресливши, що регулятори хочуть забезпечити чіткість для бізнесу, стримуючи потенційні ризики ts2.tech. У компаній є пільговий період до серпня 2026 року для повного виконання вимог ts2.tech. Після цього порушення можуть обійтися у величезні штрафи – до €35 млн або 7% світового обороту (що більше) ts2.tech. Нові інструкції з’явилися на тлі невдоволення окремих технологічних компаній тим, що європейські правила можуть бути надто обтяжливими, проте чиновники ЄС налаштовані довести, що вони можуть бути “глобальними наглядачами ШІ”, не душачи інновації.

Добровільний кодекс спричиняє суперечки: У тіні обов’язкового AI Act запропонований регуляторами ЄС добровільний «Кодекс практики ШІ» викликав трансатлантичну дискусію. Кодекс, розроблений експертами для заохочення раннього впровадження деяких принципів AI Act, закликає компанії, що займаються ШІ, проактивно дотримуватись певних заходів прозорості та безпеки вже зараз, до набуття чинності закону. Цього тижня серед американських технологічних гігантів виник розкол: Microsoft натякнула, що, ймовірно, приєднається, президент Бред Сміт заявив: «Я думаю, що ми, ймовірно, підпишемося… Наша мета — підтримувати» та привітав тісну співпрацю з AI-офісом ЄС reuters.com. У різкому контрасті Meta Platforms категорично відкинула цей добровільний кодекс. «Meta не підписуватиме його. Цей кодекс створює низку юридичних невизначеностей для розробників моделей, а також запроваджує заходи, що значно виходять за межі AI Act», — написав керівник з глобальних питань Meta Джоел Каплан 18 липня reuters.com. На його думку, рекомендації ЄС є надмірним регулюванням, яке може «загальмувати розвиток і впровадження передових моделей ШІ в Європі» і «поставити під загрозу європейські компанії», що працюють у сфері ШІ reuters.com. Позиція Meta збігається зі скаргами коаліції з 45 європейських технологічних компаній, що проєкт кодексу є надто обмежувальним. З іншого боку, OpenAI (розробник ChatGPT) та французька Mistral AI вже підписали кодекс, сигналізуючи, що деякі провідні гравці готові пристати на більшу прозорість і перевірки дотримання авторських прав у Європі ts2.tech. Такий розкол підкреслює зростання напруги: американські гіганти прагнуть уникати прецедентів, які могли б стати для них обов’язковими в усьому світі, тоді як європейські регулятори (і деякі стартапи) вже зараз вимагають більш високих стандартів. Те, як буде впроваджений цей добровільний кодекс, може вплинути на фактичні правила ШІ у всьому світі ще до вступу обов’язкового закону ЄС у дію.

США роблять ставку на інновації, а не на регулювання: У Вашингтоні підхід до ШІ залишається більш стимулювальним, ніж обмежувальним – принаймні наразі. Цього тижня Білий дім зібрав керівників технокомпаній, дослідників та законодавців на Саміт з технологій та інновацій, який приніс близько 90 мільярдів доларів нових галузевих зобов’язань щодо проєктів зі штучного інтелекту та виробництва напівпровідників у США ts2.tech. Десятки компаній — від Google до Intel і Blackstone — пообіцяли інвестувати мільярди у передові дата-центри, вітчизняні фабрики чипів та дослідницькі центри ШІ по всій Америці, укріплюючи технічну інфраструктуру у партнерстві з федеральними ініціативами ts2.tech. Послання від американських лідерів: замість того, щоб негайно встановлювати загальні закони щодо ШІ, вони підливають пального у вогонь інновацій, щоб зберегти перевагу над глобальними конкурентами, водночас аналізуючи вплив ШІ. Навіть Федеральна резервна система США звертає на це увагу. У промові 17 липня щодо технологій членка Ради керуючих Федрезерву Ліза Д. Кук назвала ШІ «потенційно наступною технологією загального призначення» – порівнюючи його трансформаційний потенціал із друкарським верстатом чи електрикою ts2.tech. Вона відзначила, що «понад пів мільярда користувачів» у світі вже щотижня взаємодіють з великими ШІ-моделями, і що за минулий рік поступ ШІ подвоїв ключові показники ts2.tech. Водночас Кук попередила й про «багатовимірні виклики». Хоча ШІ у довгостроковій перспективі може підвищити продуктивність (і навіть допомогти стримати інфляцію), його стрімке впровадження може спричинити короткострокові потрясіння — включаючи сплески інвестицій і витрат, які парадоксальним чином можуть підняти ціни до появи ефективності ts2.tech. Її виважена позиція — не перебільшувати ні утопію, ні катастрофу — відображає ширше консенсус у Вашингтоні: заохочувати розвиток ШІ обережно, уважно стежачи за впливом на робочі місця, рівень інфляції та нерівність після їх появи.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

ШІ в медіа, розвагах і креативних індустріях

Netflix використовує ШІ для VFX: У Голлівуді відбулася визначна подія: Netflix повідомив у своєму звіті про прибутки, що почав використовувати генеративний ШІ у виробництві контенту, включаючи перші в історії кадри, створені ШІ, у шоу Netflix ts2.tech. В аргентинському науково-фантастичному серіалі «Ель Етернаута» цілу сцену обвалення будівлі було створено за допомогою ШІ — це зайняло у 10 разів менше часу та коштувало дешевше, ніж традиційні візуальні ефекти techcrunch.com. Спів-генеральний директор Тед Сарандос підкреслив, що ШІ використовується для підсилення творців, а не для їхньої заміни, заявивши: «ШІ відкриває неймовірні можливості допомогти творцям робити фільми та серіали кращими, а не просто дешевшими… це справжні люди, які виконують справжню роботу з кращими інструментами.» techcrunch.com Він зазначив, що художники Netflix вже відчувають переваги у препродакшн-візуалізації та плануванні кадрів. Netflix також використовує генеративний ШІ не лише для VFX – компанія застосовує його для персоналізованого відкриття контенту і вже готується запустити інтерактивну рекламу на базі ШІ до кінця цього року techcrunch.com.

Генеративна мода та відео-чари: Творчий підхід ШІ поширився й на моду та відео. Дослідники з Південної Кореї експериментували з «генеративним кутюром», використовуючи ChatGPT для прогнозування майбутніх модних трендів і DALL·E 3 для створення понад 100 віртуальних образів для колекції осінь/зима binaryverseai.com binaryverseai.com. Близько двох третин дизайнів, створених ШІ, відповідали реальним стилям, що натякає на здатність генеративних моделей виявляти тренди раніше, ніж це зроблять дизайнери. (ШІ зазнав труднощів із абстрактними поняттями, такими як гендерно-нейтральний дизайн, що підкреслює: людські дизайнери все ще тримають креативний компас binaryverseai.com.) У сфері технологій для кіновиробництва NVIDIA разом із партнерами з університетів презентували DiffusionRenderer — дворівневу систему ШІ, яка поєднує інверсний і прямий рендеринг, роблячи сучасні відеоефекти доступними для незалежних творців binaryverseai.com binaryverseai.com. В одному з демонстраційних відео користувач міг зняти простий кадр і додати CGI-дракона, тінь від якого виглядає реалістично без складних сенсорів чи ручного налаштування світла – ШІ самостійно вивчив геометрію та освітлення сцени за відео binaryverseai.com binaryverseai.com. У підсумку це звужує прірву між великими студіями і маленькими творцями, натякаючи на майбутнє з «майже магічним» відеомонтажем для всіх.

Фінанси, бізнес та інвестиції в ШІ

ШІ, спеціально створений для фінансів: Фінансовий сектор став свідком активного впровадження ШІ як у продуктах, так і в прибутках. Стартап Anthropic запустив Claude for Financial Services — версію свого асистента Claude-4, спеціалізованого для аналітиків ринку та банкірів. Anthropic стверджує, що Claude-4 перевершує інші провідні моделі у фінансових завданнях згідно з галузевими бенчмарками anthropic.com. Платформа може підключатися до поточних ринкових даних (через партнерів, таких як Bloomberg, FactSet та ін.) і обробляти значні обсяги робіт: від моделювання ризиків до оформлення документів для відповідності. Перші користувачі повідомляють про суттєві переваги — наприклад, генеральний директор суверенного фонду багатства Норвегії на $1,4 трлн (NBIM) заявив, що Claude “фундаментально змінив” їхню роботу, забезпечивши орієнтовно 20% приросту продуктивності (близько 213 000 зекономлених робочих годин) завдяки тому, що персонал може безперешкодно працювати з даними й ефективніше аналізувати фінансові звіти anthropic.com. З його слів, Claude фактично став “незамінним” для аналітиків та менеджерів з ризиків цієї компанії anthropic.com. Великі банки й фонди також досліджують можливості асистентів ШІ для прискорення досліджень з повним аудит-трейлом і автоматизації рутинних завдань, які зазвичай гальмують роботу фінансових команд.

Уолл-стріт робить ставки на AI-стартапи: Інвестори продовжують вкладати гроші в штучний інтелект із вражаючими оцінками. Цього вікенду надійшла новина, що стартап Perplexity AI, відомий своїм чат-ботом для пошуку на основі ШІ, залучив ще $100 мільйонів фінансування – і підняв свою оцінку до приблизно $18 мільярдів theindependent.sg. (Для порівняння, ще два місяці тому Perplexity оцінювали приблизно у $14 мільярдів, а минулого року – лише у $1 мільярд, що відображає стрімке зростання генеративного ШІ theindependent.sg.) З’являються і нові фонди з фокусом на ШІ: наприклад, один із ранніх інвесторів Instacart запустив фонд “Verified Capital” зі $175 мільйонами, орієнтованими на AI-стартапи (анонсовано 20 липня). А у сфері хмарних обчислень традиційні компанії пристосовуються до епохи ШІ – іноді болісно. Amazon підтвердила, що скорочує кілька сотень працівників AWS (переважно в службі підтримки хмарних сервісів), після того як генеральний директор Енді Джессі попередив, що ефективність ШІ призведе до зменшення певних “проміжних” посад binaryverseai.com. Внутрішні електронні листи цього тижня вказують, що деякі спеціалізовані команди з міграції у хмару стали непотрібними – “перше видиме підтвердження в межах AWS” автоматизації під керуванням ШІ, як зазначив Reuters binaryverseai.com binaryverseai.com. Аналітики стверджують, що навіть підрозділи з великою маржею не захищені: “ШІ поглинає завдання, які він освоює, а потім компанії або перенаправляють, або звільняють людей,” – сухо зазначив один із них binaryverseai.com. Попри значні прибутки, хмарний гігант проводить оптимізацію, демонструючи, як зростання продуктивності від ШІ також може на практиці призводити до скорочення робочої сили.

Наукові та медичні прориви

Прискорення медичного аналізу: У сфері охорони здоров’я прориви в штучному інтелекті обіцяють швидші діагнози та безпечніші процедури. Дослідники з Університету Індіани та партнерських лікарень презентували систему штучного інтелекту “Інформатика раку”, яка здатна аналізувати оцифровані зразки патології, електронні медичні картки й навіть геномні дані для виявлення потенційних онкозахворювань і пропонування стадій пухлини. За словами головного дослідника Спирідона Бакаса, ця система скоротила деякі діагностичні процеси “з днів до секунд”, тріажуючи випадки з надлюдською швидкістю binaryverseai.com binaryverseai.com. Інструмент також виявив делікатні взаємозв’язки між мульти-модальними даними, які людина могла б пропустити, хоча команда наполягає: патологи залишаються незамінними для складних випадків і остаточних висновків binaryverseai.com. Проєкт ілюструє ширшу тенденцію до мультимодального медичного ШІ, що здатен аналізувати різні типи даних одночасно. Подібно до цього, радіологи повідомили про успіхи у використанні моделі ШІ під назвою mViT (модифікований vision transformer) для покращення дитячих КТ-сканувань binaryverseai.com binaryverseai.com. Фотонно-лічильні КТ-сканери дозволяють знижувати дозу рентгенівського випромінювання для дітей, але зазвичай дають шумні зображення; система mViT навчилася зменшувати шум сканів у реальному часі, роблячи артерії й тканини чіткішими без розмиття, яке виникало при старих методах зниження шуму binaryverseai.com binaryverseai.com. Під час тестування на 20 маленьких пацієнтах ШІ постійно перевершував традиційні фільтри, що потенційно відкриває шлях до чіткіших КТ із низькою дозою — перемога для безпеки дітей, коли КТ нового покоління отримують схвалення FDA binaryverseai.com.

Прориви в біології та матеріалознавстві: ШІ також сприяє базовій науці. Нове дослідження у Nature Communications описує, як тріада нейронних мереж тепер може встановлювати часову мітку розвитку ембріона з точністю до хвилини, що може змінити розвиток біології binaryverseai.com. Навчаючи згорткові нейромережі на зображеннях ембріонів плодових мух у високій роздільній здатності, система навчилася розпізнавати тонкі візуальні підказки циклів поділу клітин. Вона може визначати вік ембріона (з похибкою ±1 хвилина) без використання руйнівних флуоресцентних маркерів – досягаючи 98–100% точності на ембріонах ранніх стадій binaryverseai.com binaryverseai.com. Цей штучний “ембріональний годинник” дозволив команді зіставити сплески активації генів з небаченою часовою точністю, надаючи біологам потужний новий інструмент для вивчення формування органів. У матеріалознавстві дослідники з Великої Британії представили “CrystalGPT,” модель, навченої на 706 000 кристалічних структур для прогнозування властивостей матеріалів. Вивчаючи “мову” молекулярних кристалів (через пазли із замаскованими атомами та задачі на симетрію), CrystalGPT може передбачити густину, пористість чи стабільність нових сполук значно швидше, ніж прямі симуляції binaryverseai.com binaryverseai.com. Експерти відзначають її прозорість – ШІ навіть підсвічує, які саме атомні оточення найбільше вплинули на прогноз, – даючи хімікам упевненість замість “чорної скриньки” binaryverseai.com. Швидше моделювання кристалів може прискорити прогрес у створенні батарей, каталізаторів, напівпровідникових матеріалів, скорочуючи час і вартість науково-дослідних робіт.

ШІ для коду – із застереженнями: Не всі дослідження були оптимістичними; одне з них стало реалістичним поглядом на асистентів з програмування на основі ШІ. У контрольованому експерименті досвідчені розробники програмного забезпечення витратили на 19% більше часу на виконання завдання з допомогою ШІ-асистента, ніж контрольна група без ШІ ts2.tech. Досвідчені програмісти очікували, що ШІ (інструмент підказки коду) зробить їх швидшими, але він часто надавав лише “правильні у напрямку, але не зовсім такі, як потрібно” фрагменти коду ts2.tech. Час втрачався на перегляд і виправлення цих майже правильних підказок. Натомість попередні дослідження показали значне підвищення швидкості у менш досвідчених програмістів на простіших завданнях. “Це більше схоже на редагування есе, ніж на написання з нуля,” – сказав один із досвідчених розробників про працю з ШІ-асистентом – можливо, більш розслаблено, зате повільніше ts2.tech. Дослідники з METR дійшли висновку, що нинішні асистенти на основі ШІ не є чарівною паличкою для підвищення продуктивності експертів у складному програмуванні і що суттєве доопрацювання (і людський контроль) досі необхідні ts2.tech. Це нюансоване спостереження стримує поспішне впровадження генераторів коду на основі ШІ для всіх розробників.

Зазирнути всередину “мозку” ШІ: Консорціум провідних науковців зі сфери штучного інтелекту (з OpenAI, DeepMind, Anthropic та провідних університетів) опублікував примітну статтю із закликом до розробки нових технік для моніторингу “ланцюга роздумів” ШІ – по суті, прихованих кроків міркування, які моделі ШІ генерують всередині себе ts2.tech. Оскільки системи ШІ стають дедалі автономнішими (як агенти, що з’являються сьогодні), автори стверджують, що можливість перевіряти ці проміжні думки може стати критично важливою для безпеки ts2.tech. Спостерігаючи поетапне міркування ШІ, розробники можуть вчасно виявити помилки чи небезпечні відхилення до того, як ШІ почне діяти. Однак у статті попереджається, що зі зростанням складності моделей “немає гарантії, що нинішній рівень прозорості збережеться” – майбутні ШІ можуть приховати процеси мислення так, що їх буде важко відстежити ts2.tech. Команда закликала спільноту “максимально ефективно використовувати можливість моніторингу [ланцюга роздумів]” вже сьогодні і прагнути зберігати прозорість у майбутньому ts2.tech. Примітно, що під цим закликом до дії підписалися найвідоміші фахівці у сфері ШІ – серед них Джеффрі Хінтон, головний науковець OpenAI Ілля Суцкевер (та керівник напряму узгодження Ян Лейке), співзасновник DeepMind Шейн Легг та інші ts2.tech. Це рідкісний приклад єдності між конкурентними лабораторіями, що відображає спільну стурбованість: оскільки ШІ наближається до людського рівня міркування, ми не повинні дозволити йому перетворитись на незбагненну “чорну скриньку”. Дослідження “сканування мозку ШІ” – тобто читання його думок – можуть стати не менш важливими, ніж створення самого ШІ.

Держава та регулювання

ЄС впроваджує Закон про штучний інтелект: Брюссель підштовхнув регуляторні межі, зробивши конкретні кроки щодо реалізації свого знакового Закону про ШІ. 18 липня Європейська комісія оприлюднила детальні інструкції для “ШІ-моделей із системними ризиками” – тобто найбільш потужних універсальних ШІ-систем, які можуть впливати на громадську безпеку або основні права людини ts2.tech. Інструкції роз’яснюють жорсткі нові вимоги, із якими зіткнуться ці постачальники ШІ після набуття чинності Законом про ШІ 2 серпня. Згідно з правилами, великі розробники штучного інтелекту (Google, OpenAI, Meta, Anthropic, французька Mistral та інші) повинні проводити суворі оцінки ризиків, випробування з протидією вразливостям (adversarial testing) та повідомляти про серйозні інциденти чи збої регуляторам ЄС ts2.tech. Вони також повинні впроваджувати надійний кіберзахист, щоб запобігти зловмисному використанню своїх моделей ts2.tech. Прозорість – ключове: розробники базових моделей повинні документувати джерела навчальних даних, дотримуватися авторських прав і публікувати короткі звіти про зміст датасетів, використаних для навчання кожного ШІ ts2.tech. “Завдяки сьогоднішнім інструкціям Комісія сприяє плавному та ефективному застосуванню Закону про ШІ”, — сказала головна технологічна чиновниця ЄС Генна Вірккунен, підкресливши, що регулятори хочуть забезпечити чіткість для бізнесу, стримуючи потенційні ризики ts2.tech. У компаній є пільговий період до серпня 2026 року для повного виконання вимог ts2.tech. Після цього порушення можуть обійтися у величезні штрафи – до €35 млн або 7% світового обороту (що більше) ts2.tech. Нові інструкції з’явилися на тлі невдоволення окремих технологічних компаній тим, що європейські правила можуть бути надто обтяжливими, проте чиновники ЄС налаштовані довести, що вони можуть бути “глобальними наглядачами ШІ”, не душачи інновації.

Добровільний кодекс спричиняє суперечки: У тіні обов’язкового AI Act запропонований регуляторами ЄС добровільний «Кодекс практики ШІ» викликав трансатлантичну дискусію. Кодекс, розроблений експертами для заохочення раннього впровадження деяких принципів AI Act, закликає компанії, що займаються ШІ, проактивно дотримуватись певних заходів прозорості та безпеки вже зараз, до набуття чинності закону. Цього тижня серед американських технологічних гігантів виник розкол: Microsoft натякнула, що, ймовірно, приєднається, президент Бред Сміт заявив: «Я думаю, що ми, ймовірно, підпишемося… Наша мета — підтримувати» та привітав тісну співпрацю з AI-офісом ЄС reuters.com. У різкому контрасті Meta Platforms категорично відкинула цей добровільний кодекс. «Meta не підписуватиме його. Цей кодекс створює низку юридичних невизначеностей для розробників моделей, а також запроваджує заходи, що значно виходять за межі AI Act», — написав керівник з глобальних питань Meta Джоел Каплан 18 липня reuters.com. На його думку, рекомендації ЄС є надмірним регулюванням, яке може «загальмувати розвиток і впровадження передових моделей ШІ в Європі» і «поставити під загрозу європейські компанії», що працюють у сфері ШІ reuters.com. Позиція Meta збігається зі скаргами коаліції з 45 європейських технологічних компаній, що проєкт кодексу є надто обмежувальним. З іншого боку, OpenAI (розробник ChatGPT) та французька Mistral AI вже підписали кодекс, сигналізуючи, що деякі провідні гравці готові пристати на більшу прозорість і перевірки дотримання авторських прав у Європі ts2.tech. Такий розкол підкреслює зростання напруги: американські гіганти прагнуть уникати прецедентів, які могли б стати для них обов’язковими в усьому світі, тоді як європейські регулятори (і деякі стартапи) вже зараз вимагають більш високих стандартів. Те, як буде впроваджений цей добровільний кодекс, може вплинути на фактичні правила ШІ у всьому світі ще до вступу обов’язкового закону ЄС у дію.

США роблять ставку на інновації, а не на регулювання: У Вашингтоні підхід до ШІ залишається більш стимулювальним, ніж обмежувальним – принаймні наразі. Цього тижня Білий дім зібрав керівників технокомпаній, дослідників та законодавців на Саміт з технологій та інновацій, який приніс близько 90 мільярдів доларів нових галузевих зобов’язань щодо проєктів зі штучного інтелекту та виробництва напівпровідників у США ts2.tech. Десятки компаній — від Google до Intel і Blackstone — пообіцяли інвестувати мільярди у передові дата-центри, вітчизняні фабрики чипів та дослідницькі центри ШІ по всій Америці, укріплюючи технічну інфраструктуру у партнерстві з федеральними ініціативами ts2.tech. Послання від американських лідерів: замість того, щоб негайно встановлювати загальні закони щодо ШІ, вони підливають пального у вогонь інновацій, щоб зберегти перевагу над глобальними конкурентами, водночас аналізуючи вплив ШІ. Навіть Федеральна резервна система США звертає на це увагу. У промові 17 липня щодо технологій членка Ради керуючих Федрезерву Ліза Д. Кук назвала ШІ «потенційно наступною технологією загального призначення» – порівнюючи його трансформаційний потенціал із друкарським верстатом чи електрикою ts2.tech. Вона відзначила, що «понад пів мільярда користувачів» у світі вже щотижня взаємодіють з великими ШІ-моделями, і що за минулий рік поступ ШІ подвоїв ключові показники ts2.tech. Водночас Кук попередила й про «багатовимірні виклики». Хоча ШІ у довгостроковій перспективі може підвищити продуктивність (і навіть допомогти стримати інфляцію), його стрімке впровадження може спричинити короткострокові потрясіння — включаючи сплески інвестицій і витрат, які парадоксальним чином можуть підняти ціни до появи ефективності ts2.tech. Її виважена позиція — не перебільшувати ні утопію, ні катастрофу — відображає ширше консенсус у Вашингтоні: заохочувати розвиток ШІ обережно, уважно стежачи за впливом на робочі місця, рівень інфляції та нерівність після їх появи.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

Держава та регулювання

ЄС впроваджує Закон про штучний інтелект: Брюссель підштовхнув регуляторні межі, зробивши конкретні кроки щодо реалізації свого знакового Закону про ШІ. 18 липня Європейська комісія оприлюднила детальні інструкції для “ШІ-моделей із системними ризиками” – тобто найбільш потужних універсальних ШІ-систем, які можуть впливати на громадську безпеку або основні права людини ts2.tech. Інструкції роз’яснюють жорсткі нові вимоги, із якими зіткнуться ці постачальники ШІ після набуття чинності Законом про ШІ 2 серпня. Згідно з правилами, великі розробники штучного інтелекту (Google, OpenAI, Meta, Anthropic, французька Mistral та інші) повинні проводити суворі оцінки ризиків, випробування з протидією вразливостям (adversarial testing) та повідомляти про серйозні інциденти чи збої регуляторам ЄС ts2.tech. Вони також повинні впроваджувати надійний кіберзахист, щоб запобігти зловмисному використанню своїх моделей ts2.tech. Прозорість – ключове: розробники базових моделей повинні документувати джерела навчальних даних, дотримуватися авторських прав і публікувати короткі звіти про зміст датасетів, використаних для навчання кожного ШІ ts2.tech. “Завдяки сьогоднішнім інструкціям Комісія сприяє плавному та ефективному застосуванню Закону про ШІ”, — сказала головна технологічна чиновниця ЄС Генна Вірккунен, підкресливши, що регулятори хочуть забезпечити чіткість для бізнесу, стримуючи потенційні ризики ts2.tech. У компаній є пільговий період до серпня 2026 року для повного виконання вимог ts2.tech. Після цього порушення можуть обійтися у величезні штрафи – до €35 млн або 7% світового обороту (що більше) ts2.tech. Нові інструкції з’явилися на тлі невдоволення окремих технологічних компаній тим, що європейські правила можуть бути надто обтяжливими, проте чиновники ЄС налаштовані довести, що вони можуть бути “глобальними наглядачами ШІ”, не душачи інновації.

Добровільний кодекс спричиняє суперечки: У тіні обов’язкового AI Act запропонований регуляторами ЄС добровільний «Кодекс практики ШІ» викликав трансатлантичну дискусію. Кодекс, розроблений експертами для заохочення раннього впровадження деяких принципів AI Act, закликає компанії, що займаються ШІ, проактивно дотримуватись певних заходів прозорості та безпеки вже зараз, до набуття чинності закону. Цього тижня серед американських технологічних гігантів виник розкол: Microsoft натякнула, що, ймовірно, приєднається, президент Бред Сміт заявив: «Я думаю, що ми, ймовірно, підпишемося… Наша мета — підтримувати» та привітав тісну співпрацю з AI-офісом ЄС reuters.com. У різкому контрасті Meta Platforms категорично відкинула цей добровільний кодекс. «Meta не підписуватиме його. Цей кодекс створює низку юридичних невизначеностей для розробників моделей, а також запроваджує заходи, що значно виходять за межі AI Act», — написав керівник з глобальних питань Meta Джоел Каплан 18 липня reuters.com. На його думку, рекомендації ЄС є надмірним регулюванням, яке може «загальмувати розвиток і впровадження передових моделей ШІ в Європі» і «поставити під загрозу європейські компанії», що працюють у сфері ШІ reuters.com. Позиція Meta збігається зі скаргами коаліції з 45 європейських технологічних компаній, що проєкт кодексу є надто обмежувальним. З іншого боку, OpenAI (розробник ChatGPT) та французька Mistral AI вже підписали кодекс, сигналізуючи, що деякі провідні гравці готові пристати на більшу прозорість і перевірки дотримання авторських прав у Європі ts2.tech. Такий розкол підкреслює зростання напруги: американські гіганти прагнуть уникати прецедентів, які могли б стати для них обов’язковими в усьому світі, тоді як європейські регулятори (і деякі стартапи) вже зараз вимагають більш високих стандартів. Те, як буде впроваджений цей добровільний кодекс, може вплинути на фактичні правила ШІ у всьому світі ще до вступу обов’язкового закону ЄС у дію.

США роблять ставку на інновації, а не на регулювання: У Вашингтоні підхід до ШІ залишається більш стимулювальним, ніж обмежувальним – принаймні наразі. Цього тижня Білий дім зібрав керівників технокомпаній, дослідників та законодавців на Саміт з технологій та інновацій, який приніс близько 90 мільярдів доларів нових галузевих зобов’язань щодо проєктів зі штучного інтелекту та виробництва напівпровідників у США ts2.tech. Десятки компаній — від Google до Intel і Blackstone — пообіцяли інвестувати мільярди у передові дата-центри, вітчизняні фабрики чипів та дослідницькі центри ШІ по всій Америці, укріплюючи технічну інфраструктуру у партнерстві з федеральними ініціативами ts2.tech. Послання від американських лідерів: замість того, щоб негайно встановлювати загальні закони щодо ШІ, вони підливають пального у вогонь інновацій, щоб зберегти перевагу над глобальними конкурентами, водночас аналізуючи вплив ШІ. Навіть Федеральна резервна система США звертає на це увагу. У промові 17 липня щодо технологій членка Ради керуючих Федрезерву Ліза Д. Кук назвала ШІ «потенційно наступною технологією загального призначення» – порівнюючи його трансформаційний потенціал із друкарським верстатом чи електрикою ts2.tech. Вона відзначила, що «понад пів мільярда користувачів» у світі вже щотижня взаємодіють з великими ШІ-моделями, і що за минулий рік поступ ШІ подвоїв ключові показники ts2.tech. Водночас Кук попередила й про «багатовимірні виклики». Хоча ШІ у довгостроковій перспективі може підвищити продуктивність (і навіть допомогти стримати інфляцію), його стрімке впровадження може спричинити короткострокові потрясіння — включаючи сплески інвестицій і витрат, які парадоксальним чином можуть підняти ціни до появи ефективності ts2.tech. Її виважена позиція — не перебільшувати ні утопію, ні катастрофу — відображає ширше консенсус у Вашингтоні: заохочувати розвиток ШІ обережно, уважно стежачи за впливом на робочі місця, рівень інфляції та нерівність після їх появи.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

Фінанси, бізнес та інвестиції в ШІ

ШІ, спеціально створений для фінансів: Фінансовий сектор став свідком активного впровадження ШІ як у продуктах, так і в прибутках. Стартап Anthropic запустив Claude for Financial Services — версію свого асистента Claude-4, спеціалізованого для аналітиків ринку та банкірів. Anthropic стверджує, що Claude-4 перевершує інші провідні моделі у фінансових завданнях згідно з галузевими бенчмарками anthropic.com. Платформа може підключатися до поточних ринкових даних (через партнерів, таких як Bloomberg, FactSet та ін.) і обробляти значні обсяги робіт: від моделювання ризиків до оформлення документів для відповідності. Перші користувачі повідомляють про суттєві переваги — наприклад, генеральний директор суверенного фонду багатства Норвегії на $1,4 трлн (NBIM) заявив, що Claude “фундаментально змінив” їхню роботу, забезпечивши орієнтовно 20% приросту продуктивності (близько 213 000 зекономлених робочих годин) завдяки тому, що персонал може безперешкодно працювати з даними й ефективніше аналізувати фінансові звіти anthropic.com. З його слів, Claude фактично став “незамінним” для аналітиків та менеджерів з ризиків цієї компанії anthropic.com. Великі банки й фонди також досліджують можливості асистентів ШІ для прискорення досліджень з повним аудит-трейлом і автоматизації рутинних завдань, які зазвичай гальмують роботу фінансових команд.

Уолл-стріт робить ставки на AI-стартапи: Інвестори продовжують вкладати гроші в штучний інтелект із вражаючими оцінками. Цього вікенду надійшла новина, що стартап Perplexity AI, відомий своїм чат-ботом для пошуку на основі ШІ, залучив ще $100 мільйонів фінансування – і підняв свою оцінку до приблизно $18 мільярдів theindependent.sg. (Для порівняння, ще два місяці тому Perplexity оцінювали приблизно у $14 мільярдів, а минулого року – лише у $1 мільярд, що відображає стрімке зростання генеративного ШІ theindependent.sg.) З’являються і нові фонди з фокусом на ШІ: наприклад, один із ранніх інвесторів Instacart запустив фонд “Verified Capital” зі $175 мільйонами, орієнтованими на AI-стартапи (анонсовано 20 липня). А у сфері хмарних обчислень традиційні компанії пристосовуються до епохи ШІ – іноді болісно. Amazon підтвердила, що скорочує кілька сотень працівників AWS (переважно в службі підтримки хмарних сервісів), після того як генеральний директор Енді Джессі попередив, що ефективність ШІ призведе до зменшення певних “проміжних” посад binaryverseai.com. Внутрішні електронні листи цього тижня вказують, що деякі спеціалізовані команди з міграції у хмару стали непотрібними – “перше видиме підтвердження в межах AWS” автоматизації під керуванням ШІ, як зазначив Reuters binaryverseai.com binaryverseai.com. Аналітики стверджують, що навіть підрозділи з великою маржею не захищені: “ШІ поглинає завдання, які він освоює, а потім компанії або перенаправляють, або звільняють людей,” – сухо зазначив один із них binaryverseai.com. Попри значні прибутки, хмарний гігант проводить оптимізацію, демонструючи, як зростання продуктивності від ШІ також може на практиці призводити до скорочення робочої сили.

Наукові та медичні прориви

Прискорення медичного аналізу: У сфері охорони здоров’я прориви в штучному інтелекті обіцяють швидші діагнози та безпечніші процедури. Дослідники з Університету Індіани та партнерських лікарень презентували систему штучного інтелекту “Інформатика раку”, яка здатна аналізувати оцифровані зразки патології, електронні медичні картки й навіть геномні дані для виявлення потенційних онкозахворювань і пропонування стадій пухлини. За словами головного дослідника Спирідона Бакаса, ця система скоротила деякі діагностичні процеси “з днів до секунд”, тріажуючи випадки з надлюдською швидкістю binaryverseai.com binaryverseai.com. Інструмент також виявив делікатні взаємозв’язки між мульти-модальними даними, які людина могла б пропустити, хоча команда наполягає: патологи залишаються незамінними для складних випадків і остаточних висновків binaryverseai.com. Проєкт ілюструє ширшу тенденцію до мультимодального медичного ШІ, що здатен аналізувати різні типи даних одночасно. Подібно до цього, радіологи повідомили про успіхи у використанні моделі ШІ під назвою mViT (модифікований vision transformer) для покращення дитячих КТ-сканувань binaryverseai.com binaryverseai.com. Фотонно-лічильні КТ-сканери дозволяють знижувати дозу рентгенівського випромінювання для дітей, але зазвичай дають шумні зображення; система mViT навчилася зменшувати шум сканів у реальному часі, роблячи артерії й тканини чіткішими без розмиття, яке виникало при старих методах зниження шуму binaryverseai.com binaryverseai.com. Під час тестування на 20 маленьких пацієнтах ШІ постійно перевершував традиційні фільтри, що потенційно відкриває шлях до чіткіших КТ із низькою дозою — перемога для безпеки дітей, коли КТ нового покоління отримують схвалення FDA binaryverseai.com.

Прориви в біології та матеріалознавстві: ШІ також сприяє базовій науці. Нове дослідження у Nature Communications описує, як тріада нейронних мереж тепер може встановлювати часову мітку розвитку ембріона з точністю до хвилини, що може змінити розвиток біології binaryverseai.com. Навчаючи згорткові нейромережі на зображеннях ембріонів плодових мух у високій роздільній здатності, система навчилася розпізнавати тонкі візуальні підказки циклів поділу клітин. Вона може визначати вік ембріона (з похибкою ±1 хвилина) без використання руйнівних флуоресцентних маркерів – досягаючи 98–100% точності на ембріонах ранніх стадій binaryverseai.com binaryverseai.com. Цей штучний “ембріональний годинник” дозволив команді зіставити сплески активації генів з небаченою часовою точністю, надаючи біологам потужний новий інструмент для вивчення формування органів. У матеріалознавстві дослідники з Великої Британії представили “CrystalGPT,” модель, навченої на 706 000 кристалічних структур для прогнозування властивостей матеріалів. Вивчаючи “мову” молекулярних кристалів (через пазли із замаскованими атомами та задачі на симетрію), CrystalGPT може передбачити густину, пористість чи стабільність нових сполук значно швидше, ніж прямі симуляції binaryverseai.com binaryverseai.com. Експерти відзначають її прозорість – ШІ навіть підсвічує, які саме атомні оточення найбільше вплинули на прогноз, – даючи хімікам упевненість замість “чорної скриньки” binaryverseai.com. Швидше моделювання кристалів може прискорити прогрес у створенні батарей, каталізаторів, напівпровідникових матеріалів, скорочуючи час і вартість науково-дослідних робіт.

ШІ для коду – із застереженнями: Не всі дослідження були оптимістичними; одне з них стало реалістичним поглядом на асистентів з програмування на основі ШІ. У контрольованому експерименті досвідчені розробники програмного забезпечення витратили на 19% більше часу на виконання завдання з допомогою ШІ-асистента, ніж контрольна група без ШІ ts2.tech. Досвідчені програмісти очікували, що ШІ (інструмент підказки коду) зробить їх швидшими, але він часто надавав лише “правильні у напрямку, але не зовсім такі, як потрібно” фрагменти коду ts2.tech. Час втрачався на перегляд і виправлення цих майже правильних підказок. Натомість попередні дослідження показали значне підвищення швидкості у менш досвідчених програмістів на простіших завданнях. “Це більше схоже на редагування есе, ніж на написання з нуля,” – сказав один із досвідчених розробників про працю з ШІ-асистентом – можливо, більш розслаблено, зате повільніше ts2.tech. Дослідники з METR дійшли висновку, що нинішні асистенти на основі ШІ не є чарівною паличкою для підвищення продуктивності експертів у складному програмуванні і що суттєве доопрацювання (і людський контроль) досі необхідні ts2.tech. Це нюансоване спостереження стримує поспішне впровадження генераторів коду на основі ШІ для всіх розробників.

Зазирнути всередину “мозку” ШІ: Консорціум провідних науковців зі сфери штучного інтелекту (з OpenAI, DeepMind, Anthropic та провідних університетів) опублікував примітну статтю із закликом до розробки нових технік для моніторингу “ланцюга роздумів” ШІ – по суті, прихованих кроків міркування, які моделі ШІ генерують всередині себе ts2.tech. Оскільки системи ШІ стають дедалі автономнішими (як агенти, що з’являються сьогодні), автори стверджують, що можливість перевіряти ці проміжні думки може стати критично важливою для безпеки ts2.tech. Спостерігаючи поетапне міркування ШІ, розробники можуть вчасно виявити помилки чи небезпечні відхилення до того, як ШІ почне діяти. Однак у статті попереджається, що зі зростанням складності моделей “немає гарантії, що нинішній рівень прозорості збережеться” – майбутні ШІ можуть приховати процеси мислення так, що їх буде важко відстежити ts2.tech. Команда закликала спільноту “максимально ефективно використовувати можливість моніторингу [ланцюга роздумів]” вже сьогодні і прагнути зберігати прозорість у майбутньому ts2.tech. Примітно, що під цим закликом до дії підписалися найвідоміші фахівці у сфері ШІ – серед них Джеффрі Хінтон, головний науковець OpenAI Ілля Суцкевер (та керівник напряму узгодження Ян Лейке), співзасновник DeepMind Шейн Легг та інші ts2.tech. Це рідкісний приклад єдності між конкурентними лабораторіями, що відображає спільну стурбованість: оскільки ШІ наближається до людського рівня міркування, ми не повинні дозволити йому перетворитись на незбагненну “чорну скриньку”. Дослідження “сканування мозку ШІ” – тобто читання його думок – можуть стати не менш важливими, ніж створення самого ШІ.

Держава та регулювання

ЄС впроваджує Закон про штучний інтелект: Брюссель підштовхнув регуляторні межі, зробивши конкретні кроки щодо реалізації свого знакового Закону про ШІ. 18 липня Європейська комісія оприлюднила детальні інструкції для “ШІ-моделей із системними ризиками” – тобто найбільш потужних універсальних ШІ-систем, які можуть впливати на громадську безпеку або основні права людини ts2.tech. Інструкції роз’яснюють жорсткі нові вимоги, із якими зіткнуться ці постачальники ШІ після набуття чинності Законом про ШІ 2 серпня. Згідно з правилами, великі розробники штучного інтелекту (Google, OpenAI, Meta, Anthropic, французька Mistral та інші) повинні проводити суворі оцінки ризиків, випробування з протидією вразливостям (adversarial testing) та повідомляти про серйозні інциденти чи збої регуляторам ЄС ts2.tech. Вони також повинні впроваджувати надійний кіберзахист, щоб запобігти зловмисному використанню своїх моделей ts2.tech. Прозорість – ключове: розробники базових моделей повинні документувати джерела навчальних даних, дотримуватися авторських прав і публікувати короткі звіти про зміст датасетів, використаних для навчання кожного ШІ ts2.tech. “Завдяки сьогоднішнім інструкціям Комісія сприяє плавному та ефективному застосуванню Закону про ШІ”, — сказала головна технологічна чиновниця ЄС Генна Вірккунен, підкресливши, що регулятори хочуть забезпечити чіткість для бізнесу, стримуючи потенційні ризики ts2.tech. У компаній є пільговий період до серпня 2026 року для повного виконання вимог ts2.tech. Після цього порушення можуть обійтися у величезні штрафи – до €35 млн або 7% світового обороту (що більше) ts2.tech. Нові інструкції з’явилися на тлі невдоволення окремих технологічних компаній тим, що європейські правила можуть бути надто обтяжливими, проте чиновники ЄС налаштовані довести, що вони можуть бути “глобальними наглядачами ШІ”, не душачи інновації.

Добровільний кодекс спричиняє суперечки: У тіні обов’язкового AI Act запропонований регуляторами ЄС добровільний «Кодекс практики ШІ» викликав трансатлантичну дискусію. Кодекс, розроблений експертами для заохочення раннього впровадження деяких принципів AI Act, закликає компанії, що займаються ШІ, проактивно дотримуватись певних заходів прозорості та безпеки вже зараз, до набуття чинності закону. Цього тижня серед американських технологічних гігантів виник розкол: Microsoft натякнула, що, ймовірно, приєднається, президент Бред Сміт заявив: «Я думаю, що ми, ймовірно, підпишемося… Наша мета — підтримувати» та привітав тісну співпрацю з AI-офісом ЄС reuters.com. У різкому контрасті Meta Platforms категорично відкинула цей добровільний кодекс. «Meta не підписуватиме його. Цей кодекс створює низку юридичних невизначеностей для розробників моделей, а також запроваджує заходи, що значно виходять за межі AI Act», — написав керівник з глобальних питань Meta Джоел Каплан 18 липня reuters.com. На його думку, рекомендації ЄС є надмірним регулюванням, яке може «загальмувати розвиток і впровадження передових моделей ШІ в Європі» і «поставити під загрозу європейські компанії», що працюють у сфері ШІ reuters.com. Позиція Meta збігається зі скаргами коаліції з 45 європейських технологічних компаній, що проєкт кодексу є надто обмежувальним. З іншого боку, OpenAI (розробник ChatGPT) та французька Mistral AI вже підписали кодекс, сигналізуючи, що деякі провідні гравці готові пристати на більшу прозорість і перевірки дотримання авторських прав у Європі ts2.tech. Такий розкол підкреслює зростання напруги: американські гіганти прагнуть уникати прецедентів, які могли б стати для них обов’язковими в усьому світі, тоді як європейські регулятори (і деякі стартапи) вже зараз вимагають більш високих стандартів. Те, як буде впроваджений цей добровільний кодекс, може вплинути на фактичні правила ШІ у всьому світі ще до вступу обов’язкового закону ЄС у дію.

США роблять ставку на інновації, а не на регулювання: У Вашингтоні підхід до ШІ залишається більш стимулювальним, ніж обмежувальним – принаймні наразі. Цього тижня Білий дім зібрав керівників технокомпаній, дослідників та законодавців на Саміт з технологій та інновацій, який приніс близько 90 мільярдів доларів нових галузевих зобов’язань щодо проєктів зі штучного інтелекту та виробництва напівпровідників у США ts2.tech. Десятки компаній — від Google до Intel і Blackstone — пообіцяли інвестувати мільярди у передові дата-центри, вітчизняні фабрики чипів та дослідницькі центри ШІ по всій Америці, укріплюючи технічну інфраструктуру у партнерстві з федеральними ініціативами ts2.tech. Послання від американських лідерів: замість того, щоб негайно встановлювати загальні закони щодо ШІ, вони підливають пального у вогонь інновацій, щоб зберегти перевагу над глобальними конкурентами, водночас аналізуючи вплив ШІ. Навіть Федеральна резервна система США звертає на це увагу. У промові 17 липня щодо технологій членка Ради керуючих Федрезерву Ліза Д. Кук назвала ШІ «потенційно наступною технологією загального призначення» – порівнюючи його трансформаційний потенціал із друкарським верстатом чи електрикою ts2.tech. Вона відзначила, що «понад пів мільярда користувачів» у світі вже щотижня взаємодіють з великими ШІ-моделями, і що за минулий рік поступ ШІ подвоїв ключові показники ts2.tech. Водночас Кук попередила й про «багатовимірні виклики». Хоча ШІ у довгостроковій перспективі може підвищити продуктивність (і навіть допомогти стримати інфляцію), його стрімке впровадження може спричинити короткострокові потрясіння — включаючи сплески інвестицій і витрат, які парадоксальним чином можуть підняти ціни до появи ефективності ts2.tech. Її виважена позиція — не перебільшувати ні утопію, ні катастрофу — відображає ширше консенсус у Вашингтоні: заохочувати розвиток ШІ обережно, уважно стежачи за впливом на робочі місця, рівень інфляції та нерівність після їх появи.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

ШІ в медіа, розвагах і креативних індустріях

Netflix використовує ШІ для VFX: У Голлівуді відбулася визначна подія: Netflix повідомив у своєму звіті про прибутки, що почав використовувати генеративний ШІ у виробництві контенту, включаючи перші в історії кадри, створені ШІ, у шоу Netflix ts2.tech. В аргентинському науково-фантастичному серіалі «Ель Етернаута» цілу сцену обвалення будівлі було створено за допомогою ШІ — це зайняло у 10 разів менше часу та коштувало дешевше, ніж традиційні візуальні ефекти techcrunch.com. Спів-генеральний директор Тед Сарандос підкреслив, що ШІ використовується для підсилення творців, а не для їхньої заміни, заявивши: «ШІ відкриває неймовірні можливості допомогти творцям робити фільми та серіали кращими, а не просто дешевшими… це справжні люди, які виконують справжню роботу з кращими інструментами.» techcrunch.com Він зазначив, що художники Netflix вже відчувають переваги у препродакшн-візуалізації та плануванні кадрів. Netflix також використовує генеративний ШІ не лише для VFX – компанія застосовує його для персоналізованого відкриття контенту і вже готується запустити інтерактивну рекламу на базі ШІ до кінця цього року techcrunch.com.

Генеративна мода та відео-чари: Творчий підхід ШІ поширився й на моду та відео. Дослідники з Південної Кореї експериментували з «генеративним кутюром», використовуючи ChatGPT для прогнозування майбутніх модних трендів і DALL·E 3 для створення понад 100 віртуальних образів для колекції осінь/зима binaryverseai.com binaryverseai.com. Близько двох третин дизайнів, створених ШІ, відповідали реальним стилям, що натякає на здатність генеративних моделей виявляти тренди раніше, ніж це зроблять дизайнери. (ШІ зазнав труднощів із абстрактними поняттями, такими як гендерно-нейтральний дизайн, що підкреслює: людські дизайнери все ще тримають креативний компас binaryverseai.com.) У сфері технологій для кіновиробництва NVIDIA разом із партнерами з університетів презентували DiffusionRenderer — дворівневу систему ШІ, яка поєднує інверсний і прямий рендеринг, роблячи сучасні відеоефекти доступними для незалежних творців binaryverseai.com binaryverseai.com. В одному з демонстраційних відео користувач міг зняти простий кадр і додати CGI-дракона, тінь від якого виглядає реалістично без складних сенсорів чи ручного налаштування світла – ШІ самостійно вивчив геометрію та освітлення сцени за відео binaryverseai.com binaryverseai.com. У підсумку це звужує прірву між великими студіями і маленькими творцями, натякаючи на майбутнє з «майже магічним» відеомонтажем для всіх.

Фінанси, бізнес та інвестиції в ШІ

ШІ, спеціально створений для фінансів: Фінансовий сектор став свідком активного впровадження ШІ як у продуктах, так і в прибутках. Стартап Anthropic запустив Claude for Financial Services — версію свого асистента Claude-4, спеціалізованого для аналітиків ринку та банкірів. Anthropic стверджує, що Claude-4 перевершує інші провідні моделі у фінансових завданнях згідно з галузевими бенчмарками anthropic.com. Платформа може підключатися до поточних ринкових даних (через партнерів, таких як Bloomberg, FactSet та ін.) і обробляти значні обсяги робіт: від моделювання ризиків до оформлення документів для відповідності. Перші користувачі повідомляють про суттєві переваги — наприклад, генеральний директор суверенного фонду багатства Норвегії на $1,4 трлн (NBIM) заявив, що Claude “фундаментально змінив” їхню роботу, забезпечивши орієнтовно 20% приросту продуктивності (близько 213 000 зекономлених робочих годин) завдяки тому, що персонал може безперешкодно працювати з даними й ефективніше аналізувати фінансові звіти anthropic.com. З його слів, Claude фактично став “незамінним” для аналітиків та менеджерів з ризиків цієї компанії anthropic.com. Великі банки й фонди також досліджують можливості асистентів ШІ для прискорення досліджень з повним аудит-трейлом і автоматизації рутинних завдань, які зазвичай гальмують роботу фінансових команд.

Уолл-стріт робить ставки на AI-стартапи: Інвестори продовжують вкладати гроші в штучний інтелект із вражаючими оцінками. Цього вікенду надійшла новина, що стартап Perplexity AI, відомий своїм чат-ботом для пошуку на основі ШІ, залучив ще $100 мільйонів фінансування – і підняв свою оцінку до приблизно $18 мільярдів theindependent.sg. (Для порівняння, ще два місяці тому Perplexity оцінювали приблизно у $14 мільярдів, а минулого року – лише у $1 мільярд, що відображає стрімке зростання генеративного ШІ theindependent.sg.) З’являються і нові фонди з фокусом на ШІ: наприклад, один із ранніх інвесторів Instacart запустив фонд “Verified Capital” зі $175 мільйонами, орієнтованими на AI-стартапи (анонсовано 20 липня). А у сфері хмарних обчислень традиційні компанії пристосовуються до епохи ШІ – іноді болісно. Amazon підтвердила, що скорочує кілька сотень працівників AWS (переважно в службі підтримки хмарних сервісів), після того як генеральний директор Енді Джессі попередив, що ефективність ШІ призведе до зменшення певних “проміжних” посад binaryverseai.com. Внутрішні електронні листи цього тижня вказують, що деякі спеціалізовані команди з міграції у хмару стали непотрібними – “перше видиме підтвердження в межах AWS” автоматизації під керуванням ШІ, як зазначив Reuters binaryverseai.com binaryverseai.com. Аналітики стверджують, що навіть підрозділи з великою маржею не захищені: “ШІ поглинає завдання, які він освоює, а потім компанії або перенаправляють, або звільняють людей,” – сухо зазначив один із них binaryverseai.com. Попри значні прибутки, хмарний гігант проводить оптимізацію, демонструючи, як зростання продуктивності від ШІ також може на практиці призводити до скорочення робочої сили.

Наукові та медичні прориви

Прискорення медичного аналізу: У сфері охорони здоров’я прориви в штучному інтелекті обіцяють швидші діагнози та безпечніші процедури. Дослідники з Університету Індіани та партнерських лікарень презентували систему штучного інтелекту “Інформатика раку”, яка здатна аналізувати оцифровані зразки патології, електронні медичні картки й навіть геномні дані для виявлення потенційних онкозахворювань і пропонування стадій пухлини. За словами головного дослідника Спирідона Бакаса, ця система скоротила деякі діагностичні процеси “з днів до секунд”, тріажуючи випадки з надлюдською швидкістю binaryverseai.com binaryverseai.com. Інструмент також виявив делікатні взаємозв’язки між мульти-модальними даними, які людина могла б пропустити, хоча команда наполягає: патологи залишаються незамінними для складних випадків і остаточних висновків binaryverseai.com. Проєкт ілюструє ширшу тенденцію до мультимодального медичного ШІ, що здатен аналізувати різні типи даних одночасно. Подібно до цього, радіологи повідомили про успіхи у використанні моделі ШІ під назвою mViT (модифікований vision transformer) для покращення дитячих КТ-сканувань binaryverseai.com binaryverseai.com. Фотонно-лічильні КТ-сканери дозволяють знижувати дозу рентгенівського випромінювання для дітей, але зазвичай дають шумні зображення; система mViT навчилася зменшувати шум сканів у реальному часі, роблячи артерії й тканини чіткішими без розмиття, яке виникало при старих методах зниження шуму binaryverseai.com binaryverseai.com. Під час тестування на 20 маленьких пацієнтах ШІ постійно перевершував традиційні фільтри, що потенційно відкриває шлях до чіткіших КТ із низькою дозою — перемога для безпеки дітей, коли КТ нового покоління отримують схвалення FDA binaryverseai.com.

Прориви в біології та матеріалознавстві: ШІ також сприяє базовій науці. Нове дослідження у Nature Communications описує, як тріада нейронних мереж тепер може встановлювати часову мітку розвитку ембріона з точністю до хвилини, що може змінити розвиток біології binaryverseai.com. Навчаючи згорткові нейромережі на зображеннях ембріонів плодових мух у високій роздільній здатності, система навчилася розпізнавати тонкі візуальні підказки циклів поділу клітин. Вона може визначати вік ембріона (з похибкою ±1 хвилина) без використання руйнівних флуоресцентних маркерів – досягаючи 98–100% точності на ембріонах ранніх стадій binaryverseai.com binaryverseai.com. Цей штучний “ембріональний годинник” дозволив команді зіставити сплески активації генів з небаченою часовою точністю, надаючи біологам потужний новий інструмент для вивчення формування органів. У матеріалознавстві дослідники з Великої Британії представили “CrystalGPT,” модель, навченої на 706 000 кристалічних структур для прогнозування властивостей матеріалів. Вивчаючи “мову” молекулярних кристалів (через пазли із замаскованими атомами та задачі на симетрію), CrystalGPT може передбачити густину, пористість чи стабільність нових сполук значно швидше, ніж прямі симуляції binaryverseai.com binaryverseai.com. Експерти відзначають її прозорість – ШІ навіть підсвічує, які саме атомні оточення найбільше вплинули на прогноз, – даючи хімікам упевненість замість “чорної скриньки” binaryverseai.com. Швидше моделювання кристалів може прискорити прогрес у створенні батарей, каталізаторів, напівпровідникових матеріалів, скорочуючи час і вартість науково-дослідних робіт.

ШІ для коду – із застереженнями: Не всі дослідження були оптимістичними; одне з них стало реалістичним поглядом на асистентів з програмування на основі ШІ. У контрольованому експерименті досвідчені розробники програмного забезпечення витратили на 19% більше часу на виконання завдання з допомогою ШІ-асистента, ніж контрольна група без ШІ ts2.tech. Досвідчені програмісти очікували, що ШІ (інструмент підказки коду) зробить їх швидшими, але він часто надавав лише “правильні у напрямку, але не зовсім такі, як потрібно” фрагменти коду ts2.tech. Час втрачався на перегляд і виправлення цих майже правильних підказок. Натомість попередні дослідження показали значне підвищення швидкості у менш досвідчених програмістів на простіших завданнях. “Це більше схоже на редагування есе, ніж на написання з нуля,” – сказав один із досвідчених розробників про працю з ШІ-асистентом – можливо, більш розслаблено, зате повільніше ts2.tech. Дослідники з METR дійшли висновку, що нинішні асистенти на основі ШІ не є чарівною паличкою для підвищення продуктивності експертів у складному програмуванні і що суттєве доопрацювання (і людський контроль) досі необхідні ts2.tech. Це нюансоване спостереження стримує поспішне впровадження генераторів коду на основі ШІ для всіх розробників.

Зазирнути всередину “мозку” ШІ: Консорціум провідних науковців зі сфери штучного інтелекту (з OpenAI, DeepMind, Anthropic та провідних університетів) опублікував примітну статтю із закликом до розробки нових технік для моніторингу “ланцюга роздумів” ШІ – по суті, прихованих кроків міркування, які моделі ШІ генерують всередині себе ts2.tech. Оскільки системи ШІ стають дедалі автономнішими (як агенти, що з’являються сьогодні), автори стверджують, що можливість перевіряти ці проміжні думки може стати критично важливою для безпеки ts2.tech. Спостерігаючи поетапне міркування ШІ, розробники можуть вчасно виявити помилки чи небезпечні відхилення до того, як ШІ почне діяти. Однак у статті попереджається, що зі зростанням складності моделей “немає гарантії, що нинішній рівень прозорості збережеться” – майбутні ШІ можуть приховати процеси мислення так, що їх буде важко відстежити ts2.tech. Команда закликала спільноту “максимально ефективно використовувати можливість моніторингу [ланцюга роздумів]” вже сьогодні і прагнути зберігати прозорість у майбутньому ts2.tech. Примітно, що під цим закликом до дії підписалися найвідоміші фахівці у сфері ШІ – серед них Джеффрі Хінтон, головний науковець OpenAI Ілля Суцкевер (та керівник напряму узгодження Ян Лейке), співзасновник DeepMind Шейн Легг та інші ts2.tech. Це рідкісний приклад єдності між конкурентними лабораторіями, що відображає спільну стурбованість: оскільки ШІ наближається до людського рівня міркування, ми не повинні дозволити йому перетворитись на незбагненну “чорну скриньку”. Дослідження “сканування мозку ШІ” – тобто читання його думок – можуть стати не менш важливими, ніж створення самого ШІ.

Держава та регулювання

ЄС впроваджує Закон про штучний інтелект: Брюссель підштовхнув регуляторні межі, зробивши конкретні кроки щодо реалізації свого знакового Закону про ШІ. 18 липня Європейська комісія оприлюднила детальні інструкції для “ШІ-моделей із системними ризиками” – тобто найбільш потужних універсальних ШІ-систем, які можуть впливати на громадську безпеку або основні права людини ts2.tech. Інструкції роз’яснюють жорсткі нові вимоги, із якими зіткнуться ці постачальники ШІ після набуття чинності Законом про ШІ 2 серпня. Згідно з правилами, великі розробники штучного інтелекту (Google, OpenAI, Meta, Anthropic, французька Mistral та інші) повинні проводити суворі оцінки ризиків, випробування з протидією вразливостям (adversarial testing) та повідомляти про серйозні інциденти чи збої регуляторам ЄС ts2.tech. Вони також повинні впроваджувати надійний кіберзахист, щоб запобігти зловмисному використанню своїх моделей ts2.tech. Прозорість – ключове: розробники базових моделей повинні документувати джерела навчальних даних, дотримуватися авторських прав і публікувати короткі звіти про зміст датасетів, використаних для навчання кожного ШІ ts2.tech. “Завдяки сьогоднішнім інструкціям Комісія сприяє плавному та ефективному застосуванню Закону про ШІ”, — сказала головна технологічна чиновниця ЄС Генна Вірккунен, підкресливши, що регулятори хочуть забезпечити чіткість для бізнесу, стримуючи потенційні ризики ts2.tech. У компаній є пільговий період до серпня 2026 року для повного виконання вимог ts2.tech. Після цього порушення можуть обійтися у величезні штрафи – до €35 млн або 7% світового обороту (що більше) ts2.tech. Нові інструкції з’явилися на тлі невдоволення окремих технологічних компаній тим, що європейські правила можуть бути надто обтяжливими, проте чиновники ЄС налаштовані довести, що вони можуть бути “глобальними наглядачами ШІ”, не душачи інновації.

Добровільний кодекс спричиняє суперечки: У тіні обов’язкового AI Act запропонований регуляторами ЄС добровільний «Кодекс практики ШІ» викликав трансатлантичну дискусію. Кодекс, розроблений експертами для заохочення раннього впровадження деяких принципів AI Act, закликає компанії, що займаються ШІ, проактивно дотримуватись певних заходів прозорості та безпеки вже зараз, до набуття чинності закону. Цього тижня серед американських технологічних гігантів виник розкол: Microsoft натякнула, що, ймовірно, приєднається, президент Бред Сміт заявив: «Я думаю, що ми, ймовірно, підпишемося… Наша мета — підтримувати» та привітав тісну співпрацю з AI-офісом ЄС reuters.com. У різкому контрасті Meta Platforms категорично відкинула цей добровільний кодекс. «Meta не підписуватиме його. Цей кодекс створює низку юридичних невизначеностей для розробників моделей, а також запроваджує заходи, що значно виходять за межі AI Act», — написав керівник з глобальних питань Meta Джоел Каплан 18 липня reuters.com. На його думку, рекомендації ЄС є надмірним регулюванням, яке може «загальмувати розвиток і впровадження передових моделей ШІ в Європі» і «поставити під загрозу європейські компанії», що працюють у сфері ШІ reuters.com. Позиція Meta збігається зі скаргами коаліції з 45 європейських технологічних компаній, що проєкт кодексу є надто обмежувальним. З іншого боку, OpenAI (розробник ChatGPT) та французька Mistral AI вже підписали кодекс, сигналізуючи, що деякі провідні гравці готові пристати на більшу прозорість і перевірки дотримання авторських прав у Європі ts2.tech. Такий розкол підкреслює зростання напруги: американські гіганти прагнуть уникати прецедентів, які могли б стати для них обов’язковими в усьому світі, тоді як європейські регулятори (і деякі стартапи) вже зараз вимагають більш високих стандартів. Те, як буде впроваджений цей добровільний кодекс, може вплинути на фактичні правила ШІ у всьому світі ще до вступу обов’язкового закону ЄС у дію.

США роблять ставку на інновації, а не на регулювання: У Вашингтоні підхід до ШІ залишається більш стимулювальним, ніж обмежувальним – принаймні наразі. Цього тижня Білий дім зібрав керівників технокомпаній, дослідників та законодавців на Саміт з технологій та інновацій, який приніс близько 90 мільярдів доларів нових галузевих зобов’язань щодо проєктів зі штучного інтелекту та виробництва напівпровідників у США ts2.tech. Десятки компаній — від Google до Intel і Blackstone — пообіцяли інвестувати мільярди у передові дата-центри, вітчизняні фабрики чипів та дослідницькі центри ШІ по всій Америці, укріплюючи технічну інфраструктуру у партнерстві з федеральними ініціативами ts2.tech. Послання від американських лідерів: замість того, щоб негайно встановлювати загальні закони щодо ШІ, вони підливають пального у вогонь інновацій, щоб зберегти перевагу над глобальними конкурентами, водночас аналізуючи вплив ШІ. Навіть Федеральна резервна система США звертає на це увагу. У промові 17 липня щодо технологій членка Ради керуючих Федрезерву Ліза Д. Кук назвала ШІ «потенційно наступною технологією загального призначення» – порівнюючи його трансформаційний потенціал із друкарським верстатом чи електрикою ts2.tech. Вона відзначила, що «понад пів мільярда користувачів» у світі вже щотижня взаємодіють з великими ШІ-моделями, і що за минулий рік поступ ШІ подвоїв ключові показники ts2.tech. Водночас Кук попередила й про «багатовимірні виклики». Хоча ШІ у довгостроковій перспективі може підвищити продуктивність (і навіть допомогти стримати інфляцію), його стрімке впровадження може спричинити короткострокові потрясіння — включаючи сплески інвестицій і витрат, які парадоксальним чином можуть підняти ціни до появи ефективності ts2.tech. Її виважена позиція — не перебільшувати ні утопію, ні катастрофу — відображає ширше консенсус у Вашингтоні: заохочувати розвиток ШІ обережно, уважно стежачи за впливом на робочі місця, рівень інфляції та нерівність після їх появи.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

Наукові та медичні прориви

Прискорення медичного аналізу: У сфері охорони здоров’я прориви в штучному інтелекті обіцяють швидші діагнози та безпечніші процедури. Дослідники з Університету Індіани та партнерських лікарень презентували систему штучного інтелекту “Інформатика раку”, яка здатна аналізувати оцифровані зразки патології, електронні медичні картки й навіть геномні дані для виявлення потенційних онкозахворювань і пропонування стадій пухлини. За словами головного дослідника Спирідона Бакаса, ця система скоротила деякі діагностичні процеси “з днів до секунд”, тріажуючи випадки з надлюдською швидкістю binaryverseai.com binaryverseai.com. Інструмент також виявив делікатні взаємозв’язки між мульти-модальними даними, які людина могла б пропустити, хоча команда наполягає: патологи залишаються незамінними для складних випадків і остаточних висновків binaryverseai.com. Проєкт ілюструє ширшу тенденцію до мультимодального медичного ШІ, що здатен аналізувати різні типи даних одночасно. Подібно до цього, радіологи повідомили про успіхи у використанні моделі ШІ під назвою mViT (модифікований vision transformer) для покращення дитячих КТ-сканувань binaryverseai.com binaryverseai.com. Фотонно-лічильні КТ-сканери дозволяють знижувати дозу рентгенівського випромінювання для дітей, але зазвичай дають шумні зображення; система mViT навчилася зменшувати шум сканів у реальному часі, роблячи артерії й тканини чіткішими без розмиття, яке виникало при старих методах зниження шуму binaryverseai.com binaryverseai.com. Під час тестування на 20 маленьких пацієнтах ШІ постійно перевершував традиційні фільтри, що потенційно відкриває шлях до чіткіших КТ із низькою дозою — перемога для безпеки дітей, коли КТ нового покоління отримують схвалення FDA binaryverseai.com.

Прориви в біології та матеріалознавстві: ШІ також сприяє базовій науці. Нове дослідження у Nature Communications описує, як тріада нейронних мереж тепер може встановлювати часову мітку розвитку ембріона з точністю до хвилини, що може змінити розвиток біології binaryverseai.com. Навчаючи згорткові нейромережі на зображеннях ембріонів плодових мух у високій роздільній здатності, система навчилася розпізнавати тонкі візуальні підказки циклів поділу клітин. Вона може визначати вік ембріона (з похибкою ±1 хвилина) без використання руйнівних флуоресцентних маркерів – досягаючи 98–100% точності на ембріонах ранніх стадій binaryverseai.com binaryverseai.com. Цей штучний “ембріональний годинник” дозволив команді зіставити сплески активації генів з небаченою часовою точністю, надаючи біологам потужний новий інструмент для вивчення формування органів. У матеріалознавстві дослідники з Великої Британії представили “CrystalGPT,” модель, навченої на 706 000 кристалічних структур для прогнозування властивостей матеріалів. Вивчаючи “мову” молекулярних кристалів (через пазли із замаскованими атомами та задачі на симетрію), CrystalGPT може передбачити густину, пористість чи стабільність нових сполук значно швидше, ніж прямі симуляції binaryverseai.com binaryverseai.com. Експерти відзначають її прозорість – ШІ навіть підсвічує, які саме атомні оточення найбільше вплинули на прогноз, – даючи хімікам упевненість замість “чорної скриньки” binaryverseai.com. Швидше моделювання кристалів може прискорити прогрес у створенні батарей, каталізаторів, напівпровідникових матеріалів, скорочуючи час і вартість науково-дослідних робіт.

ШІ для коду – із застереженнями: Не всі дослідження були оптимістичними; одне з них стало реалістичним поглядом на асистентів з програмування на основі ШІ. У контрольованому експерименті досвідчені розробники програмного забезпечення витратили на 19% більше часу на виконання завдання з допомогою ШІ-асистента, ніж контрольна група без ШІ ts2.tech. Досвідчені програмісти очікували, що ШІ (інструмент підказки коду) зробить їх швидшими, але він часто надавав лише “правильні у напрямку, але не зовсім такі, як потрібно” фрагменти коду ts2.tech. Час втрачався на перегляд і виправлення цих майже правильних підказок. Натомість попередні дослідження показали значне підвищення швидкості у менш досвідчених програмістів на простіших завданнях. “Це більше схоже на редагування есе, ніж на написання з нуля,” – сказав один із досвідчених розробників про працю з ШІ-асистентом – можливо, більш розслаблено, зате повільніше ts2.tech. Дослідники з METR дійшли висновку, що нинішні асистенти на основі ШІ не є чарівною паличкою для підвищення продуктивності експертів у складному програмуванні і що суттєве доопрацювання (і людський контроль) досі необхідні ts2.tech. Це нюансоване спостереження стримує поспішне впровадження генераторів коду на основі ШІ для всіх розробників.

Зазирнути всередину “мозку” ШІ: Консорціум провідних науковців зі сфери штучного інтелекту (з OpenAI, DeepMind, Anthropic та провідних університетів) опублікував примітну статтю із закликом до розробки нових технік для моніторингу “ланцюга роздумів” ШІ – по суті, прихованих кроків міркування, які моделі ШІ генерують всередині себе ts2.tech. Оскільки системи ШІ стають дедалі автономнішими (як агенти, що з’являються сьогодні), автори стверджують, що можливість перевіряти ці проміжні думки може стати критично важливою для безпеки ts2.tech. Спостерігаючи поетапне міркування ШІ, розробники можуть вчасно виявити помилки чи небезпечні відхилення до того, як ШІ почне діяти. Однак у статті попереджається, що зі зростанням складності моделей “немає гарантії, що нинішній рівень прозорості збережеться” – майбутні ШІ можуть приховати процеси мислення так, що їх буде важко відстежити ts2.tech. Команда закликала спільноту “максимально ефективно використовувати можливість моніторингу [ланцюга роздумів]” вже сьогодні і прагнути зберігати прозорість у майбутньому ts2.tech. Примітно, що під цим закликом до дії підписалися найвідоміші фахівці у сфері ШІ – серед них Джеффрі Хінтон, головний науковець OpenAI Ілля Суцкевер (та керівник напряму узгодження Ян Лейке), співзасновник DeepMind Шейн Легг та інші ts2.tech. Це рідкісний приклад єдності між конкурентними лабораторіями, що відображає спільну стурбованість: оскільки ШІ наближається до людського рівня міркування, ми не повинні дозволити йому перетворитись на незбагненну “чорну скриньку”. Дослідження “сканування мозку ШІ” – тобто читання його думок – можуть стати не менш важливими, ніж створення самого ШІ.

Держава та регулювання

ЄС впроваджує Закон про штучний інтелект: Брюссель підштовхнув регуляторні межі, зробивши конкретні кроки щодо реалізації свого знакового Закону про ШІ. 18 липня Європейська комісія оприлюднила детальні інструкції для “ШІ-моделей із системними ризиками” – тобто найбільш потужних універсальних ШІ-систем, які можуть впливати на громадську безпеку або основні права людини ts2.tech. Інструкції роз’яснюють жорсткі нові вимоги, із якими зіткнуться ці постачальники ШІ після набуття чинності Законом про ШІ 2 серпня. Згідно з правилами, великі розробники штучного інтелекту (Google, OpenAI, Meta, Anthropic, французька Mistral та інші) повинні проводити суворі оцінки ризиків, випробування з протидією вразливостям (adversarial testing) та повідомляти про серйозні інциденти чи збої регуляторам ЄС ts2.tech. Вони також повинні впроваджувати надійний кіберзахист, щоб запобігти зловмисному використанню своїх моделей ts2.tech. Прозорість – ключове: розробники базових моделей повинні документувати джерела навчальних даних, дотримуватися авторських прав і публікувати короткі звіти про зміст датасетів, використаних для навчання кожного ШІ ts2.tech. “Завдяки сьогоднішнім інструкціям Комісія сприяє плавному та ефективному застосуванню Закону про ШІ”, — сказала головна технологічна чиновниця ЄС Генна Вірккунен, підкресливши, що регулятори хочуть забезпечити чіткість для бізнесу, стримуючи потенційні ризики ts2.tech. У компаній є пільговий період до серпня 2026 року для повного виконання вимог ts2.tech. Після цього порушення можуть обійтися у величезні штрафи – до €35 млн або 7% світового обороту (що більше) ts2.tech. Нові інструкції з’явилися на тлі невдоволення окремих технологічних компаній тим, що європейські правила можуть бути надто обтяжливими, проте чиновники ЄС налаштовані довести, що вони можуть бути “глобальними наглядачами ШІ”, не душачи інновації.

Добровільний кодекс спричиняє суперечки: У тіні обов’язкового AI Act запропонований регуляторами ЄС добровільний «Кодекс практики ШІ» викликав трансатлантичну дискусію. Кодекс, розроблений експертами для заохочення раннього впровадження деяких принципів AI Act, закликає компанії, що займаються ШІ, проактивно дотримуватись певних заходів прозорості та безпеки вже зараз, до набуття чинності закону. Цього тижня серед американських технологічних гігантів виник розкол: Microsoft натякнула, що, ймовірно, приєднається, президент Бред Сміт заявив: «Я думаю, що ми, ймовірно, підпишемося… Наша мета — підтримувати» та привітав тісну співпрацю з AI-офісом ЄС reuters.com. У різкому контрасті Meta Platforms категорично відкинула цей добровільний кодекс. «Meta не підписуватиме його. Цей кодекс створює низку юридичних невизначеностей для розробників моделей, а також запроваджує заходи, що значно виходять за межі AI Act», — написав керівник з глобальних питань Meta Джоел Каплан 18 липня reuters.com. На його думку, рекомендації ЄС є надмірним регулюванням, яке може «загальмувати розвиток і впровадження передових моделей ШІ в Європі» і «поставити під загрозу європейські компанії», що працюють у сфері ШІ reuters.com. Позиція Meta збігається зі скаргами коаліції з 45 європейських технологічних компаній, що проєкт кодексу є надто обмежувальним. З іншого боку, OpenAI (розробник ChatGPT) та французька Mistral AI вже підписали кодекс, сигналізуючи, що деякі провідні гравці готові пристати на більшу прозорість і перевірки дотримання авторських прав у Європі ts2.tech. Такий розкол підкреслює зростання напруги: американські гіганти прагнуть уникати прецедентів, які могли б стати для них обов’язковими в усьому світі, тоді як європейські регулятори (і деякі стартапи) вже зараз вимагають більш високих стандартів. Те, як буде впроваджений цей добровільний кодекс, може вплинути на фактичні правила ШІ у всьому світі ще до вступу обов’язкового закону ЄС у дію.

США роблять ставку на інновації, а не на регулювання: У Вашингтоні підхід до ШІ залишається більш стимулювальним, ніж обмежувальним – принаймні наразі. Цього тижня Білий дім зібрав керівників технокомпаній, дослідників та законодавців на Саміт з технологій та інновацій, який приніс близько 90 мільярдів доларів нових галузевих зобов’язань щодо проєктів зі штучного інтелекту та виробництва напівпровідників у США ts2.tech. Десятки компаній — від Google до Intel і Blackstone — пообіцяли інвестувати мільярди у передові дата-центри, вітчизняні фабрики чипів та дослідницькі центри ШІ по всій Америці, укріплюючи технічну інфраструктуру у партнерстві з федеральними ініціативами ts2.tech. Послання від американських лідерів: замість того, щоб негайно встановлювати загальні закони щодо ШІ, вони підливають пального у вогонь інновацій, щоб зберегти перевагу над глобальними конкурентами, водночас аналізуючи вплив ШІ. Навіть Федеральна резервна система США звертає на це увагу. У промові 17 липня щодо технологій членка Ради керуючих Федрезерву Ліза Д. Кук назвала ШІ «потенційно наступною технологією загального призначення» – порівнюючи його трансформаційний потенціал із друкарським верстатом чи електрикою ts2.tech. Вона відзначила, що «понад пів мільярда користувачів» у світі вже щотижня взаємодіють з великими ШІ-моделями, і що за минулий рік поступ ШІ подвоїв ключові показники ts2.tech. Водночас Кук попередила й про «багатовимірні виклики». Хоча ШІ у довгостроковій перспективі може підвищити продуктивність (і навіть допомогти стримати інфляцію), його стрімке впровадження може спричинити короткострокові потрясіння — включаючи сплески інвестицій і витрат, які парадоксальним чином можуть підняти ціни до появи ефективності ts2.tech. Її виважена позиція — не перебільшувати ні утопію, ні катастрофу — відображає ширше консенсус у Вашингтоні: заохочувати розвиток ШІ обережно, уважно стежачи за впливом на робочі місця, рівень інфляції та нерівність після їх появи.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

Фінанси, бізнес та інвестиції в ШІ

ШІ, спеціально створений для фінансів: Фінансовий сектор став свідком активного впровадження ШІ як у продуктах, так і в прибутках. Стартап Anthropic запустив Claude for Financial Services — версію свого асистента Claude-4, спеціалізованого для аналітиків ринку та банкірів. Anthropic стверджує, що Claude-4 перевершує інші провідні моделі у фінансових завданнях згідно з галузевими бенчмарками anthropic.com. Платформа може підключатися до поточних ринкових даних (через партнерів, таких як Bloomberg, FactSet та ін.) і обробляти значні обсяги робіт: від моделювання ризиків до оформлення документів для відповідності. Перші користувачі повідомляють про суттєві переваги — наприклад, генеральний директор суверенного фонду багатства Норвегії на $1,4 трлн (NBIM) заявив, що Claude “фундаментально змінив” їхню роботу, забезпечивши орієнтовно 20% приросту продуктивності (близько 213 000 зекономлених робочих годин) завдяки тому, що персонал може безперешкодно працювати з даними й ефективніше аналізувати фінансові звіти anthropic.com. З його слів, Claude фактично став “незамінним” для аналітиків та менеджерів з ризиків цієї компанії anthropic.com. Великі банки й фонди також досліджують можливості асистентів ШІ для прискорення досліджень з повним аудит-трейлом і автоматизації рутинних завдань, які зазвичай гальмують роботу фінансових команд.

Уолл-стріт робить ставки на AI-стартапи: Інвестори продовжують вкладати гроші в штучний інтелект із вражаючими оцінками. Цього вікенду надійшла новина, що стартап Perplexity AI, відомий своїм чат-ботом для пошуку на основі ШІ, залучив ще $100 мільйонів фінансування – і підняв свою оцінку до приблизно $18 мільярдів theindependent.sg. (Для порівняння, ще два місяці тому Perplexity оцінювали приблизно у $14 мільярдів, а минулого року – лише у $1 мільярд, що відображає стрімке зростання генеративного ШІ theindependent.sg.) З’являються і нові фонди з фокусом на ШІ: наприклад, один із ранніх інвесторів Instacart запустив фонд “Verified Capital” зі $175 мільйонами, орієнтованими на AI-стартапи (анонсовано 20 липня). А у сфері хмарних обчислень традиційні компанії пристосовуються до епохи ШІ – іноді болісно. Amazon підтвердила, що скорочує кілька сотень працівників AWS (переважно в службі підтримки хмарних сервісів), після того як генеральний директор Енді Джессі попередив, що ефективність ШІ призведе до зменшення певних “проміжних” посад binaryverseai.com. Внутрішні електронні листи цього тижня вказують, що деякі спеціалізовані команди з міграції у хмару стали непотрібними – “перше видиме підтвердження в межах AWS” автоматизації під керуванням ШІ, як зазначив Reuters binaryverseai.com binaryverseai.com. Аналітики стверджують, що навіть підрозділи з великою маржею не захищені: “ШІ поглинає завдання, які він освоює, а потім компанії або перенаправляють, або звільняють людей,” – сухо зазначив один із них binaryverseai.com. Попри значні прибутки, хмарний гігант проводить оптимізацію, демонструючи, як зростання продуктивності від ШІ також може на практиці призводити до скорочення робочої сили.

Наукові та медичні прориви

Прискорення медичного аналізу: У сфері охорони здоров’я прориви в штучному інтелекті обіцяють швидші діагнози та безпечніші процедури. Дослідники з Університету Індіани та партнерських лікарень презентували систему штучного інтелекту “Інформатика раку”, яка здатна аналізувати оцифровані зразки патології, електронні медичні картки й навіть геномні дані для виявлення потенційних онкозахворювань і пропонування стадій пухлини. За словами головного дослідника Спирідона Бакаса, ця система скоротила деякі діагностичні процеси “з днів до секунд”, тріажуючи випадки з надлюдською швидкістю binaryverseai.com binaryverseai.com. Інструмент також виявив делікатні взаємозв’язки між мульти-модальними даними, які людина могла б пропустити, хоча команда наполягає: патологи залишаються незамінними для складних випадків і остаточних висновків binaryverseai.com. Проєкт ілюструє ширшу тенденцію до мультимодального медичного ШІ, що здатен аналізувати різні типи даних одночасно. Подібно до цього, радіологи повідомили про успіхи у використанні моделі ШІ під назвою mViT (модифікований vision transformer) для покращення дитячих КТ-сканувань binaryverseai.com binaryverseai.com. Фотонно-лічильні КТ-сканери дозволяють знижувати дозу рентгенівського випромінювання для дітей, але зазвичай дають шумні зображення; система mViT навчилася зменшувати шум сканів у реальному часі, роблячи артерії й тканини чіткішими без розмиття, яке виникало при старих методах зниження шуму binaryverseai.com binaryverseai.com. Під час тестування на 20 маленьких пацієнтах ШІ постійно перевершував традиційні фільтри, що потенційно відкриває шлях до чіткіших КТ із низькою дозою — перемога для безпеки дітей, коли КТ нового покоління отримують схвалення FDA binaryverseai.com.

Прориви в біології та матеріалознавстві: ШІ також сприяє базовій науці. Нове дослідження у Nature Communications описує, як тріада нейронних мереж тепер може встановлювати часову мітку розвитку ембріона з точністю до хвилини, що може змінити розвиток біології binaryverseai.com. Навчаючи згорткові нейромережі на зображеннях ембріонів плодових мух у високій роздільній здатності, система навчилася розпізнавати тонкі візуальні підказки циклів поділу клітин. Вона може визначати вік ембріона (з похибкою ±1 хвилина) без використання руйнівних флуоресцентних маркерів – досягаючи 98–100% точності на ембріонах ранніх стадій binaryverseai.com binaryverseai.com. Цей штучний “ембріональний годинник” дозволив команді зіставити сплески активації генів з небаченою часовою точністю, надаючи біологам потужний новий інструмент для вивчення формування органів. У матеріалознавстві дослідники з Великої Британії представили “CrystalGPT,” модель, навченої на 706 000 кристалічних структур для прогнозування властивостей матеріалів. Вивчаючи “мову” молекулярних кристалів (через пазли із замаскованими атомами та задачі на симетрію), CrystalGPT може передбачити густину, пористість чи стабільність нових сполук значно швидше, ніж прямі симуляції binaryverseai.com binaryverseai.com. Експерти відзначають її прозорість – ШІ навіть підсвічує, які саме атомні оточення найбільше вплинули на прогноз, – даючи хімікам упевненість замість “чорної скриньки” binaryverseai.com. Швидше моделювання кристалів може прискорити прогрес у створенні батарей, каталізаторів, напівпровідникових матеріалів, скорочуючи час і вартість науково-дослідних робіт.

ШІ для коду – із застереженнями: Не всі дослідження були оптимістичними; одне з них стало реалістичним поглядом на асистентів з програмування на основі ШІ. У контрольованому експерименті досвідчені розробники програмного забезпечення витратили на 19% більше часу на виконання завдання з допомогою ШІ-асистента, ніж контрольна група без ШІ ts2.tech. Досвідчені програмісти очікували, що ШІ (інструмент підказки коду) зробить їх швидшими, але він часто надавав лише “правильні у напрямку, але не зовсім такі, як потрібно” фрагменти коду ts2.tech. Час втрачався на перегляд і виправлення цих майже правильних підказок. Натомість попередні дослідження показали значне підвищення швидкості у менш досвідчених програмістів на простіших завданнях. “Це більше схоже на редагування есе, ніж на написання з нуля,” – сказав один із досвідчених розробників про працю з ШІ-асистентом – можливо, більш розслаблено, зате повільніше ts2.tech. Дослідники з METR дійшли висновку, що нинішні асистенти на основі ШІ не є чарівною паличкою для підвищення продуктивності експертів у складному програмуванні і що суттєве доопрацювання (і людський контроль) досі необхідні ts2.tech. Це нюансоване спостереження стримує поспішне впровадження генераторів коду на основі ШІ для всіх розробників.

Зазирнути всередину “мозку” ШІ: Консорціум провідних науковців зі сфери штучного інтелекту (з OpenAI, DeepMind, Anthropic та провідних університетів) опублікував примітну статтю із закликом до розробки нових технік для моніторингу “ланцюга роздумів” ШІ – по суті, прихованих кроків міркування, які моделі ШІ генерують всередині себе ts2.tech. Оскільки системи ШІ стають дедалі автономнішими (як агенти, що з’являються сьогодні), автори стверджують, що можливість перевіряти ці проміжні думки може стати критично важливою для безпеки ts2.tech. Спостерігаючи поетапне міркування ШІ, розробники можуть вчасно виявити помилки чи небезпечні відхилення до того, як ШІ почне діяти. Однак у статті попереджається, що зі зростанням складності моделей “немає гарантії, що нинішній рівень прозорості збережеться” – майбутні ШІ можуть приховати процеси мислення так, що їх буде важко відстежити ts2.tech. Команда закликала спільноту “максимально ефективно використовувати можливість моніторингу [ланцюга роздумів]” вже сьогодні і прагнути зберігати прозорість у майбутньому ts2.tech. Примітно, що під цим закликом до дії підписалися найвідоміші фахівці у сфері ШІ – серед них Джеффрі Хінтон, головний науковець OpenAI Ілля Суцкевер (та керівник напряму узгодження Ян Лейке), співзасновник DeepMind Шейн Легг та інші ts2.tech. Це рідкісний приклад єдності між конкурентними лабораторіями, що відображає спільну стурбованість: оскільки ШІ наближається до людського рівня міркування, ми не повинні дозволити йому перетворитись на незбагненну “чорну скриньку”. Дослідження “сканування мозку ШІ” – тобто читання його думок – можуть стати не менш важливими, ніж створення самого ШІ.

Держава та регулювання

ЄС впроваджує Закон про штучний інтелект: Брюссель підштовхнув регуляторні межі, зробивши конкретні кроки щодо реалізації свого знакового Закону про ШІ. 18 липня Європейська комісія оприлюднила детальні інструкції для “ШІ-моделей із системними ризиками” – тобто найбільш потужних універсальних ШІ-систем, які можуть впливати на громадську безпеку або основні права людини ts2.tech. Інструкції роз’яснюють жорсткі нові вимоги, із якими зіткнуться ці постачальники ШІ після набуття чинності Законом про ШІ 2 серпня. Згідно з правилами, великі розробники штучного інтелекту (Google, OpenAI, Meta, Anthropic, французька Mistral та інші) повинні проводити суворі оцінки ризиків, випробування з протидією вразливостям (adversarial testing) та повідомляти про серйозні інциденти чи збої регуляторам ЄС ts2.tech. Вони також повинні впроваджувати надійний кіберзахист, щоб запобігти зловмисному використанню своїх моделей ts2.tech. Прозорість – ключове: розробники базових моделей повинні документувати джерела навчальних даних, дотримуватися авторських прав і публікувати короткі звіти про зміст датасетів, використаних для навчання кожного ШІ ts2.tech. “Завдяки сьогоднішнім інструкціям Комісія сприяє плавному та ефективному застосуванню Закону про ШІ”, — сказала головна технологічна чиновниця ЄС Генна Вірккунен, підкресливши, що регулятори хочуть забезпечити чіткість для бізнесу, стримуючи потенційні ризики ts2.tech. У компаній є пільговий період до серпня 2026 року для повного виконання вимог ts2.tech. Після цього порушення можуть обійтися у величезні штрафи – до €35 млн або 7% світового обороту (що більше) ts2.tech. Нові інструкції з’явилися на тлі невдоволення окремих технологічних компаній тим, що європейські правила можуть бути надто обтяжливими, проте чиновники ЄС налаштовані довести, що вони можуть бути “глобальними наглядачами ШІ”, не душачи інновації.

Добровільний кодекс спричиняє суперечки: У тіні обов’язкового AI Act запропонований регуляторами ЄС добровільний «Кодекс практики ШІ» викликав трансатлантичну дискусію. Кодекс, розроблений експертами для заохочення раннього впровадження деяких принципів AI Act, закликає компанії, що займаються ШІ, проактивно дотримуватись певних заходів прозорості та безпеки вже зараз, до набуття чинності закону. Цього тижня серед американських технологічних гігантів виник розкол: Microsoft натякнула, що, ймовірно, приєднається, президент Бред Сміт заявив: «Я думаю, що ми, ймовірно, підпишемося… Наша мета — підтримувати» та привітав тісну співпрацю з AI-офісом ЄС reuters.com. У різкому контрасті Meta Platforms категорично відкинула цей добровільний кодекс. «Meta не підписуватиме його. Цей кодекс створює низку юридичних невизначеностей для розробників моделей, а також запроваджує заходи, що значно виходять за межі AI Act», — написав керівник з глобальних питань Meta Джоел Каплан 18 липня reuters.com. На його думку, рекомендації ЄС є надмірним регулюванням, яке може «загальмувати розвиток і впровадження передових моделей ШІ в Європі» і «поставити під загрозу європейські компанії», що працюють у сфері ШІ reuters.com. Позиція Meta збігається зі скаргами коаліції з 45 європейських технологічних компаній, що проєкт кодексу є надто обмежувальним. З іншого боку, OpenAI (розробник ChatGPT) та французька Mistral AI вже підписали кодекс, сигналізуючи, що деякі провідні гравці готові пристати на більшу прозорість і перевірки дотримання авторських прав у Європі ts2.tech. Такий розкол підкреслює зростання напруги: американські гіганти прагнуть уникати прецедентів, які могли б стати для них обов’язковими в усьому світі, тоді як європейські регулятори (і деякі стартапи) вже зараз вимагають більш високих стандартів. Те, як буде впроваджений цей добровільний кодекс, може вплинути на фактичні правила ШІ у всьому світі ще до вступу обов’язкового закону ЄС у дію.

США роблять ставку на інновації, а не на регулювання: У Вашингтоні підхід до ШІ залишається більш стимулювальним, ніж обмежувальним – принаймні наразі. Цього тижня Білий дім зібрав керівників технокомпаній, дослідників та законодавців на Саміт з технологій та інновацій, який приніс близько 90 мільярдів доларів нових галузевих зобов’язань щодо проєктів зі штучного інтелекту та виробництва напівпровідників у США ts2.tech. Десятки компаній — від Google до Intel і Blackstone — пообіцяли інвестувати мільярди у передові дата-центри, вітчизняні фабрики чипів та дослідницькі центри ШІ по всій Америці, укріплюючи технічну інфраструктуру у партнерстві з федеральними ініціативами ts2.tech. Послання від американських лідерів: замість того, щоб негайно встановлювати загальні закони щодо ШІ, вони підливають пального у вогонь інновацій, щоб зберегти перевагу над глобальними конкурентами, водночас аналізуючи вплив ШІ. Навіть Федеральна резервна система США звертає на це увагу. У промові 17 липня щодо технологій членка Ради керуючих Федрезерву Ліза Д. Кук назвала ШІ «потенційно наступною технологією загального призначення» – порівнюючи його трансформаційний потенціал із друкарським верстатом чи електрикою ts2.tech. Вона відзначила, що «понад пів мільярда користувачів» у світі вже щотижня взаємодіють з великими ШІ-моделями, і що за минулий рік поступ ШІ подвоїв ключові показники ts2.tech. Водночас Кук попередила й про «багатовимірні виклики». Хоча ШІ у довгостроковій перспективі може підвищити продуктивність (і навіть допомогти стримати інфляцію), його стрімке впровадження може спричинити короткострокові потрясіння — включаючи сплески інвестицій і витрат, які парадоксальним чином можуть підняти ціни до появи ефективності ts2.tech. Її виважена позиція — не перебільшувати ні утопію, ні катастрофу — відображає ширше консенсус у Вашингтоні: заохочувати розвиток ШІ обережно, уважно стежачи за впливом на робочі місця, рівень інфляції та нерівність після їх появи.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

ШІ в медіа, розвагах і креативних індустріях

Netflix використовує ШІ для VFX: У Голлівуді відбулася визначна подія: Netflix повідомив у своєму звіті про прибутки, що почав використовувати генеративний ШІ у виробництві контенту, включаючи перші в історії кадри, створені ШІ, у шоу Netflix ts2.tech. В аргентинському науково-фантастичному серіалі «Ель Етернаута» цілу сцену обвалення будівлі було створено за допомогою ШІ — це зайняло у 10 разів менше часу та коштувало дешевше, ніж традиційні візуальні ефекти techcrunch.com. Спів-генеральний директор Тед Сарандос підкреслив, що ШІ використовується для підсилення творців, а не для їхньої заміни, заявивши: «ШІ відкриває неймовірні можливості допомогти творцям робити фільми та серіали кращими, а не просто дешевшими… це справжні люди, які виконують справжню роботу з кращими інструментами.» techcrunch.com Він зазначив, що художники Netflix вже відчувають переваги у препродакшн-візуалізації та плануванні кадрів. Netflix також використовує генеративний ШІ не лише для VFX – компанія застосовує його для персоналізованого відкриття контенту і вже готується запустити інтерактивну рекламу на базі ШІ до кінця цього року techcrunch.com.

Генеративна мода та відео-чари: Творчий підхід ШІ поширився й на моду та відео. Дослідники з Південної Кореї експериментували з «генеративним кутюром», використовуючи ChatGPT для прогнозування майбутніх модних трендів і DALL·E 3 для створення понад 100 віртуальних образів для колекції осінь/зима binaryverseai.com binaryverseai.com. Близько двох третин дизайнів, створених ШІ, відповідали реальним стилям, що натякає на здатність генеративних моделей виявляти тренди раніше, ніж це зроблять дизайнери. (ШІ зазнав труднощів із абстрактними поняттями, такими як гендерно-нейтральний дизайн, що підкреслює: людські дизайнери все ще тримають креативний компас binaryverseai.com.) У сфері технологій для кіновиробництва NVIDIA разом із партнерами з університетів презентували DiffusionRenderer — дворівневу систему ШІ, яка поєднує інверсний і прямий рендеринг, роблячи сучасні відеоефекти доступними для незалежних творців binaryverseai.com binaryverseai.com. В одному з демонстраційних відео користувач міг зняти простий кадр і додати CGI-дракона, тінь від якого виглядає реалістично без складних сенсорів чи ручного налаштування світла – ШІ самостійно вивчив геометрію та освітлення сцени за відео binaryverseai.com binaryverseai.com. У підсумку це звужує прірву між великими студіями і маленькими творцями, натякаючи на майбутнє з «майже магічним» відеомонтажем для всіх.

Фінанси, бізнес та інвестиції в ШІ

ШІ, спеціально створений для фінансів: Фінансовий сектор став свідком активного впровадження ШІ як у продуктах, так і в прибутках. Стартап Anthropic запустив Claude for Financial Services — версію свого асистента Claude-4, спеціалізованого для аналітиків ринку та банкірів. Anthropic стверджує, що Claude-4 перевершує інші провідні моделі у фінансових завданнях згідно з галузевими бенчмарками anthropic.com. Платформа може підключатися до поточних ринкових даних (через партнерів, таких як Bloomberg, FactSet та ін.) і обробляти значні обсяги робіт: від моделювання ризиків до оформлення документів для відповідності. Перші користувачі повідомляють про суттєві переваги — наприклад, генеральний директор суверенного фонду багатства Норвегії на $1,4 трлн (NBIM) заявив, що Claude “фундаментально змінив” їхню роботу, забезпечивши орієнтовно 20% приросту продуктивності (близько 213 000 зекономлених робочих годин) завдяки тому, що персонал може безперешкодно працювати з даними й ефективніше аналізувати фінансові звіти anthropic.com. З його слів, Claude фактично став “незамінним” для аналітиків та менеджерів з ризиків цієї компанії anthropic.com. Великі банки й фонди також досліджують можливості асистентів ШІ для прискорення досліджень з повним аудит-трейлом і автоматизації рутинних завдань, які зазвичай гальмують роботу фінансових команд.

Уолл-стріт робить ставки на AI-стартапи: Інвестори продовжують вкладати гроші в штучний інтелект із вражаючими оцінками. Цього вікенду надійшла новина, що стартап Perplexity AI, відомий своїм чат-ботом для пошуку на основі ШІ, залучив ще $100 мільйонів фінансування – і підняв свою оцінку до приблизно $18 мільярдів theindependent.sg. (Для порівняння, ще два місяці тому Perplexity оцінювали приблизно у $14 мільярдів, а минулого року – лише у $1 мільярд, що відображає стрімке зростання генеративного ШІ theindependent.sg.) З’являються і нові фонди з фокусом на ШІ: наприклад, один із ранніх інвесторів Instacart запустив фонд “Verified Capital” зі $175 мільйонами, орієнтованими на AI-стартапи (анонсовано 20 липня). А у сфері хмарних обчислень традиційні компанії пристосовуються до епохи ШІ – іноді болісно. Amazon підтвердила, що скорочує кілька сотень працівників AWS (переважно в службі підтримки хмарних сервісів), після того як генеральний директор Енді Джессі попередив, що ефективність ШІ призведе до зменшення певних “проміжних” посад binaryverseai.com. Внутрішні електронні листи цього тижня вказують, що деякі спеціалізовані команди з міграції у хмару стали непотрібними – “перше видиме підтвердження в межах AWS” автоматизації під керуванням ШІ, як зазначив Reuters binaryverseai.com binaryverseai.com. Аналітики стверджують, що навіть підрозділи з великою маржею не захищені: “ШІ поглинає завдання, які він освоює, а потім компанії або перенаправляють, або звільняють людей,” – сухо зазначив один із них binaryverseai.com. Попри значні прибутки, хмарний гігант проводить оптимізацію, демонструючи, як зростання продуктивності від ШІ також може на практиці призводити до скорочення робочої сили.

Наукові та медичні прориви

Прискорення медичного аналізу: У сфері охорони здоров’я прориви в штучному інтелекті обіцяють швидші діагнози та безпечніші процедури. Дослідники з Університету Індіани та партнерських лікарень презентували систему штучного інтелекту “Інформатика раку”, яка здатна аналізувати оцифровані зразки патології, електронні медичні картки й навіть геномні дані для виявлення потенційних онкозахворювань і пропонування стадій пухлини. За словами головного дослідника Спирідона Бакаса, ця система скоротила деякі діагностичні процеси “з днів до секунд”, тріажуючи випадки з надлюдською швидкістю binaryverseai.com binaryverseai.com. Інструмент також виявив делікатні взаємозв’язки між мульти-модальними даними, які людина могла б пропустити, хоча команда наполягає: патологи залишаються незамінними для складних випадків і остаточних висновків binaryverseai.com. Проєкт ілюструє ширшу тенденцію до мультимодального медичного ШІ, що здатен аналізувати різні типи даних одночасно. Подібно до цього, радіологи повідомили про успіхи у використанні моделі ШІ під назвою mViT (модифікований vision transformer) для покращення дитячих КТ-сканувань binaryverseai.com binaryverseai.com. Фотонно-лічильні КТ-сканери дозволяють знижувати дозу рентгенівського випромінювання для дітей, але зазвичай дають шумні зображення; система mViT навчилася зменшувати шум сканів у реальному часі, роблячи артерії й тканини чіткішими без розмиття, яке виникало при старих методах зниження шуму binaryverseai.com binaryverseai.com. Під час тестування на 20 маленьких пацієнтах ШІ постійно перевершував традиційні фільтри, що потенційно відкриває шлях до чіткіших КТ із низькою дозою — перемога для безпеки дітей, коли КТ нового покоління отримують схвалення FDA binaryverseai.com.

Прориви в біології та матеріалознавстві: ШІ також сприяє базовій науці. Нове дослідження у Nature Communications описує, як тріада нейронних мереж тепер може встановлювати часову мітку розвитку ембріона з точністю до хвилини, що може змінити розвиток біології binaryverseai.com. Навчаючи згорткові нейромережі на зображеннях ембріонів плодових мух у високій роздільній здатності, система навчилася розпізнавати тонкі візуальні підказки циклів поділу клітин. Вона може визначати вік ембріона (з похибкою ±1 хвилина) без використання руйнівних флуоресцентних маркерів – досягаючи 98–100% точності на ембріонах ранніх стадій binaryverseai.com binaryverseai.com. Цей штучний “ембріональний годинник” дозволив команді зіставити сплески активації генів з небаченою часовою точністю, надаючи біологам потужний новий інструмент для вивчення формування органів. У матеріалознавстві дослідники з Великої Британії представили “CrystalGPT,” модель, навченої на 706 000 кристалічних структур для прогнозування властивостей матеріалів. Вивчаючи “мову” молекулярних кристалів (через пазли із замаскованими атомами та задачі на симетрію), CrystalGPT може передбачити густину, пористість чи стабільність нових сполук значно швидше, ніж прямі симуляції binaryverseai.com binaryverseai.com. Експерти відзначають її прозорість – ШІ навіть підсвічує, які саме атомні оточення найбільше вплинули на прогноз, – даючи хімікам упевненість замість “чорної скриньки” binaryverseai.com. Швидше моделювання кристалів може прискорити прогрес у створенні батарей, каталізаторів, напівпровідникових матеріалів, скорочуючи час і вартість науково-дослідних робіт.

ШІ для коду – із застереженнями: Не всі дослідження були оптимістичними; одне з них стало реалістичним поглядом на асистентів з програмування на основі ШІ. У контрольованому експерименті досвідчені розробники програмного забезпечення витратили на 19% більше часу на виконання завдання з допомогою ШІ-асистента, ніж контрольна група без ШІ ts2.tech. Досвідчені програмісти очікували, що ШІ (інструмент підказки коду) зробить їх швидшими, але він часто надавав лише “правильні у напрямку, але не зовсім такі, як потрібно” фрагменти коду ts2.tech. Час втрачався на перегляд і виправлення цих майже правильних підказок. Натомість попередні дослідження показали значне підвищення швидкості у менш досвідчених програмістів на простіших завданнях. “Це більше схоже на редагування есе, ніж на написання з нуля,” – сказав один із досвідчених розробників про працю з ШІ-асистентом – можливо, більш розслаблено, зате повільніше ts2.tech. Дослідники з METR дійшли висновку, що нинішні асистенти на основі ШІ не є чарівною паличкою для підвищення продуктивності експертів у складному програмуванні і що суттєве доопрацювання (і людський контроль) досі необхідні ts2.tech. Це нюансоване спостереження стримує поспішне впровадження генераторів коду на основі ШІ для всіх розробників.

Зазирнути всередину “мозку” ШІ: Консорціум провідних науковців зі сфери штучного інтелекту (з OpenAI, DeepMind, Anthropic та провідних університетів) опублікував примітну статтю із закликом до розробки нових технік для моніторингу “ланцюга роздумів” ШІ – по суті, прихованих кроків міркування, які моделі ШІ генерують всередині себе ts2.tech. Оскільки системи ШІ стають дедалі автономнішими (як агенти, що з’являються сьогодні), автори стверджують, що можливість перевіряти ці проміжні думки може стати критично важливою для безпеки ts2.tech. Спостерігаючи поетапне міркування ШІ, розробники можуть вчасно виявити помилки чи небезпечні відхилення до того, як ШІ почне діяти. Однак у статті попереджається, що зі зростанням складності моделей “немає гарантії, що нинішній рівень прозорості збережеться” – майбутні ШІ можуть приховати процеси мислення так, що їх буде важко відстежити ts2.tech. Команда закликала спільноту “максимально ефективно використовувати можливість моніторингу [ланцюга роздумів]” вже сьогодні і прагнути зберігати прозорість у майбутньому ts2.tech. Примітно, що під цим закликом до дії підписалися найвідоміші фахівці у сфері ШІ – серед них Джеффрі Хінтон, головний науковець OpenAI Ілля Суцкевер (та керівник напряму узгодження Ян Лейке), співзасновник DeepMind Шейн Легг та інші ts2.tech. Це рідкісний приклад єдності між конкурентними лабораторіями, що відображає спільну стурбованість: оскільки ШІ наближається до людського рівня міркування, ми не повинні дозволити йому перетворитись на незбагненну “чорну скриньку”. Дослідження “сканування мозку ШІ” – тобто читання його думок – можуть стати не менш важливими, ніж створення самого ШІ.

Держава та регулювання

ЄС впроваджує Закон про штучний інтелект: Брюссель підштовхнув регуляторні межі, зробивши конкретні кроки щодо реалізації свого знакового Закону про ШІ. 18 липня Європейська комісія оприлюднила детальні інструкції для “ШІ-моделей із системними ризиками” – тобто найбільш потужних універсальних ШІ-систем, які можуть впливати на громадську безпеку або основні права людини ts2.tech. Інструкції роз’яснюють жорсткі нові вимоги, із якими зіткнуться ці постачальники ШІ після набуття чинності Законом про ШІ 2 серпня. Згідно з правилами, великі розробники штучного інтелекту (Google, OpenAI, Meta, Anthropic, французька Mistral та інші) повинні проводити суворі оцінки ризиків, випробування з протидією вразливостям (adversarial testing) та повідомляти про серйозні інциденти чи збої регуляторам ЄС ts2.tech. Вони також повинні впроваджувати надійний кіберзахист, щоб запобігти зловмисному використанню своїх моделей ts2.tech. Прозорість – ключове: розробники базових моделей повинні документувати джерела навчальних даних, дотримуватися авторських прав і публікувати короткі звіти про зміст датасетів, використаних для навчання кожного ШІ ts2.tech. “Завдяки сьогоднішнім інструкціям Комісія сприяє плавному та ефективному застосуванню Закону про ШІ”, — сказала головна технологічна чиновниця ЄС Генна Вірккунен, підкресливши, що регулятори хочуть забезпечити чіткість для бізнесу, стримуючи потенційні ризики ts2.tech. У компаній є пільговий період до серпня 2026 року для повного виконання вимог ts2.tech. Після цього порушення можуть обійтися у величезні штрафи – до €35 млн або 7% світового обороту (що більше) ts2.tech. Нові інструкції з’явилися на тлі невдоволення окремих технологічних компаній тим, що європейські правила можуть бути надто обтяжливими, проте чиновники ЄС налаштовані довести, що вони можуть бути “глобальними наглядачами ШІ”, не душачи інновації.

Добровільний кодекс спричиняє суперечки: У тіні обов’язкового AI Act запропонований регуляторами ЄС добровільний «Кодекс практики ШІ» викликав трансатлантичну дискусію. Кодекс, розроблений експертами для заохочення раннього впровадження деяких принципів AI Act, закликає компанії, що займаються ШІ, проактивно дотримуватись певних заходів прозорості та безпеки вже зараз, до набуття чинності закону. Цього тижня серед американських технологічних гігантів виник розкол: Microsoft натякнула, що, ймовірно, приєднається, президент Бред Сміт заявив: «Я думаю, що ми, ймовірно, підпишемося… Наша мета — підтримувати» та привітав тісну співпрацю з AI-офісом ЄС reuters.com. У різкому контрасті Meta Platforms категорично відкинула цей добровільний кодекс. «Meta не підписуватиме його. Цей кодекс створює низку юридичних невизначеностей для розробників моделей, а також запроваджує заходи, що значно виходять за межі AI Act», — написав керівник з глобальних питань Meta Джоел Каплан 18 липня reuters.com. На його думку, рекомендації ЄС є надмірним регулюванням, яке може «загальмувати розвиток і впровадження передових моделей ШІ в Європі» і «поставити під загрозу європейські компанії», що працюють у сфері ШІ reuters.com. Позиція Meta збігається зі скаргами коаліції з 45 європейських технологічних компаній, що проєкт кодексу є надто обмежувальним. З іншого боку, OpenAI (розробник ChatGPT) та французька Mistral AI вже підписали кодекс, сигналізуючи, що деякі провідні гравці готові пристати на більшу прозорість і перевірки дотримання авторських прав у Європі ts2.tech. Такий розкол підкреслює зростання напруги: американські гіганти прагнуть уникати прецедентів, які могли б стати для них обов’язковими в усьому світі, тоді як європейські регулятори (і деякі стартапи) вже зараз вимагають більш високих стандартів. Те, як буде впроваджений цей добровільний кодекс, може вплинути на фактичні правила ШІ у всьому світі ще до вступу обов’язкового закону ЄС у дію.

США роблять ставку на інновації, а не на регулювання: У Вашингтоні підхід до ШІ залишається більш стимулювальним, ніж обмежувальним – принаймні наразі. Цього тижня Білий дім зібрав керівників технокомпаній, дослідників та законодавців на Саміт з технологій та інновацій, який приніс близько 90 мільярдів доларів нових галузевих зобов’язань щодо проєктів зі штучного інтелекту та виробництва напівпровідників у США ts2.tech. Десятки компаній — від Google до Intel і Blackstone — пообіцяли інвестувати мільярди у передові дата-центри, вітчизняні фабрики чипів та дослідницькі центри ШІ по всій Америці, укріплюючи технічну інфраструктуру у партнерстві з федеральними ініціативами ts2.tech. Послання від американських лідерів: замість того, щоб негайно встановлювати загальні закони щодо ШІ, вони підливають пального у вогонь інновацій, щоб зберегти перевагу над глобальними конкурентами, водночас аналізуючи вплив ШІ. Навіть Федеральна резервна система США звертає на це увагу. У промові 17 липня щодо технологій членка Ради керуючих Федрезерву Ліза Д. Кук назвала ШІ «потенційно наступною технологією загального призначення» – порівнюючи його трансформаційний потенціал із друкарським верстатом чи електрикою ts2.tech. Вона відзначила, що «понад пів мільярда користувачів» у світі вже щотижня взаємодіють з великими ШІ-моделями, і що за минулий рік поступ ШІ подвоїв ключові показники ts2.tech. Водночас Кук попередила й про «багатовимірні виклики». Хоча ШІ у довгостроковій перспективі може підвищити продуктивність (і навіть допомогти стримати інфляцію), його стрімке впровадження може спричинити короткострокові потрясіння — включаючи сплески інвестицій і витрат, які парадоксальним чином можуть підняти ціни до появи ефективності ts2.tech. Її виважена позиція — не перебільшувати ні утопію, ні катастрофу — відображає ширше консенсус у Вашингтоні: заохочувати розвиток ШІ обережно, уважно стежачи за впливом на робочі місця, рівень інфляції та нерівність після їх появи.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

Наукові та медичні прориви

Прискорення медичного аналізу: У сфері охорони здоров’я прориви в штучному інтелекті обіцяють швидші діагнози та безпечніші процедури. Дослідники з Університету Індіани та партнерських лікарень презентували систему штучного інтелекту “Інформатика раку”, яка здатна аналізувати оцифровані зразки патології, електронні медичні картки й навіть геномні дані для виявлення потенційних онкозахворювань і пропонування стадій пухлини. За словами головного дослідника Спирідона Бакаса, ця система скоротила деякі діагностичні процеси “з днів до секунд”, тріажуючи випадки з надлюдською швидкістю binaryverseai.com binaryverseai.com. Інструмент також виявив делікатні взаємозв’язки між мульти-модальними даними, які людина могла б пропустити, хоча команда наполягає: патологи залишаються незамінними для складних випадків і остаточних висновків binaryverseai.com. Проєкт ілюструє ширшу тенденцію до мультимодального медичного ШІ, що здатен аналізувати різні типи даних одночасно. Подібно до цього, радіологи повідомили про успіхи у використанні моделі ШІ під назвою mViT (модифікований vision transformer) для покращення дитячих КТ-сканувань binaryverseai.com binaryverseai.com. Фотонно-лічильні КТ-сканери дозволяють знижувати дозу рентгенівського випромінювання для дітей, але зазвичай дають шумні зображення; система mViT навчилася зменшувати шум сканів у реальному часі, роблячи артерії й тканини чіткішими без розмиття, яке виникало при старих методах зниження шуму binaryverseai.com binaryverseai.com. Під час тестування на 20 маленьких пацієнтах ШІ постійно перевершував традиційні фільтри, що потенційно відкриває шлях до чіткіших КТ із низькою дозою — перемога для безпеки дітей, коли КТ нового покоління отримують схвалення FDA binaryverseai.com.

Прориви в біології та матеріалознавстві: ШІ також сприяє базовій науці. Нове дослідження у Nature Communications описує, як тріада нейронних мереж тепер може встановлювати часову мітку розвитку ембріона з точністю до хвилини, що може змінити розвиток біології binaryverseai.com. Навчаючи згорткові нейромережі на зображеннях ембріонів плодових мух у високій роздільній здатності, система навчилася розпізнавати тонкі візуальні підказки циклів поділу клітин. Вона може визначати вік ембріона (з похибкою ±1 хвилина) без використання руйнівних флуоресцентних маркерів – досягаючи 98–100% точності на ембріонах ранніх стадій binaryverseai.com binaryverseai.com. Цей штучний “ембріональний годинник” дозволив команді зіставити сплески активації генів з небаченою часовою точністю, надаючи біологам потужний новий інструмент для вивчення формування органів. У матеріалознавстві дослідники з Великої Британії представили “CrystalGPT,” модель, навченої на 706 000 кристалічних структур для прогнозування властивостей матеріалів. Вивчаючи “мову” молекулярних кристалів (через пазли із замаскованими атомами та задачі на симетрію), CrystalGPT може передбачити густину, пористість чи стабільність нових сполук значно швидше, ніж прямі симуляції binaryverseai.com binaryverseai.com. Експерти відзначають її прозорість – ШІ навіть підсвічує, які саме атомні оточення найбільше вплинули на прогноз, – даючи хімікам упевненість замість “чорної скриньки” binaryverseai.com. Швидше моделювання кристалів може прискорити прогрес у створенні батарей, каталізаторів, напівпровідникових матеріалів, скорочуючи час і вартість науково-дослідних робіт.

ШІ для коду – із застереженнями: Не всі дослідження були оптимістичними; одне з них стало реалістичним поглядом на асистентів з програмування на основі ШІ. У контрольованому експерименті досвідчені розробники програмного забезпечення витратили на 19% більше часу на виконання завдання з допомогою ШІ-асистента, ніж контрольна група без ШІ ts2.tech. Досвідчені програмісти очікували, що ШІ (інструмент підказки коду) зробить їх швидшими, але він часто надавав лише “правильні у напрямку, але не зовсім такі, як потрібно” фрагменти коду ts2.tech. Час втрачався на перегляд і виправлення цих майже правильних підказок. Натомість попередні дослідження показали значне підвищення швидкості у менш досвідчених програмістів на простіших завданнях. “Це більше схоже на редагування есе, ніж на написання з нуля,” – сказав один із досвідчених розробників про працю з ШІ-асистентом – можливо, більш розслаблено, зате повільніше ts2.tech. Дослідники з METR дійшли висновку, що нинішні асистенти на основі ШІ не є чарівною паличкою для підвищення продуктивності експертів у складному програмуванні і що суттєве доопрацювання (і людський контроль) досі необхідні ts2.tech. Це нюансоване спостереження стримує поспішне впровадження генераторів коду на основі ШІ для всіх розробників.

Зазирнути всередину “мозку” ШІ: Консорціум провідних науковців зі сфери штучного інтелекту (з OpenAI, DeepMind, Anthropic та провідних університетів) опублікував примітну статтю із закликом до розробки нових технік для моніторингу “ланцюга роздумів” ШІ – по суті, прихованих кроків міркування, які моделі ШІ генерують всередині себе ts2.tech. Оскільки системи ШІ стають дедалі автономнішими (як агенти, що з’являються сьогодні), автори стверджують, що можливість перевіряти ці проміжні думки може стати критично важливою для безпеки ts2.tech. Спостерігаючи поетапне міркування ШІ, розробники можуть вчасно виявити помилки чи небезпечні відхилення до того, як ШІ почне діяти. Однак у статті попереджається, що зі зростанням складності моделей “немає гарантії, що нинішній рівень прозорості збережеться” – майбутні ШІ можуть приховати процеси мислення так, що їх буде важко відстежити ts2.tech. Команда закликала спільноту “максимально ефективно використовувати можливість моніторингу [ланцюга роздумів]” вже сьогодні і прагнути зберігати прозорість у майбутньому ts2.tech. Примітно, що під цим закликом до дії підписалися найвідоміші фахівці у сфері ШІ – серед них Джеффрі Хінтон, головний науковець OpenAI Ілля Суцкевер (та керівник напряму узгодження Ян Лейке), співзасновник DeepMind Шейн Легг та інші ts2.tech. Це рідкісний приклад єдності між конкурентними лабораторіями, що відображає спільну стурбованість: оскільки ШІ наближається до людського рівня міркування, ми не повинні дозволити йому перетворитись на незбагненну “чорну скриньку”. Дослідження “сканування мозку ШІ” – тобто читання його думок – можуть стати не менш важливими, ніж створення самого ШІ.

Держава та регулювання

ЄС впроваджує Закон про штучний інтелект: Брюссель підштовхнув регуляторні межі, зробивши конкретні кроки щодо реалізації свого знакового Закону про ШІ. 18 липня Європейська комісія оприлюднила детальні інструкції для “ШІ-моделей із системними ризиками” – тобто найбільш потужних універсальних ШІ-систем, які можуть впливати на громадську безпеку або основні права людини ts2.tech. Інструкції роз’яснюють жорсткі нові вимоги, із якими зіткнуться ці постачальники ШІ після набуття чинності Законом про ШІ 2 серпня. Згідно з правилами, великі розробники штучного інтелекту (Google, OpenAI, Meta, Anthropic, французька Mistral та інші) повинні проводити суворі оцінки ризиків, випробування з протидією вразливостям (adversarial testing) та повідомляти про серйозні інциденти чи збої регуляторам ЄС ts2.tech. Вони також повинні впроваджувати надійний кіберзахист, щоб запобігти зловмисному використанню своїх моделей ts2.tech. Прозорість – ключове: розробники базових моделей повинні документувати джерела навчальних даних, дотримуватися авторських прав і публікувати короткі звіти про зміст датасетів, використаних для навчання кожного ШІ ts2.tech. “Завдяки сьогоднішнім інструкціям Комісія сприяє плавному та ефективному застосуванню Закону про ШІ”, — сказала головна технологічна чиновниця ЄС Генна Вірккунен, підкресливши, що регулятори хочуть забезпечити чіткість для бізнесу, стримуючи потенційні ризики ts2.tech. У компаній є пільговий період до серпня 2026 року для повного виконання вимог ts2.tech. Після цього порушення можуть обійтися у величезні штрафи – до €35 млн або 7% світового обороту (що більше) ts2.tech. Нові інструкції з’явилися на тлі невдоволення окремих технологічних компаній тим, що європейські правила можуть бути надто обтяжливими, проте чиновники ЄС налаштовані довести, що вони можуть бути “глобальними наглядачами ШІ”, не душачи інновації.

Добровільний кодекс спричиняє суперечки: У тіні обов’язкового AI Act запропонований регуляторами ЄС добровільний «Кодекс практики ШІ» викликав трансатлантичну дискусію. Кодекс, розроблений експертами для заохочення раннього впровадження деяких принципів AI Act, закликає компанії, що займаються ШІ, проактивно дотримуватись певних заходів прозорості та безпеки вже зараз, до набуття чинності закону. Цього тижня серед американських технологічних гігантів виник розкол: Microsoft натякнула, що, ймовірно, приєднається, президент Бред Сміт заявив: «Я думаю, що ми, ймовірно, підпишемося… Наша мета — підтримувати» та привітав тісну співпрацю з AI-офісом ЄС reuters.com. У різкому контрасті Meta Platforms категорично відкинула цей добровільний кодекс. «Meta не підписуватиме його. Цей кодекс створює низку юридичних невизначеностей для розробників моделей, а також запроваджує заходи, що значно виходять за межі AI Act», — написав керівник з глобальних питань Meta Джоел Каплан 18 липня reuters.com. На його думку, рекомендації ЄС є надмірним регулюванням, яке може «загальмувати розвиток і впровадження передових моделей ШІ в Європі» і «поставити під загрозу європейські компанії», що працюють у сфері ШІ reuters.com. Позиція Meta збігається зі скаргами коаліції з 45 європейських технологічних компаній, що проєкт кодексу є надто обмежувальним. З іншого боку, OpenAI (розробник ChatGPT) та французька Mistral AI вже підписали кодекс, сигналізуючи, що деякі провідні гравці готові пристати на більшу прозорість і перевірки дотримання авторських прав у Європі ts2.tech. Такий розкол підкреслює зростання напруги: американські гіганти прагнуть уникати прецедентів, які могли б стати для них обов’язковими в усьому світі, тоді як європейські регулятори (і деякі стартапи) вже зараз вимагають більш високих стандартів. Те, як буде впроваджений цей добровільний кодекс, може вплинути на фактичні правила ШІ у всьому світі ще до вступу обов’язкового закону ЄС у дію.

США роблять ставку на інновації, а не на регулювання: У Вашингтоні підхід до ШІ залишається більш стимулювальним, ніж обмежувальним – принаймні наразі. Цього тижня Білий дім зібрав керівників технокомпаній, дослідників та законодавців на Саміт з технологій та інновацій, який приніс близько 90 мільярдів доларів нових галузевих зобов’язань щодо проєктів зі штучного інтелекту та виробництва напівпровідників у США ts2.tech. Десятки компаній — від Google до Intel і Blackstone — пообіцяли інвестувати мільярди у передові дата-центри, вітчизняні фабрики чипів та дослідницькі центри ШІ по всій Америці, укріплюючи технічну інфраструктуру у партнерстві з федеральними ініціативами ts2.tech. Послання від американських лідерів: замість того, щоб негайно встановлювати загальні закони щодо ШІ, вони підливають пального у вогонь інновацій, щоб зберегти перевагу над глобальними конкурентами, водночас аналізуючи вплив ШІ. Навіть Федеральна резервна система США звертає на це увагу. У промові 17 липня щодо технологій членка Ради керуючих Федрезерву Ліза Д. Кук назвала ШІ «потенційно наступною технологією загального призначення» – порівнюючи його трансформаційний потенціал із друкарським верстатом чи електрикою ts2.tech. Вона відзначила, що «понад пів мільярда користувачів» у світі вже щотижня взаємодіють з великими ШІ-моделями, і що за минулий рік поступ ШІ подвоїв ключові показники ts2.tech. Водночас Кук попередила й про «багатовимірні виклики». Хоча ШІ у довгостроковій перспективі може підвищити продуктивність (і навіть допомогти стримати інфляцію), його стрімке впровадження може спричинити короткострокові потрясіння — включаючи сплески інвестицій і витрат, які парадоксальним чином можуть підняти ціни до появи ефективності ts2.tech. Її виважена позиція — не перебільшувати ні утопію, ні катастрофу — відображає ширше консенсус у Вашингтоні: заохочувати розвиток ШІ обережно, уважно стежачи за впливом на робочі місця, рівень інфляції та нерівність після їх появи.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

Фінанси, бізнес та інвестиції в ШІ

ШІ, спеціально створений для фінансів: Фінансовий сектор став свідком активного впровадження ШІ як у продуктах, так і в прибутках. Стартап Anthropic запустив Claude for Financial Services — версію свого асистента Claude-4, спеціалізованого для аналітиків ринку та банкірів. Anthropic стверджує, що Claude-4 перевершує інші провідні моделі у фінансових завданнях згідно з галузевими бенчмарками anthropic.com. Платформа може підключатися до поточних ринкових даних (через партнерів, таких як Bloomberg, FactSet та ін.) і обробляти значні обсяги робіт: від моделювання ризиків до оформлення документів для відповідності. Перші користувачі повідомляють про суттєві переваги — наприклад, генеральний директор суверенного фонду багатства Норвегії на $1,4 трлн (NBIM) заявив, що Claude “фундаментально змінив” їхню роботу, забезпечивши орієнтовно 20% приросту продуктивності (близько 213 000 зекономлених робочих годин) завдяки тому, що персонал може безперешкодно працювати з даними й ефективніше аналізувати фінансові звіти anthropic.com. З його слів, Claude фактично став “незамінним” для аналітиків та менеджерів з ризиків цієї компанії anthropic.com. Великі банки й фонди також досліджують можливості асистентів ШІ для прискорення досліджень з повним аудит-трейлом і автоматизації рутинних завдань, які зазвичай гальмують роботу фінансових команд.

Уолл-стріт робить ставки на AI-стартапи: Інвестори продовжують вкладати гроші в штучний інтелект із вражаючими оцінками. Цього вікенду надійшла новина, що стартап Perplexity AI, відомий своїм чат-ботом для пошуку на основі ШІ, залучив ще $100 мільйонів фінансування – і підняв свою оцінку до приблизно $18 мільярдів theindependent.sg. (Для порівняння, ще два місяці тому Perplexity оцінювали приблизно у $14 мільярдів, а минулого року – лише у $1 мільярд, що відображає стрімке зростання генеративного ШІ theindependent.sg.) З’являються і нові фонди з фокусом на ШІ: наприклад, один із ранніх інвесторів Instacart запустив фонд “Verified Capital” зі $175 мільйонами, орієнтованими на AI-стартапи (анонсовано 20 липня). А у сфері хмарних обчислень традиційні компанії пристосовуються до епохи ШІ – іноді болісно. Amazon підтвердила, що скорочує кілька сотень працівників AWS (переважно в службі підтримки хмарних сервісів), після того як генеральний директор Енді Джессі попередив, що ефективність ШІ призведе до зменшення певних “проміжних” посад binaryverseai.com. Внутрішні електронні листи цього тижня вказують, що деякі спеціалізовані команди з міграції у хмару стали непотрібними – “перше видиме підтвердження в межах AWS” автоматизації під керуванням ШІ, як зазначив Reuters binaryverseai.com binaryverseai.com. Аналітики стверджують, що навіть підрозділи з великою маржею не захищені: “ШІ поглинає завдання, які він освоює, а потім компанії або перенаправляють, або звільняють людей,” – сухо зазначив один із них binaryverseai.com. Попри значні прибутки, хмарний гігант проводить оптимізацію, демонструючи, як зростання продуктивності від ШІ також може на практиці призводити до скорочення робочої сили.

Наукові та медичні прориви

Прискорення медичного аналізу: У сфері охорони здоров’я прориви в штучному інтелекті обіцяють швидші діагнози та безпечніші процедури. Дослідники з Університету Індіани та партнерських лікарень презентували систему штучного інтелекту “Інформатика раку”, яка здатна аналізувати оцифровані зразки патології, електронні медичні картки й навіть геномні дані для виявлення потенційних онкозахворювань і пропонування стадій пухлини. За словами головного дослідника Спирідона Бакаса, ця система скоротила деякі діагностичні процеси “з днів до секунд”, тріажуючи випадки з надлюдською швидкістю binaryverseai.com binaryverseai.com. Інструмент також виявив делікатні взаємозв’язки між мульти-модальними даними, які людина могла б пропустити, хоча команда наполягає: патологи залишаються незамінними для складних випадків і остаточних висновків binaryverseai.com. Проєкт ілюструє ширшу тенденцію до мультимодального медичного ШІ, що здатен аналізувати різні типи даних одночасно. Подібно до цього, радіологи повідомили про успіхи у використанні моделі ШІ під назвою mViT (модифікований vision transformer) для покращення дитячих КТ-сканувань binaryverseai.com binaryverseai.com. Фотонно-лічильні КТ-сканери дозволяють знижувати дозу рентгенівського випромінювання для дітей, але зазвичай дають шумні зображення; система mViT навчилася зменшувати шум сканів у реальному часі, роблячи артерії й тканини чіткішими без розмиття, яке виникало при старих методах зниження шуму binaryverseai.com binaryverseai.com. Під час тестування на 20 маленьких пацієнтах ШІ постійно перевершував традиційні фільтри, що потенційно відкриває шлях до чіткіших КТ із низькою дозою — перемога для безпеки дітей, коли КТ нового покоління отримують схвалення FDA binaryverseai.com.

Прориви в біології та матеріалознавстві: ШІ також сприяє базовій науці. Нове дослідження у Nature Communications описує, як тріада нейронних мереж тепер може встановлювати часову мітку розвитку ембріона з точністю до хвилини, що може змінити розвиток біології binaryverseai.com. Навчаючи згорткові нейромережі на зображеннях ембріонів плодових мух у високій роздільній здатності, система навчилася розпізнавати тонкі візуальні підказки циклів поділу клітин. Вона може визначати вік ембріона (з похибкою ±1 хвилина) без використання руйнівних флуоресцентних маркерів – досягаючи 98–100% точності на ембріонах ранніх стадій binaryverseai.com binaryverseai.com. Цей штучний “ембріональний годинник” дозволив команді зіставити сплески активації генів з небаченою часовою точністю, надаючи біологам потужний новий інструмент для вивчення формування органів. У матеріалознавстві дослідники з Великої Британії представили “CrystalGPT,” модель, навченої на 706 000 кристалічних структур для прогнозування властивостей матеріалів. Вивчаючи “мову” молекулярних кристалів (через пазли із замаскованими атомами та задачі на симетрію), CrystalGPT може передбачити густину, пористість чи стабільність нових сполук значно швидше, ніж прямі симуляції binaryverseai.com binaryverseai.com. Експерти відзначають її прозорість – ШІ навіть підсвічує, які саме атомні оточення найбільше вплинули на прогноз, – даючи хімікам упевненість замість “чорної скриньки” binaryverseai.com. Швидше моделювання кристалів може прискорити прогрес у створенні батарей, каталізаторів, напівпровідникових матеріалів, скорочуючи час і вартість науково-дослідних робіт.

ШІ для коду – із застереженнями: Не всі дослідження були оптимістичними; одне з них стало реалістичним поглядом на асистентів з програмування на основі ШІ. У контрольованому експерименті досвідчені розробники програмного забезпечення витратили на 19% більше часу на виконання завдання з допомогою ШІ-асистента, ніж контрольна група без ШІ ts2.tech. Досвідчені програмісти очікували, що ШІ (інструмент підказки коду) зробить їх швидшими, але він часто надавав лише “правильні у напрямку, але не зовсім такі, як потрібно” фрагменти коду ts2.tech. Час втрачався на перегляд і виправлення цих майже правильних підказок. Натомість попередні дослідження показали значне підвищення швидкості у менш досвідчених програмістів на простіших завданнях. “Це більше схоже на редагування есе, ніж на написання з нуля,” – сказав один із досвідчених розробників про працю з ШІ-асистентом – можливо, більш розслаблено, зате повільніше ts2.tech. Дослідники з METR дійшли висновку, що нинішні асистенти на основі ШІ не є чарівною паличкою для підвищення продуктивності експертів у складному програмуванні і що суттєве доопрацювання (і людський контроль) досі необхідні ts2.tech. Це нюансоване спостереження стримує поспішне впровадження генераторів коду на основі ШІ для всіх розробників.

Зазирнути всередину “мозку” ШІ: Консорціум провідних науковців зі сфери штучного інтелекту (з OpenAI, DeepMind, Anthropic та провідних університетів) опублікував примітну статтю із закликом до розробки нових технік для моніторингу “ланцюга роздумів” ШІ – по суті, прихованих кроків міркування, які моделі ШІ генерують всередині себе ts2.tech. Оскільки системи ШІ стають дедалі автономнішими (як агенти, що з’являються сьогодні), автори стверджують, що можливість перевіряти ці проміжні думки може стати критично важливою для безпеки ts2.tech. Спостерігаючи поетапне міркування ШІ, розробники можуть вчасно виявити помилки чи небезпечні відхилення до того, як ШІ почне діяти. Однак у статті попереджається, що зі зростанням складності моделей “немає гарантії, що нинішній рівень прозорості збережеться” – майбутні ШІ можуть приховати процеси мислення так, що їх буде важко відстежити ts2.tech. Команда закликала спільноту “максимально ефективно використовувати можливість моніторингу [ланцюга роздумів]” вже сьогодні і прагнути зберігати прозорість у майбутньому ts2.tech. Примітно, що під цим закликом до дії підписалися найвідоміші фахівці у сфері ШІ – серед них Джеффрі Хінтон, головний науковець OpenAI Ілля Суцкевер (та керівник напряму узгодження Ян Лейке), співзасновник DeepMind Шейн Легг та інші ts2.tech. Це рідкісний приклад єдності між конкурентними лабораторіями, що відображає спільну стурбованість: оскільки ШІ наближається до людського рівня міркування, ми не повинні дозволити йому перетворитись на незбагненну “чорну скриньку”. Дослідження “сканування мозку ШІ” – тобто читання його думок – можуть стати не менш важливими, ніж створення самого ШІ.

Держава та регулювання

ЄС впроваджує Закон про штучний інтелект: Брюссель підштовхнув регуляторні межі, зробивши конкретні кроки щодо реалізації свого знакового Закону про ШІ. 18 липня Європейська комісія оприлюднила детальні інструкції для “ШІ-моделей із системними ризиками” – тобто найбільш потужних універсальних ШІ-систем, які можуть впливати на громадську безпеку або основні права людини ts2.tech. Інструкції роз’яснюють жорсткі нові вимоги, із якими зіткнуться ці постачальники ШІ після набуття чинності Законом про ШІ 2 серпня. Згідно з правилами, великі розробники штучного інтелекту (Google, OpenAI, Meta, Anthropic, французька Mistral та інші) повинні проводити суворі оцінки ризиків, випробування з протидією вразливостям (adversarial testing) та повідомляти про серйозні інциденти чи збої регуляторам ЄС ts2.tech. Вони також повинні впроваджувати надійний кіберзахист, щоб запобігти зловмисному використанню своїх моделей ts2.tech. Прозорість – ключове: розробники базових моделей повинні документувати джерела навчальних даних, дотримуватися авторських прав і публікувати короткі звіти про зміст датасетів, використаних для навчання кожного ШІ ts2.tech. “Завдяки сьогоднішнім інструкціям Комісія сприяє плавному та ефективному застосуванню Закону про ШІ”, — сказала головна технологічна чиновниця ЄС Генна Вірккунен, підкресливши, що регулятори хочуть забезпечити чіткість для бізнесу, стримуючи потенційні ризики ts2.tech. У компаній є пільговий період до серпня 2026 року для повного виконання вимог ts2.tech. Після цього порушення можуть обійтися у величезні штрафи – до €35 млн або 7% світового обороту (що більше) ts2.tech. Нові інструкції з’явилися на тлі невдоволення окремих технологічних компаній тим, що європейські правила можуть бути надто обтяжливими, проте чиновники ЄС налаштовані довести, що вони можуть бути “глобальними наглядачами ШІ”, не душачи інновації.

Добровільний кодекс спричиняє суперечки: У тіні обов’язкового AI Act запропонований регуляторами ЄС добровільний «Кодекс практики ШІ» викликав трансатлантичну дискусію. Кодекс, розроблений експертами для заохочення раннього впровадження деяких принципів AI Act, закликає компанії, що займаються ШІ, проактивно дотримуватись певних заходів прозорості та безпеки вже зараз, до набуття чинності закону. Цього тижня серед американських технологічних гігантів виник розкол: Microsoft натякнула, що, ймовірно, приєднається, президент Бред Сміт заявив: «Я думаю, що ми, ймовірно, підпишемося… Наша мета — підтримувати» та привітав тісну співпрацю з AI-офісом ЄС reuters.com. У різкому контрасті Meta Platforms категорично відкинула цей добровільний кодекс. «Meta не підписуватиме його. Цей кодекс створює низку юридичних невизначеностей для розробників моделей, а також запроваджує заходи, що значно виходять за межі AI Act», — написав керівник з глобальних питань Meta Джоел Каплан 18 липня reuters.com. На його думку, рекомендації ЄС є надмірним регулюванням, яке може «загальмувати розвиток і впровадження передових моделей ШІ в Європі» і «поставити під загрозу європейські компанії», що працюють у сфері ШІ reuters.com. Позиція Meta збігається зі скаргами коаліції з 45 європейських технологічних компаній, що проєкт кодексу є надто обмежувальним. З іншого боку, OpenAI (розробник ChatGPT) та французька Mistral AI вже підписали кодекс, сигналізуючи, що деякі провідні гравці готові пристати на більшу прозорість і перевірки дотримання авторських прав у Європі ts2.tech. Такий розкол підкреслює зростання напруги: американські гіганти прагнуть уникати прецедентів, які могли б стати для них обов’язковими в усьому світі, тоді як європейські регулятори (і деякі стартапи) вже зараз вимагають більш високих стандартів. Те, як буде впроваджений цей добровільний кодекс, може вплинути на фактичні правила ШІ у всьому світі ще до вступу обов’язкового закону ЄС у дію.

США роблять ставку на інновації, а не на регулювання: У Вашингтоні підхід до ШІ залишається більш стимулювальним, ніж обмежувальним – принаймні наразі. Цього тижня Білий дім зібрав керівників технокомпаній, дослідників та законодавців на Саміт з технологій та інновацій, який приніс близько 90 мільярдів доларів нових галузевих зобов’язань щодо проєктів зі штучного інтелекту та виробництва напівпровідників у США ts2.tech. Десятки компаній — від Google до Intel і Blackstone — пообіцяли інвестувати мільярди у передові дата-центри, вітчизняні фабрики чипів та дослідницькі центри ШІ по всій Америці, укріплюючи технічну інфраструктуру у партнерстві з федеральними ініціативами ts2.tech. Послання від американських лідерів: замість того, щоб негайно встановлювати загальні закони щодо ШІ, вони підливають пального у вогонь інновацій, щоб зберегти перевагу над глобальними конкурентами, водночас аналізуючи вплив ШІ. Навіть Федеральна резервна система США звертає на це увагу. У промові 17 липня щодо технологій членка Ради керуючих Федрезерву Ліза Д. Кук назвала ШІ «потенційно наступною технологією загального призначення» – порівнюючи його трансформаційний потенціал із друкарським верстатом чи електрикою ts2.tech. Вона відзначила, що «понад пів мільярда користувачів» у світі вже щотижня взаємодіють з великими ШІ-моделями, і що за минулий рік поступ ШІ подвоїв ключові показники ts2.tech. Водночас Кук попередила й про «багатовимірні виклики». Хоча ШІ у довгостроковій перспективі може підвищити продуктивність (і навіть допомогти стримати інфляцію), його стрімке впровадження може спричинити короткострокові потрясіння — включаючи сплески інвестицій і витрат, які парадоксальним чином можуть підняти ціни до появи ефективності ts2.tech. Її виважена позиція — не перебільшувати ні утопію, ні катастрофу — відображає ширше консенсус у Вашингтоні: заохочувати розвиток ШІ обережно, уважно стежачи за впливом на робочі місця, рівень інфляції та нерівність після їх появи.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

ШІ в медіа, розвагах і креативних індустріях

Netflix використовує ШІ для VFX: У Голлівуді відбулася визначна подія: Netflix повідомив у своєму звіті про прибутки, що почав використовувати генеративний ШІ у виробництві контенту, включаючи перші в історії кадри, створені ШІ, у шоу Netflix ts2.tech. В аргентинському науково-фантастичному серіалі «Ель Етернаута» цілу сцену обвалення будівлі було створено за допомогою ШІ — це зайняло у 10 разів менше часу та коштувало дешевше, ніж традиційні візуальні ефекти techcrunch.com. Спів-генеральний директор Тед Сарандос підкреслив, що ШІ використовується для підсилення творців, а не для їхньої заміни, заявивши: «ШІ відкриває неймовірні можливості допомогти творцям робити фільми та серіали кращими, а не просто дешевшими… це справжні люди, які виконують справжню роботу з кращими інструментами.» techcrunch.com Він зазначив, що художники Netflix вже відчувають переваги у препродакшн-візуалізації та плануванні кадрів. Netflix також використовує генеративний ШІ не лише для VFX – компанія застосовує його для персоналізованого відкриття контенту і вже готується запустити інтерактивну рекламу на базі ШІ до кінця цього року techcrunch.com.

Генеративна мода та відео-чари: Творчий підхід ШІ поширився й на моду та відео. Дослідники з Південної Кореї експериментували з «генеративним кутюром», використовуючи ChatGPT для прогнозування майбутніх модних трендів і DALL·E 3 для створення понад 100 віртуальних образів для колекції осінь/зима binaryverseai.com binaryverseai.com. Близько двох третин дизайнів, створених ШІ, відповідали реальним стилям, що натякає на здатність генеративних моделей виявляти тренди раніше, ніж це зроблять дизайнери. (ШІ зазнав труднощів із абстрактними поняттями, такими як гендерно-нейтральний дизайн, що підкреслює: людські дизайнери все ще тримають креативний компас binaryverseai.com.) У сфері технологій для кіновиробництва NVIDIA разом із партнерами з університетів презентували DiffusionRenderer — дворівневу систему ШІ, яка поєднує інверсний і прямий рендеринг, роблячи сучасні відеоефекти доступними для незалежних творців binaryverseai.com binaryverseai.com. В одному з демонстраційних відео користувач міг зняти простий кадр і додати CGI-дракона, тінь від якого виглядає реалістично без складних сенсорів чи ручного налаштування світла – ШІ самостійно вивчив геометрію та освітлення сцени за відео binaryverseai.com binaryverseai.com. У підсумку це звужує прірву між великими студіями і маленькими творцями, натякаючи на майбутнє з «майже магічним» відеомонтажем для всіх.

Фінанси, бізнес та інвестиції в ШІ

ШІ, спеціально створений для фінансів: Фінансовий сектор став свідком активного впровадження ШІ як у продуктах, так і в прибутках. Стартап Anthropic запустив Claude for Financial Services — версію свого асистента Claude-4, спеціалізованого для аналітиків ринку та банкірів. Anthropic стверджує, що Claude-4 перевершує інші провідні моделі у фінансових завданнях згідно з галузевими бенчмарками anthropic.com. Платформа може підключатися до поточних ринкових даних (через партнерів, таких як Bloomberg, FactSet та ін.) і обробляти значні обсяги робіт: від моделювання ризиків до оформлення документів для відповідності. Перші користувачі повідомляють про суттєві переваги — наприклад, генеральний директор суверенного фонду багатства Норвегії на $1,4 трлн (NBIM) заявив, що Claude “фундаментально змінив” їхню роботу, забезпечивши орієнтовно 20% приросту продуктивності (близько 213 000 зекономлених робочих годин) завдяки тому, що персонал може безперешкодно працювати з даними й ефективніше аналізувати фінансові звіти anthropic.com. З його слів, Claude фактично став “незамінним” для аналітиків та менеджерів з ризиків цієї компанії anthropic.com. Великі банки й фонди також досліджують можливості асистентів ШІ для прискорення досліджень з повним аудит-трейлом і автоматизації рутинних завдань, які зазвичай гальмують роботу фінансових команд.

Уолл-стріт робить ставки на AI-стартапи: Інвестори продовжують вкладати гроші в штучний інтелект із вражаючими оцінками. Цього вікенду надійшла новина, що стартап Perplexity AI, відомий своїм чат-ботом для пошуку на основі ШІ, залучив ще $100 мільйонів фінансування – і підняв свою оцінку до приблизно $18 мільярдів theindependent.sg. (Для порівняння, ще два місяці тому Perplexity оцінювали приблизно у $14 мільярдів, а минулого року – лише у $1 мільярд, що відображає стрімке зростання генеративного ШІ theindependent.sg.) З’являються і нові фонди з фокусом на ШІ: наприклад, один із ранніх інвесторів Instacart запустив фонд “Verified Capital” зі $175 мільйонами, орієнтованими на AI-стартапи (анонсовано 20 липня). А у сфері хмарних обчислень традиційні компанії пристосовуються до епохи ШІ – іноді болісно. Amazon підтвердила, що скорочує кілька сотень працівників AWS (переважно в службі підтримки хмарних сервісів), після того як генеральний директор Енді Джессі попередив, що ефективність ШІ призведе до зменшення певних “проміжних” посад binaryverseai.com. Внутрішні електронні листи цього тижня вказують, що деякі спеціалізовані команди з міграції у хмару стали непотрібними – “перше видиме підтвердження в межах AWS” автоматизації під керуванням ШІ, як зазначив Reuters binaryverseai.com binaryverseai.com. Аналітики стверджують, що навіть підрозділи з великою маржею не захищені: “ШІ поглинає завдання, які він освоює, а потім компанії або перенаправляють, або звільняють людей,” – сухо зазначив один із них binaryverseai.com. Попри значні прибутки, хмарний гігант проводить оптимізацію, демонструючи, як зростання продуктивності від ШІ також може на практиці призводити до скорочення робочої сили.

Наукові та медичні прориви

Прискорення медичного аналізу: У сфері охорони здоров’я прориви в штучному інтелекті обіцяють швидші діагнози та безпечніші процедури. Дослідники з Університету Індіани та партнерських лікарень презентували систему штучного інтелекту “Інформатика раку”, яка здатна аналізувати оцифровані зразки патології, електронні медичні картки й навіть геномні дані для виявлення потенційних онкозахворювань і пропонування стадій пухлини. За словами головного дослідника Спирідона Бакаса, ця система скоротила деякі діагностичні процеси “з днів до секунд”, тріажуючи випадки з надлюдською швидкістю binaryverseai.com binaryverseai.com. Інструмент також виявив делікатні взаємозв’язки між мульти-модальними даними, які людина могла б пропустити, хоча команда наполягає: патологи залишаються незамінними для складних випадків і остаточних висновків binaryverseai.com. Проєкт ілюструє ширшу тенденцію до мультимодального медичного ШІ, що здатен аналізувати різні типи даних одночасно. Подібно до цього, радіологи повідомили про успіхи у використанні моделі ШІ під назвою mViT (модифікований vision transformer) для покращення дитячих КТ-сканувань binaryverseai.com binaryverseai.com. Фотонно-лічильні КТ-сканери дозволяють знижувати дозу рентгенівського випромінювання для дітей, але зазвичай дають шумні зображення; система mViT навчилася зменшувати шум сканів у реальному часі, роблячи артерії й тканини чіткішими без розмиття, яке виникало при старих методах зниження шуму binaryverseai.com binaryverseai.com. Під час тестування на 20 маленьких пацієнтах ШІ постійно перевершував традиційні фільтри, що потенційно відкриває шлях до чіткіших КТ із низькою дозою — перемога для безпеки дітей, коли КТ нового покоління отримують схвалення FDA binaryverseai.com.

Прориви в біології та матеріалознавстві: ШІ також сприяє базовій науці. Нове дослідження у Nature Communications описує, як тріада нейронних мереж тепер може встановлювати часову мітку розвитку ембріона з точністю до хвилини, що може змінити розвиток біології binaryverseai.com. Навчаючи згорткові нейромережі на зображеннях ембріонів плодових мух у високій роздільній здатності, система навчилася розпізнавати тонкі візуальні підказки циклів поділу клітин. Вона може визначати вік ембріона (з похибкою ±1 хвилина) без використання руйнівних флуоресцентних маркерів – досягаючи 98–100% точності на ембріонах ранніх стадій binaryverseai.com binaryverseai.com. Цей штучний “ембріональний годинник” дозволив команді зіставити сплески активації генів з небаченою часовою точністю, надаючи біологам потужний новий інструмент для вивчення формування органів. У матеріалознавстві дослідники з Великої Британії представили “CrystalGPT,” модель, навченої на 706 000 кристалічних структур для прогнозування властивостей матеріалів. Вивчаючи “мову” молекулярних кристалів (через пазли із замаскованими атомами та задачі на симетрію), CrystalGPT може передбачити густину, пористість чи стабільність нових сполук значно швидше, ніж прямі симуляції binaryverseai.com binaryverseai.com. Експерти відзначають її прозорість – ШІ навіть підсвічує, які саме атомні оточення найбільше вплинули на прогноз, – даючи хімікам упевненість замість “чорної скриньки” binaryverseai.com. Швидше моделювання кристалів може прискорити прогрес у створенні батарей, каталізаторів, напівпровідникових матеріалів, скорочуючи час і вартість науково-дослідних робіт.

ШІ для коду – із застереженнями: Не всі дослідження були оптимістичними; одне з них стало реалістичним поглядом на асистентів з програмування на основі ШІ. У контрольованому експерименті досвідчені розробники програмного забезпечення витратили на 19% більше часу на виконання завдання з допомогою ШІ-асистента, ніж контрольна група без ШІ ts2.tech. Досвідчені програмісти очікували, що ШІ (інструмент підказки коду) зробить їх швидшими, але він часто надавав лише “правильні у напрямку, але не зовсім такі, як потрібно” фрагменти коду ts2.tech. Час втрачався на перегляд і виправлення цих майже правильних підказок. Натомість попередні дослідження показали значне підвищення швидкості у менш досвідчених програмістів на простіших завданнях. “Це більше схоже на редагування есе, ніж на написання з нуля,” – сказав один із досвідчених розробників про працю з ШІ-асистентом – можливо, більш розслаблено, зате повільніше ts2.tech. Дослідники з METR дійшли висновку, що нинішні асистенти на основі ШІ не є чарівною паличкою для підвищення продуктивності експертів у складному програмуванні і що суттєве доопрацювання (і людський контроль) досі необхідні ts2.tech. Це нюансоване спостереження стримує поспішне впровадження генераторів коду на основі ШІ для всіх розробників.

Зазирнути всередину “мозку” ШІ: Консорціум провідних науковців зі сфери штучного інтелекту (з OpenAI, DeepMind, Anthropic та провідних університетів) опублікував примітну статтю із закликом до розробки нових технік для моніторингу “ланцюга роздумів” ШІ – по суті, прихованих кроків міркування, які моделі ШІ генерують всередині себе ts2.tech. Оскільки системи ШІ стають дедалі автономнішими (як агенти, що з’являються сьогодні), автори стверджують, що можливість перевіряти ці проміжні думки може стати критично важливою для безпеки ts2.tech. Спостерігаючи поетапне міркування ШІ, розробники можуть вчасно виявити помилки чи небезпечні відхилення до того, як ШІ почне діяти. Однак у статті попереджається, що зі зростанням складності моделей “немає гарантії, що нинішній рівень прозорості збережеться” – майбутні ШІ можуть приховати процеси мислення так, що їх буде важко відстежити ts2.tech. Команда закликала спільноту “максимально ефективно використовувати можливість моніторингу [ланцюга роздумів]” вже сьогодні і прагнути зберігати прозорість у майбутньому ts2.tech. Примітно, що під цим закликом до дії підписалися найвідоміші фахівці у сфері ШІ – серед них Джеффрі Хінтон, головний науковець OpenAI Ілля Суцкевер (та керівник напряму узгодження Ян Лейке), співзасновник DeepMind Шейн Легг та інші ts2.tech. Це рідкісний приклад єдності між конкурентними лабораторіями, що відображає спільну стурбованість: оскільки ШІ наближається до людського рівня міркування, ми не повинні дозволити йому перетворитись на незбагненну “чорну скриньку”. Дослідження “сканування мозку ШІ” – тобто читання його думок – можуть стати не менш важливими, ніж створення самого ШІ.

Держава та регулювання

ЄС впроваджує Закон про штучний інтелект: Брюссель підштовхнув регуляторні межі, зробивши конкретні кроки щодо реалізації свого знакового Закону про ШІ. 18 липня Європейська комісія оприлюднила детальні інструкції для “ШІ-моделей із системними ризиками” – тобто найбільш потужних універсальних ШІ-систем, які можуть впливати на громадську безпеку або основні права людини ts2.tech. Інструкції роз’яснюють жорсткі нові вимоги, із якими зіткнуться ці постачальники ШІ після набуття чинності Законом про ШІ 2 серпня. Згідно з правилами, великі розробники штучного інтелекту (Google, OpenAI, Meta, Anthropic, французька Mistral та інші) повинні проводити суворі оцінки ризиків, випробування з протидією вразливостям (adversarial testing) та повідомляти про серйозні інциденти чи збої регуляторам ЄС ts2.tech. Вони також повинні впроваджувати надійний кіберзахист, щоб запобігти зловмисному використанню своїх моделей ts2.tech. Прозорість – ключове: розробники базових моделей повинні документувати джерела навчальних даних, дотримуватися авторських прав і публікувати короткі звіти про зміст датасетів, використаних для навчання кожного ШІ ts2.tech. “Завдяки сьогоднішнім інструкціям Комісія сприяє плавному та ефективному застосуванню Закону про ШІ”, — сказала головна технологічна чиновниця ЄС Генна Вірккунен, підкресливши, що регулятори хочуть забезпечити чіткість для бізнесу, стримуючи потенційні ризики ts2.tech. У компаній є пільговий період до серпня 2026 року для повного виконання вимог ts2.tech. Після цього порушення можуть обійтися у величезні штрафи – до €35 млн або 7% світового обороту (що більше) ts2.tech. Нові інструкції з’явилися на тлі невдоволення окремих технологічних компаній тим, що європейські правила можуть бути надто обтяжливими, проте чиновники ЄС налаштовані довести, що вони можуть бути “глобальними наглядачами ШІ”, не душачи інновації.

Добровільний кодекс спричиняє суперечки: У тіні обов’язкового AI Act запропонований регуляторами ЄС добровільний «Кодекс практики ШІ» викликав трансатлантичну дискусію. Кодекс, розроблений експертами для заохочення раннього впровадження деяких принципів AI Act, закликає компанії, що займаються ШІ, проактивно дотримуватись певних заходів прозорості та безпеки вже зараз, до набуття чинності закону. Цього тижня серед американських технологічних гігантів виник розкол: Microsoft натякнула, що, ймовірно, приєднається, президент Бред Сміт заявив: «Я думаю, що ми, ймовірно, підпишемося… Наша мета — підтримувати» та привітав тісну співпрацю з AI-офісом ЄС reuters.com. У різкому контрасті Meta Platforms категорично відкинула цей добровільний кодекс. «Meta не підписуватиме його. Цей кодекс створює низку юридичних невизначеностей для розробників моделей, а також запроваджує заходи, що значно виходять за межі AI Act», — написав керівник з глобальних питань Meta Джоел Каплан 18 липня reuters.com. На його думку, рекомендації ЄС є надмірним регулюванням, яке може «загальмувати розвиток і впровадження передових моделей ШІ в Європі» і «поставити під загрозу європейські компанії», що працюють у сфері ШІ reuters.com. Позиція Meta збігається зі скаргами коаліції з 45 європейських технологічних компаній, що проєкт кодексу є надто обмежувальним. З іншого боку, OpenAI (розробник ChatGPT) та французька Mistral AI вже підписали кодекс, сигналізуючи, що деякі провідні гравці готові пристати на більшу прозорість і перевірки дотримання авторських прав у Європі ts2.tech. Такий розкол підкреслює зростання напруги: американські гіганти прагнуть уникати прецедентів, які могли б стати для них обов’язковими в усьому світі, тоді як європейські регулятори (і деякі стартапи) вже зараз вимагають більш високих стандартів. Те, як буде впроваджений цей добровільний кодекс, може вплинути на фактичні правила ШІ у всьому світі ще до вступу обов’язкового закону ЄС у дію.

США роблять ставку на інновації, а не на регулювання: У Вашингтоні підхід до ШІ залишається більш стимулювальним, ніж обмежувальним – принаймні наразі. Цього тижня Білий дім зібрав керівників технокомпаній, дослідників та законодавців на Саміт з технологій та інновацій, який приніс близько 90 мільярдів доларів нових галузевих зобов’язань щодо проєктів зі штучного інтелекту та виробництва напівпровідників у США ts2.tech. Десятки компаній — від Google до Intel і Blackstone — пообіцяли інвестувати мільярди у передові дата-центри, вітчизняні фабрики чипів та дослідницькі центри ШІ по всій Америці, укріплюючи технічну інфраструктуру у партнерстві з федеральними ініціативами ts2.tech. Послання від американських лідерів: замість того, щоб негайно встановлювати загальні закони щодо ШІ, вони підливають пального у вогонь інновацій, щоб зберегти перевагу над глобальними конкурентами, водночас аналізуючи вплив ШІ. Навіть Федеральна резервна система США звертає на це увагу. У промові 17 липня щодо технологій членка Ради керуючих Федрезерву Ліза Д. Кук назвала ШІ «потенційно наступною технологією загального призначення» – порівнюючи його трансформаційний потенціал із друкарським верстатом чи електрикою ts2.tech. Вона відзначила, що «понад пів мільярда користувачів» у світі вже щотижня взаємодіють з великими ШІ-моделями, і що за минулий рік поступ ШІ подвоїв ключові показники ts2.tech. Водночас Кук попередила й про «багатовимірні виклики». Хоча ШІ у довгостроковій перспективі може підвищити продуктивність (і навіть допомогти стримати інфляцію), його стрімке впровадження може спричинити короткострокові потрясіння — включаючи сплески інвестицій і витрат, які парадоксальним чином можуть підняти ціни до появи ефективності ts2.tech. Її виважена позиція — не перебільшувати ні утопію, ні катастрофу — відображає ширше консенсус у Вашингтоні: заохочувати розвиток ШІ обережно, уважно стежачи за впливом на робочі місця, рівень інфляції та нерівність після їх появи.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

Наукові та медичні прориви

Прискорення медичного аналізу: У сфері охорони здоров’я прориви в штучному інтелекті обіцяють швидші діагнози та безпечніші процедури. Дослідники з Університету Індіани та партнерських лікарень презентували систему штучного інтелекту “Інформатика раку”, яка здатна аналізувати оцифровані зразки патології, електронні медичні картки й навіть геномні дані для виявлення потенційних онкозахворювань і пропонування стадій пухлини. За словами головного дослідника Спирідона Бакаса, ця система скоротила деякі діагностичні процеси “з днів до секунд”, тріажуючи випадки з надлюдською швидкістю binaryverseai.com binaryverseai.com. Інструмент також виявив делікатні взаємозв’язки між мульти-модальними даними, які людина могла б пропустити, хоча команда наполягає: патологи залишаються незамінними для складних випадків і остаточних висновків binaryverseai.com. Проєкт ілюструє ширшу тенденцію до мультимодального медичного ШІ, що здатен аналізувати різні типи даних одночасно. Подібно до цього, радіологи повідомили про успіхи у використанні моделі ШІ під назвою mViT (модифікований vision transformer) для покращення дитячих КТ-сканувань binaryverseai.com binaryverseai.com. Фотонно-лічильні КТ-сканери дозволяють знижувати дозу рентгенівського випромінювання для дітей, але зазвичай дають шумні зображення; система mViT навчилася зменшувати шум сканів у реальному часі, роблячи артерії й тканини чіткішими без розмиття, яке виникало при старих методах зниження шуму binaryverseai.com binaryverseai.com. Під час тестування на 20 маленьких пацієнтах ШІ постійно перевершував традиційні фільтри, що потенційно відкриває шлях до чіткіших КТ із низькою дозою — перемога для безпеки дітей, коли КТ нового покоління отримують схвалення FDA binaryverseai.com.

Прориви в біології та матеріалознавстві: ШІ також сприяє базовій науці. Нове дослідження у Nature Communications описує, як тріада нейронних мереж тепер може встановлювати часову мітку розвитку ембріона з точністю до хвилини, що може змінити розвиток біології binaryverseai.com. Навчаючи згорткові нейромережі на зображеннях ембріонів плодових мух у високій роздільній здатності, система навчилася розпізнавати тонкі візуальні підказки циклів поділу клітин. Вона може визначати вік ембріона (з похибкою ±1 хвилина) без використання руйнівних флуоресцентних маркерів – досягаючи 98–100% точності на ембріонах ранніх стадій binaryverseai.com binaryverseai.com. Цей штучний “ембріональний годинник” дозволив команді зіставити сплески активації генів з небаченою часовою точністю, надаючи біологам потужний новий інструмент для вивчення формування органів. У матеріалознавстві дослідники з Великої Британії представили “CrystalGPT,” модель, навченої на 706 000 кристалічних структур для прогнозування властивостей матеріалів. Вивчаючи “мову” молекулярних кристалів (через пазли із замаскованими атомами та задачі на симетрію), CrystalGPT може передбачити густину, пористість чи стабільність нових сполук значно швидше, ніж прямі симуляції binaryverseai.com binaryverseai.com. Експерти відзначають її прозорість – ШІ навіть підсвічує, які саме атомні оточення найбільше вплинули на прогноз, – даючи хімікам упевненість замість “чорної скриньки” binaryverseai.com. Швидше моделювання кристалів може прискорити прогрес у створенні батарей, каталізаторів, напівпровідникових матеріалів, скорочуючи час і вартість науково-дослідних робіт.

ШІ для коду – із застереженнями: Не всі дослідження були оптимістичними; одне з них стало реалістичним поглядом на асистентів з програмування на основі ШІ. У контрольованому експерименті досвідчені розробники програмного забезпечення витратили на 19% більше часу на виконання завдання з допомогою ШІ-асистента, ніж контрольна група без ШІ ts2.tech. Досвідчені програмісти очікували, що ШІ (інструмент підказки коду) зробить їх швидшими, але він часто надавав лише “правильні у напрямку, але не зовсім такі, як потрібно” фрагменти коду ts2.tech. Час втрачався на перегляд і виправлення цих майже правильних підказок. Натомість попередні дослідження показали значне підвищення швидкості у менш досвідчених програмістів на простіших завданнях. “Це більше схоже на редагування есе, ніж на написання з нуля,” – сказав один із досвідчених розробників про працю з ШІ-асистентом – можливо, більш розслаблено, зате повільніше ts2.tech. Дослідники з METR дійшли висновку, що нинішні асистенти на основі ШІ не є чарівною паличкою для підвищення продуктивності експертів у складному програмуванні і що суттєве доопрацювання (і людський контроль) досі необхідні ts2.tech. Це нюансоване спостереження стримує поспішне впровадження генераторів коду на основі ШІ для всіх розробників.

Зазирнути всередину “мозку” ШІ: Консорціум провідних науковців зі сфери штучного інтелекту (з OpenAI, DeepMind, Anthropic та провідних університетів) опублікував примітну статтю із закликом до розробки нових технік для моніторингу “ланцюга роздумів” ШІ – по суті, прихованих кроків міркування, які моделі ШІ генерують всередині себе ts2.tech. Оскільки системи ШІ стають дедалі автономнішими (як агенти, що з’являються сьогодні), автори стверджують, що можливість перевіряти ці проміжні думки може стати критично важливою для безпеки ts2.tech. Спостерігаючи поетапне міркування ШІ, розробники можуть вчасно виявити помилки чи небезпечні відхилення до того, як ШІ почне діяти. Однак у статті попереджається, що зі зростанням складності моделей “немає гарантії, що нинішній рівень прозорості збережеться” – майбутні ШІ можуть приховати процеси мислення так, що їх буде важко відстежити ts2.tech. Команда закликала спільноту “максимально ефективно використовувати можливість моніторингу [ланцюга роздумів]” вже сьогодні і прагнути зберігати прозорість у майбутньому ts2.tech. Примітно, що під цим закликом до дії підписалися найвідоміші фахівці у сфері ШІ – серед них Джеффрі Хінтон, головний науковець OpenAI Ілля Суцкевер (та керівник напряму узгодження Ян Лейке), співзасновник DeepMind Шейн Легг та інші ts2.tech. Це рідкісний приклад єдності між конкурентними лабораторіями, що відображає спільну стурбованість: оскільки ШІ наближається до людського рівня міркування, ми не повинні дозволити йому перетворитись на незбагненну “чорну скриньку”. Дослідження “сканування мозку ШІ” – тобто читання його думок – можуть стати не менш важливими, ніж створення самого ШІ.

Держава та регулювання

ЄС впроваджує Закон про штучний інтелект: Брюссель підштовхнув регуляторні межі, зробивши конкретні кроки щодо реалізації свого знакового Закону про ШІ. 18 липня Європейська комісія оприлюднила детальні інструкції для “ШІ-моделей із системними ризиками” – тобто найбільш потужних універсальних ШІ-систем, які можуть впливати на громадську безпеку або основні права людини ts2.tech. Інструкції роз’яснюють жорсткі нові вимоги, із якими зіткнуться ці постачальники ШІ після набуття чинності Законом про ШІ 2 серпня. Згідно з правилами, великі розробники штучного інтелекту (Google, OpenAI, Meta, Anthropic, французька Mistral та інші) повинні проводити суворі оцінки ризиків, випробування з протидією вразливостям (adversarial testing) та повідомляти про серйозні інциденти чи збої регуляторам ЄС ts2.tech. Вони також повинні впроваджувати надійний кіберзахист, щоб запобігти зловмисному використанню своїх моделей ts2.tech. Прозорість – ключове: розробники базових моделей повинні документувати джерела навчальних даних, дотримуватися авторських прав і публікувати короткі звіти про зміст датасетів, використаних для навчання кожного ШІ ts2.tech. “Завдяки сьогоднішнім інструкціям Комісія сприяє плавному та ефективному застосуванню Закону про ШІ”, — сказала головна технологічна чиновниця ЄС Генна Вірккунен, підкресливши, що регулятори хочуть забезпечити чіткість для бізнесу, стримуючи потенційні ризики ts2.tech. У компаній є пільговий період до серпня 2026 року для повного виконання вимог ts2.tech. Після цього порушення можуть обійтися у величезні штрафи – до €35 млн або 7% світового обороту (що більше) ts2.tech. Нові інструкції з’явилися на тлі невдоволення окремих технологічних компаній тим, що європейські правила можуть бути надто обтяжливими, проте чиновники ЄС налаштовані довести, що вони можуть бути “глобальними наглядачами ШІ”, не душачи інновації.

Добровільний кодекс спричиняє суперечки: У тіні обов’язкового AI Act запропонований регуляторами ЄС добровільний «Кодекс практики ШІ» викликав трансатлантичну дискусію. Кодекс, розроблений експертами для заохочення раннього впровадження деяких принципів AI Act, закликає компанії, що займаються ШІ, проактивно дотримуватись певних заходів прозорості та безпеки вже зараз, до набуття чинності закону. Цього тижня серед американських технологічних гігантів виник розкол: Microsoft натякнула, що, ймовірно, приєднається, президент Бред Сміт заявив: «Я думаю, що ми, ймовірно, підпишемося… Наша мета — підтримувати» та привітав тісну співпрацю з AI-офісом ЄС reuters.com. У різкому контрасті Meta Platforms категорично відкинула цей добровільний кодекс. «Meta не підписуватиме його. Цей кодекс створює низку юридичних невизначеностей для розробників моделей, а також запроваджує заходи, що значно виходять за межі AI Act», — написав керівник з глобальних питань Meta Джоел Каплан 18 липня reuters.com. На його думку, рекомендації ЄС є надмірним регулюванням, яке може «загальмувати розвиток і впровадження передових моделей ШІ в Європі» і «поставити під загрозу європейські компанії», що працюють у сфері ШІ reuters.com. Позиція Meta збігається зі скаргами коаліції з 45 європейських технологічних компаній, що проєкт кодексу є надто обмежувальним. З іншого боку, OpenAI (розробник ChatGPT) та французька Mistral AI вже підписали кодекс, сигналізуючи, що деякі провідні гравці готові пристати на більшу прозорість і перевірки дотримання авторських прав у Європі ts2.tech. Такий розкол підкреслює зростання напруги: американські гіганти прагнуть уникати прецедентів, які могли б стати для них обов’язковими в усьому світі, тоді як європейські регулятори (і деякі стартапи) вже зараз вимагають більш високих стандартів. Те, як буде впроваджений цей добровільний кодекс, може вплинути на фактичні правила ШІ у всьому світі ще до вступу обов’язкового закону ЄС у дію.

США роблять ставку на інновації, а не на регулювання: У Вашингтоні підхід до ШІ залишається більш стимулювальним, ніж обмежувальним – принаймні наразі. Цього тижня Білий дім зібрав керівників технокомпаній, дослідників та законодавців на Саміт з технологій та інновацій, який приніс близько 90 мільярдів доларів нових галузевих зобов’язань щодо проєктів зі штучного інтелекту та виробництва напівпровідників у США ts2.tech. Десятки компаній — від Google до Intel і Blackstone — пообіцяли інвестувати мільярди у передові дата-центри, вітчизняні фабрики чипів та дослідницькі центри ШІ по всій Америці, укріплюючи технічну інфраструктуру у партнерстві з федеральними ініціативами ts2.tech. Послання від американських лідерів: замість того, щоб негайно встановлювати загальні закони щодо ШІ, вони підливають пального у вогонь інновацій, щоб зберегти перевагу над глобальними конкурентами, водночас аналізуючи вплив ШІ. Навіть Федеральна резервна система США звертає на це увагу. У промові 17 липня щодо технологій членка Ради керуючих Федрезерву Ліза Д. Кук назвала ШІ «потенційно наступною технологією загального призначення» – порівнюючи його трансформаційний потенціал із друкарським верстатом чи електрикою ts2.tech. Вона відзначила, що «понад пів мільярда користувачів» у світі вже щотижня взаємодіють з великими ШІ-моделями, і що за минулий рік поступ ШІ подвоїв ключові показники ts2.tech. Водночас Кук попередила й про «багатовимірні виклики». Хоча ШІ у довгостроковій перспективі може підвищити продуктивність (і навіть допомогти стримати інфляцію), його стрімке впровадження може спричинити короткострокові потрясіння — включаючи сплески інвестицій і витрат, які парадоксальним чином можуть підняти ціни до появи ефективності ts2.tech. Її виважена позиція — не перебільшувати ні утопію, ні катастрофу — відображає ширше консенсус у Вашингтоні: заохочувати розвиток ШІ обережно, уважно стежачи за впливом на робочі місця, рівень інфляції та нерівність після їх появи.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

Фінанси, бізнес та інвестиції в ШІ

ШІ, спеціально створений для фінансів: Фінансовий сектор став свідком активного впровадження ШІ як у продуктах, так і в прибутках. Стартап Anthropic запустив Claude for Financial Services — версію свого асистента Claude-4, спеціалізованого для аналітиків ринку та банкірів. Anthropic стверджує, що Claude-4 перевершує інші провідні моделі у фінансових завданнях згідно з галузевими бенчмарками anthropic.com. Платформа може підключатися до поточних ринкових даних (через партнерів, таких як Bloomberg, FactSet та ін.) і обробляти значні обсяги робіт: від моделювання ризиків до оформлення документів для відповідності. Перші користувачі повідомляють про суттєві переваги — наприклад, генеральний директор суверенного фонду багатства Норвегії на $1,4 трлн (NBIM) заявив, що Claude “фундаментально змінив” їхню роботу, забезпечивши орієнтовно 20% приросту продуктивності (близько 213 000 зекономлених робочих годин) завдяки тому, що персонал може безперешкодно працювати з даними й ефективніше аналізувати фінансові звіти anthropic.com. З його слів, Claude фактично став “незамінним” для аналітиків та менеджерів з ризиків цієї компанії anthropic.com. Великі банки й фонди також досліджують можливості асистентів ШІ для прискорення досліджень з повним аудит-трейлом і автоматизації рутинних завдань, які зазвичай гальмують роботу фінансових команд.

Уолл-стріт робить ставки на AI-стартапи: Інвестори продовжують вкладати гроші в штучний інтелект із вражаючими оцінками. Цього вікенду надійшла новина, що стартап Perplexity AI, відомий своїм чат-ботом для пошуку на основі ШІ, залучив ще $100 мільйонів фінансування – і підняв свою оцінку до приблизно $18 мільярдів theindependent.sg. (Для порівняння, ще два місяці тому Perplexity оцінювали приблизно у $14 мільярдів, а минулого року – лише у $1 мільярд, що відображає стрімке зростання генеративного ШІ theindependent.sg.) З’являються і нові фонди з фокусом на ШІ: наприклад, один із ранніх інвесторів Instacart запустив фонд “Verified Capital” зі $175 мільйонами, орієнтованими на AI-стартапи (анонсовано 20 липня). А у сфері хмарних обчислень традиційні компанії пристосовуються до епохи ШІ – іноді болісно. Amazon підтвердила, що скорочує кілька сотень працівників AWS (переважно в службі підтримки хмарних сервісів), після того як генеральний директор Енді Джессі попередив, що ефективність ШІ призведе до зменшення певних “проміжних” посад binaryverseai.com. Внутрішні електронні листи цього тижня вказують, що деякі спеціалізовані команди з міграції у хмару стали непотрібними – “перше видиме підтвердження в межах AWS” автоматизації під керуванням ШІ, як зазначив Reuters binaryverseai.com binaryverseai.com. Аналітики стверджують, що навіть підрозділи з великою маржею не захищені: “ШІ поглинає завдання, які він освоює, а потім компанії або перенаправляють, або звільняють людей,” – сухо зазначив один із них binaryverseai.com. Попри значні прибутки, хмарний гігант проводить оптимізацію, демонструючи, як зростання продуктивності від ШІ також може на практиці призводити до скорочення робочої сили.

Наукові та медичні прориви

Прискорення медичного аналізу: У сфері охорони здоров’я прориви в штучному інтелекті обіцяють швидші діагнози та безпечніші процедури. Дослідники з Університету Індіани та партнерських лікарень презентували систему штучного інтелекту “Інформатика раку”, яка здатна аналізувати оцифровані зразки патології, електронні медичні картки й навіть геномні дані для виявлення потенційних онкозахворювань і пропонування стадій пухлини. За словами головного дослідника Спирідона Бакаса, ця система скоротила деякі діагностичні процеси “з днів до секунд”, тріажуючи випадки з надлюдською швидкістю binaryverseai.com binaryverseai.com. Інструмент також виявив делікатні взаємозв’язки між мульти-модальними даними, які людина могла б пропустити, хоча команда наполягає: патологи залишаються незамінними для складних випадків і остаточних висновків binaryverseai.com. Проєкт ілюструє ширшу тенденцію до мультимодального медичного ШІ, що здатен аналізувати різні типи даних одночасно. Подібно до цього, радіологи повідомили про успіхи у використанні моделі ШІ під назвою mViT (модифікований vision transformer) для покращення дитячих КТ-сканувань binaryverseai.com binaryverseai.com. Фотонно-лічильні КТ-сканери дозволяють знижувати дозу рентгенівського випромінювання для дітей, але зазвичай дають шумні зображення; система mViT навчилася зменшувати шум сканів у реальному часі, роблячи артерії й тканини чіткішими без розмиття, яке виникало при старих методах зниження шуму binaryverseai.com binaryverseai.com. Під час тестування на 20 маленьких пацієнтах ШІ постійно перевершував традиційні фільтри, що потенційно відкриває шлях до чіткіших КТ із низькою дозою — перемога для безпеки дітей, коли КТ нового покоління отримують схвалення FDA binaryverseai.com.

Прориви в біології та матеріалознавстві: ШІ також сприяє базовій науці. Нове дослідження у Nature Communications описує, як тріада нейронних мереж тепер може встановлювати часову мітку розвитку ембріона з точністю до хвилини, що може змінити розвиток біології binaryverseai.com. Навчаючи згорткові нейромережі на зображеннях ембріонів плодових мух у високій роздільній здатності, система навчилася розпізнавати тонкі візуальні підказки циклів поділу клітин. Вона може визначати вік ембріона (з похибкою ±1 хвилина) без використання руйнівних флуоресцентних маркерів – досягаючи 98–100% точності на ембріонах ранніх стадій binaryverseai.com binaryverseai.com. Цей штучний “ембріональний годинник” дозволив команді зіставити сплески активації генів з небаченою часовою точністю, надаючи біологам потужний новий інструмент для вивчення формування органів. У матеріалознавстві дослідники з Великої Британії представили “CrystalGPT,” модель, навченої на 706 000 кристалічних структур для прогнозування властивостей матеріалів. Вивчаючи “мову” молекулярних кристалів (через пазли із замаскованими атомами та задачі на симетрію), CrystalGPT може передбачити густину, пористість чи стабільність нових сполук значно швидше, ніж прямі симуляції binaryverseai.com binaryverseai.com. Експерти відзначають її прозорість – ШІ навіть підсвічує, які саме атомні оточення найбільше вплинули на прогноз, – даючи хімікам упевненість замість “чорної скриньки” binaryverseai.com. Швидше моделювання кристалів може прискорити прогрес у створенні батарей, каталізаторів, напівпровідникових матеріалів, скорочуючи час і вартість науково-дослідних робіт.

ШІ для коду – із застереженнями: Не всі дослідження були оптимістичними; одне з них стало реалістичним поглядом на асистентів з програмування на основі ШІ. У контрольованому експерименті досвідчені розробники програмного забезпечення витратили на 19% більше часу на виконання завдання з допомогою ШІ-асистента, ніж контрольна група без ШІ ts2.tech. Досвідчені програмісти очікували, що ШІ (інструмент підказки коду) зробить їх швидшими, але він часто надавав лише “правильні у напрямку, але не зовсім такі, як потрібно” фрагменти коду ts2.tech. Час втрачався на перегляд і виправлення цих майже правильних підказок. Натомість попередні дослідження показали значне підвищення швидкості у менш досвідчених програмістів на простіших завданнях. “Це більше схоже на редагування есе, ніж на написання з нуля,” – сказав один із досвідчених розробників про працю з ШІ-асистентом – можливо, більш розслаблено, зате повільніше ts2.tech. Дослідники з METR дійшли висновку, що нинішні асистенти на основі ШІ не є чарівною паличкою для підвищення продуктивності експертів у складному програмуванні і що суттєве доопрацювання (і людський контроль) досі необхідні ts2.tech. Це нюансоване спостереження стримує поспішне впровадження генераторів коду на основі ШІ для всіх розробників.

Зазирнути всередину “мозку” ШІ: Консорціум провідних науковців зі сфери штучного інтелекту (з OpenAI, DeepMind, Anthropic та провідних університетів) опублікував примітну статтю із закликом до розробки нових технік для моніторингу “ланцюга роздумів” ШІ – по суті, прихованих кроків міркування, які моделі ШІ генерують всередині себе ts2.tech. Оскільки системи ШІ стають дедалі автономнішими (як агенти, що з’являються сьогодні), автори стверджують, що можливість перевіряти ці проміжні думки може стати критично важливою для безпеки ts2.tech. Спостерігаючи поетапне міркування ШІ, розробники можуть вчасно виявити помилки чи небезпечні відхилення до того, як ШІ почне діяти. Однак у статті попереджається, що зі зростанням складності моделей “немає гарантії, що нинішній рівень прозорості збережеться” – майбутні ШІ можуть приховати процеси мислення так, що їх буде важко відстежити ts2.tech. Команда закликала спільноту “максимально ефективно використовувати можливість моніторингу [ланцюга роздумів]” вже сьогодні і прагнути зберігати прозорість у майбутньому ts2.tech. Примітно, що під цим закликом до дії підписалися найвідоміші фахівці у сфері ШІ – серед них Джеффрі Хінтон, головний науковець OpenAI Ілля Суцкевер (та керівник напряму узгодження Ян Лейке), співзасновник DeepMind Шейн Легг та інші ts2.tech. Це рідкісний приклад єдності між конкурентними лабораторіями, що відображає спільну стурбованість: оскільки ШІ наближається до людського рівня міркування, ми не повинні дозволити йому перетворитись на незбагненну “чорну скриньку”. Дослідження “сканування мозку ШІ” – тобто читання його думок – можуть стати не менш важливими, ніж створення самого ШІ.

Держава та регулювання

ЄС впроваджує Закон про штучний інтелект: Брюссель підштовхнув регуляторні межі, зробивши конкретні кроки щодо реалізації свого знакового Закону про ШІ. 18 липня Європейська комісія оприлюднила детальні інструкції для “ШІ-моделей із системними ризиками” – тобто найбільш потужних універсальних ШІ-систем, які можуть впливати на громадську безпеку або основні права людини ts2.tech. Інструкції роз’яснюють жорсткі нові вимоги, із якими зіткнуться ці постачальники ШІ після набуття чинності Законом про ШІ 2 серпня. Згідно з правилами, великі розробники штучного інтелекту (Google, OpenAI, Meta, Anthropic, французька Mistral та інші) повинні проводити суворі оцінки ризиків, випробування з протидією вразливостям (adversarial testing) та повідомляти про серйозні інциденти чи збої регуляторам ЄС ts2.tech. Вони також повинні впроваджувати надійний кіберзахист, щоб запобігти зловмисному використанню своїх моделей ts2.tech. Прозорість – ключове: розробники базових моделей повинні документувати джерела навчальних даних, дотримуватися авторських прав і публікувати короткі звіти про зміст датасетів, використаних для навчання кожного ШІ ts2.tech. “Завдяки сьогоднішнім інструкціям Комісія сприяє плавному та ефективному застосуванню Закону про ШІ”, — сказала головна технологічна чиновниця ЄС Генна Вірккунен, підкресливши, що регулятори хочуть забезпечити чіткість для бізнесу, стримуючи потенційні ризики ts2.tech. У компаній є пільговий період до серпня 2026 року для повного виконання вимог ts2.tech. Після цього порушення можуть обійтися у величезні штрафи – до €35 млн або 7% світового обороту (що більше) ts2.tech. Нові інструкції з’явилися на тлі невдоволення окремих технологічних компаній тим, що європейські правила можуть бути надто обтяжливими, проте чиновники ЄС налаштовані довести, що вони можуть бути “глобальними наглядачами ШІ”, не душачи інновації.

Добровільний кодекс спричиняє суперечки: У тіні обов’язкового AI Act запропонований регуляторами ЄС добровільний «Кодекс практики ШІ» викликав трансатлантичну дискусію. Кодекс, розроблений експертами для заохочення раннього впровадження деяких принципів AI Act, закликає компанії, що займаються ШІ, проактивно дотримуватись певних заходів прозорості та безпеки вже зараз, до набуття чинності закону. Цього тижня серед американських технологічних гігантів виник розкол: Microsoft натякнула, що, ймовірно, приєднається, президент Бред Сміт заявив: «Я думаю, що ми, ймовірно, підпишемося… Наша мета — підтримувати» та привітав тісну співпрацю з AI-офісом ЄС reuters.com. У різкому контрасті Meta Platforms категорично відкинула цей добровільний кодекс. «Meta не підписуватиме його. Цей кодекс створює низку юридичних невизначеностей для розробників моделей, а також запроваджує заходи, що значно виходять за межі AI Act», — написав керівник з глобальних питань Meta Джоел Каплан 18 липня reuters.com. На його думку, рекомендації ЄС є надмірним регулюванням, яке може «загальмувати розвиток і впровадження передових моделей ШІ в Європі» і «поставити під загрозу європейські компанії», що працюють у сфері ШІ reuters.com. Позиція Meta збігається зі скаргами коаліції з 45 європейських технологічних компаній, що проєкт кодексу є надто обмежувальним. З іншого боку, OpenAI (розробник ChatGPT) та французька Mistral AI вже підписали кодекс, сигналізуючи, що деякі провідні гравці готові пристати на більшу прозорість і перевірки дотримання авторських прав у Європі ts2.tech. Такий розкол підкреслює зростання напруги: американські гіганти прагнуть уникати прецедентів, які могли б стати для них обов’язковими в усьому світі, тоді як європейські регулятори (і деякі стартапи) вже зараз вимагають більш високих стандартів. Те, як буде впроваджений цей добровільний кодекс, може вплинути на фактичні правила ШІ у всьому світі ще до вступу обов’язкового закону ЄС у дію.

США роблять ставку на інновації, а не на регулювання: У Вашингтоні підхід до ШІ залишається більш стимулювальним, ніж обмежувальним – принаймні наразі. Цього тижня Білий дім зібрав керівників технокомпаній, дослідників та законодавців на Саміт з технологій та інновацій, який приніс близько 90 мільярдів доларів нових галузевих зобов’язань щодо проєктів зі штучного інтелекту та виробництва напівпровідників у США ts2.tech. Десятки компаній — від Google до Intel і Blackstone — пообіцяли інвестувати мільярди у передові дата-центри, вітчизняні фабрики чипів та дослідницькі центри ШІ по всій Америці, укріплюючи технічну інфраструктуру у партнерстві з федеральними ініціативами ts2.tech. Послання від американських лідерів: замість того, щоб негайно встановлювати загальні закони щодо ШІ, вони підливають пального у вогонь інновацій, щоб зберегти перевагу над глобальними конкурентами, водночас аналізуючи вплив ШІ. Навіть Федеральна резервна система США звертає на це увагу. У промові 17 липня щодо технологій членка Ради керуючих Федрезерву Ліза Д. Кук назвала ШІ «потенційно наступною технологією загального призначення» – порівнюючи його трансформаційний потенціал із друкарським верстатом чи електрикою ts2.tech. Вона відзначила, що «понад пів мільярда користувачів» у світі вже щотижня взаємодіють з великими ШІ-моделями, і що за минулий рік поступ ШІ подвоїв ключові показники ts2.tech. Водночас Кук попередила й про «багатовимірні виклики». Хоча ШІ у довгостроковій перспективі може підвищити продуктивність (і навіть допомогти стримати інфляцію), його стрімке впровадження може спричинити короткострокові потрясіння — включаючи сплески інвестицій і витрат, які парадоксальним чином можуть підняти ціни до появи ефективності ts2.tech. Її виважена позиція — не перебільшувати ні утопію, ні катастрофу — відображає ширше консенсус у Вашингтоні: заохочувати розвиток ШІ обережно, уважно стежачи за впливом на робочі місця, рівень інфляції та нерівність після їх появи.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

ШІ в медіа, розвагах і креативних індустріях

Netflix використовує ШІ для VFX: У Голлівуді відбулася визначна подія: Netflix повідомив у своєму звіті про прибутки, що почав використовувати генеративний ШІ у виробництві контенту, включаючи перші в історії кадри, створені ШІ, у шоу Netflix ts2.tech. В аргентинському науково-фантастичному серіалі «Ель Етернаута» цілу сцену обвалення будівлі було створено за допомогою ШІ — це зайняло у 10 разів менше часу та коштувало дешевше, ніж традиційні візуальні ефекти techcrunch.com. Спів-генеральний директор Тед Сарандос підкреслив, що ШІ використовується для підсилення творців, а не для їхньої заміни, заявивши: «ШІ відкриває неймовірні можливості допомогти творцям робити фільми та серіали кращими, а не просто дешевшими… це справжні люди, які виконують справжню роботу з кращими інструментами.» techcrunch.com Він зазначив, що художники Netflix вже відчувають переваги у препродакшн-візуалізації та плануванні кадрів. Netflix також використовує генеративний ШІ не лише для VFX – компанія застосовує його для персоналізованого відкриття контенту і вже готується запустити інтерактивну рекламу на базі ШІ до кінця цього року techcrunch.com.

Генеративна мода та відео-чари: Творчий підхід ШІ поширився й на моду та відео. Дослідники з Південної Кореї експериментували з «генеративним кутюром», використовуючи ChatGPT для прогнозування майбутніх модних трендів і DALL·E 3 для створення понад 100 віртуальних образів для колекції осінь/зима binaryverseai.com binaryverseai.com. Близько двох третин дизайнів, створених ШІ, відповідали реальним стилям, що натякає на здатність генеративних моделей виявляти тренди раніше, ніж це зроблять дизайнери. (ШІ зазнав труднощів із абстрактними поняттями, такими як гендерно-нейтральний дизайн, що підкреслює: людські дизайнери все ще тримають креативний компас binaryverseai.com.) У сфері технологій для кіновиробництва NVIDIA разом із партнерами з університетів презентували DiffusionRenderer — дворівневу систему ШІ, яка поєднує інверсний і прямий рендеринг, роблячи сучасні відеоефекти доступними для незалежних творців binaryverseai.com binaryverseai.com. В одному з демонстраційних відео користувач міг зняти простий кадр і додати CGI-дракона, тінь від якого виглядає реалістично без складних сенсорів чи ручного налаштування світла – ШІ самостійно вивчив геометрію та освітлення сцени за відео binaryverseai.com binaryverseai.com. У підсумку це звужує прірву між великими студіями і маленькими творцями, натякаючи на майбутнє з «майже магічним» відеомонтажем для всіх.

Фінанси, бізнес та інвестиції в ШІ

ШІ, спеціально створений для фінансів: Фінансовий сектор став свідком активного впровадження ШІ як у продуктах, так і в прибутках. Стартап Anthropic запустив Claude for Financial Services — версію свого асистента Claude-4, спеціалізованого для аналітиків ринку та банкірів. Anthropic стверджує, що Claude-4 перевершує інші провідні моделі у фінансових завданнях згідно з галузевими бенчмарками anthropic.com. Платформа може підключатися до поточних ринкових даних (через партнерів, таких як Bloomberg, FactSet та ін.) і обробляти значні обсяги робіт: від моделювання ризиків до оформлення документів для відповідності. Перші користувачі повідомляють про суттєві переваги — наприклад, генеральний директор суверенного фонду багатства Норвегії на $1,4 трлн (NBIM) заявив, що Claude “фундаментально змінив” їхню роботу, забезпечивши орієнтовно 20% приросту продуктивності (близько 213 000 зекономлених робочих годин) завдяки тому, що персонал може безперешкодно працювати з даними й ефективніше аналізувати фінансові звіти anthropic.com. З його слів, Claude фактично став “незамінним” для аналітиків та менеджерів з ризиків цієї компанії anthropic.com. Великі банки й фонди також досліджують можливості асистентів ШІ для прискорення досліджень з повним аудит-трейлом і автоматизації рутинних завдань, які зазвичай гальмують роботу фінансових команд.

Уолл-стріт робить ставки на AI-стартапи: Інвестори продовжують вкладати гроші в штучний інтелект із вражаючими оцінками. Цього вікенду надійшла новина, що стартап Perplexity AI, відомий своїм чат-ботом для пошуку на основі ШІ, залучив ще $100 мільйонів фінансування – і підняв свою оцінку до приблизно $18 мільярдів theindependent.sg. (Для порівняння, ще два місяці тому Perplexity оцінювали приблизно у $14 мільярдів, а минулого року – лише у $1 мільярд, що відображає стрімке зростання генеративного ШІ theindependent.sg.) З’являються і нові фонди з фокусом на ШІ: наприклад, один із ранніх інвесторів Instacart запустив фонд “Verified Capital” зі $175 мільйонами, орієнтованими на AI-стартапи (анонсовано 20 липня). А у сфері хмарних обчислень традиційні компанії пристосовуються до епохи ШІ – іноді болісно. Amazon підтвердила, що скорочує кілька сотень працівників AWS (переважно в службі підтримки хмарних сервісів), після того як генеральний директор Енді Джессі попередив, що ефективність ШІ призведе до зменшення певних “проміжних” посад binaryverseai.com. Внутрішні електронні листи цього тижня вказують, що деякі спеціалізовані команди з міграції у хмару стали непотрібними – “перше видиме підтвердження в межах AWS” автоматизації під керуванням ШІ, як зазначив Reuters binaryverseai.com binaryverseai.com. Аналітики стверджують, що навіть підрозділи з великою маржею не захищені: “ШІ поглинає завдання, які він освоює, а потім компанії або перенаправляють, або звільняють людей,” – сухо зазначив один із них binaryverseai.com. Попри значні прибутки, хмарний гігант проводить оптимізацію, демонструючи, як зростання продуктивності від ШІ також може на практиці призводити до скорочення робочої сили.

Наукові та медичні прориви

Прискорення медичного аналізу: У сфері охорони здоров’я прориви в штучному інтелекті обіцяють швидші діагнози та безпечніші процедури. Дослідники з Університету Індіани та партнерських лікарень презентували систему штучного інтелекту “Інформатика раку”, яка здатна аналізувати оцифровані зразки патології, електронні медичні картки й навіть геномні дані для виявлення потенційних онкозахворювань і пропонування стадій пухлини. За словами головного дослідника Спирідона Бакаса, ця система скоротила деякі діагностичні процеси “з днів до секунд”, тріажуючи випадки з надлюдською швидкістю binaryverseai.com binaryverseai.com. Інструмент також виявив делікатні взаємозв’язки між мульти-модальними даними, які людина могла б пропустити, хоча команда наполягає: патологи залишаються незамінними для складних випадків і остаточних висновків binaryverseai.com. Проєкт ілюструє ширшу тенденцію до мультимодального медичного ШІ, що здатен аналізувати різні типи даних одночасно. Подібно до цього, радіологи повідомили про успіхи у використанні моделі ШІ під назвою mViT (модифікований vision transformer) для покращення дитячих КТ-сканувань binaryverseai.com binaryverseai.com. Фотонно-лічильні КТ-сканери дозволяють знижувати дозу рентгенівського випромінювання для дітей, але зазвичай дають шумні зображення; система mViT навчилася зменшувати шум сканів у реальному часі, роблячи артерії й тканини чіткішими без розмиття, яке виникало при старих методах зниження шуму binaryverseai.com binaryverseai.com. Під час тестування на 20 маленьких пацієнтах ШІ постійно перевершував традиційні фільтри, що потенційно відкриває шлях до чіткіших КТ із низькою дозою — перемога для безпеки дітей, коли КТ нового покоління отримують схвалення FDA binaryverseai.com.

Прориви в біології та матеріалознавстві: ШІ також сприяє базовій науці. Нове дослідження у Nature Communications описує, як тріада нейронних мереж тепер може встановлювати часову мітку розвитку ембріона з точністю до хвилини, що може змінити розвиток біології binaryverseai.com. Навчаючи згорткові нейромережі на зображеннях ембріонів плодових мух у високій роздільній здатності, система навчилася розпізнавати тонкі візуальні підказки циклів поділу клітин. Вона може визначати вік ембріона (з похибкою ±1 хвилина) без використання руйнівних флуоресцентних маркерів – досягаючи 98–100% точності на ембріонах ранніх стадій binaryverseai.com binaryverseai.com. Цей штучний “ембріональний годинник” дозволив команді зіставити сплески активації генів з небаченою часовою точністю, надаючи біологам потужний новий інструмент для вивчення формування органів. У матеріалознавстві дослідники з Великої Британії представили “CrystalGPT,” модель, навченої на 706 000 кристалічних структур для прогнозування властивостей матеріалів. Вивчаючи “мову” молекулярних кристалів (через пазли із замаскованими атомами та задачі на симетрію), CrystalGPT може передбачити густину, пористість чи стабільність нових сполук значно швидше, ніж прямі симуляції binaryverseai.com binaryverseai.com. Експерти відзначають її прозорість – ШІ навіть підсвічує, які саме атомні оточення найбільше вплинули на прогноз, – даючи хімікам упевненість замість “чорної скриньки” binaryverseai.com. Швидше моделювання кристалів може прискорити прогрес у створенні батарей, каталізаторів, напівпровідникових матеріалів, скорочуючи час і вартість науково-дослідних робіт.

ШІ для коду – із застереженнями: Не всі дослідження були оптимістичними; одне з них стало реалістичним поглядом на асистентів з програмування на основі ШІ. У контрольованому експерименті досвідчені розробники програмного забезпечення витратили на 19% більше часу на виконання завдання з допомогою ШІ-асистента, ніж контрольна група без ШІ ts2.tech. Досвідчені програмісти очікували, що ШІ (інструмент підказки коду) зробить їх швидшими, але він часто надавав лише “правильні у напрямку, але не зовсім такі, як потрібно” фрагменти коду ts2.tech. Час втрачався на перегляд і виправлення цих майже правильних підказок. Натомість попередні дослідження показали значне підвищення швидкості у менш досвідчених програмістів на простіших завданнях. “Це більше схоже на редагування есе, ніж на написання з нуля,” – сказав один із досвідчених розробників про працю з ШІ-асистентом – можливо, більш розслаблено, зате повільніше ts2.tech. Дослідники з METR дійшли висновку, що нинішні асистенти на основі ШІ не є чарівною паличкою для підвищення продуктивності експертів у складному програмуванні і що суттєве доопрацювання (і людський контроль) досі необхідні ts2.tech. Це нюансоване спостереження стримує поспішне впровадження генераторів коду на основі ШІ для всіх розробників.

Зазирнути всередину “мозку” ШІ: Консорціум провідних науковців зі сфери штучного інтелекту (з OpenAI, DeepMind, Anthropic та провідних університетів) опублікував примітну статтю із закликом до розробки нових технік для моніторингу “ланцюга роздумів” ШІ – по суті, прихованих кроків міркування, які моделі ШІ генерують всередині себе ts2.tech. Оскільки системи ШІ стають дедалі автономнішими (як агенти, що з’являються сьогодні), автори стверджують, що можливість перевіряти ці проміжні думки може стати критично важливою для безпеки ts2.tech. Спостерігаючи поетапне міркування ШІ, розробники можуть вчасно виявити помилки чи небезпечні відхилення до того, як ШІ почне діяти. Однак у статті попереджається, що зі зростанням складності моделей “немає гарантії, що нинішній рівень прозорості збережеться” – майбутні ШІ можуть приховати процеси мислення так, що їх буде важко відстежити ts2.tech. Команда закликала спільноту “максимально ефективно використовувати можливість моніторингу [ланцюга роздумів]” вже сьогодні і прагнути зберігати прозорість у майбутньому ts2.tech. Примітно, що під цим закликом до дії підписалися найвідоміші фахівці у сфері ШІ – серед них Джеффрі Хінтон, головний науковець OpenAI Ілля Суцкевер (та керівник напряму узгодження Ян Лейке), співзасновник DeepMind Шейн Легг та інші ts2.tech. Це рідкісний приклад єдності між конкурентними лабораторіями, що відображає спільну стурбованість: оскільки ШІ наближається до людського рівня міркування, ми не повинні дозволити йому перетворитись на незбагненну “чорну скриньку”. Дослідження “сканування мозку ШІ” – тобто читання його думок – можуть стати не менш важливими, ніж створення самого ШІ.

Держава та регулювання

ЄС впроваджує Закон про штучний інтелект: Брюссель підштовхнув регуляторні межі, зробивши конкретні кроки щодо реалізації свого знакового Закону про ШІ. 18 липня Європейська комісія оприлюднила детальні інструкції для “ШІ-моделей із системними ризиками” – тобто найбільш потужних універсальних ШІ-систем, які можуть впливати на громадську безпеку або основні права людини ts2.tech. Інструкції роз’яснюють жорсткі нові вимоги, із якими зіткнуться ці постачальники ШІ після набуття чинності Законом про ШІ 2 серпня. Згідно з правилами, великі розробники штучного інтелекту (Google, OpenAI, Meta, Anthropic, французька Mistral та інші) повинні проводити суворі оцінки ризиків, випробування з протидією вразливостям (adversarial testing) та повідомляти про серйозні інциденти чи збої регуляторам ЄС ts2.tech. Вони також повинні впроваджувати надійний кіберзахист, щоб запобігти зловмисному використанню своїх моделей ts2.tech. Прозорість – ключове: розробники базових моделей повинні документувати джерела навчальних даних, дотримуватися авторських прав і публікувати короткі звіти про зміст датасетів, використаних для навчання кожного ШІ ts2.tech. “Завдяки сьогоднішнім інструкціям Комісія сприяє плавному та ефективному застосуванню Закону про ШІ”, — сказала головна технологічна чиновниця ЄС Генна Вірккунен, підкресливши, що регулятори хочуть забезпечити чіткість для бізнесу, стримуючи потенційні ризики ts2.tech. У компаній є пільговий період до серпня 2026 року для повного виконання вимог ts2.tech. Після цього порушення можуть обійтися у величезні штрафи – до €35 млн або 7% світового обороту (що більше) ts2.tech. Нові інструкції з’явилися на тлі невдоволення окремих технологічних компаній тим, що європейські правила можуть бути надто обтяжливими, проте чиновники ЄС налаштовані довести, що вони можуть бути “глобальними наглядачами ШІ”, не душачи інновації.

Добровільний кодекс спричиняє суперечки: У тіні обов’язкового AI Act запропонований регуляторами ЄС добровільний «Кодекс практики ШІ» викликав трансатлантичну дискусію. Кодекс, розроблений експертами для заохочення раннього впровадження деяких принципів AI Act, закликає компанії, що займаються ШІ, проактивно дотримуватись певних заходів прозорості та безпеки вже зараз, до набуття чинності закону. Цього тижня серед американських технологічних гігантів виник розкол: Microsoft натякнула, що, ймовірно, приєднається, президент Бред Сміт заявив: «Я думаю, що ми, ймовірно, підпишемося… Наша мета — підтримувати» та привітав тісну співпрацю з AI-офісом ЄС reuters.com. У різкому контрасті Meta Platforms категорично відкинула цей добровільний кодекс. «Meta не підписуватиме його. Цей кодекс створює низку юридичних невизначеностей для розробників моделей, а також запроваджує заходи, що значно виходять за межі AI Act», — написав керівник з глобальних питань Meta Джоел Каплан 18 липня reuters.com. На його думку, рекомендації ЄС є надмірним регулюванням, яке може «загальмувати розвиток і впровадження передових моделей ШІ в Європі» і «поставити під загрозу європейські компанії», що працюють у сфері ШІ reuters.com. Позиція Meta збігається зі скаргами коаліції з 45 європейських технологічних компаній, що проєкт кодексу є надто обмежувальним. З іншого боку, OpenAI (розробник ChatGPT) та французька Mistral AI вже підписали кодекс, сигналізуючи, що деякі провідні гравці готові пристати на більшу прозорість і перевірки дотримання авторських прав у Європі ts2.tech. Такий розкол підкреслює зростання напруги: американські гіганти прагнуть уникати прецедентів, які могли б стати для них обов’язковими в усьому світі, тоді як європейські регулятори (і деякі стартапи) вже зараз вимагають більш високих стандартів. Те, як буде впроваджений цей добровільний кодекс, може вплинути на фактичні правила ШІ у всьому світі ще до вступу обов’язкового закону ЄС у дію.

США роблять ставку на інновації, а не на регулювання: У Вашингтоні підхід до ШІ залишається більш стимулювальним, ніж обмежувальним – принаймні наразі. Цього тижня Білий дім зібрав керівників технокомпаній, дослідників та законодавців на Саміт з технологій та інновацій, який приніс близько 90 мільярдів доларів нових галузевих зобов’язань щодо проєктів зі штучного інтелекту та виробництва напівпровідників у США ts2.tech. Десятки компаній — від Google до Intel і Blackstone — пообіцяли інвестувати мільярди у передові дата-центри, вітчизняні фабрики чипів та дослідницькі центри ШІ по всій Америці, укріплюючи технічну інфраструктуру у партнерстві з федеральними ініціативами ts2.tech. Послання від американських лідерів: замість того, щоб негайно встановлювати загальні закони щодо ШІ, вони підливають пального у вогонь інновацій, щоб зберегти перевагу над глобальними конкурентами, водночас аналізуючи вплив ШІ. Навіть Федеральна резервна система США звертає на це увагу. У промові 17 липня щодо технологій членка Ради керуючих Федрезерву Ліза Д. Кук назвала ШІ «потенційно наступною технологією загального призначення» – порівнюючи його трансформаційний потенціал із друкарським верстатом чи електрикою ts2.tech. Вона відзначила, що «понад пів мільярда користувачів» у світі вже щотижня взаємодіють з великими ШІ-моделями, і що за минулий рік поступ ШІ подвоїв ключові показники ts2.tech. Водночас Кук попередила й про «багатовимірні виклики». Хоча ШІ у довгостроковій перспективі може підвищити продуктивність (і навіть допомогти стримати інфляцію), його стрімке впровадження може спричинити короткострокові потрясіння — включаючи сплески інвестицій і витрат, які парадоксальним чином можуть підняти ціни до появи ефективності ts2.tech. Її виважена позиція — не перебільшувати ні утопію, ні катастрофу — відображає ширше консенсус у Вашингтоні: заохочувати розвиток ШІ обережно, уважно стежачи за впливом на робочі місця, рівень інфляції та нерівність після їх появи.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

Держава та регулювання

ЄС впроваджує Закон про штучний інтелект: Брюссель підштовхнув регуляторні межі, зробивши конкретні кроки щодо реалізації свого знакового Закону про ШІ. 18 липня Європейська комісія оприлюднила детальні інструкції для “ШІ-моделей із системними ризиками” – тобто найбільш потужних універсальних ШІ-систем, які можуть впливати на громадську безпеку або основні права людини ts2.tech. Інструкції роз’яснюють жорсткі нові вимоги, із якими зіткнуться ці постачальники ШІ після набуття чинності Законом про ШІ 2 серпня. Згідно з правилами, великі розробники штучного інтелекту (Google, OpenAI, Meta, Anthropic, французька Mistral та інші) повинні проводити суворі оцінки ризиків, випробування з протидією вразливостям (adversarial testing) та повідомляти про серйозні інциденти чи збої регуляторам ЄС ts2.tech. Вони також повинні впроваджувати надійний кіберзахист, щоб запобігти зловмисному використанню своїх моделей ts2.tech. Прозорість – ключове: розробники базових моделей повинні документувати джерела навчальних даних, дотримуватися авторських прав і публікувати короткі звіти про зміст датасетів, використаних для навчання кожного ШІ ts2.tech. “Завдяки сьогоднішнім інструкціям Комісія сприяє плавному та ефективному застосуванню Закону про ШІ”, — сказала головна технологічна чиновниця ЄС Генна Вірккунен, підкресливши, що регулятори хочуть забезпечити чіткість для бізнесу, стримуючи потенційні ризики ts2.tech. У компаній є пільговий період до серпня 2026 року для повного виконання вимог ts2.tech. Після цього порушення можуть обійтися у величезні штрафи – до €35 млн або 7% світового обороту (що більше) ts2.tech. Нові інструкції з’явилися на тлі невдоволення окремих технологічних компаній тим, що європейські правила можуть бути надто обтяжливими, проте чиновники ЄС налаштовані довести, що вони можуть бути “глобальними наглядачами ШІ”, не душачи інновації.

Добровільний кодекс спричиняє суперечки: У тіні обов’язкового AI Act запропонований регуляторами ЄС добровільний «Кодекс практики ШІ» викликав трансатлантичну дискусію. Кодекс, розроблений експертами для заохочення раннього впровадження деяких принципів AI Act, закликає компанії, що займаються ШІ, проактивно дотримуватись певних заходів прозорості та безпеки вже зараз, до набуття чинності закону. Цього тижня серед американських технологічних гігантів виник розкол: Microsoft натякнула, що, ймовірно, приєднається, президент Бред Сміт заявив: «Я думаю, що ми, ймовірно, підпишемося… Наша мета — підтримувати» та привітав тісну співпрацю з AI-офісом ЄС reuters.com. У різкому контрасті Meta Platforms категорично відкинула цей добровільний кодекс. «Meta не підписуватиме його. Цей кодекс створює низку юридичних невизначеностей для розробників моделей, а також запроваджує заходи, що значно виходять за межі AI Act», — написав керівник з глобальних питань Meta Джоел Каплан 18 липня reuters.com. На його думку, рекомендації ЄС є надмірним регулюванням, яке може «загальмувати розвиток і впровадження передових моделей ШІ в Європі» і «поставити під загрозу європейські компанії», що працюють у сфері ШІ reuters.com. Позиція Meta збігається зі скаргами коаліції з 45 європейських технологічних компаній, що проєкт кодексу є надто обмежувальним. З іншого боку, OpenAI (розробник ChatGPT) та французька Mistral AI вже підписали кодекс, сигналізуючи, що деякі провідні гравці готові пристати на більшу прозорість і перевірки дотримання авторських прав у Європі ts2.tech. Такий розкол підкреслює зростання напруги: американські гіганти прагнуть уникати прецедентів, які могли б стати для них обов’язковими в усьому світі, тоді як європейські регулятори (і деякі стартапи) вже зараз вимагають більш високих стандартів. Те, як буде впроваджений цей добровільний кодекс, може вплинути на фактичні правила ШІ у всьому світі ще до вступу обов’язкового закону ЄС у дію.

США роблять ставку на інновації, а не на регулювання: У Вашингтоні підхід до ШІ залишається більш стимулювальним, ніж обмежувальним – принаймні наразі. Цього тижня Білий дім зібрав керівників технокомпаній, дослідників та законодавців на Саміт з технологій та інновацій, який приніс близько 90 мільярдів доларів нових галузевих зобов’язань щодо проєктів зі штучного інтелекту та виробництва напівпровідників у США ts2.tech. Десятки компаній — від Google до Intel і Blackstone — пообіцяли інвестувати мільярди у передові дата-центри, вітчизняні фабрики чипів та дослідницькі центри ШІ по всій Америці, укріплюючи технічну інфраструктуру у партнерстві з федеральними ініціативами ts2.tech. Послання від американських лідерів: замість того, щоб негайно встановлювати загальні закони щодо ШІ, вони підливають пального у вогонь інновацій, щоб зберегти перевагу над глобальними конкурентами, водночас аналізуючи вплив ШІ. Навіть Федеральна резервна система США звертає на це увагу. У промові 17 липня щодо технологій членка Ради керуючих Федрезерву Ліза Д. Кук назвала ШІ «потенційно наступною технологією загального призначення» – порівнюючи його трансформаційний потенціал із друкарським верстатом чи електрикою ts2.tech. Вона відзначила, що «понад пів мільярда користувачів» у світі вже щотижня взаємодіють з великими ШІ-моделями, і що за минулий рік поступ ШІ подвоїв ключові показники ts2.tech. Водночас Кук попередила й про «багатовимірні виклики». Хоча ШІ у довгостроковій перспективі може підвищити продуктивність (і навіть допомогти стримати інфляцію), його стрімке впровадження може спричинити короткострокові потрясіння — включаючи сплески інвестицій і витрат, які парадоксальним чином можуть підняти ціни до появи ефективності ts2.tech. Її виважена позиція — не перебільшувати ні утопію, ні катастрофу — відображає ширше консенсус у Вашингтоні: заохочувати розвиток ШІ обережно, уважно стежачи за впливом на робочі місця, рівень інфляції та нерівність після їх появи.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

Наукові та медичні прориви

Прискорення медичного аналізу: У сфері охорони здоров’я прориви в штучному інтелекті обіцяють швидші діагнози та безпечніші процедури. Дослідники з Університету Індіани та партнерських лікарень презентували систему штучного інтелекту “Інформатика раку”, яка здатна аналізувати оцифровані зразки патології, електронні медичні картки й навіть геномні дані для виявлення потенційних онкозахворювань і пропонування стадій пухлини. За словами головного дослідника Спирідона Бакаса, ця система скоротила деякі діагностичні процеси “з днів до секунд”, тріажуючи випадки з надлюдською швидкістю binaryverseai.com binaryverseai.com. Інструмент також виявив делікатні взаємозв’язки між мульти-модальними даними, які людина могла б пропустити, хоча команда наполягає: патологи залишаються незамінними для складних випадків і остаточних висновків binaryverseai.com. Проєкт ілюструє ширшу тенденцію до мультимодального медичного ШІ, що здатен аналізувати різні типи даних одночасно. Подібно до цього, радіологи повідомили про успіхи у використанні моделі ШІ під назвою mViT (модифікований vision transformer) для покращення дитячих КТ-сканувань binaryverseai.com binaryverseai.com. Фотонно-лічильні КТ-сканери дозволяють знижувати дозу рентгенівського випромінювання для дітей, але зазвичай дають шумні зображення; система mViT навчилася зменшувати шум сканів у реальному часі, роблячи артерії й тканини чіткішими без розмиття, яке виникало при старих методах зниження шуму binaryverseai.com binaryverseai.com. Під час тестування на 20 маленьких пацієнтах ШІ постійно перевершував традиційні фільтри, що потенційно відкриває шлях до чіткіших КТ із низькою дозою — перемога для безпеки дітей, коли КТ нового покоління отримують схвалення FDA binaryverseai.com.

Прориви в біології та матеріалознавстві: ШІ також сприяє базовій науці. Нове дослідження у Nature Communications описує, як тріада нейронних мереж тепер може встановлювати часову мітку розвитку ембріона з точністю до хвилини, що може змінити розвиток біології binaryverseai.com. Навчаючи згорткові нейромережі на зображеннях ембріонів плодових мух у високій роздільній здатності, система навчилася розпізнавати тонкі візуальні підказки циклів поділу клітин. Вона може визначати вік ембріона (з похибкою ±1 хвилина) без використання руйнівних флуоресцентних маркерів – досягаючи 98–100% точності на ембріонах ранніх стадій binaryverseai.com binaryverseai.com. Цей штучний “ембріональний годинник” дозволив команді зіставити сплески активації генів з небаченою часовою точністю, надаючи біологам потужний новий інструмент для вивчення формування органів. У матеріалознавстві дослідники з Великої Британії представили “CrystalGPT,” модель, навченої на 706 000 кристалічних структур для прогнозування властивостей матеріалів. Вивчаючи “мову” молекулярних кристалів (через пазли із замаскованими атомами та задачі на симетрію), CrystalGPT може передбачити густину, пористість чи стабільність нових сполук значно швидше, ніж прямі симуляції binaryverseai.com binaryverseai.com. Експерти відзначають її прозорість – ШІ навіть підсвічує, які саме атомні оточення найбільше вплинули на прогноз, – даючи хімікам упевненість замість “чорної скриньки” binaryverseai.com. Швидше моделювання кристалів може прискорити прогрес у створенні батарей, каталізаторів, напівпровідникових матеріалів, скорочуючи час і вартість науково-дослідних робіт.

ШІ для коду – із застереженнями: Не всі дослідження були оптимістичними; одне з них стало реалістичним поглядом на асистентів з програмування на основі ШІ. У контрольованому експерименті досвідчені розробники програмного забезпечення витратили на 19% більше часу на виконання завдання з допомогою ШІ-асистента, ніж контрольна група без ШІ ts2.tech. Досвідчені програмісти очікували, що ШІ (інструмент підказки коду) зробить їх швидшими, але він часто надавав лише “правильні у напрямку, але не зовсім такі, як потрібно” фрагменти коду ts2.tech. Час втрачався на перегляд і виправлення цих майже правильних підказок. Натомість попередні дослідження показали значне підвищення швидкості у менш досвідчених програмістів на простіших завданнях. “Це більше схоже на редагування есе, ніж на написання з нуля,” – сказав один із досвідчених розробників про працю з ШІ-асистентом – можливо, більш розслаблено, зате повільніше ts2.tech. Дослідники з METR дійшли висновку, що нинішні асистенти на основі ШІ не є чарівною паличкою для підвищення продуктивності експертів у складному програмуванні і що суттєве доопрацювання (і людський контроль) досі необхідні ts2.tech. Це нюансоване спостереження стримує поспішне впровадження генераторів коду на основі ШІ для всіх розробників.

Зазирнути всередину “мозку” ШІ: Консорціум провідних науковців зі сфери штучного інтелекту (з OpenAI, DeepMind, Anthropic та провідних університетів) опублікував примітну статтю із закликом до розробки нових технік для моніторингу “ланцюга роздумів” ШІ – по суті, прихованих кроків міркування, які моделі ШІ генерують всередині себе ts2.tech. Оскільки системи ШІ стають дедалі автономнішими (як агенти, що з’являються сьогодні), автори стверджують, що можливість перевіряти ці проміжні думки може стати критично важливою для безпеки ts2.tech. Спостерігаючи поетапне міркування ШІ, розробники можуть вчасно виявити помилки чи небезпечні відхилення до того, як ШІ почне діяти. Однак у статті попереджається, що зі зростанням складності моделей “немає гарантії, що нинішній рівень прозорості збережеться” – майбутні ШІ можуть приховати процеси мислення так, що їх буде важко відстежити ts2.tech. Команда закликала спільноту “максимально ефективно використовувати можливість моніторингу [ланцюга роздумів]” вже сьогодні і прагнути зберігати прозорість у майбутньому ts2.tech. Примітно, що під цим закликом до дії підписалися найвідоміші фахівці у сфері ШІ – серед них Джеффрі Хінтон, головний науковець OpenAI Ілля Суцкевер (та керівник напряму узгодження Ян Лейке), співзасновник DeepMind Шейн Легг та інші ts2.tech. Це рідкісний приклад єдності між конкурентними лабораторіями, що відображає спільну стурбованість: оскільки ШІ наближається до людського рівня міркування, ми не повинні дозволити йому перетворитись на незбагненну “чорну скриньку”. Дослідження “сканування мозку ШІ” – тобто читання його думок – можуть стати не менш важливими, ніж створення самого ШІ.

Держава та регулювання

ЄС впроваджує Закон про штучний інтелект: Брюссель підштовхнув регуляторні межі, зробивши конкретні кроки щодо реалізації свого знакового Закону про ШІ. 18 липня Європейська комісія оприлюднила детальні інструкції для “ШІ-моделей із системними ризиками” – тобто найбільш потужних універсальних ШІ-систем, які можуть впливати на громадську безпеку або основні права людини ts2.tech. Інструкції роз’яснюють жорсткі нові вимоги, із якими зіткнуться ці постачальники ШІ після набуття чинності Законом про ШІ 2 серпня. Згідно з правилами, великі розробники штучного інтелекту (Google, OpenAI, Meta, Anthropic, французька Mistral та інші) повинні проводити суворі оцінки ризиків, випробування з протидією вразливостям (adversarial testing) та повідомляти про серйозні інциденти чи збої регуляторам ЄС ts2.tech. Вони також повинні впроваджувати надійний кіберзахист, щоб запобігти зловмисному використанню своїх моделей ts2.tech. Прозорість – ключове: розробники базових моделей повинні документувати джерела навчальних даних, дотримуватися авторських прав і публікувати короткі звіти про зміст датасетів, використаних для навчання кожного ШІ ts2.tech. “Завдяки сьогоднішнім інструкціям Комісія сприяє плавному та ефективному застосуванню Закону про ШІ”, — сказала головна технологічна чиновниця ЄС Генна Вірккунен, підкресливши, що регулятори хочуть забезпечити чіткість для бізнесу, стримуючи потенційні ризики ts2.tech. У компаній є пільговий період до серпня 2026 року для повного виконання вимог ts2.tech. Після цього порушення можуть обійтися у величезні штрафи – до €35 млн або 7% світового обороту (що більше) ts2.tech. Нові інструкції з’явилися на тлі невдоволення окремих технологічних компаній тим, що європейські правила можуть бути надто обтяжливими, проте чиновники ЄС налаштовані довести, що вони можуть бути “глобальними наглядачами ШІ”, не душачи інновації.

Добровільний кодекс спричиняє суперечки: У тіні обов’язкового AI Act запропонований регуляторами ЄС добровільний «Кодекс практики ШІ» викликав трансатлантичну дискусію. Кодекс, розроблений експертами для заохочення раннього впровадження деяких принципів AI Act, закликає компанії, що займаються ШІ, проактивно дотримуватись певних заходів прозорості та безпеки вже зараз, до набуття чинності закону. Цього тижня серед американських технологічних гігантів виник розкол: Microsoft натякнула, що, ймовірно, приєднається, президент Бред Сміт заявив: «Я думаю, що ми, ймовірно, підпишемося… Наша мета — підтримувати» та привітав тісну співпрацю з AI-офісом ЄС reuters.com. У різкому контрасті Meta Platforms категорично відкинула цей добровільний кодекс. «Meta не підписуватиме його. Цей кодекс створює низку юридичних невизначеностей для розробників моделей, а також запроваджує заходи, що значно виходять за межі AI Act», — написав керівник з глобальних питань Meta Джоел Каплан 18 липня reuters.com. На його думку, рекомендації ЄС є надмірним регулюванням, яке може «загальмувати розвиток і впровадження передових моделей ШІ в Європі» і «поставити під загрозу європейські компанії», що працюють у сфері ШІ reuters.com. Позиція Meta збігається зі скаргами коаліції з 45 європейських технологічних компаній, що проєкт кодексу є надто обмежувальним. З іншого боку, OpenAI (розробник ChatGPT) та французька Mistral AI вже підписали кодекс, сигналізуючи, що деякі провідні гравці готові пристати на більшу прозорість і перевірки дотримання авторських прав у Європі ts2.tech. Такий розкол підкреслює зростання напруги: американські гіганти прагнуть уникати прецедентів, які могли б стати для них обов’язковими в усьому світі, тоді як європейські регулятори (і деякі стартапи) вже зараз вимагають більш високих стандартів. Те, як буде впроваджений цей добровільний кодекс, може вплинути на фактичні правила ШІ у всьому світі ще до вступу обов’язкового закону ЄС у дію.

США роблять ставку на інновації, а не на регулювання: У Вашингтоні підхід до ШІ залишається більш стимулювальним, ніж обмежувальним – принаймні наразі. Цього тижня Білий дім зібрав керівників технокомпаній, дослідників та законодавців на Саміт з технологій та інновацій, який приніс близько 90 мільярдів доларів нових галузевих зобов’язань щодо проєктів зі штучного інтелекту та виробництва напівпровідників у США ts2.tech. Десятки компаній — від Google до Intel і Blackstone — пообіцяли інвестувати мільярди у передові дата-центри, вітчизняні фабрики чипів та дослідницькі центри ШІ по всій Америці, укріплюючи технічну інфраструктуру у партнерстві з федеральними ініціативами ts2.tech. Послання від американських лідерів: замість того, щоб негайно встановлювати загальні закони щодо ШІ, вони підливають пального у вогонь інновацій, щоб зберегти перевагу над глобальними конкурентами, водночас аналізуючи вплив ШІ. Навіть Федеральна резервна система США звертає на це увагу. У промові 17 липня щодо технологій членка Ради керуючих Федрезерву Ліза Д. Кук назвала ШІ «потенційно наступною технологією загального призначення» – порівнюючи його трансформаційний потенціал із друкарським верстатом чи електрикою ts2.tech. Вона відзначила, що «понад пів мільярда користувачів» у світі вже щотижня взаємодіють з великими ШІ-моделями, і що за минулий рік поступ ШІ подвоїв ключові показники ts2.tech. Водночас Кук попередила й про «багатовимірні виклики». Хоча ШІ у довгостроковій перспективі може підвищити продуктивність (і навіть допомогти стримати інфляцію), його стрімке впровадження може спричинити короткострокові потрясіння — включаючи сплески інвестицій і витрат, які парадоксальним чином можуть підняти ціни до появи ефективності ts2.tech. Її виважена позиція — не перебільшувати ні утопію, ні катастрофу — відображає ширше консенсус у Вашингтоні: заохочувати розвиток ШІ обережно, уважно стежачи за впливом на робочі місця, рівень інфляції та нерівність після їх появи.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

Фінанси, бізнес та інвестиції в ШІ

ШІ, спеціально створений для фінансів: Фінансовий сектор став свідком активного впровадження ШІ як у продуктах, так і в прибутках. Стартап Anthropic запустив Claude for Financial Services — версію свого асистента Claude-4, спеціалізованого для аналітиків ринку та банкірів. Anthropic стверджує, що Claude-4 перевершує інші провідні моделі у фінансових завданнях згідно з галузевими бенчмарками anthropic.com. Платформа може підключатися до поточних ринкових даних (через партнерів, таких як Bloomberg, FactSet та ін.) і обробляти значні обсяги робіт: від моделювання ризиків до оформлення документів для відповідності. Перші користувачі повідомляють про суттєві переваги — наприклад, генеральний директор суверенного фонду багатства Норвегії на $1,4 трлн (NBIM) заявив, що Claude “фундаментально змінив” їхню роботу, забезпечивши орієнтовно 20% приросту продуктивності (близько 213 000 зекономлених робочих годин) завдяки тому, що персонал може безперешкодно працювати з даними й ефективніше аналізувати фінансові звіти anthropic.com. З його слів, Claude фактично став “незамінним” для аналітиків та менеджерів з ризиків цієї компанії anthropic.com. Великі банки й фонди також досліджують можливості асистентів ШІ для прискорення досліджень з повним аудит-трейлом і автоматизації рутинних завдань, які зазвичай гальмують роботу фінансових команд.

Уолл-стріт робить ставки на AI-стартапи: Інвестори продовжують вкладати гроші в штучний інтелект із вражаючими оцінками. Цього вікенду надійшла новина, що стартап Perplexity AI, відомий своїм чат-ботом для пошуку на основі ШІ, залучив ще $100 мільйонів фінансування – і підняв свою оцінку до приблизно $18 мільярдів theindependent.sg. (Для порівняння, ще два місяці тому Perplexity оцінювали приблизно у $14 мільярдів, а минулого року – лише у $1 мільярд, що відображає стрімке зростання генеративного ШІ theindependent.sg.) З’являються і нові фонди з фокусом на ШІ: наприклад, один із ранніх інвесторів Instacart запустив фонд “Verified Capital” зі $175 мільйонами, орієнтованими на AI-стартапи (анонсовано 20 липня). А у сфері хмарних обчислень традиційні компанії пристосовуються до епохи ШІ – іноді болісно. Amazon підтвердила, що скорочує кілька сотень працівників AWS (переважно в службі підтримки хмарних сервісів), після того як генеральний директор Енді Джессі попередив, що ефективність ШІ призведе до зменшення певних “проміжних” посад binaryverseai.com. Внутрішні електронні листи цього тижня вказують, що деякі спеціалізовані команди з міграції у хмару стали непотрібними – “перше видиме підтвердження в межах AWS” автоматизації під керуванням ШІ, як зазначив Reuters binaryverseai.com binaryverseai.com. Аналітики стверджують, що навіть підрозділи з великою маржею не захищені: “ШІ поглинає завдання, які він освоює, а потім компанії або перенаправляють, або звільняють людей,” – сухо зазначив один із них binaryverseai.com. Попри значні прибутки, хмарний гігант проводить оптимізацію, демонструючи, як зростання продуктивності від ШІ також може на практиці призводити до скорочення робочої сили.

Наукові та медичні прориви

Прискорення медичного аналізу: У сфері охорони здоров’я прориви в штучному інтелекті обіцяють швидші діагнози та безпечніші процедури. Дослідники з Університету Індіани та партнерських лікарень презентували систему штучного інтелекту “Інформатика раку”, яка здатна аналізувати оцифровані зразки патології, електронні медичні картки й навіть геномні дані для виявлення потенційних онкозахворювань і пропонування стадій пухлини. За словами головного дослідника Спирідона Бакаса, ця система скоротила деякі діагностичні процеси “з днів до секунд”, тріажуючи випадки з надлюдською швидкістю binaryverseai.com binaryverseai.com. Інструмент також виявив делікатні взаємозв’язки між мульти-модальними даними, які людина могла б пропустити, хоча команда наполягає: патологи залишаються незамінними для складних випадків і остаточних висновків binaryverseai.com. Проєкт ілюструє ширшу тенденцію до мультимодального медичного ШІ, що здатен аналізувати різні типи даних одночасно. Подібно до цього, радіологи повідомили про успіхи у використанні моделі ШІ під назвою mViT (модифікований vision transformer) для покращення дитячих КТ-сканувань binaryverseai.com binaryverseai.com. Фотонно-лічильні КТ-сканери дозволяють знижувати дозу рентгенівського випромінювання для дітей, але зазвичай дають шумні зображення; система mViT навчилася зменшувати шум сканів у реальному часі, роблячи артерії й тканини чіткішими без розмиття, яке виникало при старих методах зниження шуму binaryverseai.com binaryverseai.com. Під час тестування на 20 маленьких пацієнтах ШІ постійно перевершував традиційні фільтри, що потенційно відкриває шлях до чіткіших КТ із низькою дозою — перемога для безпеки дітей, коли КТ нового покоління отримують схвалення FDA binaryverseai.com.

Прориви в біології та матеріалознавстві: ШІ також сприяє базовій науці. Нове дослідження у Nature Communications описує, як тріада нейронних мереж тепер може встановлювати часову мітку розвитку ембріона з точністю до хвилини, що може змінити розвиток біології binaryverseai.com. Навчаючи згорткові нейромережі на зображеннях ембріонів плодових мух у високій роздільній здатності, система навчилася розпізнавати тонкі візуальні підказки циклів поділу клітин. Вона може визначати вік ембріона (з похибкою ±1 хвилина) без використання руйнівних флуоресцентних маркерів – досягаючи 98–100% точності на ембріонах ранніх стадій binaryverseai.com binaryverseai.com. Цей штучний “ембріональний годинник” дозволив команді зіставити сплески активації генів з небаченою часовою точністю, надаючи біологам потужний новий інструмент для вивчення формування органів. У матеріалознавстві дослідники з Великої Британії представили “CrystalGPT,” модель, навченої на 706 000 кристалічних структур для прогнозування властивостей матеріалів. Вивчаючи “мову” молекулярних кристалів (через пазли із замаскованими атомами та задачі на симетрію), CrystalGPT може передбачити густину, пористість чи стабільність нових сполук значно швидше, ніж прямі симуляції binaryverseai.com binaryverseai.com. Експерти відзначають її прозорість – ШІ навіть підсвічує, які саме атомні оточення найбільше вплинули на прогноз, – даючи хімікам упевненість замість “чорної скриньки” binaryverseai.com. Швидше моделювання кристалів може прискорити прогрес у створенні батарей, каталізаторів, напівпровідникових матеріалів, скорочуючи час і вартість науково-дослідних робіт.

ШІ для коду – із застереженнями: Не всі дослідження були оптимістичними; одне з них стало реалістичним поглядом на асистентів з програмування на основі ШІ. У контрольованому експерименті досвідчені розробники програмного забезпечення витратили на 19% більше часу на виконання завдання з допомогою ШІ-асистента, ніж контрольна група без ШІ ts2.tech. Досвідчені програмісти очікували, що ШІ (інструмент підказки коду) зробить їх швидшими, але він часто надавав лише “правильні у напрямку, але не зовсім такі, як потрібно” фрагменти коду ts2.tech. Час втрачався на перегляд і виправлення цих майже правильних підказок. Натомість попередні дослідження показали значне підвищення швидкості у менш досвідчених програмістів на простіших завданнях. “Це більше схоже на редагування есе, ніж на написання з нуля,” – сказав один із досвідчених розробників про працю з ШІ-асистентом – можливо, більш розслаблено, зате повільніше ts2.tech. Дослідники з METR дійшли висновку, що нинішні асистенти на основі ШІ не є чарівною паличкою для підвищення продуктивності експертів у складному програмуванні і що суттєве доопрацювання (і людський контроль) досі необхідні ts2.tech. Це нюансоване спостереження стримує поспішне впровадження генераторів коду на основі ШІ для всіх розробників.

Зазирнути всередину “мозку” ШІ: Консорціум провідних науковців зі сфери штучного інтелекту (з OpenAI, DeepMind, Anthropic та провідних університетів) опублікував примітну статтю із закликом до розробки нових технік для моніторингу “ланцюга роздумів” ШІ – по суті, прихованих кроків міркування, які моделі ШІ генерують всередині себе ts2.tech. Оскільки системи ШІ стають дедалі автономнішими (як агенти, що з’являються сьогодні), автори стверджують, що можливість перевіряти ці проміжні думки може стати критично важливою для безпеки ts2.tech. Спостерігаючи поетапне міркування ШІ, розробники можуть вчасно виявити помилки чи небезпечні відхилення до того, як ШІ почне діяти. Однак у статті попереджається, що зі зростанням складності моделей “немає гарантії, що нинішній рівень прозорості збережеться” – майбутні ШІ можуть приховати процеси мислення так, що їх буде важко відстежити ts2.tech. Команда закликала спільноту “максимально ефективно використовувати можливість моніторингу [ланцюга роздумів]” вже сьогодні і прагнути зберігати прозорість у майбутньому ts2.tech. Примітно, що під цим закликом до дії підписалися найвідоміші фахівці у сфері ШІ – серед них Джеффрі Хінтон, головний науковець OpenAI Ілля Суцкевер (та керівник напряму узгодження Ян Лейке), співзасновник DeepMind Шейн Легг та інші ts2.tech. Це рідкісний приклад єдності між конкурентними лабораторіями, що відображає спільну стурбованість: оскільки ШІ наближається до людського рівня міркування, ми не повинні дозволити йому перетворитись на незбагненну “чорну скриньку”. Дослідження “сканування мозку ШІ” – тобто читання його думок – можуть стати не менш важливими, ніж створення самого ШІ.

Держава та регулювання

ЄС впроваджує Закон про штучний інтелект: Брюссель підштовхнув регуляторні межі, зробивши конкретні кроки щодо реалізації свого знакового Закону про ШІ. 18 липня Європейська комісія оприлюднила детальні інструкції для “ШІ-моделей із системними ризиками” – тобто найбільш потужних універсальних ШІ-систем, які можуть впливати на громадську безпеку або основні права людини ts2.tech. Інструкції роз’яснюють жорсткі нові вимоги, із якими зіткнуться ці постачальники ШІ після набуття чинності Законом про ШІ 2 серпня. Згідно з правилами, великі розробники штучного інтелекту (Google, OpenAI, Meta, Anthropic, французька Mistral та інші) повинні проводити суворі оцінки ризиків, випробування з протидією вразливостям (adversarial testing) та повідомляти про серйозні інциденти чи збої регуляторам ЄС ts2.tech. Вони також повинні впроваджувати надійний кіберзахист, щоб запобігти зловмисному використанню своїх моделей ts2.tech. Прозорість – ключове: розробники базових моделей повинні документувати джерела навчальних даних, дотримуватися авторських прав і публікувати короткі звіти про зміст датасетів, використаних для навчання кожного ШІ ts2.tech. “Завдяки сьогоднішнім інструкціям Комісія сприяє плавному та ефективному застосуванню Закону про ШІ”, — сказала головна технологічна чиновниця ЄС Генна Вірккунен, підкресливши, що регулятори хочуть забезпечити чіткість для бізнесу, стримуючи потенційні ризики ts2.tech. У компаній є пільговий період до серпня 2026 року для повного виконання вимог ts2.tech. Після цього порушення можуть обійтися у величезні штрафи – до €35 млн або 7% світового обороту (що більше) ts2.tech. Нові інструкції з’явилися на тлі невдоволення окремих технологічних компаній тим, що європейські правила можуть бути надто обтяжливими, проте чиновники ЄС налаштовані довести, що вони можуть бути “глобальними наглядачами ШІ”, не душачи інновації.

Добровільний кодекс спричиняє суперечки: У тіні обов’язкового AI Act запропонований регуляторами ЄС добровільний «Кодекс практики ШІ» викликав трансатлантичну дискусію. Кодекс, розроблений експертами для заохочення раннього впровадження деяких принципів AI Act, закликає компанії, що займаються ШІ, проактивно дотримуватись певних заходів прозорості та безпеки вже зараз, до набуття чинності закону. Цього тижня серед американських технологічних гігантів виник розкол: Microsoft натякнула, що, ймовірно, приєднається, президент Бред Сміт заявив: «Я думаю, що ми, ймовірно, підпишемося… Наша мета — підтримувати» та привітав тісну співпрацю з AI-офісом ЄС reuters.com. У різкому контрасті Meta Platforms категорично відкинула цей добровільний кодекс. «Meta не підписуватиме його. Цей кодекс створює низку юридичних невизначеностей для розробників моделей, а також запроваджує заходи, що значно виходять за межі AI Act», — написав керівник з глобальних питань Meta Джоел Каплан 18 липня reuters.com. На його думку, рекомендації ЄС є надмірним регулюванням, яке може «загальмувати розвиток і впровадження передових моделей ШІ в Європі» і «поставити під загрозу європейські компанії», що працюють у сфері ШІ reuters.com. Позиція Meta збігається зі скаргами коаліції з 45 європейських технологічних компаній, що проєкт кодексу є надто обмежувальним. З іншого боку, OpenAI (розробник ChatGPT) та французька Mistral AI вже підписали кодекс, сигналізуючи, що деякі провідні гравці готові пристати на більшу прозорість і перевірки дотримання авторських прав у Європі ts2.tech. Такий розкол підкреслює зростання напруги: американські гіганти прагнуть уникати прецедентів, які могли б стати для них обов’язковими в усьому світі, тоді як європейські регулятори (і деякі стартапи) вже зараз вимагають більш високих стандартів. Те, як буде впроваджений цей добровільний кодекс, може вплинути на фактичні правила ШІ у всьому світі ще до вступу обов’язкового закону ЄС у дію.

США роблять ставку на інновації, а не на регулювання: У Вашингтоні підхід до ШІ залишається більш стимулювальним, ніж обмежувальним – принаймні наразі. Цього тижня Білий дім зібрав керівників технокомпаній, дослідників та законодавців на Саміт з технологій та інновацій, який приніс близько 90 мільярдів доларів нових галузевих зобов’язань щодо проєктів зі штучного інтелекту та виробництва напівпровідників у США ts2.tech. Десятки компаній — від Google до Intel і Blackstone — пообіцяли інвестувати мільярди у передові дата-центри, вітчизняні фабрики чипів та дослідницькі центри ШІ по всій Америці, укріплюючи технічну інфраструктуру у партнерстві з федеральними ініціативами ts2.tech. Послання від американських лідерів: замість того, щоб негайно встановлювати загальні закони щодо ШІ, вони підливають пального у вогонь інновацій, щоб зберегти перевагу над глобальними конкурентами, водночас аналізуючи вплив ШІ. Навіть Федеральна резервна система США звертає на це увагу. У промові 17 липня щодо технологій членка Ради керуючих Федрезерву Ліза Д. Кук назвала ШІ «потенційно наступною технологією загального призначення» – порівнюючи його трансформаційний потенціал із друкарським верстатом чи електрикою ts2.tech. Вона відзначила, що «понад пів мільярда користувачів» у світі вже щотижня взаємодіють з великими ШІ-моделями, і що за минулий рік поступ ШІ подвоїв ключові показники ts2.tech. Водночас Кук попередила й про «багатовимірні виклики». Хоча ШІ у довгостроковій перспективі може підвищити продуктивність (і навіть допомогти стримати інфляцію), його стрімке впровадження може спричинити короткострокові потрясіння — включаючи сплески інвестицій і витрат, які парадоксальним чином можуть підняти ціни до появи ефективності ts2.tech. Її виважена позиція — не перебільшувати ні утопію, ні катастрофу — відображає ширше консенсус у Вашингтоні: заохочувати розвиток ШІ обережно, уважно стежачи за впливом на робочі місця, рівень інфляції та нерівність після їх появи.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

ШІ в медіа, розвагах і креативних індустріях

Netflix використовує ШІ для VFX: У Голлівуді відбулася визначна подія: Netflix повідомив у своєму звіті про прибутки, що почав використовувати генеративний ШІ у виробництві контенту, включаючи перші в історії кадри, створені ШІ, у шоу Netflix ts2.tech. В аргентинському науково-фантастичному серіалі «Ель Етернаута» цілу сцену обвалення будівлі було створено за допомогою ШІ — це зайняло у 10 разів менше часу та коштувало дешевше, ніж традиційні візуальні ефекти techcrunch.com. Спів-генеральний директор Тед Сарандос підкреслив, що ШІ використовується для підсилення творців, а не для їхньої заміни, заявивши: «ШІ відкриває неймовірні можливості допомогти творцям робити фільми та серіали кращими, а не просто дешевшими… це справжні люди, які виконують справжню роботу з кращими інструментами.» techcrunch.com Він зазначив, що художники Netflix вже відчувають переваги у препродакшн-візуалізації та плануванні кадрів. Netflix також використовує генеративний ШІ не лише для VFX – компанія застосовує його для персоналізованого відкриття контенту і вже готується запустити інтерактивну рекламу на базі ШІ до кінця цього року techcrunch.com.

Генеративна мода та відео-чари: Творчий підхід ШІ поширився й на моду та відео. Дослідники з Південної Кореї експериментували з «генеративним кутюром», використовуючи ChatGPT для прогнозування майбутніх модних трендів і DALL·E 3 для створення понад 100 віртуальних образів для колекції осінь/зима binaryverseai.com binaryverseai.com. Близько двох третин дизайнів, створених ШІ, відповідали реальним стилям, що натякає на здатність генеративних моделей виявляти тренди раніше, ніж це зроблять дизайнери. (ШІ зазнав труднощів із абстрактними поняттями, такими як гендерно-нейтральний дизайн, що підкреслює: людські дизайнери все ще тримають креативний компас binaryverseai.com.) У сфері технологій для кіновиробництва NVIDIA разом із партнерами з університетів презентували DiffusionRenderer — дворівневу систему ШІ, яка поєднує інверсний і прямий рендеринг, роблячи сучасні відеоефекти доступними для незалежних творців binaryverseai.com binaryverseai.com. В одному з демонстраційних відео користувач міг зняти простий кадр і додати CGI-дракона, тінь від якого виглядає реалістично без складних сенсорів чи ручного налаштування світла – ШІ самостійно вивчив геометрію та освітлення сцени за відео binaryverseai.com binaryverseai.com. У підсумку це звужує прірву між великими студіями і маленькими творцями, натякаючи на майбутнє з «майже магічним» відеомонтажем для всіх.

Фінанси, бізнес та інвестиції в ШІ

ШІ, спеціально створений для фінансів: Фінансовий сектор став свідком активного впровадження ШІ як у продуктах, так і в прибутках. Стартап Anthropic запустив Claude for Financial Services — версію свого асистента Claude-4, спеціалізованого для аналітиків ринку та банкірів. Anthropic стверджує, що Claude-4 перевершує інші провідні моделі у фінансових завданнях згідно з галузевими бенчмарками anthropic.com. Платформа може підключатися до поточних ринкових даних (через партнерів, таких як Bloomberg, FactSet та ін.) і обробляти значні обсяги робіт: від моделювання ризиків до оформлення документів для відповідності. Перші користувачі повідомляють про суттєві переваги — наприклад, генеральний директор суверенного фонду багатства Норвегії на $1,4 трлн (NBIM) заявив, що Claude “фундаментально змінив” їхню роботу, забезпечивши орієнтовно 20% приросту продуктивності (близько 213 000 зекономлених робочих годин) завдяки тому, що персонал може безперешкодно працювати з даними й ефективніше аналізувати фінансові звіти anthropic.com. З його слів, Claude фактично став “незамінним” для аналітиків та менеджерів з ризиків цієї компанії anthropic.com. Великі банки й фонди також досліджують можливості асистентів ШІ для прискорення досліджень з повним аудит-трейлом і автоматизації рутинних завдань, які зазвичай гальмують роботу фінансових команд.

Уолл-стріт робить ставки на AI-стартапи: Інвестори продовжують вкладати гроші в штучний інтелект із вражаючими оцінками. Цього вікенду надійшла новина, що стартап Perplexity AI, відомий своїм чат-ботом для пошуку на основі ШІ, залучив ще $100 мільйонів фінансування – і підняв свою оцінку до приблизно $18 мільярдів theindependent.sg. (Для порівняння, ще два місяці тому Perplexity оцінювали приблизно у $14 мільярдів, а минулого року – лише у $1 мільярд, що відображає стрімке зростання генеративного ШІ theindependent.sg.) З’являються і нові фонди з фокусом на ШІ: наприклад, один із ранніх інвесторів Instacart запустив фонд “Verified Capital” зі $175 мільйонами, орієнтованими на AI-стартапи (анонсовано 20 липня). А у сфері хмарних обчислень традиційні компанії пристосовуються до епохи ШІ – іноді болісно. Amazon підтвердила, що скорочує кілька сотень працівників AWS (переважно в службі підтримки хмарних сервісів), після того як генеральний директор Енді Джессі попередив, що ефективність ШІ призведе до зменшення певних “проміжних” посад binaryverseai.com. Внутрішні електронні листи цього тижня вказують, що деякі спеціалізовані команди з міграції у хмару стали непотрібними – “перше видиме підтвердження в межах AWS” автоматизації під керуванням ШІ, як зазначив Reuters binaryverseai.com binaryverseai.com. Аналітики стверджують, що навіть підрозділи з великою маржею не захищені: “ШІ поглинає завдання, які він освоює, а потім компанії або перенаправляють, або звільняють людей,” – сухо зазначив один із них binaryverseai.com. Попри значні прибутки, хмарний гігант проводить оптимізацію, демонструючи, як зростання продуктивності від ШІ також може на практиці призводити до скорочення робочої сили.

Наукові та медичні прориви

Прискорення медичного аналізу: У сфері охорони здоров’я прориви в штучному інтелекті обіцяють швидші діагнози та безпечніші процедури. Дослідники з Університету Індіани та партнерських лікарень презентували систему штучного інтелекту “Інформатика раку”, яка здатна аналізувати оцифровані зразки патології, електронні медичні картки й навіть геномні дані для виявлення потенційних онкозахворювань і пропонування стадій пухлини. За словами головного дослідника Спирідона Бакаса, ця система скоротила деякі діагностичні процеси “з днів до секунд”, тріажуючи випадки з надлюдською швидкістю binaryverseai.com binaryverseai.com. Інструмент також виявив делікатні взаємозв’язки між мульти-модальними даними, які людина могла б пропустити, хоча команда наполягає: патологи залишаються незамінними для складних випадків і остаточних висновків binaryverseai.com. Проєкт ілюструє ширшу тенденцію до мультимодального медичного ШІ, що здатен аналізувати різні типи даних одночасно. Подібно до цього, радіологи повідомили про успіхи у використанні моделі ШІ під назвою mViT (модифікований vision transformer) для покращення дитячих КТ-сканувань binaryverseai.com binaryverseai.com. Фотонно-лічильні КТ-сканери дозволяють знижувати дозу рентгенівського випромінювання для дітей, але зазвичай дають шумні зображення; система mViT навчилася зменшувати шум сканів у реальному часі, роблячи артерії й тканини чіткішими без розмиття, яке виникало при старих методах зниження шуму binaryverseai.com binaryverseai.com. Під час тестування на 20 маленьких пацієнтах ШІ постійно перевершував традиційні фільтри, що потенційно відкриває шлях до чіткіших КТ із низькою дозою — перемога для безпеки дітей, коли КТ нового покоління отримують схвалення FDA binaryverseai.com.

Прориви в біології та матеріалознавстві: ШІ також сприяє базовій науці. Нове дослідження у Nature Communications описує, як тріада нейронних мереж тепер може встановлювати часову мітку розвитку ембріона з точністю до хвилини, що може змінити розвиток біології binaryverseai.com. Навчаючи згорткові нейромережі на зображеннях ембріонів плодових мух у високій роздільній здатності, система навчилася розпізнавати тонкі візуальні підказки циклів поділу клітин. Вона може визначати вік ембріона (з похибкою ±1 хвилина) без використання руйнівних флуоресцентних маркерів – досягаючи 98–100% точності на ембріонах ранніх стадій binaryverseai.com binaryverseai.com. Цей штучний “ембріональний годинник” дозволив команді зіставити сплески активації генів з небаченою часовою точністю, надаючи біологам потужний новий інструмент для вивчення формування органів. У матеріалознавстві дослідники з Великої Британії представили “CrystalGPT,” модель, навченої на 706 000 кристалічних структур для прогнозування властивостей матеріалів. Вивчаючи “мову” молекулярних кристалів (через пазли із замаскованими атомами та задачі на симетрію), CrystalGPT може передбачити густину, пористість чи стабільність нових сполук значно швидше, ніж прямі симуляції binaryverseai.com binaryverseai.com. Експерти відзначають її прозорість – ШІ навіть підсвічує, які саме атомні оточення найбільше вплинули на прогноз, – даючи хімікам упевненість замість “чорної скриньки” binaryverseai.com. Швидше моделювання кристалів може прискорити прогрес у створенні батарей, каталізаторів, напівпровідникових матеріалів, скорочуючи час і вартість науково-дослідних робіт.

ШІ для коду – із застереженнями: Не всі дослідження були оптимістичними; одне з них стало реалістичним поглядом на асистентів з програмування на основі ШІ. У контрольованому експерименті досвідчені розробники програмного забезпечення витратили на 19% більше часу на виконання завдання з допомогою ШІ-асистента, ніж контрольна група без ШІ ts2.tech. Досвідчені програмісти очікували, що ШІ (інструмент підказки коду) зробить їх швидшими, але він часто надавав лише “правильні у напрямку, але не зовсім такі, як потрібно” фрагменти коду ts2.tech. Час втрачався на перегляд і виправлення цих майже правильних підказок. Натомість попередні дослідження показали значне підвищення швидкості у менш досвідчених програмістів на простіших завданнях. “Це більше схоже на редагування есе, ніж на написання з нуля,” – сказав один із досвідчених розробників про працю з ШІ-асистентом – можливо, більш розслаблено, зате повільніше ts2.tech. Дослідники з METR дійшли висновку, що нинішні асистенти на основі ШІ не є чарівною паличкою для підвищення продуктивності експертів у складному програмуванні і що суттєве доопрацювання (і людський контроль) досі необхідні ts2.tech. Це нюансоване спостереження стримує поспішне впровадження генераторів коду на основі ШІ для всіх розробників.

Зазирнути всередину “мозку” ШІ: Консорціум провідних науковців зі сфери штучного інтелекту (з OpenAI, DeepMind, Anthropic та провідних університетів) опублікував примітну статтю із закликом до розробки нових технік для моніторингу “ланцюга роздумів” ШІ – по суті, прихованих кроків міркування, які моделі ШІ генерують всередині себе ts2.tech. Оскільки системи ШІ стають дедалі автономнішими (як агенти, що з’являються сьогодні), автори стверджують, що можливість перевіряти ці проміжні думки може стати критично важливою для безпеки ts2.tech. Спостерігаючи поетапне міркування ШІ, розробники можуть вчасно виявити помилки чи небезпечні відхилення до того, як ШІ почне діяти. Однак у статті попереджається, що зі зростанням складності моделей “немає гарантії, що нинішній рівень прозорості збережеться” – майбутні ШІ можуть приховати процеси мислення так, що їх буде важко відстежити ts2.tech. Команда закликала спільноту “максимально ефективно використовувати можливість моніторингу [ланцюга роздумів]” вже сьогодні і прагнути зберігати прозорість у майбутньому ts2.tech. Примітно, що під цим закликом до дії підписалися найвідоміші фахівці у сфері ШІ – серед них Джеффрі Хінтон, головний науковець OpenAI Ілля Суцкевер (та керівник напряму узгодження Ян Лейке), співзасновник DeepMind Шейн Легг та інші ts2.tech. Це рідкісний приклад єдності між конкурентними лабораторіями, що відображає спільну стурбованість: оскільки ШІ наближається до людського рівня міркування, ми не повинні дозволити йому перетворитись на незбагненну “чорну скриньку”. Дослідження “сканування мозку ШІ” – тобто читання його думок – можуть стати не менш важливими, ніж створення самого ШІ.

Держава та регулювання

ЄС впроваджує Закон про штучний інтелект: Брюссель підштовхнув регуляторні межі, зробивши конкретні кроки щодо реалізації свого знакового Закону про ШІ. 18 липня Європейська комісія оприлюднила детальні інструкції для “ШІ-моделей із системними ризиками” – тобто найбільш потужних універсальних ШІ-систем, які можуть впливати на громадську безпеку або основні права людини ts2.tech. Інструкції роз’яснюють жорсткі нові вимоги, із якими зіткнуться ці постачальники ШІ після набуття чинності Законом про ШІ 2 серпня. Згідно з правилами, великі розробники штучного інтелекту (Google, OpenAI, Meta, Anthropic, французька Mistral та інші) повинні проводити суворі оцінки ризиків, випробування з протидією вразливостям (adversarial testing) та повідомляти про серйозні інциденти чи збої регуляторам ЄС ts2.tech. Вони також повинні впроваджувати надійний кіберзахист, щоб запобігти зловмисному використанню своїх моделей ts2.tech. Прозорість – ключове: розробники базових моделей повинні документувати джерела навчальних даних, дотримуватися авторських прав і публікувати короткі звіти про зміст датасетів, використаних для навчання кожного ШІ ts2.tech. “Завдяки сьогоднішнім інструкціям Комісія сприяє плавному та ефективному застосуванню Закону про ШІ”, — сказала головна технологічна чиновниця ЄС Генна Вірккунен, підкресливши, що регулятори хочуть забезпечити чіткість для бізнесу, стримуючи потенційні ризики ts2.tech. У компаній є пільговий період до серпня 2026 року для повного виконання вимог ts2.tech. Після цього порушення можуть обійтися у величезні штрафи – до €35 млн або 7% світового обороту (що більше) ts2.tech. Нові інструкції з’явилися на тлі невдоволення окремих технологічних компаній тим, що європейські правила можуть бути надто обтяжливими, проте чиновники ЄС налаштовані довести, що вони можуть бути “глобальними наглядачами ШІ”, не душачи інновації.

Добровільний кодекс спричиняє суперечки: У тіні обов’язкового AI Act запропонований регуляторами ЄС добровільний «Кодекс практики ШІ» викликав трансатлантичну дискусію. Кодекс, розроблений експертами для заохочення раннього впровадження деяких принципів AI Act, закликає компанії, що займаються ШІ, проактивно дотримуватись певних заходів прозорості та безпеки вже зараз, до набуття чинності закону. Цього тижня серед американських технологічних гігантів виник розкол: Microsoft натякнула, що, ймовірно, приєднається, президент Бред Сміт заявив: «Я думаю, що ми, ймовірно, підпишемося… Наша мета — підтримувати» та привітав тісну співпрацю з AI-офісом ЄС reuters.com. У різкому контрасті Meta Platforms категорично відкинула цей добровільний кодекс. «Meta не підписуватиме його. Цей кодекс створює низку юридичних невизначеностей для розробників моделей, а також запроваджує заходи, що значно виходять за межі AI Act», — написав керівник з глобальних питань Meta Джоел Каплан 18 липня reuters.com. На його думку, рекомендації ЄС є надмірним регулюванням, яке може «загальмувати розвиток і впровадження передових моделей ШІ в Європі» і «поставити під загрозу європейські компанії», що працюють у сфері ШІ reuters.com. Позиція Meta збігається зі скаргами коаліції з 45 європейських технологічних компаній, що проєкт кодексу є надто обмежувальним. З іншого боку, OpenAI (розробник ChatGPT) та французька Mistral AI вже підписали кодекс, сигналізуючи, що деякі провідні гравці готові пристати на більшу прозорість і перевірки дотримання авторських прав у Європі ts2.tech. Такий розкол підкреслює зростання напруги: американські гіганти прагнуть уникати прецедентів, які могли б стати для них обов’язковими в усьому світі, тоді як європейські регулятори (і деякі стартапи) вже зараз вимагають більш високих стандартів. Те, як буде впроваджений цей добровільний кодекс, може вплинути на фактичні правила ШІ у всьому світі ще до вступу обов’язкового закону ЄС у дію.

США роблять ставку на інновації, а не на регулювання: У Вашингтоні підхід до ШІ залишається більш стимулювальним, ніж обмежувальним – принаймні наразі. Цього тижня Білий дім зібрав керівників технокомпаній, дослідників та законодавців на Саміт з технологій та інновацій, який приніс близько 90 мільярдів доларів нових галузевих зобов’язань щодо проєктів зі штучного інтелекту та виробництва напівпровідників у США ts2.tech. Десятки компаній — від Google до Intel і Blackstone — пообіцяли інвестувати мільярди у передові дата-центри, вітчизняні фабрики чипів та дослідницькі центри ШІ по всій Америці, укріплюючи технічну інфраструктуру у партнерстві з федеральними ініціативами ts2.tech. Послання від американських лідерів: замість того, щоб негайно встановлювати загальні закони щодо ШІ, вони підливають пального у вогонь інновацій, щоб зберегти перевагу над глобальними конкурентами, водночас аналізуючи вплив ШІ. Навіть Федеральна резервна система США звертає на це увагу. У промові 17 липня щодо технологій членка Ради керуючих Федрезерву Ліза Д. Кук назвала ШІ «потенційно наступною технологією загального призначення» – порівнюючи його трансформаційний потенціал із друкарським верстатом чи електрикою ts2.tech. Вона відзначила, що «понад пів мільярда користувачів» у світі вже щотижня взаємодіють з великими ШІ-моделями, і що за минулий рік поступ ШІ подвоїв ключові показники ts2.tech. Водночас Кук попередила й про «багатовимірні виклики». Хоча ШІ у довгостроковій перспективі може підвищити продуктивність (і навіть допомогти стримати інфляцію), його стрімке впровадження може спричинити короткострокові потрясіння — включаючи сплески інвестицій і витрат, які парадоксальним чином можуть підняти ціни до появи ефективності ts2.tech. Її виважена позиція — не перебільшувати ні утопію, ні катастрофу — відображає ширше консенсус у Вашингтоні: заохочувати розвиток ШІ обережно, уважно стежачи за впливом на робочі місця, рівень інфляції та нерівність після їх появи.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

Держава та регулювання

ЄС впроваджує Закон про штучний інтелект: Брюссель підштовхнув регуляторні межі, зробивши конкретні кроки щодо реалізації свого знакового Закону про ШІ. 18 липня Європейська комісія оприлюднила детальні інструкції для “ШІ-моделей із системними ризиками” – тобто найбільш потужних універсальних ШІ-систем, які можуть впливати на громадську безпеку або основні права людини ts2.tech. Інструкції роз’яснюють жорсткі нові вимоги, із якими зіткнуться ці постачальники ШІ після набуття чинності Законом про ШІ 2 серпня. Згідно з правилами, великі розробники штучного інтелекту (Google, OpenAI, Meta, Anthropic, французька Mistral та інші) повинні проводити суворі оцінки ризиків, випробування з протидією вразливостям (adversarial testing) та повідомляти про серйозні інциденти чи збої регуляторам ЄС ts2.tech. Вони також повинні впроваджувати надійний кіберзахист, щоб запобігти зловмисному використанню своїх моделей ts2.tech. Прозорість – ключове: розробники базових моделей повинні документувати джерела навчальних даних, дотримуватися авторських прав і публікувати короткі звіти про зміст датасетів, використаних для навчання кожного ШІ ts2.tech. “Завдяки сьогоднішнім інструкціям Комісія сприяє плавному та ефективному застосуванню Закону про ШІ”, — сказала головна технологічна чиновниця ЄС Генна Вірккунен, підкресливши, що регулятори хочуть забезпечити чіткість для бізнесу, стримуючи потенційні ризики ts2.tech. У компаній є пільговий період до серпня 2026 року для повного виконання вимог ts2.tech. Після цього порушення можуть обійтися у величезні штрафи – до €35 млн або 7% світового обороту (що більше) ts2.tech. Нові інструкції з’явилися на тлі невдоволення окремих технологічних компаній тим, що європейські правила можуть бути надто обтяжливими, проте чиновники ЄС налаштовані довести, що вони можуть бути “глобальними наглядачами ШІ”, не душачи інновації.

Добровільний кодекс спричиняє суперечки: У тіні обов’язкового AI Act запропонований регуляторами ЄС добровільний «Кодекс практики ШІ» викликав трансатлантичну дискусію. Кодекс, розроблений експертами для заохочення раннього впровадження деяких принципів AI Act, закликає компанії, що займаються ШІ, проактивно дотримуватись певних заходів прозорості та безпеки вже зараз, до набуття чинності закону. Цього тижня серед американських технологічних гігантів виник розкол: Microsoft натякнула, що, ймовірно, приєднається, президент Бред Сміт заявив: «Я думаю, що ми, ймовірно, підпишемося… Наша мета — підтримувати» та привітав тісну співпрацю з AI-офісом ЄС reuters.com. У різкому контрасті Meta Platforms категорично відкинула цей добровільний кодекс. «Meta не підписуватиме його. Цей кодекс створює низку юридичних невизначеностей для розробників моделей, а також запроваджує заходи, що значно виходять за межі AI Act», — написав керівник з глобальних питань Meta Джоел Каплан 18 липня reuters.com. На його думку, рекомендації ЄС є надмірним регулюванням, яке може «загальмувати розвиток і впровадження передових моделей ШІ в Європі» і «поставити під загрозу європейські компанії», що працюють у сфері ШІ reuters.com. Позиція Meta збігається зі скаргами коаліції з 45 європейських технологічних компаній, що проєкт кодексу є надто обмежувальним. З іншого боку, OpenAI (розробник ChatGPT) та французька Mistral AI вже підписали кодекс, сигналізуючи, що деякі провідні гравці готові пристати на більшу прозорість і перевірки дотримання авторських прав у Європі ts2.tech. Такий розкол підкреслює зростання напруги: американські гіганти прагнуть уникати прецедентів, які могли б стати для них обов’язковими в усьому світі, тоді як європейські регулятори (і деякі стартапи) вже зараз вимагають більш високих стандартів. Те, як буде впроваджений цей добровільний кодекс, може вплинути на фактичні правила ШІ у всьому світі ще до вступу обов’язкового закону ЄС у дію.

США роблять ставку на інновації, а не на регулювання: У Вашингтоні підхід до ШІ залишається більш стимулювальним, ніж обмежувальним – принаймні наразі. Цього тижня Білий дім зібрав керівників технокомпаній, дослідників та законодавців на Саміт з технологій та інновацій, який приніс близько 90 мільярдів доларів нових галузевих зобов’язань щодо проєктів зі штучного інтелекту та виробництва напівпровідників у США ts2.tech. Десятки компаній — від Google до Intel і Blackstone — пообіцяли інвестувати мільярди у передові дата-центри, вітчизняні фабрики чипів та дослідницькі центри ШІ по всій Америці, укріплюючи технічну інфраструктуру у партнерстві з федеральними ініціативами ts2.tech. Послання від американських лідерів: замість того, щоб негайно встановлювати загальні закони щодо ШІ, вони підливають пального у вогонь інновацій, щоб зберегти перевагу над глобальними конкурентами, водночас аналізуючи вплив ШІ. Навіть Федеральна резервна система США звертає на це увагу. У промові 17 липня щодо технологій членка Ради керуючих Федрезерву Ліза Д. Кук назвала ШІ «потенційно наступною технологією загального призначення» – порівнюючи його трансформаційний потенціал із друкарським верстатом чи електрикою ts2.tech. Вона відзначила, що «понад пів мільярда користувачів» у світі вже щотижня взаємодіють з великими ШІ-моделями, і що за минулий рік поступ ШІ подвоїв ключові показники ts2.tech. Водночас Кук попередила й про «багатовимірні виклики». Хоча ШІ у довгостроковій перспективі може підвищити продуктивність (і навіть допомогти стримати інфляцію), його стрімке впровадження може спричинити короткострокові потрясіння — включаючи сплески інвестицій і витрат, які парадоксальним чином можуть підняти ціни до появи ефективності ts2.tech. Її виважена позиція — не перебільшувати ні утопію, ні катастрофу — відображає ширше консенсус у Вашингтоні: заохочувати розвиток ШІ обережно, уважно стежачи за впливом на робочі місця, рівень інфляції та нерівність після їх появи.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

Наукові та медичні прориви

Прискорення медичного аналізу: У сфері охорони здоров’я прориви в штучному інтелекті обіцяють швидші діагнози та безпечніші процедури. Дослідники з Університету Індіани та партнерських лікарень презентували систему штучного інтелекту “Інформатика раку”, яка здатна аналізувати оцифровані зразки патології, електронні медичні картки й навіть геномні дані для виявлення потенційних онкозахворювань і пропонування стадій пухлини. За словами головного дослідника Спирідона Бакаса, ця система скоротила деякі діагностичні процеси “з днів до секунд”, тріажуючи випадки з надлюдською швидкістю binaryverseai.com binaryverseai.com. Інструмент також виявив делікатні взаємозв’язки між мульти-модальними даними, які людина могла б пропустити, хоча команда наполягає: патологи залишаються незамінними для складних випадків і остаточних висновків binaryverseai.com. Проєкт ілюструє ширшу тенденцію до мультимодального медичного ШІ, що здатен аналізувати різні типи даних одночасно. Подібно до цього, радіологи повідомили про успіхи у використанні моделі ШІ під назвою mViT (модифікований vision transformer) для покращення дитячих КТ-сканувань binaryverseai.com binaryverseai.com. Фотонно-лічильні КТ-сканери дозволяють знижувати дозу рентгенівського випромінювання для дітей, але зазвичай дають шумні зображення; система mViT навчилася зменшувати шум сканів у реальному часі, роблячи артерії й тканини чіткішими без розмиття, яке виникало при старих методах зниження шуму binaryverseai.com binaryverseai.com. Під час тестування на 20 маленьких пацієнтах ШІ постійно перевершував традиційні фільтри, що потенційно відкриває шлях до чіткіших КТ із низькою дозою — перемога для безпеки дітей, коли КТ нового покоління отримують схвалення FDA binaryverseai.com.

Прориви в біології та матеріалознавстві: ШІ також сприяє базовій науці. Нове дослідження у Nature Communications описує, як тріада нейронних мереж тепер може встановлювати часову мітку розвитку ембріона з точністю до хвилини, що може змінити розвиток біології binaryverseai.com. Навчаючи згорткові нейромережі на зображеннях ембріонів плодових мух у високій роздільній здатності, система навчилася розпізнавати тонкі візуальні підказки циклів поділу клітин. Вона може визначати вік ембріона (з похибкою ±1 хвилина) без використання руйнівних флуоресцентних маркерів – досягаючи 98–100% точності на ембріонах ранніх стадій binaryverseai.com binaryverseai.com. Цей штучний “ембріональний годинник” дозволив команді зіставити сплески активації генів з небаченою часовою точністю, надаючи біологам потужний новий інструмент для вивчення формування органів. У матеріалознавстві дослідники з Великої Британії представили “CrystalGPT,” модель, навченої на 706 000 кристалічних структур для прогнозування властивостей матеріалів. Вивчаючи “мову” молекулярних кристалів (через пазли із замаскованими атомами та задачі на симетрію), CrystalGPT може передбачити густину, пористість чи стабільність нових сполук значно швидше, ніж прямі симуляції binaryverseai.com binaryverseai.com. Експерти відзначають її прозорість – ШІ навіть підсвічує, які саме атомні оточення найбільше вплинули на прогноз, – даючи хімікам упевненість замість “чорної скриньки” binaryverseai.com. Швидше моделювання кристалів може прискорити прогрес у створенні батарей, каталізаторів, напівпровідникових матеріалів, скорочуючи час і вартість науково-дослідних робіт.

ШІ для коду – із застереженнями: Не всі дослідження були оптимістичними; одне з них стало реалістичним поглядом на асистентів з програмування на основі ШІ. У контрольованому експерименті досвідчені розробники програмного забезпечення витратили на 19% більше часу на виконання завдання з допомогою ШІ-асистента, ніж контрольна група без ШІ ts2.tech. Досвідчені програмісти очікували, що ШІ (інструмент підказки коду) зробить їх швидшими, але він часто надавав лише “правильні у напрямку, але не зовсім такі, як потрібно” фрагменти коду ts2.tech. Час втрачався на перегляд і виправлення цих майже правильних підказок. Натомість попередні дослідження показали значне підвищення швидкості у менш досвідчених програмістів на простіших завданнях. “Це більше схоже на редагування есе, ніж на написання з нуля,” – сказав один із досвідчених розробників про працю з ШІ-асистентом – можливо, більш розслаблено, зате повільніше ts2.tech. Дослідники з METR дійшли висновку, що нинішні асистенти на основі ШІ не є чарівною паличкою для підвищення продуктивності експертів у складному програмуванні і що суттєве доопрацювання (і людський контроль) досі необхідні ts2.tech. Це нюансоване спостереження стримує поспішне впровадження генераторів коду на основі ШІ для всіх розробників.

Зазирнути всередину “мозку” ШІ: Консорціум провідних науковців зі сфери штучного інтелекту (з OpenAI, DeepMind, Anthropic та провідних університетів) опублікував примітну статтю із закликом до розробки нових технік для моніторингу “ланцюга роздумів” ШІ – по суті, прихованих кроків міркування, які моделі ШІ генерують всередині себе ts2.tech. Оскільки системи ШІ стають дедалі автономнішими (як агенти, що з’являються сьогодні), автори стверджують, що можливість перевіряти ці проміжні думки може стати критично важливою для безпеки ts2.tech. Спостерігаючи поетапне міркування ШІ, розробники можуть вчасно виявити помилки чи небезпечні відхилення до того, як ШІ почне діяти. Однак у статті попереджається, що зі зростанням складності моделей “немає гарантії, що нинішній рівень прозорості збережеться” – майбутні ШІ можуть приховати процеси мислення так, що їх буде важко відстежити ts2.tech. Команда закликала спільноту “максимально ефективно використовувати можливість моніторингу [ланцюга роздумів]” вже сьогодні і прагнути зберігати прозорість у майбутньому ts2.tech. Примітно, що під цим закликом до дії підписалися найвідоміші фахівці у сфері ШІ – серед них Джеффрі Хінтон, головний науковець OpenAI Ілля Суцкевер (та керівник напряму узгодження Ян Лейке), співзасновник DeepMind Шейн Легг та інші ts2.tech. Це рідкісний приклад єдності між конкурентними лабораторіями, що відображає спільну стурбованість: оскільки ШІ наближається до людського рівня міркування, ми не повинні дозволити йому перетворитись на незбагненну “чорну скриньку”. Дослідження “сканування мозку ШІ” – тобто читання його думок – можуть стати не менш важливими, ніж створення самого ШІ.

Держава та регулювання

ЄС впроваджує Закон про штучний інтелект: Брюссель підштовхнув регуляторні межі, зробивши конкретні кроки щодо реалізації свого знакового Закону про ШІ. 18 липня Європейська комісія оприлюднила детальні інструкції для “ШІ-моделей із системними ризиками” – тобто найбільш потужних універсальних ШІ-систем, які можуть впливати на громадську безпеку або основні права людини ts2.tech. Інструкції роз’яснюють жорсткі нові вимоги, із якими зіткнуться ці постачальники ШІ після набуття чинності Законом про ШІ 2 серпня. Згідно з правилами, великі розробники штучного інтелекту (Google, OpenAI, Meta, Anthropic, французька Mistral та інші) повинні проводити суворі оцінки ризиків, випробування з протидією вразливостям (adversarial testing) та повідомляти про серйозні інциденти чи збої регуляторам ЄС ts2.tech. Вони також повинні впроваджувати надійний кіберзахист, щоб запобігти зловмисному використанню своїх моделей ts2.tech. Прозорість – ключове: розробники базових моделей повинні документувати джерела навчальних даних, дотримуватися авторських прав і публікувати короткі звіти про зміст датасетів, використаних для навчання кожного ШІ ts2.tech. “Завдяки сьогоднішнім інструкціям Комісія сприяє плавному та ефективному застосуванню Закону про ШІ”, — сказала головна технологічна чиновниця ЄС Генна Вірккунен, підкресливши, що регулятори хочуть забезпечити чіткість для бізнесу, стримуючи потенційні ризики ts2.tech. У компаній є пільговий період до серпня 2026 року для повного виконання вимог ts2.tech. Після цього порушення можуть обійтися у величезні штрафи – до €35 млн або 7% світового обороту (що більше) ts2.tech. Нові інструкції з’явилися на тлі невдоволення окремих технологічних компаній тим, що європейські правила можуть бути надто обтяжливими, проте чиновники ЄС налаштовані довести, що вони можуть бути “глобальними наглядачами ШІ”, не душачи інновації.

Добровільний кодекс спричиняє суперечки: У тіні обов’язкового AI Act запропонований регуляторами ЄС добровільний «Кодекс практики ШІ» викликав трансатлантичну дискусію. Кодекс, розроблений експертами для заохочення раннього впровадження деяких принципів AI Act, закликає компанії, що займаються ШІ, проактивно дотримуватись певних заходів прозорості та безпеки вже зараз, до набуття чинності закону. Цього тижня серед американських технологічних гігантів виник розкол: Microsoft натякнула, що, ймовірно, приєднається, президент Бред Сміт заявив: «Я думаю, що ми, ймовірно, підпишемося… Наша мета — підтримувати» та привітав тісну співпрацю з AI-офісом ЄС reuters.com. У різкому контрасті Meta Platforms категорично відкинула цей добровільний кодекс. «Meta не підписуватиме його. Цей кодекс створює низку юридичних невизначеностей для розробників моделей, а також запроваджує заходи, що значно виходять за межі AI Act», — написав керівник з глобальних питань Meta Джоел Каплан 18 липня reuters.com. На його думку, рекомендації ЄС є надмірним регулюванням, яке може «загальмувати розвиток і впровадження передових моделей ШІ в Європі» і «поставити під загрозу європейські компанії», що працюють у сфері ШІ reuters.com. Позиція Meta збігається зі скаргами коаліції з 45 європейських технологічних компаній, що проєкт кодексу є надто обмежувальним. З іншого боку, OpenAI (розробник ChatGPT) та французька Mistral AI вже підписали кодекс, сигналізуючи, що деякі провідні гравці готові пристати на більшу прозорість і перевірки дотримання авторських прав у Європі ts2.tech. Такий розкол підкреслює зростання напруги: американські гіганти прагнуть уникати прецедентів, які могли б стати для них обов’язковими в усьому світі, тоді як європейські регулятори (і деякі стартапи) вже зараз вимагають більш високих стандартів. Те, як буде впроваджений цей добровільний кодекс, може вплинути на фактичні правила ШІ у всьому світі ще до вступу обов’язкового закону ЄС у дію.

США роблять ставку на інновації, а не на регулювання: У Вашингтоні підхід до ШІ залишається більш стимулювальним, ніж обмежувальним – принаймні наразі. Цього тижня Білий дім зібрав керівників технокомпаній, дослідників та законодавців на Саміт з технологій та інновацій, який приніс близько 90 мільярдів доларів нових галузевих зобов’язань щодо проєктів зі штучного інтелекту та виробництва напівпровідників у США ts2.tech. Десятки компаній — від Google до Intel і Blackstone — пообіцяли інвестувати мільярди у передові дата-центри, вітчизняні фабрики чипів та дослідницькі центри ШІ по всій Америці, укріплюючи технічну інфраструктуру у партнерстві з федеральними ініціативами ts2.tech. Послання від американських лідерів: замість того, щоб негайно встановлювати загальні закони щодо ШІ, вони підливають пального у вогонь інновацій, щоб зберегти перевагу над глобальними конкурентами, водночас аналізуючи вплив ШІ. Навіть Федеральна резервна система США звертає на це увагу. У промові 17 липня щодо технологій членка Ради керуючих Федрезерву Ліза Д. Кук назвала ШІ «потенційно наступною технологією загального призначення» – порівнюючи його трансформаційний потенціал із друкарським верстатом чи електрикою ts2.tech. Вона відзначила, що «понад пів мільярда користувачів» у світі вже щотижня взаємодіють з великими ШІ-моделями, і що за минулий рік поступ ШІ подвоїв ключові показники ts2.tech. Водночас Кук попередила й про «багатовимірні виклики». Хоча ШІ у довгостроковій перспективі може підвищити продуктивність (і навіть допомогти стримати інфляцію), його стрімке впровадження може спричинити короткострокові потрясіння — включаючи сплески інвестицій і витрат, які парадоксальним чином можуть підняти ціни до появи ефективності ts2.tech. Її виважена позиція — не перебільшувати ні утопію, ні катастрофу — відображає ширше консенсус у Вашингтоні: заохочувати розвиток ШІ обережно, уважно стежачи за впливом на робочі місця, рівень інфляції та нерівність після їх появи.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

Фінанси, бізнес та інвестиції в ШІ

ШІ, спеціально створений для фінансів: Фінансовий сектор став свідком активного впровадження ШІ як у продуктах, так і в прибутках. Стартап Anthropic запустив Claude for Financial Services — версію свого асистента Claude-4, спеціалізованого для аналітиків ринку та банкірів. Anthropic стверджує, що Claude-4 перевершує інші провідні моделі у фінансових завданнях згідно з галузевими бенчмарками anthropic.com. Платформа може підключатися до поточних ринкових даних (через партнерів, таких як Bloomberg, FactSet та ін.) і обробляти значні обсяги робіт: від моделювання ризиків до оформлення документів для відповідності. Перші користувачі повідомляють про суттєві переваги — наприклад, генеральний директор суверенного фонду багатства Норвегії на $1,4 трлн (NBIM) заявив, що Claude “фундаментально змінив” їхню роботу, забезпечивши орієнтовно 20% приросту продуктивності (близько 213 000 зекономлених робочих годин) завдяки тому, що персонал може безперешкодно працювати з даними й ефективніше аналізувати фінансові звіти anthropic.com. З його слів, Claude фактично став “незамінним” для аналітиків та менеджерів з ризиків цієї компанії anthropic.com. Великі банки й фонди також досліджують можливості асистентів ШІ для прискорення досліджень з повним аудит-трейлом і автоматизації рутинних завдань, які зазвичай гальмують роботу фінансових команд.

Уолл-стріт робить ставки на AI-стартапи: Інвестори продовжують вкладати гроші в штучний інтелект із вражаючими оцінками. Цього вікенду надійшла новина, що стартап Perplexity AI, відомий своїм чат-ботом для пошуку на основі ШІ, залучив ще $100 мільйонів фінансування – і підняв свою оцінку до приблизно $18 мільярдів theindependent.sg. (Для порівняння, ще два місяці тому Perplexity оцінювали приблизно у $14 мільярдів, а минулого року – лише у $1 мільярд, що відображає стрімке зростання генеративного ШІ theindependent.sg.) З’являються і нові фонди з фокусом на ШІ: наприклад, один із ранніх інвесторів Instacart запустив фонд “Verified Capital” зі $175 мільйонами, орієнтованими на AI-стартапи (анонсовано 20 липня). А у сфері хмарних обчислень традиційні компанії пристосовуються до епохи ШІ – іноді болісно. Amazon підтвердила, що скорочує кілька сотень працівників AWS (переважно в службі підтримки хмарних сервісів), після того як генеральний директор Енді Джессі попередив, що ефективність ШІ призведе до зменшення певних “проміжних” посад binaryverseai.com. Внутрішні електронні листи цього тижня вказують, що деякі спеціалізовані команди з міграції у хмару стали непотрібними – “перше видиме підтвердження в межах AWS” автоматизації під керуванням ШІ, як зазначив Reuters binaryverseai.com binaryverseai.com. Аналітики стверджують, що навіть підрозділи з великою маржею не захищені: “ШІ поглинає завдання, які він освоює, а потім компанії або перенаправляють, або звільняють людей,” – сухо зазначив один із них binaryverseai.com. Попри значні прибутки, хмарний гігант проводить оптимізацію, демонструючи, як зростання продуктивності від ШІ також може на практиці призводити до скорочення робочої сили.

Наукові та медичні прориви

Прискорення медичного аналізу: У сфері охорони здоров’я прориви в штучному інтелекті обіцяють швидші діагнози та безпечніші процедури. Дослідники з Університету Індіани та партнерських лікарень презентували систему штучного інтелекту “Інформатика раку”, яка здатна аналізувати оцифровані зразки патології, електронні медичні картки й навіть геномні дані для виявлення потенційних онкозахворювань і пропонування стадій пухлини. За словами головного дослідника Спирідона Бакаса, ця система скоротила деякі діагностичні процеси “з днів до секунд”, тріажуючи випадки з надлюдською швидкістю binaryverseai.com binaryverseai.com. Інструмент також виявив делікатні взаємозв’язки між мульти-модальними даними, які людина могла б пропустити, хоча команда наполягає: патологи залишаються незамінними для складних випадків і остаточних висновків binaryverseai.com. Проєкт ілюструє ширшу тенденцію до мультимодального медичного ШІ, що здатен аналізувати різні типи даних одночасно. Подібно до цього, радіологи повідомили про успіхи у використанні моделі ШІ під назвою mViT (модифікований vision transformer) для покращення дитячих КТ-сканувань binaryverseai.com binaryverseai.com. Фотонно-лічильні КТ-сканери дозволяють знижувати дозу рентгенівського випромінювання для дітей, але зазвичай дають шумні зображення; система mViT навчилася зменшувати шум сканів у реальному часі, роблячи артерії й тканини чіткішими без розмиття, яке виникало при старих методах зниження шуму binaryverseai.com binaryverseai.com. Під час тестування на 20 маленьких пацієнтах ШІ постійно перевершував традиційні фільтри, що потенційно відкриває шлях до чіткіших КТ із низькою дозою — перемога для безпеки дітей, коли КТ нового покоління отримують схвалення FDA binaryverseai.com.

Прориви в біології та матеріалознавстві: ШІ також сприяє базовій науці. Нове дослідження у Nature Communications описує, як тріада нейронних мереж тепер може встановлювати часову мітку розвитку ембріона з точністю до хвилини, що може змінити розвиток біології binaryverseai.com. Навчаючи згорткові нейромережі на зображеннях ембріонів плодових мух у високій роздільній здатності, система навчилася розпізнавати тонкі візуальні підказки циклів поділу клітин. Вона може визначати вік ембріона (з похибкою ±1 хвилина) без використання руйнівних флуоресцентних маркерів – досягаючи 98–100% точності на ембріонах ранніх стадій binaryverseai.com binaryverseai.com. Цей штучний “ембріональний годинник” дозволив команді зіставити сплески активації генів з небаченою часовою точністю, надаючи біологам потужний новий інструмент для вивчення формування органів. У матеріалознавстві дослідники з Великої Британії представили “CrystalGPT,” модель, навченої на 706 000 кристалічних структур для прогнозування властивостей матеріалів. Вивчаючи “мову” молекулярних кристалів (через пазли із замаскованими атомами та задачі на симетрію), CrystalGPT може передбачити густину, пористість чи стабільність нових сполук значно швидше, ніж прямі симуляції binaryverseai.com binaryverseai.com. Експерти відзначають її прозорість – ШІ навіть підсвічує, які саме атомні оточення найбільше вплинули на прогноз, – даючи хімікам упевненість замість “чорної скриньки” binaryverseai.com. Швидше моделювання кристалів може прискорити прогрес у створенні батарей, каталізаторів, напівпровідникових матеріалів, скорочуючи час і вартість науково-дослідних робіт.

ШІ для коду – із застереженнями: Не всі дослідження були оптимістичними; одне з них стало реалістичним поглядом на асистентів з програмування на основі ШІ. У контрольованому експерименті досвідчені розробники програмного забезпечення витратили на 19% більше часу на виконання завдання з допомогою ШІ-асистента, ніж контрольна група без ШІ ts2.tech. Досвідчені програмісти очікували, що ШІ (інструмент підказки коду) зробить їх швидшими, але він часто надавав лише “правильні у напрямку, але не зовсім такі, як потрібно” фрагменти коду ts2.tech. Час втрачався на перегляд і виправлення цих майже правильних підказок. Натомість попередні дослідження показали значне підвищення швидкості у менш досвідчених програмістів на простіших завданнях. “Це більше схоже на редагування есе, ніж на написання з нуля,” – сказав один із досвідчених розробників про працю з ШІ-асистентом – можливо, більш розслаблено, зате повільніше ts2.tech. Дослідники з METR дійшли висновку, що нинішні асистенти на основі ШІ не є чарівною паличкою для підвищення продуктивності експертів у складному програмуванні і що суттєве доопрацювання (і людський контроль) досі необхідні ts2.tech. Це нюансоване спостереження стримує поспішне впровадження генераторів коду на основі ШІ для всіх розробників.

Зазирнути всередину “мозку” ШІ: Консорціум провідних науковців зі сфери штучного інтелекту (з OpenAI, DeepMind, Anthropic та провідних університетів) опублікував примітну статтю із закликом до розробки нових технік для моніторингу “ланцюга роздумів” ШІ – по суті, прихованих кроків міркування, які моделі ШІ генерують всередині себе ts2.tech. Оскільки системи ШІ стають дедалі автономнішими (як агенти, що з’являються сьогодні), автори стверджують, що можливість перевіряти ці проміжні думки може стати критично важливою для безпеки ts2.tech. Спостерігаючи поетапне міркування ШІ, розробники можуть вчасно виявити помилки чи небезпечні відхилення до того, як ШІ почне діяти. Однак у статті попереджається, що зі зростанням складності моделей “немає гарантії, що нинішній рівень прозорості збережеться” – майбутні ШІ можуть приховати процеси мислення так, що їх буде важко відстежити ts2.tech. Команда закликала спільноту “максимально ефективно використовувати можливість моніторингу [ланцюга роздумів]” вже сьогодні і прагнути зберігати прозорість у майбутньому ts2.tech. Примітно, що під цим закликом до дії підписалися найвідоміші фахівці у сфері ШІ – серед них Джеффрі Хінтон, головний науковець OpenAI Ілля Суцкевер (та керівник напряму узгодження Ян Лейке), співзасновник DeepMind Шейн Легг та інші ts2.tech. Це рідкісний приклад єдності між конкурентними лабораторіями, що відображає спільну стурбованість: оскільки ШІ наближається до людського рівня міркування, ми не повинні дозволити йому перетворитись на незбагненну “чорну скриньку”. Дослідження “сканування мозку ШІ” – тобто читання його думок – можуть стати не менш важливими, ніж створення самого ШІ.

Держава та регулювання

ЄС впроваджує Закон про штучний інтелект: Брюссель підштовхнув регуляторні межі, зробивши конкретні кроки щодо реалізації свого знакового Закону про ШІ. 18 липня Європейська комісія оприлюднила детальні інструкції для “ШІ-моделей із системними ризиками” – тобто найбільш потужних універсальних ШІ-систем, які можуть впливати на громадську безпеку або основні права людини ts2.tech. Інструкції роз’яснюють жорсткі нові вимоги, із якими зіткнуться ці постачальники ШІ після набуття чинності Законом про ШІ 2 серпня. Згідно з правилами, великі розробники штучного інтелекту (Google, OpenAI, Meta, Anthropic, французька Mistral та інші) повинні проводити суворі оцінки ризиків, випробування з протидією вразливостям (adversarial testing) та повідомляти про серйозні інциденти чи збої регуляторам ЄС ts2.tech. Вони також повинні впроваджувати надійний кіберзахист, щоб запобігти зловмисному використанню своїх моделей ts2.tech. Прозорість – ключове: розробники базових моделей повинні документувати джерела навчальних даних, дотримуватися авторських прав і публікувати короткі звіти про зміст датасетів, використаних для навчання кожного ШІ ts2.tech. “Завдяки сьогоднішнім інструкціям Комісія сприяє плавному та ефективному застосуванню Закону про ШІ”, — сказала головна технологічна чиновниця ЄС Генна Вірккунен, підкресливши, що регулятори хочуть забезпечити чіткість для бізнесу, стримуючи потенційні ризики ts2.tech. У компаній є пільговий період до серпня 2026 року для повного виконання вимог ts2.tech. Після цього порушення можуть обійтися у величезні штрафи – до €35 млн або 7% світового обороту (що більше) ts2.tech. Нові інструкції з’явилися на тлі невдоволення окремих технологічних компаній тим, що європейські правила можуть бути надто обтяжливими, проте чиновники ЄС налаштовані довести, що вони можуть бути “глобальними наглядачами ШІ”, не душачи інновації.

Добровільний кодекс спричиняє суперечки: У тіні обов’язкового AI Act запропонований регуляторами ЄС добровільний «Кодекс практики ШІ» викликав трансатлантичну дискусію. Кодекс, розроблений експертами для заохочення раннього впровадження деяких принципів AI Act, закликає компанії, що займаються ШІ, проактивно дотримуватись певних заходів прозорості та безпеки вже зараз, до набуття чинності закону. Цього тижня серед американських технологічних гігантів виник розкол: Microsoft натякнула, що, ймовірно, приєднається, президент Бред Сміт заявив: «Я думаю, що ми, ймовірно, підпишемося… Наша мета — підтримувати» та привітав тісну співпрацю з AI-офісом ЄС reuters.com. У різкому контрасті Meta Platforms категорично відкинула цей добровільний кодекс. «Meta не підписуватиме його. Цей кодекс створює низку юридичних невизначеностей для розробників моделей, а також запроваджує заходи, що значно виходять за межі AI Act», — написав керівник з глобальних питань Meta Джоел Каплан 18 липня reuters.com. На його думку, рекомендації ЄС є надмірним регулюванням, яке може «загальмувати розвиток і впровадження передових моделей ШІ в Європі» і «поставити під загрозу європейські компанії», що працюють у сфері ШІ reuters.com. Позиція Meta збігається зі скаргами коаліції з 45 європейських технологічних компаній, що проєкт кодексу є надто обмежувальним. З іншого боку, OpenAI (розробник ChatGPT) та французька Mistral AI вже підписали кодекс, сигналізуючи, що деякі провідні гравці готові пристати на більшу прозорість і перевірки дотримання авторських прав у Європі ts2.tech. Такий розкол підкреслює зростання напруги: американські гіганти прагнуть уникати прецедентів, які могли б стати для них обов’язковими в усьому світі, тоді як європейські регулятори (і деякі стартапи) вже зараз вимагають більш високих стандартів. Те, як буде впроваджений цей добровільний кодекс, може вплинути на фактичні правила ШІ у всьому світі ще до вступу обов’язкового закону ЄС у дію.

США роблять ставку на інновації, а не на регулювання: У Вашингтоні підхід до ШІ залишається більш стимулювальним, ніж обмежувальним – принаймні наразі. Цього тижня Білий дім зібрав керівників технокомпаній, дослідників та законодавців на Саміт з технологій та інновацій, який приніс близько 90 мільярдів доларів нових галузевих зобов’язань щодо проєктів зі штучного інтелекту та виробництва напівпровідників у США ts2.tech. Десятки компаній — від Google до Intel і Blackstone — пообіцяли інвестувати мільярди у передові дата-центри, вітчизняні фабрики чипів та дослідницькі центри ШІ по всій Америці, укріплюючи технічну інфраструктуру у партнерстві з федеральними ініціативами ts2.tech. Послання від американських лідерів: замість того, щоб негайно встановлювати загальні закони щодо ШІ, вони підливають пального у вогонь інновацій, щоб зберегти перевагу над глобальними конкурентами, водночас аналізуючи вплив ШІ. Навіть Федеральна резервна система США звертає на це увагу. У промові 17 липня щодо технологій членка Ради керуючих Федрезерву Ліза Д. Кук назвала ШІ «потенційно наступною технологією загального призначення» – порівнюючи його трансформаційний потенціал із друкарським верстатом чи електрикою ts2.tech. Вона відзначила, що «понад пів мільярда користувачів» у світі вже щотижня взаємодіють з великими ШІ-моделями, і що за минулий рік поступ ШІ подвоїв ключові показники ts2.tech. Водночас Кук попередила й про «багатовимірні виклики». Хоча ШІ у довгостроковій перспективі може підвищити продуктивність (і навіть допомогти стримати інфляцію), його стрімке впровадження може спричинити короткострокові потрясіння — включаючи сплески інвестицій і витрат, які парадоксальним чином можуть підняти ціни до появи ефективності ts2.tech. Її виважена позиція — не перебільшувати ні утопію, ні катастрофу — відображає ширше консенсус у Вашингтоні: заохочувати розвиток ШІ обережно, уважно стежачи за впливом на робочі місця, рівень інфляції та нерівність після їх появи.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

ШІ в медіа, розвагах і креативних індустріях

Netflix використовує ШІ для VFX: У Голлівуді відбулася визначна подія: Netflix повідомив у своєму звіті про прибутки, що почав використовувати генеративний ШІ у виробництві контенту, включаючи перші в історії кадри, створені ШІ, у шоу Netflix ts2.tech. В аргентинському науково-фантастичному серіалі «Ель Етернаута» цілу сцену обвалення будівлі було створено за допомогою ШІ — це зайняло у 10 разів менше часу та коштувало дешевше, ніж традиційні візуальні ефекти techcrunch.com. Спів-генеральний директор Тед Сарандос підкреслив, що ШІ використовується для підсилення творців, а не для їхньої заміни, заявивши: «ШІ відкриває неймовірні можливості допомогти творцям робити фільми та серіали кращими, а не просто дешевшими… це справжні люди, які виконують справжню роботу з кращими інструментами.» techcrunch.com Він зазначив, що художники Netflix вже відчувають переваги у препродакшн-візуалізації та плануванні кадрів. Netflix також використовує генеративний ШІ не лише для VFX – компанія застосовує його для персоналізованого відкриття контенту і вже готується запустити інтерактивну рекламу на базі ШІ до кінця цього року techcrunch.com.

Генеративна мода та відео-чари: Творчий підхід ШІ поширився й на моду та відео. Дослідники з Південної Кореї експериментували з «генеративним кутюром», використовуючи ChatGPT для прогнозування майбутніх модних трендів і DALL·E 3 для створення понад 100 віртуальних образів для колекції осінь/зима binaryverseai.com binaryverseai.com. Близько двох третин дизайнів, створених ШІ, відповідали реальним стилям, що натякає на здатність генеративних моделей виявляти тренди раніше, ніж це зроблять дизайнери. (ШІ зазнав труднощів із абстрактними поняттями, такими як гендерно-нейтральний дизайн, що підкреслює: людські дизайнери все ще тримають креативний компас binaryverseai.com.) У сфері технологій для кіновиробництва NVIDIA разом із партнерами з університетів презентували DiffusionRenderer — дворівневу систему ШІ, яка поєднує інверсний і прямий рендеринг, роблячи сучасні відеоефекти доступними для незалежних творців binaryverseai.com binaryverseai.com. В одному з демонстраційних відео користувач міг зняти простий кадр і додати CGI-дракона, тінь від якого виглядає реалістично без складних сенсорів чи ручного налаштування світла – ШІ самостійно вивчив геометрію та освітлення сцени за відео binaryverseai.com binaryverseai.com. У підсумку це звужує прірву між великими студіями і маленькими творцями, натякаючи на майбутнє з «майже магічним» відеомонтажем для всіх.

Фінанси, бізнес та інвестиції в ШІ

ШІ, спеціально створений для фінансів: Фінансовий сектор став свідком активного впровадження ШІ як у продуктах, так і в прибутках. Стартап Anthropic запустив Claude for Financial Services — версію свого асистента Claude-4, спеціалізованого для аналітиків ринку та банкірів. Anthropic стверджує, що Claude-4 перевершує інші провідні моделі у фінансових завданнях згідно з галузевими бенчмарками anthropic.com. Платформа може підключатися до поточних ринкових даних (через партнерів, таких як Bloomberg, FactSet та ін.) і обробляти значні обсяги робіт: від моделювання ризиків до оформлення документів для відповідності. Перші користувачі повідомляють про суттєві переваги — наприклад, генеральний директор суверенного фонду багатства Норвегії на $1,4 трлн (NBIM) заявив, що Claude “фундаментально змінив” їхню роботу, забезпечивши орієнтовно 20% приросту продуктивності (близько 213 000 зекономлених робочих годин) завдяки тому, що персонал може безперешкодно працювати з даними й ефективніше аналізувати фінансові звіти anthropic.com. З його слів, Claude фактично став “незамінним” для аналітиків та менеджерів з ризиків цієї компанії anthropic.com. Великі банки й фонди також досліджують можливості асистентів ШІ для прискорення досліджень з повним аудит-трейлом і автоматизації рутинних завдань, які зазвичай гальмують роботу фінансових команд.

Уолл-стріт робить ставки на AI-стартапи: Інвестори продовжують вкладати гроші в штучний інтелект із вражаючими оцінками. Цього вікенду надійшла новина, що стартап Perplexity AI, відомий своїм чат-ботом для пошуку на основі ШІ, залучив ще $100 мільйонів фінансування – і підняв свою оцінку до приблизно $18 мільярдів theindependent.sg. (Для порівняння, ще два місяці тому Perplexity оцінювали приблизно у $14 мільярдів, а минулого року – лише у $1 мільярд, що відображає стрімке зростання генеративного ШІ theindependent.sg.) З’являються і нові фонди з фокусом на ШІ: наприклад, один із ранніх інвесторів Instacart запустив фонд “Verified Capital” зі $175 мільйонами, орієнтованими на AI-стартапи (анонсовано 20 липня). А у сфері хмарних обчислень традиційні компанії пристосовуються до епохи ШІ – іноді болісно. Amazon підтвердила, що скорочує кілька сотень працівників AWS (переважно в службі підтримки хмарних сервісів), після того як генеральний директор Енді Джессі попередив, що ефективність ШІ призведе до зменшення певних “проміжних” посад binaryverseai.com. Внутрішні електронні листи цього тижня вказують, що деякі спеціалізовані команди з міграції у хмару стали непотрібними – “перше видиме підтвердження в межах AWS” автоматизації під керуванням ШІ, як зазначив Reuters binaryverseai.com binaryverseai.com. Аналітики стверджують, що навіть підрозділи з великою маржею не захищені: “ШІ поглинає завдання, які він освоює, а потім компанії або перенаправляють, або звільняють людей,” – сухо зазначив один із них binaryverseai.com. Попри значні прибутки, хмарний гігант проводить оптимізацію, демонструючи, як зростання продуктивності від ШІ також може на практиці призводити до скорочення робочої сили.

Наукові та медичні прориви

Прискорення медичного аналізу: У сфері охорони здоров’я прориви в штучному інтелекті обіцяють швидші діагнози та безпечніші процедури. Дослідники з Університету Індіани та партнерських лікарень презентували систему штучного інтелекту “Інформатика раку”, яка здатна аналізувати оцифровані зразки патології, електронні медичні картки й навіть геномні дані для виявлення потенційних онкозахворювань і пропонування стадій пухлини. За словами головного дослідника Спирідона Бакаса, ця система скоротила деякі діагностичні процеси “з днів до секунд”, тріажуючи випадки з надлюдською швидкістю binaryverseai.com binaryverseai.com. Інструмент також виявив делікатні взаємозв’язки між мульти-модальними даними, які людина могла б пропустити, хоча команда наполягає: патологи залишаються незамінними для складних випадків і остаточних висновків binaryverseai.com. Проєкт ілюструє ширшу тенденцію до мультимодального медичного ШІ, що здатен аналізувати різні типи даних одночасно. Подібно до цього, радіологи повідомили про успіхи у використанні моделі ШІ під назвою mViT (модифікований vision transformer) для покращення дитячих КТ-сканувань binaryverseai.com binaryverseai.com. Фотонно-лічильні КТ-сканери дозволяють знижувати дозу рентгенівського випромінювання для дітей, але зазвичай дають шумні зображення; система mViT навчилася зменшувати шум сканів у реальному часі, роблячи артерії й тканини чіткішими без розмиття, яке виникало при старих методах зниження шуму binaryverseai.com binaryverseai.com. Під час тестування на 20 маленьких пацієнтах ШІ постійно перевершував традиційні фільтри, що потенційно відкриває шлях до чіткіших КТ із низькою дозою — перемога для безпеки дітей, коли КТ нового покоління отримують схвалення FDA binaryverseai.com.

Прориви в біології та матеріалознавстві: ШІ також сприяє базовій науці. Нове дослідження у Nature Communications описує, як тріада нейронних мереж тепер може встановлювати часову мітку розвитку ембріона з точністю до хвилини, що може змінити розвиток біології binaryverseai.com. Навчаючи згорткові нейромережі на зображеннях ембріонів плодових мух у високій роздільній здатності, система навчилася розпізнавати тонкі візуальні підказки циклів поділу клітин. Вона може визначати вік ембріона (з похибкою ±1 хвилина) без використання руйнівних флуоресцентних маркерів – досягаючи 98–100% точності на ембріонах ранніх стадій binaryverseai.com binaryverseai.com. Цей штучний “ембріональний годинник” дозволив команді зіставити сплески активації генів з небаченою часовою точністю, надаючи біологам потужний новий інструмент для вивчення формування органів. У матеріалознавстві дослідники з Великої Британії представили “CrystalGPT,” модель, навченої на 706 000 кристалічних структур для прогнозування властивостей матеріалів. Вивчаючи “мову” молекулярних кристалів (через пазли із замаскованими атомами та задачі на симетрію), CrystalGPT може передбачити густину, пористість чи стабільність нових сполук значно швидше, ніж прямі симуляції binaryverseai.com binaryverseai.com. Експерти відзначають її прозорість – ШІ навіть підсвічує, які саме атомні оточення найбільше вплинули на прогноз, – даючи хімікам упевненість замість “чорної скриньки” binaryverseai.com. Швидше моделювання кристалів може прискорити прогрес у створенні батарей, каталізаторів, напівпровідникових матеріалів, скорочуючи час і вартість науково-дослідних робіт.

ШІ для коду – із застереженнями: Не всі дослідження були оптимістичними; одне з них стало реалістичним поглядом на асистентів з програмування на основі ШІ. У контрольованому експерименті досвідчені розробники програмного забезпечення витратили на 19% більше часу на виконання завдання з допомогою ШІ-асистента, ніж контрольна група без ШІ ts2.tech. Досвідчені програмісти очікували, що ШІ (інструмент підказки коду) зробить їх швидшими, але він часто надавав лише “правильні у напрямку, але не зовсім такі, як потрібно” фрагменти коду ts2.tech. Час втрачався на перегляд і виправлення цих майже правильних підказок. Натомість попередні дослідження показали значне підвищення швидкості у менш досвідчених програмістів на простіших завданнях. “Це більше схоже на редагування есе, ніж на написання з нуля,” – сказав один із досвідчених розробників про працю з ШІ-асистентом – можливо, більш розслаблено, зате повільніше ts2.tech. Дослідники з METR дійшли висновку, що нинішні асистенти на основі ШІ не є чарівною паличкою для підвищення продуктивності експертів у складному програмуванні і що суттєве доопрацювання (і людський контроль) досі необхідні ts2.tech. Це нюансоване спостереження стримує поспішне впровадження генераторів коду на основі ШІ для всіх розробників.

Зазирнути всередину “мозку” ШІ: Консорціум провідних науковців зі сфери штучного інтелекту (з OpenAI, DeepMind, Anthropic та провідних університетів) опублікував примітну статтю із закликом до розробки нових технік для моніторингу “ланцюга роздумів” ШІ – по суті, прихованих кроків міркування, які моделі ШІ генерують всередині себе ts2.tech. Оскільки системи ШІ стають дедалі автономнішими (як агенти, що з’являються сьогодні), автори стверджують, що можливість перевіряти ці проміжні думки може стати критично важливою для безпеки ts2.tech. Спостерігаючи поетапне міркування ШІ, розробники можуть вчасно виявити помилки чи небезпечні відхилення до того, як ШІ почне діяти. Однак у статті попереджається, що зі зростанням складності моделей “немає гарантії, що нинішній рівень прозорості збережеться” – майбутні ШІ можуть приховати процеси мислення так, що їх буде важко відстежити ts2.tech. Команда закликала спільноту “максимально ефективно використовувати можливість моніторингу [ланцюга роздумів]” вже сьогодні і прагнути зберігати прозорість у майбутньому ts2.tech. Примітно, що під цим закликом до дії підписалися найвідоміші фахівці у сфері ШІ – серед них Джеффрі Хінтон, головний науковець OpenAI Ілля Суцкевер (та керівник напряму узгодження Ян Лейке), співзасновник DeepMind Шейн Легг та інші ts2.tech. Це рідкісний приклад єдності між конкурентними лабораторіями, що відображає спільну стурбованість: оскільки ШІ наближається до людського рівня міркування, ми не повинні дозволити йому перетворитись на незбагненну “чорну скриньку”. Дослідження “сканування мозку ШІ” – тобто читання його думок – можуть стати не менш важливими, ніж створення самого ШІ.

Держава та регулювання

ЄС впроваджує Закон про штучний інтелект: Брюссель підштовхнув регуляторні межі, зробивши конкретні кроки щодо реалізації свого знакового Закону про ШІ. 18 липня Європейська комісія оприлюднила детальні інструкції для “ШІ-моделей із системними ризиками” – тобто найбільш потужних універсальних ШІ-систем, які можуть впливати на громадську безпеку або основні права людини ts2.tech. Інструкції роз’яснюють жорсткі нові вимоги, із якими зіткнуться ці постачальники ШІ після набуття чинності Законом про ШІ 2 серпня. Згідно з правилами, великі розробники штучного інтелекту (Google, OpenAI, Meta, Anthropic, французька Mistral та інші) повинні проводити суворі оцінки ризиків, випробування з протидією вразливостям (adversarial testing) та повідомляти про серйозні інциденти чи збої регуляторам ЄС ts2.tech. Вони також повинні впроваджувати надійний кіберзахист, щоб запобігти зловмисному використанню своїх моделей ts2.tech. Прозорість – ключове: розробники базових моделей повинні документувати джерела навчальних даних, дотримуватися авторських прав і публікувати короткі звіти про зміст датасетів, використаних для навчання кожного ШІ ts2.tech. “Завдяки сьогоднішнім інструкціям Комісія сприяє плавному та ефективному застосуванню Закону про ШІ”, — сказала головна технологічна чиновниця ЄС Генна Вірккунен, підкресливши, що регулятори хочуть забезпечити чіткість для бізнесу, стримуючи потенційні ризики ts2.tech. У компаній є пільговий період до серпня 2026 року для повного виконання вимог ts2.tech. Після цього порушення можуть обійтися у величезні штрафи – до €35 млн або 7% світового обороту (що більше) ts2.tech. Нові інструкції з’явилися на тлі невдоволення окремих технологічних компаній тим, що європейські правила можуть бути надто обтяжливими, проте чиновники ЄС налаштовані довести, що вони можуть бути “глобальними наглядачами ШІ”, не душачи інновації.

Добровільний кодекс спричиняє суперечки: У тіні обов’язкового AI Act запропонований регуляторами ЄС добровільний «Кодекс практики ШІ» викликав трансатлантичну дискусію. Кодекс, розроблений експертами для заохочення раннього впровадження деяких принципів AI Act, закликає компанії, що займаються ШІ, проактивно дотримуватись певних заходів прозорості та безпеки вже зараз, до набуття чинності закону. Цього тижня серед американських технологічних гігантів виник розкол: Microsoft натякнула, що, ймовірно, приєднається, президент Бред Сміт заявив: «Я думаю, що ми, ймовірно, підпишемося… Наша мета — підтримувати» та привітав тісну співпрацю з AI-офісом ЄС reuters.com. У різкому контрасті Meta Platforms категорично відкинула цей добровільний кодекс. «Meta не підписуватиме його. Цей кодекс створює низку юридичних невизначеностей для розробників моделей, а також запроваджує заходи, що значно виходять за межі AI Act», — написав керівник з глобальних питань Meta Джоел Каплан 18 липня reuters.com. На його думку, рекомендації ЄС є надмірним регулюванням, яке може «загальмувати розвиток і впровадження передових моделей ШІ в Європі» і «поставити під загрозу європейські компанії», що працюють у сфері ШІ reuters.com. Позиція Meta збігається зі скаргами коаліції з 45 європейських технологічних компаній, що проєкт кодексу є надто обмежувальним. З іншого боку, OpenAI (розробник ChatGPT) та французька Mistral AI вже підписали кодекс, сигналізуючи, що деякі провідні гравці готові пристати на більшу прозорість і перевірки дотримання авторських прав у Європі ts2.tech. Такий розкол підкреслює зростання напруги: американські гіганти прагнуть уникати прецедентів, які могли б стати для них обов’язковими в усьому світі, тоді як європейські регулятори (і деякі стартапи) вже зараз вимагають більш високих стандартів. Те, як буде впроваджений цей добровільний кодекс, може вплинути на фактичні правила ШІ у всьому світі ще до вступу обов’язкового закону ЄС у дію.

США роблять ставку на інновації, а не на регулювання: У Вашингтоні підхід до ШІ залишається більш стимулювальним, ніж обмежувальним – принаймні наразі. Цього тижня Білий дім зібрав керівників технокомпаній, дослідників та законодавців на Саміт з технологій та інновацій, який приніс близько 90 мільярдів доларів нових галузевих зобов’язань щодо проєктів зі штучного інтелекту та виробництва напівпровідників у США ts2.tech. Десятки компаній — від Google до Intel і Blackstone — пообіцяли інвестувати мільярди у передові дата-центри, вітчизняні фабрики чипів та дослідницькі центри ШІ по всій Америці, укріплюючи технічну інфраструктуру у партнерстві з федеральними ініціативами ts2.tech. Послання від американських лідерів: замість того, щоб негайно встановлювати загальні закони щодо ШІ, вони підливають пального у вогонь інновацій, щоб зберегти перевагу над глобальними конкурентами, водночас аналізуючи вплив ШІ. Навіть Федеральна резервна система США звертає на це увагу. У промові 17 липня щодо технологій членка Ради керуючих Федрезерву Ліза Д. Кук назвала ШІ «потенційно наступною технологією загального призначення» – порівнюючи його трансформаційний потенціал із друкарським верстатом чи електрикою ts2.tech. Вона відзначила, що «понад пів мільярда користувачів» у світі вже щотижня взаємодіють з великими ШІ-моделями, і що за минулий рік поступ ШІ подвоїв ключові показники ts2.tech. Водночас Кук попередила й про «багатовимірні виклики». Хоча ШІ у довгостроковій перспективі може підвищити продуктивність (і навіть допомогти стримати інфляцію), його стрімке впровадження може спричинити короткострокові потрясіння — включаючи сплески інвестицій і витрат, які парадоксальним чином можуть підняти ціни до появи ефективності ts2.tech. Її виважена позиція — не перебільшувати ні утопію, ні катастрофу — відображає ширше консенсус у Вашингтоні: заохочувати розвиток ШІ обережно, уважно стежачи за впливом на робочі місця, рівень інфляції та нерівність після їх появи.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

Держава та регулювання

ЄС впроваджує Закон про штучний інтелект: Брюссель підштовхнув регуляторні межі, зробивши конкретні кроки щодо реалізації свого знакового Закону про ШІ. 18 липня Європейська комісія оприлюднила детальні інструкції для “ШІ-моделей із системними ризиками” – тобто найбільш потужних універсальних ШІ-систем, які можуть впливати на громадську безпеку або основні права людини ts2.tech. Інструкції роз’яснюють жорсткі нові вимоги, із якими зіткнуться ці постачальники ШІ після набуття чинності Законом про ШІ 2 серпня. Згідно з правилами, великі розробники штучного інтелекту (Google, OpenAI, Meta, Anthropic, французька Mistral та інші) повинні проводити суворі оцінки ризиків, випробування з протидією вразливостям (adversarial testing) та повідомляти про серйозні інциденти чи збої регуляторам ЄС ts2.tech. Вони також повинні впроваджувати надійний кіберзахист, щоб запобігти зловмисному використанню своїх моделей ts2.tech. Прозорість – ключове: розробники базових моделей повинні документувати джерела навчальних даних, дотримуватися авторських прав і публікувати короткі звіти про зміст датасетів, використаних для навчання кожного ШІ ts2.tech. “Завдяки сьогоднішнім інструкціям Комісія сприяє плавному та ефективному застосуванню Закону про ШІ”, — сказала головна технологічна чиновниця ЄС Генна Вірккунен, підкресливши, що регулятори хочуть забезпечити чіткість для бізнесу, стримуючи потенційні ризики ts2.tech. У компаній є пільговий період до серпня 2026 року для повного виконання вимог ts2.tech. Після цього порушення можуть обійтися у величезні штрафи – до €35 млн або 7% світового обороту (що більше) ts2.tech. Нові інструкції з’явилися на тлі невдоволення окремих технологічних компаній тим, що європейські правила можуть бути надто обтяжливими, проте чиновники ЄС налаштовані довести, що вони можуть бути “глобальними наглядачами ШІ”, не душачи інновації.

Добровільний кодекс спричиняє суперечки: У тіні обов’язкового AI Act запропонований регуляторами ЄС добровільний «Кодекс практики ШІ» викликав трансатлантичну дискусію. Кодекс, розроблений експертами для заохочення раннього впровадження деяких принципів AI Act, закликає компанії, що займаються ШІ, проактивно дотримуватись певних заходів прозорості та безпеки вже зараз, до набуття чинності закону. Цього тижня серед американських технологічних гігантів виник розкол: Microsoft натякнула, що, ймовірно, приєднається, президент Бред Сміт заявив: «Я думаю, що ми, ймовірно, підпишемося… Наша мета — підтримувати» та привітав тісну співпрацю з AI-офісом ЄС reuters.com. У різкому контрасті Meta Platforms категорично відкинула цей добровільний кодекс. «Meta не підписуватиме його. Цей кодекс створює низку юридичних невизначеностей для розробників моделей, а також запроваджує заходи, що значно виходять за межі AI Act», — написав керівник з глобальних питань Meta Джоел Каплан 18 липня reuters.com. На його думку, рекомендації ЄС є надмірним регулюванням, яке може «загальмувати розвиток і впровадження передових моделей ШІ в Європі» і «поставити під загрозу європейські компанії», що працюють у сфері ШІ reuters.com. Позиція Meta збігається зі скаргами коаліції з 45 європейських технологічних компаній, що проєкт кодексу є надто обмежувальним. З іншого боку, OpenAI (розробник ChatGPT) та французька Mistral AI вже підписали кодекс, сигналізуючи, що деякі провідні гравці готові пристати на більшу прозорість і перевірки дотримання авторських прав у Європі ts2.tech. Такий розкол підкреслює зростання напруги: американські гіганти прагнуть уникати прецедентів, які могли б стати для них обов’язковими в усьому світі, тоді як європейські регулятори (і деякі стартапи) вже зараз вимагають більш високих стандартів. Те, як буде впроваджений цей добровільний кодекс, може вплинути на фактичні правила ШІ у всьому світі ще до вступу обов’язкового закону ЄС у дію.

США роблять ставку на інновації, а не на регулювання: У Вашингтоні підхід до ШІ залишається більш стимулювальним, ніж обмежувальним – принаймні наразі. Цього тижня Білий дім зібрав керівників технокомпаній, дослідників та законодавців на Саміт з технологій та інновацій, який приніс близько 90 мільярдів доларів нових галузевих зобов’язань щодо проєктів зі штучного інтелекту та виробництва напівпровідників у США ts2.tech. Десятки компаній — від Google до Intel і Blackstone — пообіцяли інвестувати мільярди у передові дата-центри, вітчизняні фабрики чипів та дослідницькі центри ШІ по всій Америці, укріплюючи технічну інфраструктуру у партнерстві з федеральними ініціативами ts2.tech. Послання від американських лідерів: замість того, щоб негайно встановлювати загальні закони щодо ШІ, вони підливають пального у вогонь інновацій, щоб зберегти перевагу над глобальними конкурентами, водночас аналізуючи вплив ШІ. Навіть Федеральна резервна система США звертає на це увагу. У промові 17 липня щодо технологій членка Ради керуючих Федрезерву Ліза Д. Кук назвала ШІ «потенційно наступною технологією загального призначення» – порівнюючи його трансформаційний потенціал із друкарським верстатом чи електрикою ts2.tech. Вона відзначила, що «понад пів мільярда користувачів» у світі вже щотижня взаємодіють з великими ШІ-моделями, і що за минулий рік поступ ШІ подвоїв ключові показники ts2.tech. Водночас Кук попередила й про «багатовимірні виклики». Хоча ШІ у довгостроковій перспективі може підвищити продуктивність (і навіть допомогти стримати інфляцію), його стрімке впровадження може спричинити короткострокові потрясіння — включаючи сплески інвестицій і витрат, які парадоксальним чином можуть підняти ціни до появи ефективності ts2.tech. Її виважена позиція — не перебільшувати ні утопію, ні катастрофу — відображає ширше консенсус у Вашингтоні: заохочувати розвиток ШІ обережно, уважно стежачи за впливом на робочі місця, рівень інфляції та нерівність після їх появи.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

Наукові та медичні прориви

Прискорення медичного аналізу: У сфері охорони здоров’я прориви в штучному інтелекті обіцяють швидші діагнози та безпечніші процедури. Дослідники з Університету Індіани та партнерських лікарень презентували систему штучного інтелекту “Інформатика раку”, яка здатна аналізувати оцифровані зразки патології, електронні медичні картки й навіть геномні дані для виявлення потенційних онкозахворювань і пропонування стадій пухлини. За словами головного дослідника Спирідона Бакаса, ця система скоротила деякі діагностичні процеси “з днів до секунд”, тріажуючи випадки з надлюдською швидкістю binaryverseai.com binaryverseai.com. Інструмент також виявив делікатні взаємозв’язки між мульти-модальними даними, які людина могла б пропустити, хоча команда наполягає: патологи залишаються незамінними для складних випадків і остаточних висновків binaryverseai.com. Проєкт ілюструє ширшу тенденцію до мультимодального медичного ШІ, що здатен аналізувати різні типи даних одночасно. Подібно до цього, радіологи повідомили про успіхи у використанні моделі ШІ під назвою mViT (модифікований vision transformer) для покращення дитячих КТ-сканувань binaryverseai.com binaryverseai.com. Фотонно-лічильні КТ-сканери дозволяють знижувати дозу рентгенівського випромінювання для дітей, але зазвичай дають шумні зображення; система mViT навчилася зменшувати шум сканів у реальному часі, роблячи артерії й тканини чіткішими без розмиття, яке виникало при старих методах зниження шуму binaryverseai.com binaryverseai.com. Під час тестування на 20 маленьких пацієнтах ШІ постійно перевершував традиційні фільтри, що потенційно відкриває шлях до чіткіших КТ із низькою дозою — перемога для безпеки дітей, коли КТ нового покоління отримують схвалення FDA binaryverseai.com.

Прориви в біології та матеріалознавстві: ШІ також сприяє базовій науці. Нове дослідження у Nature Communications описує, як тріада нейронних мереж тепер може встановлювати часову мітку розвитку ембріона з точністю до хвилини, що може змінити розвиток біології binaryverseai.com. Навчаючи згорткові нейромережі на зображеннях ембріонів плодових мух у високій роздільній здатності, система навчилася розпізнавати тонкі візуальні підказки циклів поділу клітин. Вона може визначати вік ембріона (з похибкою ±1 хвилина) без використання руйнівних флуоресцентних маркерів – досягаючи 98–100% точності на ембріонах ранніх стадій binaryverseai.com binaryverseai.com. Цей штучний “ембріональний годинник” дозволив команді зіставити сплески активації генів з небаченою часовою точністю, надаючи біологам потужний новий інструмент для вивчення формування органів. У матеріалознавстві дослідники з Великої Британії представили “CrystalGPT,” модель, навченої на 706 000 кристалічних структур для прогнозування властивостей матеріалів. Вивчаючи “мову” молекулярних кристалів (через пазли із замаскованими атомами та задачі на симетрію), CrystalGPT може передбачити густину, пористість чи стабільність нових сполук значно швидше, ніж прямі симуляції binaryverseai.com binaryverseai.com. Експерти відзначають її прозорість – ШІ навіть підсвічує, які саме атомні оточення найбільше вплинули на прогноз, – даючи хімікам упевненість замість “чорної скриньки” binaryverseai.com. Швидше моделювання кристалів може прискорити прогрес у створенні батарей, каталізаторів, напівпровідникових матеріалів, скорочуючи час і вартість науково-дослідних робіт.

ШІ для коду – із застереженнями: Не всі дослідження були оптимістичними; одне з них стало реалістичним поглядом на асистентів з програмування на основі ШІ. У контрольованому експерименті досвідчені розробники програмного забезпечення витратили на 19% більше часу на виконання завдання з допомогою ШІ-асистента, ніж контрольна група без ШІ ts2.tech. Досвідчені програмісти очікували, що ШІ (інструмент підказки коду) зробить їх швидшими, але він часто надавав лише “правильні у напрямку, але не зовсім такі, як потрібно” фрагменти коду ts2.tech. Час втрачався на перегляд і виправлення цих майже правильних підказок. Натомість попередні дослідження показали значне підвищення швидкості у менш досвідчених програмістів на простіших завданнях. “Це більше схоже на редагування есе, ніж на написання з нуля,” – сказав один із досвідчених розробників про працю з ШІ-асистентом – можливо, більш розслаблено, зате повільніше ts2.tech. Дослідники з METR дійшли висновку, що нинішні асистенти на основі ШІ не є чарівною паличкою для підвищення продуктивності експертів у складному програмуванні і що суттєве доопрацювання (і людський контроль) досі необхідні ts2.tech. Це нюансоване спостереження стримує поспішне впровадження генераторів коду на основі ШІ для всіх розробників.

Зазирнути всередину “мозку” ШІ: Консорціум провідних науковців зі сфери штучного інтелекту (з OpenAI, DeepMind, Anthropic та провідних університетів) опублікував примітну статтю із закликом до розробки нових технік для моніторингу “ланцюга роздумів” ШІ – по суті, прихованих кроків міркування, які моделі ШІ генерують всередині себе ts2.tech. Оскільки системи ШІ стають дедалі автономнішими (як агенти, що з’являються сьогодні), автори стверджують, що можливість перевіряти ці проміжні думки може стати критично важливою для безпеки ts2.tech. Спостерігаючи поетапне міркування ШІ, розробники можуть вчасно виявити помилки чи небезпечні відхилення до того, як ШІ почне діяти. Однак у статті попереджається, що зі зростанням складності моделей “немає гарантії, що нинішній рівень прозорості збережеться” – майбутні ШІ можуть приховати процеси мислення так, що їх буде важко відстежити ts2.tech. Команда закликала спільноту “максимально ефективно використовувати можливість моніторингу [ланцюга роздумів]” вже сьогодні і прагнути зберігати прозорість у майбутньому ts2.tech. Примітно, що під цим закликом до дії підписалися найвідоміші фахівці у сфері ШІ – серед них Джеффрі Хінтон, головний науковець OpenAI Ілля Суцкевер (та керівник напряму узгодження Ян Лейке), співзасновник DeepMind Шейн Легг та інші ts2.tech. Це рідкісний приклад єдності між конкурентними лабораторіями, що відображає спільну стурбованість: оскільки ШІ наближається до людського рівня міркування, ми не повинні дозволити йому перетворитись на незбагненну “чорну скриньку”. Дослідження “сканування мозку ШІ” – тобто читання його думок – можуть стати не менш важливими, ніж створення самого ШІ.

Держава та регулювання

ЄС впроваджує Закон про штучний інтелект: Брюссель підштовхнув регуляторні межі, зробивши конкретні кроки щодо реалізації свого знакового Закону про ШІ. 18 липня Європейська комісія оприлюднила детальні інструкції для “ШІ-моделей із системними ризиками” – тобто найбільш потужних універсальних ШІ-систем, які можуть впливати на громадську безпеку або основні права людини ts2.tech. Інструкції роз’яснюють жорсткі нові вимоги, із якими зіткнуться ці постачальники ШІ після набуття чинності Законом про ШІ 2 серпня. Згідно з правилами, великі розробники штучного інтелекту (Google, OpenAI, Meta, Anthropic, французька Mistral та інші) повинні проводити суворі оцінки ризиків, випробування з протидією вразливостям (adversarial testing) та повідомляти про серйозні інциденти чи збої регуляторам ЄС ts2.tech. Вони також повинні впроваджувати надійний кіберзахист, щоб запобігти зловмисному використанню своїх моделей ts2.tech. Прозорість – ключове: розробники базових моделей повинні документувати джерела навчальних даних, дотримуватися авторських прав і публікувати короткі звіти про зміст датасетів, використаних для навчання кожного ШІ ts2.tech. “Завдяки сьогоднішнім інструкціям Комісія сприяє плавному та ефективному застосуванню Закону про ШІ”, — сказала головна технологічна чиновниця ЄС Генна Вірккунен, підкресливши, що регулятори хочуть забезпечити чіткість для бізнесу, стримуючи потенційні ризики ts2.tech. У компаній є пільговий період до серпня 2026 року для повного виконання вимог ts2.tech. Після цього порушення можуть обійтися у величезні штрафи – до €35 млн або 7% світового обороту (що більше) ts2.tech. Нові інструкції з’явилися на тлі невдоволення окремих технологічних компаній тим, що європейські правила можуть бути надто обтяжливими, проте чиновники ЄС налаштовані довести, що вони можуть бути “глобальними наглядачами ШІ”, не душачи інновації.

Добровільний кодекс спричиняє суперечки: У тіні обов’язкового AI Act запропонований регуляторами ЄС добровільний «Кодекс практики ШІ» викликав трансатлантичну дискусію. Кодекс, розроблений експертами для заохочення раннього впровадження деяких принципів AI Act, закликає компанії, що займаються ШІ, проактивно дотримуватись певних заходів прозорості та безпеки вже зараз, до набуття чинності закону. Цього тижня серед американських технологічних гігантів виник розкол: Microsoft натякнула, що, ймовірно, приєднається, президент Бред Сміт заявив: «Я думаю, що ми, ймовірно, підпишемося… Наша мета — підтримувати» та привітав тісну співпрацю з AI-офісом ЄС reuters.com. У різкому контрасті Meta Platforms категорично відкинула цей добровільний кодекс. «Meta не підписуватиме його. Цей кодекс створює низку юридичних невизначеностей для розробників моделей, а також запроваджує заходи, що значно виходять за межі AI Act», — написав керівник з глобальних питань Meta Джоел Каплан 18 липня reuters.com. На його думку, рекомендації ЄС є надмірним регулюванням, яке може «загальмувати розвиток і впровадження передових моделей ШІ в Європі» і «поставити під загрозу європейські компанії», що працюють у сфері ШІ reuters.com. Позиція Meta збігається зі скаргами коаліції з 45 європейських технологічних компаній, що проєкт кодексу є надто обмежувальним. З іншого боку, OpenAI (розробник ChatGPT) та французька Mistral AI вже підписали кодекс, сигналізуючи, що деякі провідні гравці готові пристати на більшу прозорість і перевірки дотримання авторських прав у Європі ts2.tech. Такий розкол підкреслює зростання напруги: американські гіганти прагнуть уникати прецедентів, які могли б стати для них обов’язковими в усьому світі, тоді як європейські регулятори (і деякі стартапи) вже зараз вимагають більш високих стандартів. Те, як буде впроваджений цей добровільний кодекс, може вплинути на фактичні правила ШІ у всьому світі ще до вступу обов’язкового закону ЄС у дію.

США роблять ставку на інновації, а не на регулювання: У Вашингтоні підхід до ШІ залишається більш стимулювальним, ніж обмежувальним – принаймні наразі. Цього тижня Білий дім зібрав керівників технокомпаній, дослідників та законодавців на Саміт з технологій та інновацій, який приніс близько 90 мільярдів доларів нових галузевих зобов’язань щодо проєктів зі штучного інтелекту та виробництва напівпровідників у США ts2.tech. Десятки компаній — від Google до Intel і Blackstone — пообіцяли інвестувати мільярди у передові дата-центри, вітчизняні фабрики чипів та дослідницькі центри ШІ по всій Америці, укріплюючи технічну інфраструктуру у партнерстві з федеральними ініціативами ts2.tech. Послання від американських лідерів: замість того, щоб негайно встановлювати загальні закони щодо ШІ, вони підливають пального у вогонь інновацій, щоб зберегти перевагу над глобальними конкурентами, водночас аналізуючи вплив ШІ. Навіть Федеральна резервна система США звертає на це увагу. У промові 17 липня щодо технологій членка Ради керуючих Федрезерву Ліза Д. Кук назвала ШІ «потенційно наступною технологією загального призначення» – порівнюючи його трансформаційний потенціал із друкарським верстатом чи електрикою ts2.tech. Вона відзначила, що «понад пів мільярда користувачів» у світі вже щотижня взаємодіють з великими ШІ-моделями, і що за минулий рік поступ ШІ подвоїв ключові показники ts2.tech. Водночас Кук попередила й про «багатовимірні виклики». Хоча ШІ у довгостроковій перспективі може підвищити продуктивність (і навіть допомогти стримати інфляцію), його стрімке впровадження може спричинити короткострокові потрясіння — включаючи сплески інвестицій і витрат, які парадоксальним чином можуть підняти ціни до появи ефективності ts2.tech. Її виважена позиція — не перебільшувати ні утопію, ні катастрофу — відображає ширше консенсус у Вашингтоні: заохочувати розвиток ШІ обережно, уважно стежачи за впливом на робочі місця, рівень інфляції та нерівність після їх появи.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

Фінанси, бізнес та інвестиції в ШІ

ШІ, спеціально створений для фінансів: Фінансовий сектор став свідком активного впровадження ШІ як у продуктах, так і в прибутках. Стартап Anthropic запустив Claude for Financial Services — версію свого асистента Claude-4, спеціалізованого для аналітиків ринку та банкірів. Anthropic стверджує, що Claude-4 перевершує інші провідні моделі у фінансових завданнях згідно з галузевими бенчмарками anthropic.com. Платформа може підключатися до поточних ринкових даних (через партнерів, таких як Bloomberg, FactSet та ін.) і обробляти значні обсяги робіт: від моделювання ризиків до оформлення документів для відповідності. Перші користувачі повідомляють про суттєві переваги — наприклад, генеральний директор суверенного фонду багатства Норвегії на $1,4 трлн (NBIM) заявив, що Claude “фундаментально змінив” їхню роботу, забезпечивши орієнтовно 20% приросту продуктивності (близько 213 000 зекономлених робочих годин) завдяки тому, що персонал може безперешкодно працювати з даними й ефективніше аналізувати фінансові звіти anthropic.com. З його слів, Claude фактично став “незамінним” для аналітиків та менеджерів з ризиків цієї компанії anthropic.com. Великі банки й фонди також досліджують можливості асистентів ШІ для прискорення досліджень з повним аудит-трейлом і автоматизації рутинних завдань, які зазвичай гальмують роботу фінансових команд.

Уолл-стріт робить ставки на AI-стартапи: Інвестори продовжують вкладати гроші в штучний інтелект із вражаючими оцінками. Цього вікенду надійшла новина, що стартап Perplexity AI, відомий своїм чат-ботом для пошуку на основі ШІ, залучив ще $100 мільйонів фінансування – і підняв свою оцінку до приблизно $18 мільярдів theindependent.sg. (Для порівняння, ще два місяці тому Perplexity оцінювали приблизно у $14 мільярдів, а минулого року – лише у $1 мільярд, що відображає стрімке зростання генеративного ШІ theindependent.sg.) З’являються і нові фонди з фокусом на ШІ: наприклад, один із ранніх інвесторів Instacart запустив фонд “Verified Capital” зі $175 мільйонами, орієнтованими на AI-стартапи (анонсовано 20 липня). А у сфері хмарних обчислень традиційні компанії пристосовуються до епохи ШІ – іноді болісно. Amazon підтвердила, що скорочує кілька сотень працівників AWS (переважно в службі підтримки хмарних сервісів), після того як генеральний директор Енді Джессі попередив, що ефективність ШІ призведе до зменшення певних “проміжних” посад binaryverseai.com. Внутрішні електронні листи цього тижня вказують, що деякі спеціалізовані команди з міграції у хмару стали непотрібними – “перше видиме підтвердження в межах AWS” автоматизації під керуванням ШІ, як зазначив Reuters binaryverseai.com binaryverseai.com. Аналітики стверджують, що навіть підрозділи з великою маржею не захищені: “ШІ поглинає завдання, які він освоює, а потім компанії або перенаправляють, або звільняють людей,” – сухо зазначив один із них binaryverseai.com. Попри значні прибутки, хмарний гігант проводить оптимізацію, демонструючи, як зростання продуктивності від ШІ також може на практиці призводити до скорочення робочої сили.

Наукові та медичні прориви

Прискорення медичного аналізу: У сфері охорони здоров’я прориви в штучному інтелекті обіцяють швидші діагнози та безпечніші процедури. Дослідники з Університету Індіани та партнерських лікарень презентували систему штучного інтелекту “Інформатика раку”, яка здатна аналізувати оцифровані зразки патології, електронні медичні картки й навіть геномні дані для виявлення потенційних онкозахворювань і пропонування стадій пухлини. За словами головного дослідника Спирідона Бакаса, ця система скоротила деякі діагностичні процеси “з днів до секунд”, тріажуючи випадки з надлюдською швидкістю binaryverseai.com binaryverseai.com. Інструмент також виявив делікатні взаємозв’язки між мульти-модальними даними, які людина могла б пропустити, хоча команда наполягає: патологи залишаються незамінними для складних випадків і остаточних висновків binaryverseai.com. Проєкт ілюструє ширшу тенденцію до мультимодального медичного ШІ, що здатен аналізувати різні типи даних одночасно. Подібно до цього, радіологи повідомили про успіхи у використанні моделі ШІ під назвою mViT (модифікований vision transformer) для покращення дитячих КТ-сканувань binaryverseai.com binaryverseai.com. Фотонно-лічильні КТ-сканери дозволяють знижувати дозу рентгенівського випромінювання для дітей, але зазвичай дають шумні зображення; система mViT навчилася зменшувати шум сканів у реальному часі, роблячи артерії й тканини чіткішими без розмиття, яке виникало при старих методах зниження шуму binaryverseai.com binaryverseai.com. Під час тестування на 20 маленьких пацієнтах ШІ постійно перевершував традиційні фільтри, що потенційно відкриває шлях до чіткіших КТ із низькою дозою — перемога для безпеки дітей, коли КТ нового покоління отримують схвалення FDA binaryverseai.com.

Прориви в біології та матеріалознавстві: ШІ також сприяє базовій науці. Нове дослідження у Nature Communications описує, як тріада нейронних мереж тепер може встановлювати часову мітку розвитку ембріона з точністю до хвилини, що може змінити розвиток біології binaryverseai.com. Навчаючи згорткові нейромережі на зображеннях ембріонів плодових мух у високій роздільній здатності, система навчилася розпізнавати тонкі візуальні підказки циклів поділу клітин. Вона може визначати вік ембріона (з похибкою ±1 хвилина) без використання руйнівних флуоресцентних маркерів – досягаючи 98–100% точності на ембріонах ранніх стадій binaryverseai.com binaryverseai.com. Цей штучний “ембріональний годинник” дозволив команді зіставити сплески активації генів з небаченою часовою точністю, надаючи біологам потужний новий інструмент для вивчення формування органів. У матеріалознавстві дослідники з Великої Британії представили “CrystalGPT,” модель, навченої на 706 000 кристалічних структур для прогнозування властивостей матеріалів. Вивчаючи “мову” молекулярних кристалів (через пазли із замаскованими атомами та задачі на симетрію), CrystalGPT може передбачити густину, пористість чи стабільність нових сполук значно швидше, ніж прямі симуляції binaryverseai.com binaryverseai.com. Експерти відзначають її прозорість – ШІ навіть підсвічує, які саме атомні оточення найбільше вплинули на прогноз, – даючи хімікам упевненість замість “чорної скриньки” binaryverseai.com. Швидше моделювання кристалів може прискорити прогрес у створенні батарей, каталізаторів, напівпровідникових матеріалів, скорочуючи час і вартість науково-дослідних робіт.

ШІ для коду – із застереженнями: Не всі дослідження були оптимістичними; одне з них стало реалістичним поглядом на асистентів з програмування на основі ШІ. У контрольованому експерименті досвідчені розробники програмного забезпечення витратили на 19% більше часу на виконання завдання з допомогою ШІ-асистента, ніж контрольна група без ШІ ts2.tech. Досвідчені програмісти очікували, що ШІ (інструмент підказки коду) зробить їх швидшими, але він часто надавав лише “правильні у напрямку, але не зовсім такі, як потрібно” фрагменти коду ts2.tech. Час втрачався на перегляд і виправлення цих майже правильних підказок. Натомість попередні дослідження показали значне підвищення швидкості у менш досвідчених програмістів на простіших завданнях. “Це більше схоже на редагування есе, ніж на написання з нуля,” – сказав один із досвідчених розробників про працю з ШІ-асистентом – можливо, більш розслаблено, зате повільніше ts2.tech. Дослідники з METR дійшли висновку, що нинішні асистенти на основі ШІ не є чарівною паличкою для підвищення продуктивності експертів у складному програмуванні і що суттєве доопрацювання (і людський контроль) досі необхідні ts2.tech. Це нюансоване спостереження стримує поспішне впровадження генераторів коду на основі ШІ для всіх розробників.

Зазирнути всередину “мозку” ШІ: Консорціум провідних науковців зі сфери штучного інтелекту (з OpenAI, DeepMind, Anthropic та провідних університетів) опублікував примітну статтю із закликом до розробки нових технік для моніторингу “ланцюга роздумів” ШІ – по суті, прихованих кроків міркування, які моделі ШІ генерують всередині себе ts2.tech. Оскільки системи ШІ стають дедалі автономнішими (як агенти, що з’являються сьогодні), автори стверджують, що можливість перевіряти ці проміжні думки може стати критично важливою для безпеки ts2.tech. Спостерігаючи поетапне міркування ШІ, розробники можуть вчасно виявити помилки чи небезпечні відхилення до того, як ШІ почне діяти. Однак у статті попереджається, що зі зростанням складності моделей “немає гарантії, що нинішній рівень прозорості збережеться” – майбутні ШІ можуть приховати процеси мислення так, що їх буде важко відстежити ts2.tech. Команда закликала спільноту “максимально ефективно використовувати можливість моніторингу [ланцюга роздумів]” вже сьогодні і прагнути зберігати прозорість у майбутньому ts2.tech. Примітно, що під цим закликом до дії підписалися найвідоміші фахівці у сфері ШІ – серед них Джеффрі Хінтон, головний науковець OpenAI Ілля Суцкевер (та керівник напряму узгодження Ян Лейке), співзасновник DeepMind Шейн Легг та інші ts2.tech. Це рідкісний приклад єдності між конкурентними лабораторіями, що відображає спільну стурбованість: оскільки ШІ наближається до людського рівня міркування, ми не повинні дозволити йому перетворитись на незбагненну “чорну скриньку”. Дослідження “сканування мозку ШІ” – тобто читання його думок – можуть стати не менш важливими, ніж створення самого ШІ.

Держава та регулювання

ЄС впроваджує Закон про штучний інтелект: Брюссель підштовхнув регуляторні межі, зробивши конкретні кроки щодо реалізації свого знакового Закону про ШІ. 18 липня Європейська комісія оприлюднила детальні інструкції для “ШІ-моделей із системними ризиками” – тобто найбільш потужних універсальних ШІ-систем, які можуть впливати на громадську безпеку або основні права людини ts2.tech. Інструкції роз’яснюють жорсткі нові вимоги, із якими зіткнуться ці постачальники ШІ після набуття чинності Законом про ШІ 2 серпня. Згідно з правилами, великі розробники штучного інтелекту (Google, OpenAI, Meta, Anthropic, французька Mistral та інші) повинні проводити суворі оцінки ризиків, випробування з протидією вразливостям (adversarial testing) та повідомляти про серйозні інциденти чи збої регуляторам ЄС ts2.tech. Вони також повинні впроваджувати надійний кіберзахист, щоб запобігти зловмисному використанню своїх моделей ts2.tech. Прозорість – ключове: розробники базових моделей повинні документувати джерела навчальних даних, дотримуватися авторських прав і публікувати короткі звіти про зміст датасетів, використаних для навчання кожного ШІ ts2.tech. “Завдяки сьогоднішнім інструкціям Комісія сприяє плавному та ефективному застосуванню Закону про ШІ”, — сказала головна технологічна чиновниця ЄС Генна Вірккунен, підкресливши, що регулятори хочуть забезпечити чіткість для бізнесу, стримуючи потенційні ризики ts2.tech. У компаній є пільговий період до серпня 2026 року для повного виконання вимог ts2.tech. Після цього порушення можуть обійтися у величезні штрафи – до €35 млн або 7% світового обороту (що більше) ts2.tech. Нові інструкції з’явилися на тлі невдоволення окремих технологічних компаній тим, що європейські правила можуть бути надто обтяжливими, проте чиновники ЄС налаштовані довести, що вони можуть бути “глобальними наглядачами ШІ”, не душачи інновації.

Добровільний кодекс спричиняє суперечки: У тіні обов’язкового AI Act запропонований регуляторами ЄС добровільний «Кодекс практики ШІ» викликав трансатлантичну дискусію. Кодекс, розроблений експертами для заохочення раннього впровадження деяких принципів AI Act, закликає компанії, що займаються ШІ, проактивно дотримуватись певних заходів прозорості та безпеки вже зараз, до набуття чинності закону. Цього тижня серед американських технологічних гігантів виник розкол: Microsoft натякнула, що, ймовірно, приєднається, президент Бред Сміт заявив: «Я думаю, що ми, ймовірно, підпишемося… Наша мета — підтримувати» та привітав тісну співпрацю з AI-офісом ЄС reuters.com. У різкому контрасті Meta Platforms категорично відкинула цей добровільний кодекс. «Meta не підписуватиме його. Цей кодекс створює низку юридичних невизначеностей для розробників моделей, а також запроваджує заходи, що значно виходять за межі AI Act», — написав керівник з глобальних питань Meta Джоел Каплан 18 липня reuters.com. На його думку, рекомендації ЄС є надмірним регулюванням, яке може «загальмувати розвиток і впровадження передових моделей ШІ в Європі» і «поставити під загрозу європейські компанії», що працюють у сфері ШІ reuters.com. Позиція Meta збігається зі скаргами коаліції з 45 європейських технологічних компаній, що проєкт кодексу є надто обмежувальним. З іншого боку, OpenAI (розробник ChatGPT) та французька Mistral AI вже підписали кодекс, сигналізуючи, що деякі провідні гравці готові пристати на більшу прозорість і перевірки дотримання авторських прав у Європі ts2.tech. Такий розкол підкреслює зростання напруги: американські гіганти прагнуть уникати прецедентів, які могли б стати для них обов’язковими в усьому світі, тоді як європейські регулятори (і деякі стартапи) вже зараз вимагають більш високих стандартів. Те, як буде впроваджений цей добровільний кодекс, може вплинути на фактичні правила ШІ у всьому світі ще до вступу обов’язкового закону ЄС у дію.

США роблять ставку на інновації, а не на регулювання: У Вашингтоні підхід до ШІ залишається більш стимулювальним, ніж обмежувальним – принаймні наразі. Цього тижня Білий дім зібрав керівників технокомпаній, дослідників та законодавців на Саміт з технологій та інновацій, який приніс близько 90 мільярдів доларів нових галузевих зобов’язань щодо проєктів зі штучного інтелекту та виробництва напівпровідників у США ts2.tech. Десятки компаній — від Google до Intel і Blackstone — пообіцяли інвестувати мільярди у передові дата-центри, вітчизняні фабрики чипів та дослідницькі центри ШІ по всій Америці, укріплюючи технічну інфраструктуру у партнерстві з федеральними ініціативами ts2.tech. Послання від американських лідерів: замість того, щоб негайно встановлювати загальні закони щодо ШІ, вони підливають пального у вогонь інновацій, щоб зберегти перевагу над глобальними конкурентами, водночас аналізуючи вплив ШІ. Навіть Федеральна резервна система США звертає на це увагу. У промові 17 липня щодо технологій членка Ради керуючих Федрезерву Ліза Д. Кук назвала ШІ «потенційно наступною технологією загального призначення» – порівнюючи його трансформаційний потенціал із друкарським верстатом чи електрикою ts2.tech. Вона відзначила, що «понад пів мільярда користувачів» у світі вже щотижня взаємодіють з великими ШІ-моделями, і що за минулий рік поступ ШІ подвоїв ключові показники ts2.tech. Водночас Кук попередила й про «багатовимірні виклики». Хоча ШІ у довгостроковій перспективі може підвищити продуктивність (і навіть допомогти стримати інфляцію), його стрімке впровадження може спричинити короткострокові потрясіння — включаючи сплески інвестицій і витрат, які парадоксальним чином можуть підняти ціни до появи ефективності ts2.tech. Її виважена позиція — не перебільшувати ні утопію, ні катастрофу — відображає ширше консенсус у Вашингтоні: заохочувати розвиток ШІ обережно, уважно стежачи за впливом на робочі місця, рівень інфляції та нерівність після їх появи.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

ШІ в медіа, розвагах і креативних індустріях

Netflix використовує ШІ для VFX: У Голлівуді відбулася визначна подія: Netflix повідомив у своєму звіті про прибутки, що почав використовувати генеративний ШІ у виробництві контенту, включаючи перші в історії кадри, створені ШІ, у шоу Netflix ts2.tech. В аргентинському науково-фантастичному серіалі «Ель Етернаута» цілу сцену обвалення будівлі було створено за допомогою ШІ — це зайняло у 10 разів менше часу та коштувало дешевше, ніж традиційні візуальні ефекти techcrunch.com. Спів-генеральний директор Тед Сарандос підкреслив, що ШІ використовується для підсилення творців, а не для їхньої заміни, заявивши: «ШІ відкриває неймовірні можливості допомогти творцям робити фільми та серіали кращими, а не просто дешевшими… це справжні люди, які виконують справжню роботу з кращими інструментами.» techcrunch.com Він зазначив, що художники Netflix вже відчувають переваги у препродакшн-візуалізації та плануванні кадрів. Netflix також використовує генеративний ШІ не лише для VFX – компанія застосовує його для персоналізованого відкриття контенту і вже готується запустити інтерактивну рекламу на базі ШІ до кінця цього року techcrunch.com.

Генеративна мода та відео-чари: Творчий підхід ШІ поширився й на моду та відео. Дослідники з Південної Кореї експериментували з «генеративним кутюром», використовуючи ChatGPT для прогнозування майбутніх модних трендів і DALL·E 3 для створення понад 100 віртуальних образів для колекції осінь/зима binaryverseai.com binaryverseai.com. Близько двох третин дизайнів, створених ШІ, відповідали реальним стилям, що натякає на здатність генеративних моделей виявляти тренди раніше, ніж це зроблять дизайнери. (ШІ зазнав труднощів із абстрактними поняттями, такими як гендерно-нейтральний дизайн, що підкреслює: людські дизайнери все ще тримають креативний компас binaryverseai.com.) У сфері технологій для кіновиробництва NVIDIA разом із партнерами з університетів презентували DiffusionRenderer — дворівневу систему ШІ, яка поєднує інверсний і прямий рендеринг, роблячи сучасні відеоефекти доступними для незалежних творців binaryverseai.com binaryverseai.com. В одному з демонстраційних відео користувач міг зняти простий кадр і додати CGI-дракона, тінь від якого виглядає реалістично без складних сенсорів чи ручного налаштування світла – ШІ самостійно вивчив геометрію та освітлення сцени за відео binaryverseai.com binaryverseai.com. У підсумку це звужує прірву між великими студіями і маленькими творцями, натякаючи на майбутнє з «майже магічним» відеомонтажем для всіх.

Фінанси, бізнес та інвестиції в ШІ

ШІ, спеціально створений для фінансів: Фінансовий сектор став свідком активного впровадження ШІ як у продуктах, так і в прибутках. Стартап Anthropic запустив Claude for Financial Services — версію свого асистента Claude-4, спеціалізованого для аналітиків ринку та банкірів. Anthropic стверджує, що Claude-4 перевершує інші провідні моделі у фінансових завданнях згідно з галузевими бенчмарками anthropic.com. Платформа може підключатися до поточних ринкових даних (через партнерів, таких як Bloomberg, FactSet та ін.) і обробляти значні обсяги робіт: від моделювання ризиків до оформлення документів для відповідності. Перші користувачі повідомляють про суттєві переваги — наприклад, генеральний директор суверенного фонду багатства Норвегії на $1,4 трлн (NBIM) заявив, що Claude “фундаментально змінив” їхню роботу, забезпечивши орієнтовно 20% приросту продуктивності (близько 213 000 зекономлених робочих годин) завдяки тому, що персонал може безперешкодно працювати з даними й ефективніше аналізувати фінансові звіти anthropic.com. З його слів, Claude фактично став “незамінним” для аналітиків та менеджерів з ризиків цієї компанії anthropic.com. Великі банки й фонди також досліджують можливості асистентів ШІ для прискорення досліджень з повним аудит-трейлом і автоматизації рутинних завдань, які зазвичай гальмують роботу фінансових команд.

Уолл-стріт робить ставки на AI-стартапи: Інвестори продовжують вкладати гроші в штучний інтелект із вражаючими оцінками. Цього вікенду надійшла новина, що стартап Perplexity AI, відомий своїм чат-ботом для пошуку на основі ШІ, залучив ще $100 мільйонів фінансування – і підняв свою оцінку до приблизно $18 мільярдів theindependent.sg. (Для порівняння, ще два місяці тому Perplexity оцінювали приблизно у $14 мільярдів, а минулого року – лише у $1 мільярд, що відображає стрімке зростання генеративного ШІ theindependent.sg.) З’являються і нові фонди з фокусом на ШІ: наприклад, один із ранніх інвесторів Instacart запустив фонд “Verified Capital” зі $175 мільйонами, орієнтованими на AI-стартапи (анонсовано 20 липня). А у сфері хмарних обчислень традиційні компанії пристосовуються до епохи ШІ – іноді болісно. Amazon підтвердила, що скорочує кілька сотень працівників AWS (переважно в службі підтримки хмарних сервісів), після того як генеральний директор Енді Джессі попередив, що ефективність ШІ призведе до зменшення певних “проміжних” посад binaryverseai.com. Внутрішні електронні листи цього тижня вказують, що деякі спеціалізовані команди з міграції у хмару стали непотрібними – “перше видиме підтвердження в межах AWS” автоматизації під керуванням ШІ, як зазначив Reuters binaryverseai.com binaryverseai.com. Аналітики стверджують, що навіть підрозділи з великою маржею не захищені: “ШІ поглинає завдання, які він освоює, а потім компанії або перенаправляють, або звільняють людей,” – сухо зазначив один із них binaryverseai.com. Попри значні прибутки, хмарний гігант проводить оптимізацію, демонструючи, як зростання продуктивності від ШІ також може на практиці призводити до скорочення робочої сили.

Наукові та медичні прориви

Прискорення медичного аналізу: У сфері охорони здоров’я прориви в штучному інтелекті обіцяють швидші діагнози та безпечніші процедури. Дослідники з Університету Індіани та партнерських лікарень презентували систему штучного інтелекту “Інформатика раку”, яка здатна аналізувати оцифровані зразки патології, електронні медичні картки й навіть геномні дані для виявлення потенційних онкозахворювань і пропонування стадій пухлини. За словами головного дослідника Спирідона Бакаса, ця система скоротила деякі діагностичні процеси “з днів до секунд”, тріажуючи випадки з надлюдською швидкістю binaryverseai.com binaryverseai.com. Інструмент також виявив делікатні взаємозв’язки між мульти-модальними даними, які людина могла б пропустити, хоча команда наполягає: патологи залишаються незамінними для складних випадків і остаточних висновків binaryverseai.com. Проєкт ілюструє ширшу тенденцію до мультимодального медичного ШІ, що здатен аналізувати різні типи даних одночасно. Подібно до цього, радіологи повідомили про успіхи у використанні моделі ШІ під назвою mViT (модифікований vision transformer) для покращення дитячих КТ-сканувань binaryverseai.com binaryverseai.com. Фотонно-лічильні КТ-сканери дозволяють знижувати дозу рентгенівського випромінювання для дітей, але зазвичай дають шумні зображення; система mViT навчилася зменшувати шум сканів у реальному часі, роблячи артерії й тканини чіткішими без розмиття, яке виникало при старих методах зниження шуму binaryverseai.com binaryverseai.com. Під час тестування на 20 маленьких пацієнтах ШІ постійно перевершував традиційні фільтри, що потенційно відкриває шлях до чіткіших КТ із низькою дозою — перемога для безпеки дітей, коли КТ нового покоління отримують схвалення FDA binaryverseai.com.

Прориви в біології та матеріалознавстві: ШІ також сприяє базовій науці. Нове дослідження у Nature Communications описує, як тріада нейронних мереж тепер може встановлювати часову мітку розвитку ембріона з точністю до хвилини, що може змінити розвиток біології binaryverseai.com. Навчаючи згорткові нейромережі на зображеннях ембріонів плодових мух у високій роздільній здатності, система навчилася розпізнавати тонкі візуальні підказки циклів поділу клітин. Вона може визначати вік ембріона (з похибкою ±1 хвилина) без використання руйнівних флуоресцентних маркерів – досягаючи 98–100% точності на ембріонах ранніх стадій binaryverseai.com binaryverseai.com. Цей штучний “ембріональний годинник” дозволив команді зіставити сплески активації генів з небаченою часовою точністю, надаючи біологам потужний новий інструмент для вивчення формування органів. У матеріалознавстві дослідники з Великої Британії представили “CrystalGPT,” модель, навченої на 706 000 кристалічних структур для прогнозування властивостей матеріалів. Вивчаючи “мову” молекулярних кристалів (через пазли із замаскованими атомами та задачі на симетрію), CrystalGPT може передбачити густину, пористість чи стабільність нових сполук значно швидше, ніж прямі симуляції binaryverseai.com binaryverseai.com. Експерти відзначають її прозорість – ШІ навіть підсвічує, які саме атомні оточення найбільше вплинули на прогноз, – даючи хімікам упевненість замість “чорної скриньки” binaryverseai.com. Швидше моделювання кристалів може прискорити прогрес у створенні батарей, каталізаторів, напівпровідникових матеріалів, скорочуючи час і вартість науково-дослідних робіт.

ШІ для коду – із застереженнями: Не всі дослідження були оптимістичними; одне з них стало реалістичним поглядом на асистентів з програмування на основі ШІ. У контрольованому експерименті досвідчені розробники програмного забезпечення витратили на 19% більше часу на виконання завдання з допомогою ШІ-асистента, ніж контрольна група без ШІ ts2.tech. Досвідчені програмісти очікували, що ШІ (інструмент підказки коду) зробить їх швидшими, але він часто надавав лише “правильні у напрямку, але не зовсім такі, як потрібно” фрагменти коду ts2.tech. Час втрачався на перегляд і виправлення цих майже правильних підказок. Натомість попередні дослідження показали значне підвищення швидкості у менш досвідчених програмістів на простіших завданнях. “Це більше схоже на редагування есе, ніж на написання з нуля,” – сказав один із досвідчених розробників про працю з ШІ-асистентом – можливо, більш розслаблено, зате повільніше ts2.tech. Дослідники з METR дійшли висновку, що нинішні асистенти на основі ШІ не є чарівною паличкою для підвищення продуктивності експертів у складному програмуванні і що суттєве доопрацювання (і людський контроль) досі необхідні ts2.tech. Це нюансоване спостереження стримує поспішне впровадження генераторів коду на основі ШІ для всіх розробників.

Зазирнути всередину “мозку” ШІ: Консорціум провідних науковців зі сфери штучного інтелекту (з OpenAI, DeepMind, Anthropic та провідних університетів) опублікував примітну статтю із закликом до розробки нових технік для моніторингу “ланцюга роздумів” ШІ – по суті, прихованих кроків міркування, які моделі ШІ генерують всередині себе ts2.tech. Оскільки системи ШІ стають дедалі автономнішими (як агенти, що з’являються сьогодні), автори стверджують, що можливість перевіряти ці проміжні думки може стати критично важливою для безпеки ts2.tech. Спостерігаючи поетапне міркування ШІ, розробники можуть вчасно виявити помилки чи небезпечні відхилення до того, як ШІ почне діяти. Однак у статті попереджається, що зі зростанням складності моделей “немає гарантії, що нинішній рівень прозорості збережеться” – майбутні ШІ можуть приховати процеси мислення так, що їх буде важко відстежити ts2.tech. Команда закликала спільноту “максимально ефективно використовувати можливість моніторингу [ланцюга роздумів]” вже сьогодні і прагнути зберігати прозорість у майбутньому ts2.tech. Примітно, що під цим закликом до дії підписалися найвідоміші фахівці у сфері ШІ – серед них Джеффрі Хінтон, головний науковець OpenAI Ілля Суцкевер (та керівник напряму узгодження Ян Лейке), співзасновник DeepMind Шейн Легг та інші ts2.tech. Це рідкісний приклад єдності між конкурентними лабораторіями, що відображає спільну стурбованість: оскільки ШІ наближається до людського рівня міркування, ми не повинні дозволити йому перетворитись на незбагненну “чорну скриньку”. Дослідження “сканування мозку ШІ” – тобто читання його думок – можуть стати не менш важливими, ніж створення самого ШІ.

Держава та регулювання

ЄС впроваджує Закон про штучний інтелект: Брюссель підштовхнув регуляторні межі, зробивши конкретні кроки щодо реалізації свого знакового Закону про ШІ. 18 липня Європейська комісія оприлюднила детальні інструкції для “ШІ-моделей із системними ризиками” – тобто найбільш потужних універсальних ШІ-систем, які можуть впливати на громадську безпеку або основні права людини ts2.tech. Інструкції роз’яснюють жорсткі нові вимоги, із якими зіткнуться ці постачальники ШІ після набуття чинності Законом про ШІ 2 серпня. Згідно з правилами, великі розробники штучного інтелекту (Google, OpenAI, Meta, Anthropic, французька Mistral та інші) повинні проводити суворі оцінки ризиків, випробування з протидією вразливостям (adversarial testing) та повідомляти про серйозні інциденти чи збої регуляторам ЄС ts2.tech. Вони також повинні впроваджувати надійний кіберзахист, щоб запобігти зловмисному використанню своїх моделей ts2.tech. Прозорість – ключове: розробники базових моделей повинні документувати джерела навчальних даних, дотримуватися авторських прав і публікувати короткі звіти про зміст датасетів, використаних для навчання кожного ШІ ts2.tech. “Завдяки сьогоднішнім інструкціям Комісія сприяє плавному та ефективному застосуванню Закону про ШІ”, — сказала головна технологічна чиновниця ЄС Генна Вірккунен, підкресливши, що регулятори хочуть забезпечити чіткість для бізнесу, стримуючи потенційні ризики ts2.tech. У компаній є пільговий період до серпня 2026 року для повного виконання вимог ts2.tech. Після цього порушення можуть обійтися у величезні штрафи – до €35 млн або 7% світового обороту (що більше) ts2.tech. Нові інструкції з’явилися на тлі невдоволення окремих технологічних компаній тим, що європейські правила можуть бути надто обтяжливими, проте чиновники ЄС налаштовані довести, що вони можуть бути “глобальними наглядачами ШІ”, не душачи інновації.

Добровільний кодекс спричиняє суперечки: У тіні обов’язкового AI Act запропонований регуляторами ЄС добровільний «Кодекс практики ШІ» викликав трансатлантичну дискусію. Кодекс, розроблений експертами для заохочення раннього впровадження деяких принципів AI Act, закликає компанії, що займаються ШІ, проактивно дотримуватись певних заходів прозорості та безпеки вже зараз, до набуття чинності закону. Цього тижня серед американських технологічних гігантів виник розкол: Microsoft натякнула, що, ймовірно, приєднається, президент Бред Сміт заявив: «Я думаю, що ми, ймовірно, підпишемося… Наша мета — підтримувати» та привітав тісну співпрацю з AI-офісом ЄС reuters.com. У різкому контрасті Meta Platforms категорично відкинула цей добровільний кодекс. «Meta не підписуватиме його. Цей кодекс створює низку юридичних невизначеностей для розробників моделей, а також запроваджує заходи, що значно виходять за межі AI Act», — написав керівник з глобальних питань Meta Джоел Каплан 18 липня reuters.com. На його думку, рекомендації ЄС є надмірним регулюванням, яке може «загальмувати розвиток і впровадження передових моделей ШІ в Європі» і «поставити під загрозу європейські компанії», що працюють у сфері ШІ reuters.com. Позиція Meta збігається зі скаргами коаліції з 45 європейських технологічних компаній, що проєкт кодексу є надто обмежувальним. З іншого боку, OpenAI (розробник ChatGPT) та французька Mistral AI вже підписали кодекс, сигналізуючи, що деякі провідні гравці готові пристати на більшу прозорість і перевірки дотримання авторських прав у Європі ts2.tech. Такий розкол підкреслює зростання напруги: американські гіганти прагнуть уникати прецедентів, які могли б стати для них обов’язковими в усьому світі, тоді як європейські регулятори (і деякі стартапи) вже зараз вимагають більш високих стандартів. Те, як буде впроваджений цей добровільний кодекс, може вплинути на фактичні правила ШІ у всьому світі ще до вступу обов’язкового закону ЄС у дію.

США роблять ставку на інновації, а не на регулювання: У Вашингтоні підхід до ШІ залишається більш стимулювальним, ніж обмежувальним – принаймні наразі. Цього тижня Білий дім зібрав керівників технокомпаній, дослідників та законодавців на Саміт з технологій та інновацій, який приніс близько 90 мільярдів доларів нових галузевих зобов’язань щодо проєктів зі штучного інтелекту та виробництва напівпровідників у США ts2.tech. Десятки компаній — від Google до Intel і Blackstone — пообіцяли інвестувати мільярди у передові дата-центри, вітчизняні фабрики чипів та дослідницькі центри ШІ по всій Америці, укріплюючи технічну інфраструктуру у партнерстві з федеральними ініціативами ts2.tech. Послання від американських лідерів: замість того, щоб негайно встановлювати загальні закони щодо ШІ, вони підливають пального у вогонь інновацій, щоб зберегти перевагу над глобальними конкурентами, водночас аналізуючи вплив ШІ. Навіть Федеральна резервна система США звертає на це увагу. У промові 17 липня щодо технологій членка Ради керуючих Федрезерву Ліза Д. Кук назвала ШІ «потенційно наступною технологією загального призначення» – порівнюючи його трансформаційний потенціал із друкарським верстатом чи електрикою ts2.tech. Вона відзначила, що «понад пів мільярда користувачів» у світі вже щотижня взаємодіють з великими ШІ-моделями, і що за минулий рік поступ ШІ подвоїв ключові показники ts2.tech. Водночас Кук попередила й про «багатовимірні виклики». Хоча ШІ у довгостроковій перспективі може підвищити продуктивність (і навіть допомогти стримати інфляцію), його стрімке впровадження може спричинити короткострокові потрясіння — включаючи сплески інвестицій і витрат, які парадоксальним чином можуть підняти ціни до появи ефективності ts2.tech. Її виважена позиція — не перебільшувати ні утопію, ні катастрофу — відображає ширше консенсус у Вашингтоні: заохочувати розвиток ШІ обережно, уважно стежачи за впливом на робочі місця, рівень інфляції та нерівність після їх появи.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

Держава та регулювання

ЄС впроваджує Закон про штучний інтелект: Брюссель підштовхнув регуляторні межі, зробивши конкретні кроки щодо реалізації свого знакового Закону про ШІ. 18 липня Європейська комісія оприлюднила детальні інструкції для “ШІ-моделей із системними ризиками” – тобто найбільш потужних універсальних ШІ-систем, які можуть впливати на громадську безпеку або основні права людини ts2.tech. Інструкції роз’яснюють жорсткі нові вимоги, із якими зіткнуться ці постачальники ШІ після набуття чинності Законом про ШІ 2 серпня. Згідно з правилами, великі розробники штучного інтелекту (Google, OpenAI, Meta, Anthropic, французька Mistral та інші) повинні проводити суворі оцінки ризиків, випробування з протидією вразливостям (adversarial testing) та повідомляти про серйозні інциденти чи збої регуляторам ЄС ts2.tech. Вони також повинні впроваджувати надійний кіберзахист, щоб запобігти зловмисному використанню своїх моделей ts2.tech. Прозорість – ключове: розробники базових моделей повинні документувати джерела навчальних даних, дотримуватися авторських прав і публікувати короткі звіти про зміст датасетів, використаних для навчання кожного ШІ ts2.tech. “Завдяки сьогоднішнім інструкціям Комісія сприяє плавному та ефективному застосуванню Закону про ШІ”, — сказала головна технологічна чиновниця ЄС Генна Вірккунен, підкресливши, що регулятори хочуть забезпечити чіткість для бізнесу, стримуючи потенційні ризики ts2.tech. У компаній є пільговий період до серпня 2026 року для повного виконання вимог ts2.tech. Після цього порушення можуть обійтися у величезні штрафи – до €35 млн або 7% світового обороту (що більше) ts2.tech. Нові інструкції з’явилися на тлі невдоволення окремих технологічних компаній тим, що європейські правила можуть бути надто обтяжливими, проте чиновники ЄС налаштовані довести, що вони можуть бути “глобальними наглядачами ШІ”, не душачи інновації.

Добровільний кодекс спричиняє суперечки: У тіні обов’язкового AI Act запропонований регуляторами ЄС добровільний «Кодекс практики ШІ» викликав трансатлантичну дискусію. Кодекс, розроблений експертами для заохочення раннього впровадження деяких принципів AI Act, закликає компанії, що займаються ШІ, проактивно дотримуватись певних заходів прозорості та безпеки вже зараз, до набуття чинності закону. Цього тижня серед американських технологічних гігантів виник розкол: Microsoft натякнула, що, ймовірно, приєднається, президент Бред Сміт заявив: «Я думаю, що ми, ймовірно, підпишемося… Наша мета — підтримувати» та привітав тісну співпрацю з AI-офісом ЄС reuters.com. У різкому контрасті Meta Platforms категорично відкинула цей добровільний кодекс. «Meta не підписуватиме його. Цей кодекс створює низку юридичних невизначеностей для розробників моделей, а також запроваджує заходи, що значно виходять за межі AI Act», — написав керівник з глобальних питань Meta Джоел Каплан 18 липня reuters.com. На його думку, рекомендації ЄС є надмірним регулюванням, яке може «загальмувати розвиток і впровадження передових моделей ШІ в Європі» і «поставити під загрозу європейські компанії», що працюють у сфері ШІ reuters.com. Позиція Meta збігається зі скаргами коаліції з 45 європейських технологічних компаній, що проєкт кодексу є надто обмежувальним. З іншого боку, OpenAI (розробник ChatGPT) та французька Mistral AI вже підписали кодекс, сигналізуючи, що деякі провідні гравці готові пристати на більшу прозорість і перевірки дотримання авторських прав у Європі ts2.tech. Такий розкол підкреслює зростання напруги: американські гіганти прагнуть уникати прецедентів, які могли б стати для них обов’язковими в усьому світі, тоді як європейські регулятори (і деякі стартапи) вже зараз вимагають більш високих стандартів. Те, як буде впроваджений цей добровільний кодекс, може вплинути на фактичні правила ШІ у всьому світі ще до вступу обов’язкового закону ЄС у дію.

США роблять ставку на інновації, а не на регулювання: У Вашингтоні підхід до ШІ залишається більш стимулювальним, ніж обмежувальним – принаймні наразі. Цього тижня Білий дім зібрав керівників технокомпаній, дослідників та законодавців на Саміт з технологій та інновацій, який приніс близько 90 мільярдів доларів нових галузевих зобов’язань щодо проєктів зі штучного інтелекту та виробництва напівпровідників у США ts2.tech. Десятки компаній — від Google до Intel і Blackstone — пообіцяли інвестувати мільярди у передові дата-центри, вітчизняні фабрики чипів та дослідницькі центри ШІ по всій Америці, укріплюючи технічну інфраструктуру у партнерстві з федеральними ініціативами ts2.tech. Послання від американських лідерів: замість того, щоб негайно встановлювати загальні закони щодо ШІ, вони підливають пального у вогонь інновацій, щоб зберегти перевагу над глобальними конкурентами, водночас аналізуючи вплив ШІ. Навіть Федеральна резервна система США звертає на це увагу. У промові 17 липня щодо технологій членка Ради керуючих Федрезерву Ліза Д. Кук назвала ШІ «потенційно наступною технологією загального призначення» – порівнюючи його трансформаційний потенціал із друкарським верстатом чи електрикою ts2.tech. Вона відзначила, що «понад пів мільярда користувачів» у світі вже щотижня взаємодіють з великими ШІ-моделями, і що за минулий рік поступ ШІ подвоїв ключові показники ts2.tech. Водночас Кук попередила й про «багатовимірні виклики». Хоча ШІ у довгостроковій перспективі може підвищити продуктивність (і навіть допомогти стримати інфляцію), його стрімке впровадження може спричинити короткострокові потрясіння — включаючи сплески інвестицій і витрат, які парадоксальним чином можуть підняти ціни до появи ефективності ts2.tech. Її виважена позиція — не перебільшувати ні утопію, ні катастрофу — відображає ширше консенсус у Вашингтоні: заохочувати розвиток ШІ обережно, уважно стежачи за впливом на робочі місця, рівень інфляції та нерівність після їх появи.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

Наукові та медичні прориви

Прискорення медичного аналізу: У сфері охорони здоров’я прориви в штучному інтелекті обіцяють швидші діагнози та безпечніші процедури. Дослідники з Університету Індіани та партнерських лікарень презентували систему штучного інтелекту “Інформатика раку”, яка здатна аналізувати оцифровані зразки патології, електронні медичні картки й навіть геномні дані для виявлення потенційних онкозахворювань і пропонування стадій пухлини. За словами головного дослідника Спирідона Бакаса, ця система скоротила деякі діагностичні процеси “з днів до секунд”, тріажуючи випадки з надлюдською швидкістю binaryverseai.com binaryverseai.com. Інструмент також виявив делікатні взаємозв’язки між мульти-модальними даними, які людина могла б пропустити, хоча команда наполягає: патологи залишаються незамінними для складних випадків і остаточних висновків binaryverseai.com. Проєкт ілюструє ширшу тенденцію до мультимодального медичного ШІ, що здатен аналізувати різні типи даних одночасно. Подібно до цього, радіологи повідомили про успіхи у використанні моделі ШІ під назвою mViT (модифікований vision transformer) для покращення дитячих КТ-сканувань binaryverseai.com binaryverseai.com. Фотонно-лічильні КТ-сканери дозволяють знижувати дозу рентгенівського випромінювання для дітей, але зазвичай дають шумні зображення; система mViT навчилася зменшувати шум сканів у реальному часі, роблячи артерії й тканини чіткішими без розмиття, яке виникало при старих методах зниження шуму binaryverseai.com binaryverseai.com. Під час тестування на 20 маленьких пацієнтах ШІ постійно перевершував традиційні фільтри, що потенційно відкриває шлях до чіткіших КТ із низькою дозою — перемога для безпеки дітей, коли КТ нового покоління отримують схвалення FDA binaryverseai.com.

Прориви в біології та матеріалознавстві: ШІ також сприяє базовій науці. Нове дослідження у Nature Communications описує, як тріада нейронних мереж тепер може встановлювати часову мітку розвитку ембріона з точністю до хвилини, що може змінити розвиток біології binaryverseai.com. Навчаючи згорткові нейромережі на зображеннях ембріонів плодових мух у високій роздільній здатності, система навчилася розпізнавати тонкі візуальні підказки циклів поділу клітин. Вона може визначати вік ембріона (з похибкою ±1 хвилина) без використання руйнівних флуоресцентних маркерів – досягаючи 98–100% точності на ембріонах ранніх стадій binaryverseai.com binaryverseai.com. Цей штучний “ембріональний годинник” дозволив команді зіставити сплески активації генів з небаченою часовою точністю, надаючи біологам потужний новий інструмент для вивчення формування органів. У матеріалознавстві дослідники з Великої Британії представили “CrystalGPT,” модель, навченої на 706 000 кристалічних структур для прогнозування властивостей матеріалів. Вивчаючи “мову” молекулярних кристалів (через пазли із замаскованими атомами та задачі на симетрію), CrystalGPT може передбачити густину, пористість чи стабільність нових сполук значно швидше, ніж прямі симуляції binaryverseai.com binaryverseai.com. Експерти відзначають її прозорість – ШІ навіть підсвічує, які саме атомні оточення найбільше вплинули на прогноз, – даючи хімікам упевненість замість “чорної скриньки” binaryverseai.com. Швидше моделювання кристалів може прискорити прогрес у створенні батарей, каталізаторів, напівпровідникових матеріалів, скорочуючи час і вартість науково-дослідних робіт.

ШІ для коду – із застереженнями: Не всі дослідження були оптимістичними; одне з них стало реалістичним поглядом на асистентів з програмування на основі ШІ. У контрольованому експерименті досвідчені розробники програмного забезпечення витратили на 19% більше часу на виконання завдання з допомогою ШІ-асистента, ніж контрольна група без ШІ ts2.tech. Досвідчені програмісти очікували, що ШІ (інструмент підказки коду) зробить їх швидшими, але він часто надавав лише “правильні у напрямку, але не зовсім такі, як потрібно” фрагменти коду ts2.tech. Час втрачався на перегляд і виправлення цих майже правильних підказок. Натомість попередні дослідження показали значне підвищення швидкості у менш досвідчених програмістів на простіших завданнях. “Це більше схоже на редагування есе, ніж на написання з нуля,” – сказав один із досвідчених розробників про працю з ШІ-асистентом – можливо, більш розслаблено, зате повільніше ts2.tech. Дослідники з METR дійшли висновку, що нинішні асистенти на основі ШІ не є чарівною паличкою для підвищення продуктивності експертів у складному програмуванні і що суттєве доопрацювання (і людський контроль) досі необхідні ts2.tech. Це нюансоване спостереження стримує поспішне впровадження генераторів коду на основі ШІ для всіх розробників.

Зазирнути всередину “мозку” ШІ: Консорціум провідних науковців зі сфери штучного інтелекту (з OpenAI, DeepMind, Anthropic та провідних університетів) опублікував примітну статтю із закликом до розробки нових технік для моніторингу “ланцюга роздумів” ШІ – по суті, прихованих кроків міркування, які моделі ШІ генерують всередині себе ts2.tech. Оскільки системи ШІ стають дедалі автономнішими (як агенти, що з’являються сьогодні), автори стверджують, що можливість перевіряти ці проміжні думки може стати критично важливою для безпеки ts2.tech. Спостерігаючи поетапне міркування ШІ, розробники можуть вчасно виявити помилки чи небезпечні відхилення до того, як ШІ почне діяти. Однак у статті попереджається, що зі зростанням складності моделей “немає гарантії, що нинішній рівень прозорості збережеться” – майбутні ШІ можуть приховати процеси мислення так, що їх буде важко відстежити ts2.tech. Команда закликала спільноту “максимально ефективно використовувати можливість моніторингу [ланцюга роздумів]” вже сьогодні і прагнути зберігати прозорість у майбутньому ts2.tech. Примітно, що під цим закликом до дії підписалися найвідоміші фахівці у сфері ШІ – серед них Джеффрі Хінтон, головний науковець OpenAI Ілля Суцкевер (та керівник напряму узгодження Ян Лейке), співзасновник DeepMind Шейн Легг та інші ts2.tech. Це рідкісний приклад єдності між конкурентними лабораторіями, що відображає спільну стурбованість: оскільки ШІ наближається до людського рівня міркування, ми не повинні дозволити йому перетворитись на незбагненну “чорну скриньку”. Дослідження “сканування мозку ШІ” – тобто читання його думок – можуть стати не менш важливими, ніж створення самого ШІ.

Держава та регулювання

ЄС впроваджує Закон про штучний інтелект: Брюссель підштовхнув регуляторні межі, зробивши конкретні кроки щодо реалізації свого знакового Закону про ШІ. 18 липня Європейська комісія оприлюднила детальні інструкції для “ШІ-моделей із системними ризиками” – тобто найбільш потужних універсальних ШІ-систем, які можуть впливати на громадську безпеку або основні права людини ts2.tech. Інструкції роз’яснюють жорсткі нові вимоги, із якими зіткнуться ці постачальники ШІ після набуття чинності Законом про ШІ 2 серпня. Згідно з правилами, великі розробники штучного інтелекту (Google, OpenAI, Meta, Anthropic, французька Mistral та інші) повинні проводити суворі оцінки ризиків, випробування з протидією вразливостям (adversarial testing) та повідомляти про серйозні інциденти чи збої регуляторам ЄС ts2.tech. Вони також повинні впроваджувати надійний кіберзахист, щоб запобігти зловмисному використанню своїх моделей ts2.tech. Прозорість – ключове: розробники базових моделей повинні документувати джерела навчальних даних, дотримуватися авторських прав і публікувати короткі звіти про зміст датасетів, використаних для навчання кожного ШІ ts2.tech. “Завдяки сьогоднішнім інструкціям Комісія сприяє плавному та ефективному застосуванню Закону про ШІ”, — сказала головна технологічна чиновниця ЄС Генна Вірккунен, підкресливши, що регулятори хочуть забезпечити чіткість для бізнесу, стримуючи потенційні ризики ts2.tech. У компаній є пільговий період до серпня 2026 року для повного виконання вимог ts2.tech. Після цього порушення можуть обійтися у величезні штрафи – до €35 млн або 7% світового обороту (що більше) ts2.tech. Нові інструкції з’явилися на тлі невдоволення окремих технологічних компаній тим, що європейські правила можуть бути надто обтяжливими, проте чиновники ЄС налаштовані довести, що вони можуть бути “глобальними наглядачами ШІ”, не душачи інновації.

Добровільний кодекс спричиняє суперечки: У тіні обов’язкового AI Act запропонований регуляторами ЄС добровільний «Кодекс практики ШІ» викликав трансатлантичну дискусію. Кодекс, розроблений експертами для заохочення раннього впровадження деяких принципів AI Act, закликає компанії, що займаються ШІ, проактивно дотримуватись певних заходів прозорості та безпеки вже зараз, до набуття чинності закону. Цього тижня серед американських технологічних гігантів виник розкол: Microsoft натякнула, що, ймовірно, приєднається, президент Бред Сміт заявив: «Я думаю, що ми, ймовірно, підпишемося… Наша мета — підтримувати» та привітав тісну співпрацю з AI-офісом ЄС reuters.com. У різкому контрасті Meta Platforms категорично відкинула цей добровільний кодекс. «Meta не підписуватиме його. Цей кодекс створює низку юридичних невизначеностей для розробників моделей, а також запроваджує заходи, що значно виходять за межі AI Act», — написав керівник з глобальних питань Meta Джоел Каплан 18 липня reuters.com. На його думку, рекомендації ЄС є надмірним регулюванням, яке може «загальмувати розвиток і впровадження передових моделей ШІ в Європі» і «поставити під загрозу європейські компанії», що працюють у сфері ШІ reuters.com. Позиція Meta збігається зі скаргами коаліції з 45 європейських технологічних компаній, що проєкт кодексу є надто обмежувальним. З іншого боку, OpenAI (розробник ChatGPT) та французька Mistral AI вже підписали кодекс, сигналізуючи, що деякі провідні гравці готові пристати на більшу прозорість і перевірки дотримання авторських прав у Європі ts2.tech. Такий розкол підкреслює зростання напруги: американські гіганти прагнуть уникати прецедентів, які могли б стати для них обов’язковими в усьому світі, тоді як європейські регулятори (і деякі стартапи) вже зараз вимагають більш високих стандартів. Те, як буде впроваджений цей добровільний кодекс, може вплинути на фактичні правила ШІ у всьому світі ще до вступу обов’язкового закону ЄС у дію.

США роблять ставку на інновації, а не на регулювання: У Вашингтоні підхід до ШІ залишається більш стимулювальним, ніж обмежувальним – принаймні наразі. Цього тижня Білий дім зібрав керівників технокомпаній, дослідників та законодавців на Саміт з технологій та інновацій, який приніс близько 90 мільярдів доларів нових галузевих зобов’язань щодо проєктів зі штучного інтелекту та виробництва напівпровідників у США ts2.tech. Десятки компаній — від Google до Intel і Blackstone — пообіцяли інвестувати мільярди у передові дата-центри, вітчизняні фабрики чипів та дослідницькі центри ШІ по всій Америці, укріплюючи технічну інфраструктуру у партнерстві з федеральними ініціативами ts2.tech. Послання від американських лідерів: замість того, щоб негайно встановлювати загальні закони щодо ШІ, вони підливають пального у вогонь інновацій, щоб зберегти перевагу над глобальними конкурентами, водночас аналізуючи вплив ШІ. Навіть Федеральна резервна система США звертає на це увагу. У промові 17 липня щодо технологій членка Ради керуючих Федрезерву Ліза Д. Кук назвала ШІ «потенційно наступною технологією загального призначення» – порівнюючи його трансформаційний потенціал із друкарським верстатом чи електрикою ts2.tech. Вона відзначила, що «понад пів мільярда користувачів» у світі вже щотижня взаємодіють з великими ШІ-моделями, і що за минулий рік поступ ШІ подвоїв ключові показники ts2.tech. Водночас Кук попередила й про «багатовимірні виклики». Хоча ШІ у довгостроковій перспективі може підвищити продуктивність (і навіть допомогти стримати інфляцію), його стрімке впровадження може спричинити короткострокові потрясіння — включаючи сплески інвестицій і витрат, які парадоксальним чином можуть підняти ціни до появи ефективності ts2.tech. Її виважена позиція — не перебільшувати ні утопію, ні катастрофу — відображає ширше консенсус у Вашингтоні: заохочувати розвиток ШІ обережно, уважно стежачи за впливом на робочі місця, рівень інфляції та нерівність після їх появи.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

Фінанси, бізнес та інвестиції в ШІ

ШІ, спеціально створений для фінансів: Фінансовий сектор став свідком активного впровадження ШІ як у продуктах, так і в прибутках. Стартап Anthropic запустив Claude for Financial Services — версію свого асистента Claude-4, спеціалізованого для аналітиків ринку та банкірів. Anthropic стверджує, що Claude-4 перевершує інші провідні моделі у фінансових завданнях згідно з галузевими бенчмарками anthropic.com. Платформа може підключатися до поточних ринкових даних (через партнерів, таких як Bloomberg, FactSet та ін.) і обробляти значні обсяги робіт: від моделювання ризиків до оформлення документів для відповідності. Перші користувачі повідомляють про суттєві переваги — наприклад, генеральний директор суверенного фонду багатства Норвегії на $1,4 трлн (NBIM) заявив, що Claude “фундаментально змінив” їхню роботу, забезпечивши орієнтовно 20% приросту продуктивності (близько 213 000 зекономлених робочих годин) завдяки тому, що персонал може безперешкодно працювати з даними й ефективніше аналізувати фінансові звіти anthropic.com. З його слів, Claude фактично став “незамінним” для аналітиків та менеджерів з ризиків цієї компанії anthropic.com. Великі банки й фонди також досліджують можливості асистентів ШІ для прискорення досліджень з повним аудит-трейлом і автоматизації рутинних завдань, які зазвичай гальмують роботу фінансових команд.

Уолл-стріт робить ставки на AI-стартапи: Інвестори продовжують вкладати гроші в штучний інтелект із вражаючими оцінками. Цього вікенду надійшла новина, що стартап Perplexity AI, відомий своїм чат-ботом для пошуку на основі ШІ, залучив ще $100 мільйонів фінансування – і підняв свою оцінку до приблизно $18 мільярдів theindependent.sg. (Для порівняння, ще два місяці тому Perplexity оцінювали приблизно у $14 мільярдів, а минулого року – лише у $1 мільярд, що відображає стрімке зростання генеративного ШІ theindependent.sg.) З’являються і нові фонди з фокусом на ШІ: наприклад, один із ранніх інвесторів Instacart запустив фонд “Verified Capital” зі $175 мільйонами, орієнтованими на AI-стартапи (анонсовано 20 липня). А у сфері хмарних обчислень традиційні компанії пристосовуються до епохи ШІ – іноді болісно. Amazon підтвердила, що скорочує кілька сотень працівників AWS (переважно в службі підтримки хмарних сервісів), після того як генеральний директор Енді Джессі попередив, що ефективність ШІ призведе до зменшення певних “проміжних” посад binaryverseai.com. Внутрішні електронні листи цього тижня вказують, що деякі спеціалізовані команди з міграції у хмару стали непотрібними – “перше видиме підтвердження в межах AWS” автоматизації під керуванням ШІ, як зазначив Reuters binaryverseai.com binaryverseai.com. Аналітики стверджують, що навіть підрозділи з великою маржею не захищені: “ШІ поглинає завдання, які він освоює, а потім компанії або перенаправляють, або звільняють людей,” – сухо зазначив один із них binaryverseai.com. Попри значні прибутки, хмарний гігант проводить оптимізацію, демонструючи, як зростання продуктивності від ШІ також може на практиці призводити до скорочення робочої сили.

Наукові та медичні прориви

Прискорення медичного аналізу: У сфері охорони здоров’я прориви в штучному інтелекті обіцяють швидші діагнози та безпечніші процедури. Дослідники з Університету Індіани та партнерських лікарень презентували систему штучного інтелекту “Інформатика раку”, яка здатна аналізувати оцифровані зразки патології, електронні медичні картки й навіть геномні дані для виявлення потенційних онкозахворювань і пропонування стадій пухлини. За словами головного дослідника Спирідона Бакаса, ця система скоротила деякі діагностичні процеси “з днів до секунд”, тріажуючи випадки з надлюдською швидкістю binaryverseai.com binaryverseai.com. Інструмент також виявив делікатні взаємозв’язки між мульти-модальними даними, які людина могла б пропустити, хоча команда наполягає: патологи залишаються незамінними для складних випадків і остаточних висновків binaryverseai.com. Проєкт ілюструє ширшу тенденцію до мультимодального медичного ШІ, що здатен аналізувати різні типи даних одночасно. Подібно до цього, радіологи повідомили про успіхи у використанні моделі ШІ під назвою mViT (модифікований vision transformer) для покращення дитячих КТ-сканувань binaryverseai.com binaryverseai.com. Фотонно-лічильні КТ-сканери дозволяють знижувати дозу рентгенівського випромінювання для дітей, але зазвичай дають шумні зображення; система mViT навчилася зменшувати шум сканів у реальному часі, роблячи артерії й тканини чіткішими без розмиття, яке виникало при старих методах зниження шуму binaryverseai.com binaryverseai.com. Під час тестування на 20 маленьких пацієнтах ШІ постійно перевершував традиційні фільтри, що потенційно відкриває шлях до чіткіших КТ із низькою дозою — перемога для безпеки дітей, коли КТ нового покоління отримують схвалення FDA binaryverseai.com.

Прориви в біології та матеріалознавстві: ШІ також сприяє базовій науці. Нове дослідження у Nature Communications описує, як тріада нейронних мереж тепер може встановлювати часову мітку розвитку ембріона з точністю до хвилини, що може змінити розвиток біології binaryverseai.com. Навчаючи згорткові нейромережі на зображеннях ембріонів плодових мух у високій роздільній здатності, система навчилася розпізнавати тонкі візуальні підказки циклів поділу клітин. Вона може визначати вік ембріона (з похибкою ±1 хвилина) без використання руйнівних флуоресцентних маркерів – досягаючи 98–100% точності на ембріонах ранніх стадій binaryverseai.com binaryverseai.com. Цей штучний “ембріональний годинник” дозволив команді зіставити сплески активації генів з небаченою часовою точністю, надаючи біологам потужний новий інструмент для вивчення формування органів. У матеріалознавстві дослідники з Великої Британії представили “CrystalGPT,” модель, навченої на 706 000 кристалічних структур для прогнозування властивостей матеріалів. Вивчаючи “мову” молекулярних кристалів (через пазли із замаскованими атомами та задачі на симетрію), CrystalGPT може передбачити густину, пористість чи стабільність нових сполук значно швидше, ніж прямі симуляції binaryverseai.com binaryverseai.com. Експерти відзначають її прозорість – ШІ навіть підсвічує, які саме атомні оточення найбільше вплинули на прогноз, – даючи хімікам упевненість замість “чорної скриньки” binaryverseai.com. Швидше моделювання кристалів може прискорити прогрес у створенні батарей, каталізаторів, напівпровідникових матеріалів, скорочуючи час і вартість науково-дослідних робіт.

ШІ для коду – із застереженнями: Не всі дослідження були оптимістичними; одне з них стало реалістичним поглядом на асистентів з програмування на основі ШІ. У контрольованому експерименті досвідчені розробники програмного забезпечення витратили на 19% більше часу на виконання завдання з допомогою ШІ-асистента, ніж контрольна група без ШІ ts2.tech. Досвідчені програмісти очікували, що ШІ (інструмент підказки коду) зробить їх швидшими, але він часто надавав лише “правильні у напрямку, але не зовсім такі, як потрібно” фрагменти коду ts2.tech. Час втрачався на перегляд і виправлення цих майже правильних підказок. Натомість попередні дослідження показали значне підвищення швидкості у менш досвідчених програмістів на простіших завданнях. “Це більше схоже на редагування есе, ніж на написання з нуля,” – сказав один із досвідчених розробників про працю з ШІ-асистентом – можливо, більш розслаблено, зате повільніше ts2.tech. Дослідники з METR дійшли висновку, що нинішні асистенти на основі ШІ не є чарівною паличкою для підвищення продуктивності експертів у складному програмуванні і що суттєве доопрацювання (і людський контроль) досі необхідні ts2.tech. Це нюансоване спостереження стримує поспішне впровадження генераторів коду на основі ШІ для всіх розробників.

Зазирнути всередину “мозку” ШІ: Консорціум провідних науковців зі сфери штучного інтелекту (з OpenAI, DeepMind, Anthropic та провідних університетів) опублікував примітну статтю із закликом до розробки нових технік для моніторингу “ланцюга роздумів” ШІ – по суті, прихованих кроків міркування, які моделі ШІ генерують всередині себе ts2.tech. Оскільки системи ШІ стають дедалі автономнішими (як агенти, що з’являються сьогодні), автори стверджують, що можливість перевіряти ці проміжні думки може стати критично важливою для безпеки ts2.tech. Спостерігаючи поетапне міркування ШІ, розробники можуть вчасно виявити помилки чи небезпечні відхилення до того, як ШІ почне діяти. Однак у статті попереджається, що зі зростанням складності моделей “немає гарантії, що нинішній рівень прозорості збережеться” – майбутні ШІ можуть приховати процеси мислення так, що їх буде важко відстежити ts2.tech. Команда закликала спільноту “максимально ефективно використовувати можливість моніторингу [ланцюга роздумів]” вже сьогодні і прагнути зберігати прозорість у майбутньому ts2.tech. Примітно, що під цим закликом до дії підписалися найвідоміші фахівці у сфері ШІ – серед них Джеффрі Хінтон, головний науковець OpenAI Ілля Суцкевер (та керівник напряму узгодження Ян Лейке), співзасновник DeepMind Шейн Легг та інші ts2.tech. Це рідкісний приклад єдності між конкурентними лабораторіями, що відображає спільну стурбованість: оскільки ШІ наближається до людського рівня міркування, ми не повинні дозволити йому перетворитись на незбагненну “чорну скриньку”. Дослідження “сканування мозку ШІ” – тобто читання його думок – можуть стати не менш важливими, ніж створення самого ШІ.

Держава та регулювання

ЄС впроваджує Закон про штучний інтелект: Брюссель підштовхнув регуляторні межі, зробивши конкретні кроки щодо реалізації свого знакового Закону про ШІ. 18 липня Європейська комісія оприлюднила детальні інструкції для “ШІ-моделей із системними ризиками” – тобто найбільш потужних універсальних ШІ-систем, які можуть впливати на громадську безпеку або основні права людини ts2.tech. Інструкції роз’яснюють жорсткі нові вимоги, із якими зіткнуться ці постачальники ШІ після набуття чинності Законом про ШІ 2 серпня. Згідно з правилами, великі розробники штучного інтелекту (Google, OpenAI, Meta, Anthropic, французька Mistral та інші) повинні проводити суворі оцінки ризиків, випробування з протидією вразливостям (adversarial testing) та повідомляти про серйозні інциденти чи збої регуляторам ЄС ts2.tech. Вони також повинні впроваджувати надійний кіберзахист, щоб запобігти зловмисному використанню своїх моделей ts2.tech. Прозорість – ключове: розробники базових моделей повинні документувати джерела навчальних даних, дотримуватися авторських прав і публікувати короткі звіти про зміст датасетів, використаних для навчання кожного ШІ ts2.tech. “Завдяки сьогоднішнім інструкціям Комісія сприяє плавному та ефективному застосуванню Закону про ШІ”, — сказала головна технологічна чиновниця ЄС Генна Вірккунен, підкресливши, що регулятори хочуть забезпечити чіткість для бізнесу, стримуючи потенційні ризики ts2.tech. У компаній є пільговий період до серпня 2026 року для повного виконання вимог ts2.tech. Після цього порушення можуть обійтися у величезні штрафи – до €35 млн або 7% світового обороту (що більше) ts2.tech. Нові інструкції з’явилися на тлі невдоволення окремих технологічних компаній тим, що європейські правила можуть бути надто обтяжливими, проте чиновники ЄС налаштовані довести, що вони можуть бути “глобальними наглядачами ШІ”, не душачи інновації.

Добровільний кодекс спричиняє суперечки: У тіні обов’язкового AI Act запропонований регуляторами ЄС добровільний «Кодекс практики ШІ» викликав трансатлантичну дискусію. Кодекс, розроблений експертами для заохочення раннього впровадження деяких принципів AI Act, закликає компанії, що займаються ШІ, проактивно дотримуватись певних заходів прозорості та безпеки вже зараз, до набуття чинності закону. Цього тижня серед американських технологічних гігантів виник розкол: Microsoft натякнула, що, ймовірно, приєднається, президент Бред Сміт заявив: «Я думаю, що ми, ймовірно, підпишемося… Наша мета — підтримувати» та привітав тісну співпрацю з AI-офісом ЄС reuters.com. У різкому контрасті Meta Platforms категорично відкинула цей добровільний кодекс. «Meta не підписуватиме його. Цей кодекс створює низку юридичних невизначеностей для розробників моделей, а також запроваджує заходи, що значно виходять за межі AI Act», — написав керівник з глобальних питань Meta Джоел Каплан 18 липня reuters.com. На його думку, рекомендації ЄС є надмірним регулюванням, яке може «загальмувати розвиток і впровадження передових моделей ШІ в Європі» і «поставити під загрозу європейські компанії», що працюють у сфері ШІ reuters.com. Позиція Meta збігається зі скаргами коаліції з 45 європейських технологічних компаній, що проєкт кодексу є надто обмежувальним. З іншого боку, OpenAI (розробник ChatGPT) та французька Mistral AI вже підписали кодекс, сигналізуючи, що деякі провідні гравці готові пристати на більшу прозорість і перевірки дотримання авторських прав у Європі ts2.tech. Такий розкол підкреслює зростання напруги: американські гіганти прагнуть уникати прецедентів, які могли б стати для них обов’язковими в усьому світі, тоді як європейські регулятори (і деякі стартапи) вже зараз вимагають більш високих стандартів. Те, як буде впроваджений цей добровільний кодекс, може вплинути на фактичні правила ШІ у всьому світі ще до вступу обов’язкового закону ЄС у дію.

США роблять ставку на інновації, а не на регулювання: У Вашингтоні підхід до ШІ залишається більш стимулювальним, ніж обмежувальним – принаймні наразі. Цього тижня Білий дім зібрав керівників технокомпаній, дослідників та законодавців на Саміт з технологій та інновацій, який приніс близько 90 мільярдів доларів нових галузевих зобов’язань щодо проєктів зі штучного інтелекту та виробництва напівпровідників у США ts2.tech. Десятки компаній — від Google до Intel і Blackstone — пообіцяли інвестувати мільярди у передові дата-центри, вітчизняні фабрики чипів та дослідницькі центри ШІ по всій Америці, укріплюючи технічну інфраструктуру у партнерстві з федеральними ініціативами ts2.tech. Послання від американських лідерів: замість того, щоб негайно встановлювати загальні закони щодо ШІ, вони підливають пального у вогонь інновацій, щоб зберегти перевагу над глобальними конкурентами, водночас аналізуючи вплив ШІ. Навіть Федеральна резервна система США звертає на це увагу. У промові 17 липня щодо технологій членка Ради керуючих Федрезерву Ліза Д. Кук назвала ШІ «потенційно наступною технологією загального призначення» – порівнюючи його трансформаційний потенціал із друкарським верстатом чи електрикою ts2.tech. Вона відзначила, що «понад пів мільярда користувачів» у світі вже щотижня взаємодіють з великими ШІ-моделями, і що за минулий рік поступ ШІ подвоїв ключові показники ts2.tech. Водночас Кук попередила й про «багатовимірні виклики». Хоча ШІ у довгостроковій перспективі може підвищити продуктивність (і навіть допомогти стримати інфляцію), його стрімке впровадження може спричинити короткострокові потрясіння — включаючи сплески інвестицій і витрат, які парадоксальним чином можуть підняти ціни до появи ефективності ts2.tech. Її виважена позиція — не перебільшувати ні утопію, ні катастрофу — відображає ширше консенсус у Вашингтоні: заохочувати розвиток ШІ обережно, уважно стежачи за впливом на робочі місця, рівень інфляції та нерівність після їх появи.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

ШІ в медіа, розвагах і креативних індустріях

Netflix використовує ШІ для VFX: У Голлівуді відбулася визначна подія: Netflix повідомив у своєму звіті про прибутки, що почав використовувати генеративний ШІ у виробництві контенту, включаючи перші в історії кадри, створені ШІ, у шоу Netflix ts2.tech. В аргентинському науково-фантастичному серіалі «Ель Етернаута» цілу сцену обвалення будівлі було створено за допомогою ШІ — це зайняло у 10 разів менше часу та коштувало дешевше, ніж традиційні візуальні ефекти techcrunch.com. Спів-генеральний директор Тед Сарандос підкреслив, що ШІ використовується для підсилення творців, а не для їхньої заміни, заявивши: «ШІ відкриває неймовірні можливості допомогти творцям робити фільми та серіали кращими, а не просто дешевшими… це справжні люди, які виконують справжню роботу з кращими інструментами.» techcrunch.com Він зазначив, що художники Netflix вже відчувають переваги у препродакшн-візуалізації та плануванні кадрів. Netflix також використовує генеративний ШІ не лише для VFX – компанія застосовує його для персоналізованого відкриття контенту і вже готується запустити інтерактивну рекламу на базі ШІ до кінця цього року techcrunch.com.

Генеративна мода та відео-чари: Творчий підхід ШІ поширився й на моду та відео. Дослідники з Південної Кореї експериментували з «генеративним кутюром», використовуючи ChatGPT для прогнозування майбутніх модних трендів і DALL·E 3 для створення понад 100 віртуальних образів для колекції осінь/зима binaryverseai.com binaryverseai.com. Близько двох третин дизайнів, створених ШІ, відповідали реальним стилям, що натякає на здатність генеративних моделей виявляти тренди раніше, ніж це зроблять дизайнери. (ШІ зазнав труднощів із абстрактними поняттями, такими як гендерно-нейтральний дизайн, що підкреслює: людські дизайнери все ще тримають креативний компас binaryverseai.com.) У сфері технологій для кіновиробництва NVIDIA разом із партнерами з університетів презентували DiffusionRenderer — дворівневу систему ШІ, яка поєднує інверсний і прямий рендеринг, роблячи сучасні відеоефекти доступними для незалежних творців binaryverseai.com binaryverseai.com. В одному з демонстраційних відео користувач міг зняти простий кадр і додати CGI-дракона, тінь від якого виглядає реалістично без складних сенсорів чи ручного налаштування світла – ШІ самостійно вивчив геометрію та освітлення сцени за відео binaryverseai.com binaryverseai.com. У підсумку це звужує прірву між великими студіями і маленькими творцями, натякаючи на майбутнє з «майже магічним» відеомонтажем для всіх.

Фінанси, бізнес та інвестиції в ШІ

ШІ, спеціально створений для фінансів: Фінансовий сектор став свідком активного впровадження ШІ як у продуктах, так і в прибутках. Стартап Anthropic запустив Claude for Financial Services — версію свого асистента Claude-4, спеціалізованого для аналітиків ринку та банкірів. Anthropic стверджує, що Claude-4 перевершує інші провідні моделі у фінансових завданнях згідно з галузевими бенчмарками anthropic.com. Платформа може підключатися до поточних ринкових даних (через партнерів, таких як Bloomberg, FactSet та ін.) і обробляти значні обсяги робіт: від моделювання ризиків до оформлення документів для відповідності. Перші користувачі повідомляють про суттєві переваги — наприклад, генеральний директор суверенного фонду багатства Норвегії на $1,4 трлн (NBIM) заявив, що Claude “фундаментально змінив” їхню роботу, забезпечивши орієнтовно 20% приросту продуктивності (близько 213 000 зекономлених робочих годин) завдяки тому, що персонал може безперешкодно працювати з даними й ефективніше аналізувати фінансові звіти anthropic.com. З його слів, Claude фактично став “незамінним” для аналітиків та менеджерів з ризиків цієї компанії anthropic.com. Великі банки й фонди також досліджують можливості асистентів ШІ для прискорення досліджень з повним аудит-трейлом і автоматизації рутинних завдань, які зазвичай гальмують роботу фінансових команд.

Уолл-стріт робить ставки на AI-стартапи: Інвестори продовжують вкладати гроші в штучний інтелект із вражаючими оцінками. Цього вікенду надійшла новина, що стартап Perplexity AI, відомий своїм чат-ботом для пошуку на основі ШІ, залучив ще $100 мільйонів фінансування – і підняв свою оцінку до приблизно $18 мільярдів theindependent.sg. (Для порівняння, ще два місяці тому Perplexity оцінювали приблизно у $14 мільярдів, а минулого року – лише у $1 мільярд, що відображає стрімке зростання генеративного ШІ theindependent.sg.) З’являються і нові фонди з фокусом на ШІ: наприклад, один із ранніх інвесторів Instacart запустив фонд “Verified Capital” зі $175 мільйонами, орієнтованими на AI-стартапи (анонсовано 20 липня). А у сфері хмарних обчислень традиційні компанії пристосовуються до епохи ШІ – іноді болісно. Amazon підтвердила, що скорочує кілька сотень працівників AWS (переважно в службі підтримки хмарних сервісів), після того як генеральний директор Енді Джессі попередив, що ефективність ШІ призведе до зменшення певних “проміжних” посад binaryverseai.com. Внутрішні електронні листи цього тижня вказують, що деякі спеціалізовані команди з міграції у хмару стали непотрібними – “перше видиме підтвердження в межах AWS” автоматизації під керуванням ШІ, як зазначив Reuters binaryverseai.com binaryverseai.com. Аналітики стверджують, що навіть підрозділи з великою маржею не захищені: “ШІ поглинає завдання, які він освоює, а потім компанії або перенаправляють, або звільняють людей,” – сухо зазначив один із них binaryverseai.com. Попри значні прибутки, хмарний гігант проводить оптимізацію, демонструючи, як зростання продуктивності від ШІ також може на практиці призводити до скорочення робочої сили.

Наукові та медичні прориви

Прискорення медичного аналізу: У сфері охорони здоров’я прориви в штучному інтелекті обіцяють швидші діагнози та безпечніші процедури. Дослідники з Університету Індіани та партнерських лікарень презентували систему штучного інтелекту “Інформатика раку”, яка здатна аналізувати оцифровані зразки патології, електронні медичні картки й навіть геномні дані для виявлення потенційних онкозахворювань і пропонування стадій пухлини. За словами головного дослідника Спирідона Бакаса, ця система скоротила деякі діагностичні процеси “з днів до секунд”, тріажуючи випадки з надлюдською швидкістю binaryverseai.com binaryverseai.com. Інструмент також виявив делікатні взаємозв’язки між мульти-модальними даними, які людина могла б пропустити, хоча команда наполягає: патологи залишаються незамінними для складних випадків і остаточних висновків binaryverseai.com. Проєкт ілюструє ширшу тенденцію до мультимодального медичного ШІ, що здатен аналізувати різні типи даних одночасно. Подібно до цього, радіологи повідомили про успіхи у використанні моделі ШІ під назвою mViT (модифікований vision transformer) для покращення дитячих КТ-сканувань binaryverseai.com binaryverseai.com. Фотонно-лічильні КТ-сканери дозволяють знижувати дозу рентгенівського випромінювання для дітей, але зазвичай дають шумні зображення; система mViT навчилася зменшувати шум сканів у реальному часі, роблячи артерії й тканини чіткішими без розмиття, яке виникало при старих методах зниження шуму binaryverseai.com binaryverseai.com. Під час тестування на 20 маленьких пацієнтах ШІ постійно перевершував традиційні фільтри, що потенційно відкриває шлях до чіткіших КТ із низькою дозою — перемога для безпеки дітей, коли КТ нового покоління отримують схвалення FDA binaryverseai.com.

Прориви в біології та матеріалознавстві: ШІ також сприяє базовій науці. Нове дослідження у Nature Communications описує, як тріада нейронних мереж тепер може встановлювати часову мітку розвитку ембріона з точністю до хвилини, що може змінити розвиток біології binaryverseai.com. Навчаючи згорткові нейромережі на зображеннях ембріонів плодових мух у високій роздільній здатності, система навчилася розпізнавати тонкі візуальні підказки циклів поділу клітин. Вона може визначати вік ембріона (з похибкою ±1 хвилина) без використання руйнівних флуоресцентних маркерів – досягаючи 98–100% точності на ембріонах ранніх стадій binaryverseai.com binaryverseai.com. Цей штучний “ембріональний годинник” дозволив команді зіставити сплески активації генів з небаченою часовою точністю, надаючи біологам потужний новий інструмент для вивчення формування органів. У матеріалознавстві дослідники з Великої Британії представили “CrystalGPT,” модель, навченої на 706 000 кристалічних структур для прогнозування властивостей матеріалів. Вивчаючи “мову” молекулярних кристалів (через пазли із замаскованими атомами та задачі на симетрію), CrystalGPT може передбачити густину, пористість чи стабільність нових сполук значно швидше, ніж прямі симуляції binaryverseai.com binaryverseai.com. Експерти відзначають її прозорість – ШІ навіть підсвічує, які саме атомні оточення найбільше вплинули на прогноз, – даючи хімікам упевненість замість “чорної скриньки” binaryverseai.com. Швидше моделювання кристалів може прискорити прогрес у створенні батарей, каталізаторів, напівпровідникових матеріалів, скорочуючи час і вартість науково-дослідних робіт.

ШІ для коду – із застереженнями: Не всі дослідження були оптимістичними; одне з них стало реалістичним поглядом на асистентів з програмування на основі ШІ. У контрольованому експерименті досвідчені розробники програмного забезпечення витратили на 19% більше часу на виконання завдання з допомогою ШІ-асистента, ніж контрольна група без ШІ ts2.tech. Досвідчені програмісти очікували, що ШІ (інструмент підказки коду) зробить їх швидшими, але він часто надавав лише “правильні у напрямку, але не зовсім такі, як потрібно” фрагменти коду ts2.tech. Час втрачався на перегляд і виправлення цих майже правильних підказок. Натомість попередні дослідження показали значне підвищення швидкості у менш досвідчених програмістів на простіших завданнях. “Це більше схоже на редагування есе, ніж на написання з нуля,” – сказав один із досвідчених розробників про працю з ШІ-асистентом – можливо, більш розслаблено, зате повільніше ts2.tech. Дослідники з METR дійшли висновку, що нинішні асистенти на основі ШІ не є чарівною паличкою для підвищення продуктивності експертів у складному програмуванні і що суттєве доопрацювання (і людський контроль) досі необхідні ts2.tech. Це нюансоване спостереження стримує поспішне впровадження генераторів коду на основі ШІ для всіх розробників.

Зазирнути всередину “мозку” ШІ: Консорціум провідних науковців зі сфери штучного інтелекту (з OpenAI, DeepMind, Anthropic та провідних університетів) опублікував примітну статтю із закликом до розробки нових технік для моніторингу “ланцюга роздумів” ШІ – по суті, прихованих кроків міркування, які моделі ШІ генерують всередині себе ts2.tech. Оскільки системи ШІ стають дедалі автономнішими (як агенти, що з’являються сьогодні), автори стверджують, що можливість перевіряти ці проміжні думки може стати критично важливою для безпеки ts2.tech. Спостерігаючи поетапне міркування ШІ, розробники можуть вчасно виявити помилки чи небезпечні відхилення до того, як ШІ почне діяти. Однак у статті попереджається, що зі зростанням складності моделей “немає гарантії, що нинішній рівень прозорості збережеться” – майбутні ШІ можуть приховати процеси мислення так, що їх буде важко відстежити ts2.tech. Команда закликала спільноту “максимально ефективно використовувати можливість моніторингу [ланцюга роздумів]” вже сьогодні і прагнути зберігати прозорість у майбутньому ts2.tech. Примітно, що під цим закликом до дії підписалися найвідоміші фахівці у сфері ШІ – серед них Джеффрі Хінтон, головний науковець OpenAI Ілля Суцкевер (та керівник напряму узгодження Ян Лейке), співзасновник DeepMind Шейн Легг та інші ts2.tech. Це рідкісний приклад єдності між конкурентними лабораторіями, що відображає спільну стурбованість: оскільки ШІ наближається до людського рівня міркування, ми не повинні дозволити йому перетворитись на незбагненну “чорну скриньку”. Дослідження “сканування мозку ШІ” – тобто читання його думок – можуть стати не менш важливими, ніж створення самого ШІ.

Держава та регулювання

ЄС впроваджує Закон про штучний інтелект: Брюссель підштовхнув регуляторні межі, зробивши конкретні кроки щодо реалізації свого знакового Закону про ШІ. 18 липня Європейська комісія оприлюднила детальні інструкції для “ШІ-моделей із системними ризиками” – тобто найбільш потужних універсальних ШІ-систем, які можуть впливати на громадську безпеку або основні права людини ts2.tech. Інструкції роз’яснюють жорсткі нові вимоги, із якими зіткнуться ці постачальники ШІ після набуття чинності Законом про ШІ 2 серпня. Згідно з правилами, великі розробники штучного інтелекту (Google, OpenAI, Meta, Anthropic, французька Mistral та інші) повинні проводити суворі оцінки ризиків, випробування з протидією вразливостям (adversarial testing) та повідомляти про серйозні інциденти чи збої регуляторам ЄС ts2.tech. Вони також повинні впроваджувати надійний кіберзахист, щоб запобігти зловмисному використанню своїх моделей ts2.tech. Прозорість – ключове: розробники базових моделей повинні документувати джерела навчальних даних, дотримуватися авторських прав і публікувати короткі звіти про зміст датасетів, використаних для навчання кожного ШІ ts2.tech. “Завдяки сьогоднішнім інструкціям Комісія сприяє плавному та ефективному застосуванню Закону про ШІ”, — сказала головна технологічна чиновниця ЄС Генна Вірккунен, підкресливши, що регулятори хочуть забезпечити чіткість для бізнесу, стримуючи потенційні ризики ts2.tech. У компаній є пільговий період до серпня 2026 року для повного виконання вимог ts2.tech. Після цього порушення можуть обійтися у величезні штрафи – до €35 млн або 7% світового обороту (що більше) ts2.tech. Нові інструкції з’явилися на тлі невдоволення окремих технологічних компаній тим, що європейські правила можуть бути надто обтяжливими, проте чиновники ЄС налаштовані довести, що вони можуть бути “глобальними наглядачами ШІ”, не душачи інновації.

Добровільний кодекс спричиняє суперечки: У тіні обов’язкового AI Act запропонований регуляторами ЄС добровільний «Кодекс практики ШІ» викликав трансатлантичну дискусію. Кодекс, розроблений експертами для заохочення раннього впровадження деяких принципів AI Act, закликає компанії, що займаються ШІ, проактивно дотримуватись певних заходів прозорості та безпеки вже зараз, до набуття чинності закону. Цього тижня серед американських технологічних гігантів виник розкол: Microsoft натякнула, що, ймовірно, приєднається, президент Бред Сміт заявив: «Я думаю, що ми, ймовірно, підпишемося… Наша мета — підтримувати» та привітав тісну співпрацю з AI-офісом ЄС reuters.com. У різкому контрасті Meta Platforms категорично відкинула цей добровільний кодекс. «Meta не підписуватиме його. Цей кодекс створює низку юридичних невизначеностей для розробників моделей, а також запроваджує заходи, що значно виходять за межі AI Act», — написав керівник з глобальних питань Meta Джоел Каплан 18 липня reuters.com. На його думку, рекомендації ЄС є надмірним регулюванням, яке може «загальмувати розвиток і впровадження передових моделей ШІ в Європі» і «поставити під загрозу європейські компанії», що працюють у сфері ШІ reuters.com. Позиція Meta збігається зі скаргами коаліції з 45 європейських технологічних компаній, що проєкт кодексу є надто обмежувальним. З іншого боку, OpenAI (розробник ChatGPT) та французька Mistral AI вже підписали кодекс, сигналізуючи, що деякі провідні гравці готові пристати на більшу прозорість і перевірки дотримання авторських прав у Європі ts2.tech. Такий розкол підкреслює зростання напруги: американські гіганти прагнуть уникати прецедентів, які могли б стати для них обов’язковими в усьому світі, тоді як європейські регулятори (і деякі стартапи) вже зараз вимагають більш високих стандартів. Те, як буде впроваджений цей добровільний кодекс, може вплинути на фактичні правила ШІ у всьому світі ще до вступу обов’язкового закону ЄС у дію.

США роблять ставку на інновації, а не на регулювання: У Вашингтоні підхід до ШІ залишається більш стимулювальним, ніж обмежувальним – принаймні наразі. Цього тижня Білий дім зібрав керівників технокомпаній, дослідників та законодавців на Саміт з технологій та інновацій, який приніс близько 90 мільярдів доларів нових галузевих зобов’язань щодо проєктів зі штучного інтелекту та виробництва напівпровідників у США ts2.tech. Десятки компаній — від Google до Intel і Blackstone — пообіцяли інвестувати мільярди у передові дата-центри, вітчизняні фабрики чипів та дослідницькі центри ШІ по всій Америці, укріплюючи технічну інфраструктуру у партнерстві з федеральними ініціативами ts2.tech. Послання від американських лідерів: замість того, щоб негайно встановлювати загальні закони щодо ШІ, вони підливають пального у вогонь інновацій, щоб зберегти перевагу над глобальними конкурентами, водночас аналізуючи вплив ШІ. Навіть Федеральна резервна система США звертає на це увагу. У промові 17 липня щодо технологій членка Ради керуючих Федрезерву Ліза Д. Кук назвала ШІ «потенційно наступною технологією загального призначення» – порівнюючи його трансформаційний потенціал із друкарським верстатом чи електрикою ts2.tech. Вона відзначила, що «понад пів мільярда користувачів» у світі вже щотижня взаємодіють з великими ШІ-моделями, і що за минулий рік поступ ШІ подвоїв ключові показники ts2.tech. Водночас Кук попередила й про «багатовимірні виклики». Хоча ШІ у довгостроковій перспективі може підвищити продуктивність (і навіть допомогти стримати інфляцію), його стрімке впровадження може спричинити короткострокові потрясіння — включаючи сплески інвестицій і витрат, які парадоксальним чином можуть підняти ціни до появи ефективності ts2.tech. Її виважена позиція — не перебільшувати ні утопію, ні катастрофу — відображає ширше консенсус у Вашингтоні: заохочувати розвиток ШІ обережно, уважно стежачи за впливом на робочі місця, рівень інфляції та нерівність після їх появи.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

Великі технологічні компанії випускають автономних AI-агентів

OpenAI та AWS роблять все ставку на “агентний” ШІ: За останні 48 годин провідні компанії запустили автономних AI-агентів для виконання багатоетапних завдань за командою. OpenAI представила новий режим ChatGPT “Agent”, що дозволяє чат-боту виконувати дії від імені користувача – від пошуку ресторанних бронювань до здійснення покупок онлайн – використовуючи вбудований браузер і різноманітні плагіни з дозволу користувача ts2.tech. Платні підписники отримали доступ одразу, що стало кроком уперед від пасивних текстових чат-ботів. Щоб не відставати, підрозділ AWS компанії Amazon оголосив на саміті в Нью-Йорку про “AgentCore” – інструментарій для корпоративних клієнтів для створення власних AI-агентів у великих масштабах. Віцепрезидент AWS Свамі Сівасубраманіан назвав цих AI-агентів “тектонічною зміною, що змінить спосіб розробки та використання ПЗ”, а AWS представила сім сервісів агентів й навіть ринок AI-агентів для готових плагінів ts2.tech. Amazon підтримує цей напрямок фондом у $100 мільйонів, щоб стимулювати розвиток стартапів “агентного ШІ” ts2.tech. І OpenAI, і AWS змагаються за те, щоб AI-агенти стали стандартним інструментом – обіцяючи значний приріст продуктивності, навіть коли стикаються з викликами безпеки та надійності у реальному світі.

Мільярдні амбіції Meta у сфері ШІ: Зокрема, Meta Platforms дала зрозуміти, що перегони у сфері штучного інтелекту лише посилюються. Генеральний директор Марк Цукерберг створив новий підрозділ “Superintelligence Labs” та пообіцяв інвестувати “сотні мільярдів доларів” у ШІ, включаючи масштабну хмарну інфраструктуру ts2.tech. Протягом тижня Meta агресивно переманювала таланти у сфері ШІ – наймаючи провідних дослідників, таких як Марк Лі та Том Гунтер з Apple, а також таких відомих особистостей галузі, як Александер Ван (генеральний директор Scale AI) та інших з OpenAI, DeepMind і Anthropic ts2.tech. Ця хвиля найму має на меті прискорити просування Meta до розвитку загального штучного інтелекту (AGI) після повідомлень про те, що модель Llama 4 відстає від конкурентів ts2.tech. Meta навіть планує створити новий “мультигігавадний” суперкомп’ютер ШІ (проєкт Prometheus в Огайо) для підтримки моделей наступного покоління ts2.tech. По той бік Атлантики, європейський стартап у сфері штучного інтелекту Mistral AI показав, що досі перебуває у гонці: 17 липня Mistral з Парижа анонсував значні оновлення свого чат-бота Le Chat – додано режим голосового спілкування та агента “Deep Research”, який може наводити джерела у своїх відповідях ts2.tech. Ці безкоштовні оновлення мають на меті зберегти Mistral конкурентоспроможним із передовими асистентами від OpenAI та Google, що підкреслює рішучість Європи підтримувати власні інновації у сфері ШІ поряд із новими регуляціями.

xAI Маска отримує багатомільярдне підсилення: У сміливому міжгалузевому кроці SpaceX Ілона Маска інвестує 2 мільярди доларів у його власний проєкт штучного інтелекту xAI, викуповуючи 40% нового раунду фінансування xAI на 5 мільярдів доларів (оцінка xAI — близько 80 мільярдів) binaryverseai.com. Ця інвестиція забезпечує «ракетне паливо» для гігантського кластера суперкомп’ютерів xAI “Colossus” (вже ~200 000 графічних процесорів Nvidia, з можливістю розширення до 1 мільйона), який забезпечує роботу ІІ по всій імперії Маска binaryverseai.com. Система Colossus наразі займається плануванням місій ракет Falcon, оптимізацією мережі Starlink і навіть забезпечує роботу чат-бота “Grok”, якого Tesla інтегрує у панелі приладів авто binaryverseai.com. Угода між SpaceX і xAI підкреслює бачення Маска щодо глибокої інтеграції ІІ у ракети, автомобілі та його соціальну мережу X – хоча деякі критики відзначають енергетичні витрати (дата-центри на метані) та питання управління щодо перерозподілу мільярдів між фірмами Маска binaryverseai.com.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

Держава та регулювання

ЄС впроваджує Закон про штучний інтелект: Брюссель підштовхнув регуляторні межі, зробивши конкретні кроки щодо реалізації свого знакового Закону про ШІ. 18 липня Європейська комісія оприлюднила детальні інструкції для “ШІ-моделей із системними ризиками” – тобто найбільш потужних універсальних ШІ-систем, які можуть впливати на громадську безпеку або основні права людини ts2.tech. Інструкції роз’яснюють жорсткі нові вимоги, із якими зіткнуться ці постачальники ШІ після набуття чинності Законом про ШІ 2 серпня. Згідно з правилами, великі розробники штучного інтелекту (Google, OpenAI, Meta, Anthropic, французька Mistral та інші) повинні проводити суворі оцінки ризиків, випробування з протидією вразливостям (adversarial testing) та повідомляти про серйозні інциденти чи збої регуляторам ЄС ts2.tech. Вони також повинні впроваджувати надійний кіберзахист, щоб запобігти зловмисному використанню своїх моделей ts2.tech. Прозорість – ключове: розробники базових моделей повинні документувати джерела навчальних даних, дотримуватися авторських прав і публікувати короткі звіти про зміст датасетів, використаних для навчання кожного ШІ ts2.tech. “Завдяки сьогоднішнім інструкціям Комісія сприяє плавному та ефективному застосуванню Закону про ШІ”, — сказала головна технологічна чиновниця ЄС Генна Вірккунен, підкресливши, що регулятори хочуть забезпечити чіткість для бізнесу, стримуючи потенційні ризики ts2.tech. У компаній є пільговий період до серпня 2026 року для повного виконання вимог ts2.tech. Після цього порушення можуть обійтися у величезні штрафи – до €35 млн або 7% світового обороту (що більше) ts2.tech. Нові інструкції з’явилися на тлі невдоволення окремих технологічних компаній тим, що європейські правила можуть бути надто обтяжливими, проте чиновники ЄС налаштовані довести, що вони можуть бути “глобальними наглядачами ШІ”, не душачи інновації.

Добровільний кодекс спричиняє суперечки: У тіні обов’язкового AI Act запропонований регуляторами ЄС добровільний «Кодекс практики ШІ» викликав трансатлантичну дискусію. Кодекс, розроблений експертами для заохочення раннього впровадження деяких принципів AI Act, закликає компанії, що займаються ШІ, проактивно дотримуватись певних заходів прозорості та безпеки вже зараз, до набуття чинності закону. Цього тижня серед американських технологічних гігантів виник розкол: Microsoft натякнула, що, ймовірно, приєднається, президент Бред Сміт заявив: «Я думаю, що ми, ймовірно, підпишемося… Наша мета — підтримувати» та привітав тісну співпрацю з AI-офісом ЄС reuters.com. У різкому контрасті Meta Platforms категорично відкинула цей добровільний кодекс. «Meta не підписуватиме його. Цей кодекс створює низку юридичних невизначеностей для розробників моделей, а також запроваджує заходи, що значно виходять за межі AI Act», — написав керівник з глобальних питань Meta Джоел Каплан 18 липня reuters.com. На його думку, рекомендації ЄС є надмірним регулюванням, яке може «загальмувати розвиток і впровадження передових моделей ШІ в Європі» і «поставити під загрозу європейські компанії», що працюють у сфері ШІ reuters.com. Позиція Meta збігається зі скаргами коаліції з 45 європейських технологічних компаній, що проєкт кодексу є надто обмежувальним. З іншого боку, OpenAI (розробник ChatGPT) та французька Mistral AI вже підписали кодекс, сигналізуючи, що деякі провідні гравці готові пристати на більшу прозорість і перевірки дотримання авторських прав у Європі ts2.tech. Такий розкол підкреслює зростання напруги: американські гіганти прагнуть уникати прецедентів, які могли б стати для них обов’язковими в усьому світі, тоді як європейські регулятори (і деякі стартапи) вже зараз вимагають більш високих стандартів. Те, як буде впроваджений цей добровільний кодекс, може вплинути на фактичні правила ШІ у всьому світі ще до вступу обов’язкового закону ЄС у дію.

США роблять ставку на інновації, а не на регулювання: У Вашингтоні підхід до ШІ залишається більш стимулювальним, ніж обмежувальним – принаймні наразі. Цього тижня Білий дім зібрав керівників технокомпаній, дослідників та законодавців на Саміт з технологій та інновацій, який приніс близько 90 мільярдів доларів нових галузевих зобов’язань щодо проєктів зі штучного інтелекту та виробництва напівпровідників у США ts2.tech. Десятки компаній — від Google до Intel і Blackstone — пообіцяли інвестувати мільярди у передові дата-центри, вітчизняні фабрики чипів та дослідницькі центри ШІ по всій Америці, укріплюючи технічну інфраструктуру у партнерстві з федеральними ініціативами ts2.tech. Послання від американських лідерів: замість того, щоб негайно встановлювати загальні закони щодо ШІ, вони підливають пального у вогонь інновацій, щоб зберегти перевагу над глобальними конкурентами, водночас аналізуючи вплив ШІ. Навіть Федеральна резервна система США звертає на це увагу. У промові 17 липня щодо технологій членка Ради керуючих Федрезерву Ліза Д. Кук назвала ШІ «потенційно наступною технологією загального призначення» – порівнюючи його трансформаційний потенціал із друкарським верстатом чи електрикою ts2.tech. Вона відзначила, що «понад пів мільярда користувачів» у світі вже щотижня взаємодіють з великими ШІ-моделями, і що за минулий рік поступ ШІ подвоїв ключові показники ts2.tech. Водночас Кук попередила й про «багатовимірні виклики». Хоча ШІ у довгостроковій перспективі може підвищити продуктивність (і навіть допомогти стримати інфляцію), його стрімке впровадження може спричинити короткострокові потрясіння — включаючи сплески інвестицій і витрат, які парадоксальним чином можуть підняти ціни до появи ефективності ts2.tech. Її виважена позиція — не перебільшувати ні утопію, ні катастрофу — відображає ширше консенсус у Вашингтоні: заохочувати розвиток ШІ обережно, уважно стежачи за впливом на робочі місця, рівень інфляції та нерівність після їх появи.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

Наукові та медичні прориви

Прискорення медичного аналізу: У сфері охорони здоров’я прориви в штучному інтелекті обіцяють швидші діагнози та безпечніші процедури. Дослідники з Університету Індіани та партнерських лікарень презентували систему штучного інтелекту “Інформатика раку”, яка здатна аналізувати оцифровані зразки патології, електронні медичні картки й навіть геномні дані для виявлення потенційних онкозахворювань і пропонування стадій пухлини. За словами головного дослідника Спирідона Бакаса, ця система скоротила деякі діагностичні процеси “з днів до секунд”, тріажуючи випадки з надлюдською швидкістю binaryverseai.com binaryverseai.com. Інструмент також виявив делікатні взаємозв’язки між мульти-модальними даними, які людина могла б пропустити, хоча команда наполягає: патологи залишаються незамінними для складних випадків і остаточних висновків binaryverseai.com. Проєкт ілюструє ширшу тенденцію до мультимодального медичного ШІ, що здатен аналізувати різні типи даних одночасно. Подібно до цього, радіологи повідомили про успіхи у використанні моделі ШІ під назвою mViT (модифікований vision transformer) для покращення дитячих КТ-сканувань binaryverseai.com binaryverseai.com. Фотонно-лічильні КТ-сканери дозволяють знижувати дозу рентгенівського випромінювання для дітей, але зазвичай дають шумні зображення; система mViT навчилася зменшувати шум сканів у реальному часі, роблячи артерії й тканини чіткішими без розмиття, яке виникало при старих методах зниження шуму binaryverseai.com binaryverseai.com. Під час тестування на 20 маленьких пацієнтах ШІ постійно перевершував традиційні фільтри, що потенційно відкриває шлях до чіткіших КТ із низькою дозою — перемога для безпеки дітей, коли КТ нового покоління отримують схвалення FDA binaryverseai.com.

Прориви в біології та матеріалознавстві: ШІ також сприяє базовій науці. Нове дослідження у Nature Communications описує, як тріада нейронних мереж тепер може встановлювати часову мітку розвитку ембріона з точністю до хвилини, що може змінити розвиток біології binaryverseai.com. Навчаючи згорткові нейромережі на зображеннях ембріонів плодових мух у високій роздільній здатності, система навчилася розпізнавати тонкі візуальні підказки циклів поділу клітин. Вона може визначати вік ембріона (з похибкою ±1 хвилина) без використання руйнівних флуоресцентних маркерів – досягаючи 98–100% точності на ембріонах ранніх стадій binaryverseai.com binaryverseai.com. Цей штучний “ембріональний годинник” дозволив команді зіставити сплески активації генів з небаченою часовою точністю, надаючи біологам потужний новий інструмент для вивчення формування органів. У матеріалознавстві дослідники з Великої Британії представили “CrystalGPT,” модель, навченої на 706 000 кристалічних структур для прогнозування властивостей матеріалів. Вивчаючи “мову” молекулярних кристалів (через пазли із замаскованими атомами та задачі на симетрію), CrystalGPT може передбачити густину, пористість чи стабільність нових сполук значно швидше, ніж прямі симуляції binaryverseai.com binaryverseai.com. Експерти відзначають її прозорість – ШІ навіть підсвічує, які саме атомні оточення найбільше вплинули на прогноз, – даючи хімікам упевненість замість “чорної скриньки” binaryverseai.com. Швидше моделювання кристалів може прискорити прогрес у створенні батарей, каталізаторів, напівпровідникових матеріалів, скорочуючи час і вартість науково-дослідних робіт.

ШІ для коду – із застереженнями: Не всі дослідження були оптимістичними; одне з них стало реалістичним поглядом на асистентів з програмування на основі ШІ. У контрольованому експерименті досвідчені розробники програмного забезпечення витратили на 19% більше часу на виконання завдання з допомогою ШІ-асистента, ніж контрольна група без ШІ ts2.tech. Досвідчені програмісти очікували, що ШІ (інструмент підказки коду) зробить їх швидшими, але він часто надавав лише “правильні у напрямку, але не зовсім такі, як потрібно” фрагменти коду ts2.tech. Час втрачався на перегляд і виправлення цих майже правильних підказок. Натомість попередні дослідження показали значне підвищення швидкості у менш досвідчених програмістів на простіших завданнях. “Це більше схоже на редагування есе, ніж на написання з нуля,” – сказав один із досвідчених розробників про працю з ШІ-асистентом – можливо, більш розслаблено, зате повільніше ts2.tech. Дослідники з METR дійшли висновку, що нинішні асистенти на основі ШІ не є чарівною паличкою для підвищення продуктивності експертів у складному програмуванні і що суттєве доопрацювання (і людський контроль) досі необхідні ts2.tech. Це нюансоване спостереження стримує поспішне впровадження генераторів коду на основі ШІ для всіх розробників.

Зазирнути всередину “мозку” ШІ: Консорціум провідних науковців зі сфери штучного інтелекту (з OpenAI, DeepMind, Anthropic та провідних університетів) опублікував примітну статтю із закликом до розробки нових технік для моніторингу “ланцюга роздумів” ШІ – по суті, прихованих кроків міркування, які моделі ШІ генерують всередині себе ts2.tech. Оскільки системи ШІ стають дедалі автономнішими (як агенти, що з’являються сьогодні), автори стверджують, що можливість перевіряти ці проміжні думки може стати критично важливою для безпеки ts2.tech. Спостерігаючи поетапне міркування ШІ, розробники можуть вчасно виявити помилки чи небезпечні відхилення до того, як ШІ почне діяти. Однак у статті попереджається, що зі зростанням складності моделей “немає гарантії, що нинішній рівень прозорості збережеться” – майбутні ШІ можуть приховати процеси мислення так, що їх буде важко відстежити ts2.tech. Команда закликала спільноту “максимально ефективно використовувати можливість моніторингу [ланцюга роздумів]” вже сьогодні і прагнути зберігати прозорість у майбутньому ts2.tech. Примітно, що під цим закликом до дії підписалися найвідоміші фахівці у сфері ШІ – серед них Джеффрі Хінтон, головний науковець OpenAI Ілля Суцкевер (та керівник напряму узгодження Ян Лейке), співзасновник DeepMind Шейн Легг та інші ts2.tech. Це рідкісний приклад єдності між конкурентними лабораторіями, що відображає спільну стурбованість: оскільки ШІ наближається до людського рівня міркування, ми не повинні дозволити йому перетворитись на незбагненну “чорну скриньку”. Дослідження “сканування мозку ШІ” – тобто читання його думок – можуть стати не менш важливими, ніж створення самого ШІ.

Держава та регулювання

ЄС впроваджує Закон про штучний інтелект: Брюссель підштовхнув регуляторні межі, зробивши конкретні кроки щодо реалізації свого знакового Закону про ШІ. 18 липня Європейська комісія оприлюднила детальні інструкції для “ШІ-моделей із системними ризиками” – тобто найбільш потужних універсальних ШІ-систем, які можуть впливати на громадську безпеку або основні права людини ts2.tech. Інструкції роз’яснюють жорсткі нові вимоги, із якими зіткнуться ці постачальники ШІ після набуття чинності Законом про ШІ 2 серпня. Згідно з правилами, великі розробники штучного інтелекту (Google, OpenAI, Meta, Anthropic, французька Mistral та інші) повинні проводити суворі оцінки ризиків, випробування з протидією вразливостям (adversarial testing) та повідомляти про серйозні інциденти чи збої регуляторам ЄС ts2.tech. Вони також повинні впроваджувати надійний кіберзахист, щоб запобігти зловмисному використанню своїх моделей ts2.tech. Прозорість – ключове: розробники базових моделей повинні документувати джерела навчальних даних, дотримуватися авторських прав і публікувати короткі звіти про зміст датасетів, використаних для навчання кожного ШІ ts2.tech. “Завдяки сьогоднішнім інструкціям Комісія сприяє плавному та ефективному застосуванню Закону про ШІ”, — сказала головна технологічна чиновниця ЄС Генна Вірккунен, підкресливши, що регулятори хочуть забезпечити чіткість для бізнесу, стримуючи потенційні ризики ts2.tech. У компаній є пільговий період до серпня 2026 року для повного виконання вимог ts2.tech. Після цього порушення можуть обійтися у величезні штрафи – до €35 млн або 7% світового обороту (що більше) ts2.tech. Нові інструкції з’явилися на тлі невдоволення окремих технологічних компаній тим, що європейські правила можуть бути надто обтяжливими, проте чиновники ЄС налаштовані довести, що вони можуть бути “глобальними наглядачами ШІ”, не душачи інновації.

Добровільний кодекс спричиняє суперечки: У тіні обов’язкового AI Act запропонований регуляторами ЄС добровільний «Кодекс практики ШІ» викликав трансатлантичну дискусію. Кодекс, розроблений експертами для заохочення раннього впровадження деяких принципів AI Act, закликає компанії, що займаються ШІ, проактивно дотримуватись певних заходів прозорості та безпеки вже зараз, до набуття чинності закону. Цього тижня серед американських технологічних гігантів виник розкол: Microsoft натякнула, що, ймовірно, приєднається, президент Бред Сміт заявив: «Я думаю, що ми, ймовірно, підпишемося… Наша мета — підтримувати» та привітав тісну співпрацю з AI-офісом ЄС reuters.com. У різкому контрасті Meta Platforms категорично відкинула цей добровільний кодекс. «Meta не підписуватиме його. Цей кодекс створює низку юридичних невизначеностей для розробників моделей, а також запроваджує заходи, що значно виходять за межі AI Act», — написав керівник з глобальних питань Meta Джоел Каплан 18 липня reuters.com. На його думку, рекомендації ЄС є надмірним регулюванням, яке може «загальмувати розвиток і впровадження передових моделей ШІ в Європі» і «поставити під загрозу європейські компанії», що працюють у сфері ШІ reuters.com. Позиція Meta збігається зі скаргами коаліції з 45 європейських технологічних компаній, що проєкт кодексу є надто обмежувальним. З іншого боку, OpenAI (розробник ChatGPT) та французька Mistral AI вже підписали кодекс, сигналізуючи, що деякі провідні гравці готові пристати на більшу прозорість і перевірки дотримання авторських прав у Європі ts2.tech. Такий розкол підкреслює зростання напруги: американські гіганти прагнуть уникати прецедентів, які могли б стати для них обов’язковими в усьому світі, тоді як європейські регулятори (і деякі стартапи) вже зараз вимагають більш високих стандартів. Те, як буде впроваджений цей добровільний кодекс, може вплинути на фактичні правила ШІ у всьому світі ще до вступу обов’язкового закону ЄС у дію.

США роблять ставку на інновації, а не на регулювання: У Вашингтоні підхід до ШІ залишається більш стимулювальним, ніж обмежувальним – принаймні наразі. Цього тижня Білий дім зібрав керівників технокомпаній, дослідників та законодавців на Саміт з технологій та інновацій, який приніс близько 90 мільярдів доларів нових галузевих зобов’язань щодо проєктів зі штучного інтелекту та виробництва напівпровідників у США ts2.tech. Десятки компаній — від Google до Intel і Blackstone — пообіцяли інвестувати мільярди у передові дата-центри, вітчизняні фабрики чипів та дослідницькі центри ШІ по всій Америці, укріплюючи технічну інфраструктуру у партнерстві з федеральними ініціативами ts2.tech. Послання від американських лідерів: замість того, щоб негайно встановлювати загальні закони щодо ШІ, вони підливають пального у вогонь інновацій, щоб зберегти перевагу над глобальними конкурентами, водночас аналізуючи вплив ШІ. Навіть Федеральна резервна система США звертає на це увагу. У промові 17 липня щодо технологій членка Ради керуючих Федрезерву Ліза Д. Кук назвала ШІ «потенційно наступною технологією загального призначення» – порівнюючи його трансформаційний потенціал із друкарським верстатом чи електрикою ts2.tech. Вона відзначила, що «понад пів мільярда користувачів» у світі вже щотижня взаємодіють з великими ШІ-моделями, і що за минулий рік поступ ШІ подвоїв ключові показники ts2.tech. Водночас Кук попередила й про «багатовимірні виклики». Хоча ШІ у довгостроковій перспективі може підвищити продуктивність (і навіть допомогти стримати інфляцію), його стрімке впровадження може спричинити короткострокові потрясіння — включаючи сплески інвестицій і витрат, які парадоксальним чином можуть підняти ціни до появи ефективності ts2.tech. Її виважена позиція — не перебільшувати ні утопію, ні катастрофу — відображає ширше консенсус у Вашингтоні: заохочувати розвиток ШІ обережно, уважно стежачи за впливом на робочі місця, рівень інфляції та нерівність після їх появи.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

Фінанси, бізнес та інвестиції в ШІ

ШІ, спеціально створений для фінансів: Фінансовий сектор став свідком активного впровадження ШІ як у продуктах, так і в прибутках. Стартап Anthropic запустив Claude for Financial Services — версію свого асистента Claude-4, спеціалізованого для аналітиків ринку та банкірів. Anthropic стверджує, що Claude-4 перевершує інші провідні моделі у фінансових завданнях згідно з галузевими бенчмарками anthropic.com. Платформа може підключатися до поточних ринкових даних (через партнерів, таких як Bloomberg, FactSet та ін.) і обробляти значні обсяги робіт: від моделювання ризиків до оформлення документів для відповідності. Перші користувачі повідомляють про суттєві переваги — наприклад, генеральний директор суверенного фонду багатства Норвегії на $1,4 трлн (NBIM) заявив, що Claude “фундаментально змінив” їхню роботу, забезпечивши орієнтовно 20% приросту продуктивності (близько 213 000 зекономлених робочих годин) завдяки тому, що персонал може безперешкодно працювати з даними й ефективніше аналізувати фінансові звіти anthropic.com. З його слів, Claude фактично став “незамінним” для аналітиків та менеджерів з ризиків цієї компанії anthropic.com. Великі банки й фонди також досліджують можливості асистентів ШІ для прискорення досліджень з повним аудит-трейлом і автоматизації рутинних завдань, які зазвичай гальмують роботу фінансових команд.

Уолл-стріт робить ставки на AI-стартапи: Інвестори продовжують вкладати гроші в штучний інтелект із вражаючими оцінками. Цього вікенду надійшла новина, що стартап Perplexity AI, відомий своїм чат-ботом для пошуку на основі ШІ, залучив ще $100 мільйонів фінансування – і підняв свою оцінку до приблизно $18 мільярдів theindependent.sg. (Для порівняння, ще два місяці тому Perplexity оцінювали приблизно у $14 мільярдів, а минулого року – лише у $1 мільярд, що відображає стрімке зростання генеративного ШІ theindependent.sg.) З’являються і нові фонди з фокусом на ШІ: наприклад, один із ранніх інвесторів Instacart запустив фонд “Verified Capital” зі $175 мільйонами, орієнтованими на AI-стартапи (анонсовано 20 липня). А у сфері хмарних обчислень традиційні компанії пристосовуються до епохи ШІ – іноді болісно. Amazon підтвердила, що скорочує кілька сотень працівників AWS (переважно в службі підтримки хмарних сервісів), після того як генеральний директор Енді Джессі попередив, що ефективність ШІ призведе до зменшення певних “проміжних” посад binaryverseai.com. Внутрішні електронні листи цього тижня вказують, що деякі спеціалізовані команди з міграції у хмару стали непотрібними – “перше видиме підтвердження в межах AWS” автоматизації під керуванням ШІ, як зазначив Reuters binaryverseai.com binaryverseai.com. Аналітики стверджують, що навіть підрозділи з великою маржею не захищені: “ШІ поглинає завдання, які він освоює, а потім компанії або перенаправляють, або звільняють людей,” – сухо зазначив один із них binaryverseai.com. Попри значні прибутки, хмарний гігант проводить оптимізацію, демонструючи, як зростання продуктивності від ШІ також може на практиці призводити до скорочення робочої сили.

Наукові та медичні прориви

Прискорення медичного аналізу: У сфері охорони здоров’я прориви в штучному інтелекті обіцяють швидші діагнози та безпечніші процедури. Дослідники з Університету Індіани та партнерських лікарень презентували систему штучного інтелекту “Інформатика раку”, яка здатна аналізувати оцифровані зразки патології, електронні медичні картки й навіть геномні дані для виявлення потенційних онкозахворювань і пропонування стадій пухлини. За словами головного дослідника Спирідона Бакаса, ця система скоротила деякі діагностичні процеси “з днів до секунд”, тріажуючи випадки з надлюдською швидкістю binaryverseai.com binaryverseai.com. Інструмент також виявив делікатні взаємозв’язки між мульти-модальними даними, які людина могла б пропустити, хоча команда наполягає: патологи залишаються незамінними для складних випадків і остаточних висновків binaryverseai.com. Проєкт ілюструє ширшу тенденцію до мультимодального медичного ШІ, що здатен аналізувати різні типи даних одночасно. Подібно до цього, радіологи повідомили про успіхи у використанні моделі ШІ під назвою mViT (модифікований vision transformer) для покращення дитячих КТ-сканувань binaryverseai.com binaryverseai.com. Фотонно-лічильні КТ-сканери дозволяють знижувати дозу рентгенівського випромінювання для дітей, але зазвичай дають шумні зображення; система mViT навчилася зменшувати шум сканів у реальному часі, роблячи артерії й тканини чіткішими без розмиття, яке виникало при старих методах зниження шуму binaryverseai.com binaryverseai.com. Під час тестування на 20 маленьких пацієнтах ШІ постійно перевершував традиційні фільтри, що потенційно відкриває шлях до чіткіших КТ із низькою дозою — перемога для безпеки дітей, коли КТ нового покоління отримують схвалення FDA binaryverseai.com.

Прориви в біології та матеріалознавстві: ШІ також сприяє базовій науці. Нове дослідження у Nature Communications описує, як тріада нейронних мереж тепер може встановлювати часову мітку розвитку ембріона з точністю до хвилини, що може змінити розвиток біології binaryverseai.com. Навчаючи згорткові нейромережі на зображеннях ембріонів плодових мух у високій роздільній здатності, система навчилася розпізнавати тонкі візуальні підказки циклів поділу клітин. Вона може визначати вік ембріона (з похибкою ±1 хвилина) без використання руйнівних флуоресцентних маркерів – досягаючи 98–100% точності на ембріонах ранніх стадій binaryverseai.com binaryverseai.com. Цей штучний “ембріональний годинник” дозволив команді зіставити сплески активації генів з небаченою часовою точністю, надаючи біологам потужний новий інструмент для вивчення формування органів. У матеріалознавстві дослідники з Великої Британії представили “CrystalGPT,” модель, навченої на 706 000 кристалічних структур для прогнозування властивостей матеріалів. Вивчаючи “мову” молекулярних кристалів (через пазли із замаскованими атомами та задачі на симетрію), CrystalGPT може передбачити густину, пористість чи стабільність нових сполук значно швидше, ніж прямі симуляції binaryverseai.com binaryverseai.com. Експерти відзначають її прозорість – ШІ навіть підсвічує, які саме атомні оточення найбільше вплинули на прогноз, – даючи хімікам упевненість замість “чорної скриньки” binaryverseai.com. Швидше моделювання кристалів може прискорити прогрес у створенні батарей, каталізаторів, напівпровідникових матеріалів, скорочуючи час і вартість науково-дослідних робіт.

ШІ для коду – із застереженнями: Не всі дослідження були оптимістичними; одне з них стало реалістичним поглядом на асистентів з програмування на основі ШІ. У контрольованому експерименті досвідчені розробники програмного забезпечення витратили на 19% більше часу на виконання завдання з допомогою ШІ-асистента, ніж контрольна група без ШІ ts2.tech. Досвідчені програмісти очікували, що ШІ (інструмент підказки коду) зробить їх швидшими, але він часто надавав лише “правильні у напрямку, але не зовсім такі, як потрібно” фрагменти коду ts2.tech. Час втрачався на перегляд і виправлення цих майже правильних підказок. Натомість попередні дослідження показали значне підвищення швидкості у менш досвідчених програмістів на простіших завданнях. “Це більше схоже на редагування есе, ніж на написання з нуля,” – сказав один із досвідчених розробників про працю з ШІ-асистентом – можливо, більш розслаблено, зате повільніше ts2.tech. Дослідники з METR дійшли висновку, що нинішні асистенти на основі ШІ не є чарівною паличкою для підвищення продуктивності експертів у складному програмуванні і що суттєве доопрацювання (і людський контроль) досі необхідні ts2.tech. Це нюансоване спостереження стримує поспішне впровадження генераторів коду на основі ШІ для всіх розробників.

Зазирнути всередину “мозку” ШІ: Консорціум провідних науковців зі сфери штучного інтелекту (з OpenAI, DeepMind, Anthropic та провідних університетів) опублікував примітну статтю із закликом до розробки нових технік для моніторингу “ланцюга роздумів” ШІ – по суті, прихованих кроків міркування, які моделі ШІ генерують всередині себе ts2.tech. Оскільки системи ШІ стають дедалі автономнішими (як агенти, що з’являються сьогодні), автори стверджують, що можливість перевіряти ці проміжні думки може стати критично важливою для безпеки ts2.tech. Спостерігаючи поетапне міркування ШІ, розробники можуть вчасно виявити помилки чи небезпечні відхилення до того, як ШІ почне діяти. Однак у статті попереджається, що зі зростанням складності моделей “немає гарантії, що нинішній рівень прозорості збережеться” – майбутні ШІ можуть приховати процеси мислення так, що їх буде важко відстежити ts2.tech. Команда закликала спільноту “максимально ефективно використовувати можливість моніторингу [ланцюга роздумів]” вже сьогодні і прагнути зберігати прозорість у майбутньому ts2.tech. Примітно, що під цим закликом до дії підписалися найвідоміші фахівці у сфері ШІ – серед них Джеффрі Хінтон, головний науковець OpenAI Ілля Суцкевер (та керівник напряму узгодження Ян Лейке), співзасновник DeepMind Шейн Легг та інші ts2.tech. Це рідкісний приклад єдності між конкурентними лабораторіями, що відображає спільну стурбованість: оскільки ШІ наближається до людського рівня міркування, ми не повинні дозволити йому перетворитись на незбагненну “чорну скриньку”. Дослідження “сканування мозку ШІ” – тобто читання його думок – можуть стати не менш важливими, ніж створення самого ШІ.

Держава та регулювання

ЄС впроваджує Закон про штучний інтелект: Брюссель підштовхнув регуляторні межі, зробивши конкретні кроки щодо реалізації свого знакового Закону про ШІ. 18 липня Європейська комісія оприлюднила детальні інструкції для “ШІ-моделей із системними ризиками” – тобто найбільш потужних універсальних ШІ-систем, які можуть впливати на громадську безпеку або основні права людини ts2.tech. Інструкції роз’яснюють жорсткі нові вимоги, із якими зіткнуться ці постачальники ШІ після набуття чинності Законом про ШІ 2 серпня. Згідно з правилами, великі розробники штучного інтелекту (Google, OpenAI, Meta, Anthropic, французька Mistral та інші) повинні проводити суворі оцінки ризиків, випробування з протидією вразливостям (adversarial testing) та повідомляти про серйозні інциденти чи збої регуляторам ЄС ts2.tech. Вони також повинні впроваджувати надійний кіберзахист, щоб запобігти зловмисному використанню своїх моделей ts2.tech. Прозорість – ключове: розробники базових моделей повинні документувати джерела навчальних даних, дотримуватися авторських прав і публікувати короткі звіти про зміст датасетів, використаних для навчання кожного ШІ ts2.tech. “Завдяки сьогоднішнім інструкціям Комісія сприяє плавному та ефективному застосуванню Закону про ШІ”, — сказала головна технологічна чиновниця ЄС Генна Вірккунен, підкресливши, що регулятори хочуть забезпечити чіткість для бізнесу, стримуючи потенційні ризики ts2.tech. У компаній є пільговий період до серпня 2026 року для повного виконання вимог ts2.tech. Після цього порушення можуть обійтися у величезні штрафи – до €35 млн або 7% світового обороту (що більше) ts2.tech. Нові інструкції з’явилися на тлі невдоволення окремих технологічних компаній тим, що європейські правила можуть бути надто обтяжливими, проте чиновники ЄС налаштовані довести, що вони можуть бути “глобальними наглядачами ШІ”, не душачи інновації.

Добровільний кодекс спричиняє суперечки: У тіні обов’язкового AI Act запропонований регуляторами ЄС добровільний «Кодекс практики ШІ» викликав трансатлантичну дискусію. Кодекс, розроблений експертами для заохочення раннього впровадження деяких принципів AI Act, закликає компанії, що займаються ШІ, проактивно дотримуватись певних заходів прозорості та безпеки вже зараз, до набуття чинності закону. Цього тижня серед американських технологічних гігантів виник розкол: Microsoft натякнула, що, ймовірно, приєднається, президент Бред Сміт заявив: «Я думаю, що ми, ймовірно, підпишемося… Наша мета — підтримувати» та привітав тісну співпрацю з AI-офісом ЄС reuters.com. У різкому контрасті Meta Platforms категорично відкинула цей добровільний кодекс. «Meta не підписуватиме його. Цей кодекс створює низку юридичних невизначеностей для розробників моделей, а також запроваджує заходи, що значно виходять за межі AI Act», — написав керівник з глобальних питань Meta Джоел Каплан 18 липня reuters.com. На його думку, рекомендації ЄС є надмірним регулюванням, яке може «загальмувати розвиток і впровадження передових моделей ШІ в Європі» і «поставити під загрозу європейські компанії», що працюють у сфері ШІ reuters.com. Позиція Meta збігається зі скаргами коаліції з 45 європейських технологічних компаній, що проєкт кодексу є надто обмежувальним. З іншого боку, OpenAI (розробник ChatGPT) та французька Mistral AI вже підписали кодекс, сигналізуючи, що деякі провідні гравці готові пристати на більшу прозорість і перевірки дотримання авторських прав у Європі ts2.tech. Такий розкол підкреслює зростання напруги: американські гіганти прагнуть уникати прецедентів, які могли б стати для них обов’язковими в усьому світі, тоді як європейські регулятори (і деякі стартапи) вже зараз вимагають більш високих стандартів. Те, як буде впроваджений цей добровільний кодекс, може вплинути на фактичні правила ШІ у всьому світі ще до вступу обов’язкового закону ЄС у дію.

США роблять ставку на інновації, а не на регулювання: У Вашингтоні підхід до ШІ залишається більш стимулювальним, ніж обмежувальним – принаймні наразі. Цього тижня Білий дім зібрав керівників технокомпаній, дослідників та законодавців на Саміт з технологій та інновацій, який приніс близько 90 мільярдів доларів нових галузевих зобов’язань щодо проєктів зі штучного інтелекту та виробництва напівпровідників у США ts2.tech. Десятки компаній — від Google до Intel і Blackstone — пообіцяли інвестувати мільярди у передові дата-центри, вітчизняні фабрики чипів та дослідницькі центри ШІ по всій Америці, укріплюючи технічну інфраструктуру у партнерстві з федеральними ініціативами ts2.tech. Послання від американських лідерів: замість того, щоб негайно встановлювати загальні закони щодо ШІ, вони підливають пального у вогонь інновацій, щоб зберегти перевагу над глобальними конкурентами, водночас аналізуючи вплив ШІ. Навіть Федеральна резервна система США звертає на це увагу. У промові 17 липня щодо технологій членка Ради керуючих Федрезерву Ліза Д. Кук назвала ШІ «потенційно наступною технологією загального призначення» – порівнюючи його трансформаційний потенціал із друкарським верстатом чи електрикою ts2.tech. Вона відзначила, що «понад пів мільярда користувачів» у світі вже щотижня взаємодіють з великими ШІ-моделями, і що за минулий рік поступ ШІ подвоїв ключові показники ts2.tech. Водночас Кук попередила й про «багатовимірні виклики». Хоча ШІ у довгостроковій перспективі може підвищити продуктивність (і навіть допомогти стримати інфляцію), його стрімке впровадження може спричинити короткострокові потрясіння — включаючи сплески інвестицій і витрат, які парадоксальним чином можуть підняти ціни до появи ефективності ts2.tech. Її виважена позиція — не перебільшувати ні утопію, ні катастрофу — відображає ширше консенсус у Вашингтоні: заохочувати розвиток ШІ обережно, уважно стежачи за впливом на робочі місця, рівень інфляції та нерівність після їх появи.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

ШІ в медіа, розвагах і креативних індустріях

Netflix використовує ШІ для VFX: У Голлівуді відбулася визначна подія: Netflix повідомив у своєму звіті про прибутки, що почав використовувати генеративний ШІ у виробництві контенту, включаючи перші в історії кадри, створені ШІ, у шоу Netflix ts2.tech. В аргентинському науково-фантастичному серіалі «Ель Етернаута» цілу сцену обвалення будівлі було створено за допомогою ШІ — це зайняло у 10 разів менше часу та коштувало дешевше, ніж традиційні візуальні ефекти techcrunch.com. Спів-генеральний директор Тед Сарандос підкреслив, що ШІ використовується для підсилення творців, а не для їхньої заміни, заявивши: «ШІ відкриває неймовірні можливості допомогти творцям робити фільми та серіали кращими, а не просто дешевшими… це справжні люди, які виконують справжню роботу з кращими інструментами.» techcrunch.com Він зазначив, що художники Netflix вже відчувають переваги у препродакшн-візуалізації та плануванні кадрів. Netflix також використовує генеративний ШІ не лише для VFX – компанія застосовує його для персоналізованого відкриття контенту і вже готується запустити інтерактивну рекламу на базі ШІ до кінця цього року techcrunch.com.

Генеративна мода та відео-чари: Творчий підхід ШІ поширився й на моду та відео. Дослідники з Південної Кореї експериментували з «генеративним кутюром», використовуючи ChatGPT для прогнозування майбутніх модних трендів і DALL·E 3 для створення понад 100 віртуальних образів для колекції осінь/зима binaryverseai.com binaryverseai.com. Близько двох третин дизайнів, створених ШІ, відповідали реальним стилям, що натякає на здатність генеративних моделей виявляти тренди раніше, ніж це зроблять дизайнери. (ШІ зазнав труднощів із абстрактними поняттями, такими як гендерно-нейтральний дизайн, що підкреслює: людські дизайнери все ще тримають креативний компас binaryverseai.com.) У сфері технологій для кіновиробництва NVIDIA разом із партнерами з університетів презентували DiffusionRenderer — дворівневу систему ШІ, яка поєднує інверсний і прямий рендеринг, роблячи сучасні відеоефекти доступними для незалежних творців binaryverseai.com binaryverseai.com. В одному з демонстраційних відео користувач міг зняти простий кадр і додати CGI-дракона, тінь від якого виглядає реалістично без складних сенсорів чи ручного налаштування світла – ШІ самостійно вивчив геометрію та освітлення сцени за відео binaryverseai.com binaryverseai.com. У підсумку це звужує прірву між великими студіями і маленькими творцями, натякаючи на майбутнє з «майже магічним» відеомонтажем для всіх.

Фінанси, бізнес та інвестиції в ШІ

ШІ, спеціально створений для фінансів: Фінансовий сектор став свідком активного впровадження ШІ як у продуктах, так і в прибутках. Стартап Anthropic запустив Claude for Financial Services — версію свого асистента Claude-4, спеціалізованого для аналітиків ринку та банкірів. Anthropic стверджує, що Claude-4 перевершує інші провідні моделі у фінансових завданнях згідно з галузевими бенчмарками anthropic.com. Платформа може підключатися до поточних ринкових даних (через партнерів, таких як Bloomberg, FactSet та ін.) і обробляти значні обсяги робіт: від моделювання ризиків до оформлення документів для відповідності. Перші користувачі повідомляють про суттєві переваги — наприклад, генеральний директор суверенного фонду багатства Норвегії на $1,4 трлн (NBIM) заявив, що Claude “фундаментально змінив” їхню роботу, забезпечивши орієнтовно 20% приросту продуктивності (близько 213 000 зекономлених робочих годин) завдяки тому, що персонал може безперешкодно працювати з даними й ефективніше аналізувати фінансові звіти anthropic.com. З його слів, Claude фактично став “незамінним” для аналітиків та менеджерів з ризиків цієї компанії anthropic.com. Великі банки й фонди також досліджують можливості асистентів ШІ для прискорення досліджень з повним аудит-трейлом і автоматизації рутинних завдань, які зазвичай гальмують роботу фінансових команд.

Уолл-стріт робить ставки на AI-стартапи: Інвестори продовжують вкладати гроші в штучний інтелект із вражаючими оцінками. Цього вікенду надійшла новина, що стартап Perplexity AI, відомий своїм чат-ботом для пошуку на основі ШІ, залучив ще $100 мільйонів фінансування – і підняв свою оцінку до приблизно $18 мільярдів theindependent.sg. (Для порівняння, ще два місяці тому Perplexity оцінювали приблизно у $14 мільярдів, а минулого року – лише у $1 мільярд, що відображає стрімке зростання генеративного ШІ theindependent.sg.) З’являються і нові фонди з фокусом на ШІ: наприклад, один із ранніх інвесторів Instacart запустив фонд “Verified Capital” зі $175 мільйонами, орієнтованими на AI-стартапи (анонсовано 20 липня). А у сфері хмарних обчислень традиційні компанії пристосовуються до епохи ШІ – іноді болісно. Amazon підтвердила, що скорочує кілька сотень працівників AWS (переважно в службі підтримки хмарних сервісів), після того як генеральний директор Енді Джессі попередив, що ефективність ШІ призведе до зменшення певних “проміжних” посад binaryverseai.com. Внутрішні електронні листи цього тижня вказують, що деякі спеціалізовані команди з міграції у хмару стали непотрібними – “перше видиме підтвердження в межах AWS” автоматизації під керуванням ШІ, як зазначив Reuters binaryverseai.com binaryverseai.com. Аналітики стверджують, що навіть підрозділи з великою маржею не захищені: “ШІ поглинає завдання, які він освоює, а потім компанії або перенаправляють, або звільняють людей,” – сухо зазначив один із них binaryverseai.com. Попри значні прибутки, хмарний гігант проводить оптимізацію, демонструючи, як зростання продуктивності від ШІ також може на практиці призводити до скорочення робочої сили.

Наукові та медичні прориви

Прискорення медичного аналізу: У сфері охорони здоров’я прориви в штучному інтелекті обіцяють швидші діагнози та безпечніші процедури. Дослідники з Університету Індіани та партнерських лікарень презентували систему штучного інтелекту “Інформатика раку”, яка здатна аналізувати оцифровані зразки патології, електронні медичні картки й навіть геномні дані для виявлення потенційних онкозахворювань і пропонування стадій пухлини. За словами головного дослідника Спирідона Бакаса, ця система скоротила деякі діагностичні процеси “з днів до секунд”, тріажуючи випадки з надлюдською швидкістю binaryverseai.com binaryverseai.com. Інструмент також виявив делікатні взаємозв’язки між мульти-модальними даними, які людина могла б пропустити, хоча команда наполягає: патологи залишаються незамінними для складних випадків і остаточних висновків binaryverseai.com. Проєкт ілюструє ширшу тенденцію до мультимодального медичного ШІ, що здатен аналізувати різні типи даних одночасно. Подібно до цього, радіологи повідомили про успіхи у використанні моделі ШІ під назвою mViT (модифікований vision transformer) для покращення дитячих КТ-сканувань binaryverseai.com binaryverseai.com. Фотонно-лічильні КТ-сканери дозволяють знижувати дозу рентгенівського випромінювання для дітей, але зазвичай дають шумні зображення; система mViT навчилася зменшувати шум сканів у реальному часі, роблячи артерії й тканини чіткішими без розмиття, яке виникало при старих методах зниження шуму binaryverseai.com binaryverseai.com. Під час тестування на 20 маленьких пацієнтах ШІ постійно перевершував традиційні фільтри, що потенційно відкриває шлях до чіткіших КТ із низькою дозою — перемога для безпеки дітей, коли КТ нового покоління отримують схвалення FDA binaryverseai.com.

Прориви в біології та матеріалознавстві: ШІ також сприяє базовій науці. Нове дослідження у Nature Communications описує, як тріада нейронних мереж тепер може встановлювати часову мітку розвитку ембріона з точністю до хвилини, що може змінити розвиток біології binaryverseai.com. Навчаючи згорткові нейромережі на зображеннях ембріонів плодових мух у високій роздільній здатності, система навчилася розпізнавати тонкі візуальні підказки циклів поділу клітин. Вона може визначати вік ембріона (з похибкою ±1 хвилина) без використання руйнівних флуоресцентних маркерів – досягаючи 98–100% точності на ембріонах ранніх стадій binaryverseai.com binaryverseai.com. Цей штучний “ембріональний годинник” дозволив команді зіставити сплески активації генів з небаченою часовою точністю, надаючи біологам потужний новий інструмент для вивчення формування органів. У матеріалознавстві дослідники з Великої Британії представили “CrystalGPT,” модель, навченої на 706 000 кристалічних структур для прогнозування властивостей матеріалів. Вивчаючи “мову” молекулярних кристалів (через пазли із замаскованими атомами та задачі на симетрію), CrystalGPT може передбачити густину, пористість чи стабільність нових сполук значно швидше, ніж прямі симуляції binaryverseai.com binaryverseai.com. Експерти відзначають її прозорість – ШІ навіть підсвічує, які саме атомні оточення найбільше вплинули на прогноз, – даючи хімікам упевненість замість “чорної скриньки” binaryverseai.com. Швидше моделювання кристалів може прискорити прогрес у створенні батарей, каталізаторів, напівпровідникових матеріалів, скорочуючи час і вартість науково-дослідних робіт.

ШІ для коду – із застереженнями: Не всі дослідження були оптимістичними; одне з них стало реалістичним поглядом на асистентів з програмування на основі ШІ. У контрольованому експерименті досвідчені розробники програмного забезпечення витратили на 19% більше часу на виконання завдання з допомогою ШІ-асистента, ніж контрольна група без ШІ ts2.tech. Досвідчені програмісти очікували, що ШІ (інструмент підказки коду) зробить їх швидшими, але він часто надавав лише “правильні у напрямку, але не зовсім такі, як потрібно” фрагменти коду ts2.tech. Час втрачався на перегляд і виправлення цих майже правильних підказок. Натомість попередні дослідження показали значне підвищення швидкості у менш досвідчених програмістів на простіших завданнях. “Це більше схоже на редагування есе, ніж на написання з нуля,” – сказав один із досвідчених розробників про працю з ШІ-асистентом – можливо, більш розслаблено, зате повільніше ts2.tech. Дослідники з METR дійшли висновку, що нинішні асистенти на основі ШІ не є чарівною паличкою для підвищення продуктивності експертів у складному програмуванні і що суттєве доопрацювання (і людський контроль) досі необхідні ts2.tech. Це нюансоване спостереження стримує поспішне впровадження генераторів коду на основі ШІ для всіх розробників.

Зазирнути всередину “мозку” ШІ: Консорціум провідних науковців зі сфери штучного інтелекту (з OpenAI, DeepMind, Anthropic та провідних університетів) опублікував примітну статтю із закликом до розробки нових технік для моніторингу “ланцюга роздумів” ШІ – по суті, прихованих кроків міркування, які моделі ШІ генерують всередині себе ts2.tech. Оскільки системи ШІ стають дедалі автономнішими (як агенти, що з’являються сьогодні), автори стверджують, що можливість перевіряти ці проміжні думки може стати критично важливою для безпеки ts2.tech. Спостерігаючи поетапне міркування ШІ, розробники можуть вчасно виявити помилки чи небезпечні відхилення до того, як ШІ почне діяти. Однак у статті попереджається, що зі зростанням складності моделей “немає гарантії, що нинішній рівень прозорості збережеться” – майбутні ШІ можуть приховати процеси мислення так, що їх буде важко відстежити ts2.tech. Команда закликала спільноту “максимально ефективно використовувати можливість моніторингу [ланцюга роздумів]” вже сьогодні і прагнути зберігати прозорість у майбутньому ts2.tech. Примітно, що під цим закликом до дії підписалися найвідоміші фахівці у сфері ШІ – серед них Джеффрі Хінтон, головний науковець OpenAI Ілля Суцкевер (та керівник напряму узгодження Ян Лейке), співзасновник DeepMind Шейн Легг та інші ts2.tech. Це рідкісний приклад єдності між конкурентними лабораторіями, що відображає спільну стурбованість: оскільки ШІ наближається до людського рівня міркування, ми не повинні дозволити йому перетворитись на незбагненну “чорну скриньку”. Дослідження “сканування мозку ШІ” – тобто читання його думок – можуть стати не менш важливими, ніж створення самого ШІ.

Держава та регулювання

ЄС впроваджує Закон про штучний інтелект: Брюссель підштовхнув регуляторні межі, зробивши конкретні кроки щодо реалізації свого знакового Закону про ШІ. 18 липня Європейська комісія оприлюднила детальні інструкції для “ШІ-моделей із системними ризиками” – тобто найбільш потужних універсальних ШІ-систем, які можуть впливати на громадську безпеку або основні права людини ts2.tech. Інструкції роз’яснюють жорсткі нові вимоги, із якими зіткнуться ці постачальники ШІ після набуття чинності Законом про ШІ 2 серпня. Згідно з правилами, великі розробники штучного інтелекту (Google, OpenAI, Meta, Anthropic, французька Mistral та інші) повинні проводити суворі оцінки ризиків, випробування з протидією вразливостям (adversarial testing) та повідомляти про серйозні інциденти чи збої регуляторам ЄС ts2.tech. Вони також повинні впроваджувати надійний кіберзахист, щоб запобігти зловмисному використанню своїх моделей ts2.tech. Прозорість – ключове: розробники базових моделей повинні документувати джерела навчальних даних, дотримуватися авторських прав і публікувати короткі звіти про зміст датасетів, використаних для навчання кожного ШІ ts2.tech. “Завдяки сьогоднішнім інструкціям Комісія сприяє плавному та ефективному застосуванню Закону про ШІ”, — сказала головна технологічна чиновниця ЄС Генна Вірккунен, підкресливши, що регулятори хочуть забезпечити чіткість для бізнесу, стримуючи потенційні ризики ts2.tech. У компаній є пільговий період до серпня 2026 року для повного виконання вимог ts2.tech. Після цього порушення можуть обійтися у величезні штрафи – до €35 млн або 7% світового обороту (що більше) ts2.tech. Нові інструкції з’явилися на тлі невдоволення окремих технологічних компаній тим, що європейські правила можуть бути надто обтяжливими, проте чиновники ЄС налаштовані довести, що вони можуть бути “глобальними наглядачами ШІ”, не душачи інновації.

Добровільний кодекс спричиняє суперечки: У тіні обов’язкового AI Act запропонований регуляторами ЄС добровільний «Кодекс практики ШІ» викликав трансатлантичну дискусію. Кодекс, розроблений експертами для заохочення раннього впровадження деяких принципів AI Act, закликає компанії, що займаються ШІ, проактивно дотримуватись певних заходів прозорості та безпеки вже зараз, до набуття чинності закону. Цього тижня серед американських технологічних гігантів виник розкол: Microsoft натякнула, що, ймовірно, приєднається, президент Бред Сміт заявив: «Я думаю, що ми, ймовірно, підпишемося… Наша мета — підтримувати» та привітав тісну співпрацю з AI-офісом ЄС reuters.com. У різкому контрасті Meta Platforms категорично відкинула цей добровільний кодекс. «Meta не підписуватиме його. Цей кодекс створює низку юридичних невизначеностей для розробників моделей, а також запроваджує заходи, що значно виходять за межі AI Act», — написав керівник з глобальних питань Meta Джоел Каплан 18 липня reuters.com. На його думку, рекомендації ЄС є надмірним регулюванням, яке може «загальмувати розвиток і впровадження передових моделей ШІ в Європі» і «поставити під загрозу європейські компанії», що працюють у сфері ШІ reuters.com. Позиція Meta збігається зі скаргами коаліції з 45 європейських технологічних компаній, що проєкт кодексу є надто обмежувальним. З іншого боку, OpenAI (розробник ChatGPT) та французька Mistral AI вже підписали кодекс, сигналізуючи, що деякі провідні гравці готові пристати на більшу прозорість і перевірки дотримання авторських прав у Європі ts2.tech. Такий розкол підкреслює зростання напруги: американські гіганти прагнуть уникати прецедентів, які могли б стати для них обов’язковими в усьому світі, тоді як європейські регулятори (і деякі стартапи) вже зараз вимагають більш високих стандартів. Те, як буде впроваджений цей добровільний кодекс, може вплинути на фактичні правила ШІ у всьому світі ще до вступу обов’язкового закону ЄС у дію.

США роблять ставку на інновації, а не на регулювання: У Вашингтоні підхід до ШІ залишається більш стимулювальним, ніж обмежувальним – принаймні наразі. Цього тижня Білий дім зібрав керівників технокомпаній, дослідників та законодавців на Саміт з технологій та інновацій, який приніс близько 90 мільярдів доларів нових галузевих зобов’язань щодо проєктів зі штучного інтелекту та виробництва напівпровідників у США ts2.tech. Десятки компаній — від Google до Intel і Blackstone — пообіцяли інвестувати мільярди у передові дата-центри, вітчизняні фабрики чипів та дослідницькі центри ШІ по всій Америці, укріплюючи технічну інфраструктуру у партнерстві з федеральними ініціативами ts2.tech. Послання від американських лідерів: замість того, щоб негайно встановлювати загальні закони щодо ШІ, вони підливають пального у вогонь інновацій, щоб зберегти перевагу над глобальними конкурентами, водночас аналізуючи вплив ШІ. Навіть Федеральна резервна система США звертає на це увагу. У промові 17 липня щодо технологій членка Ради керуючих Федрезерву Ліза Д. Кук назвала ШІ «потенційно наступною технологією загального призначення» – порівнюючи його трансформаційний потенціал із друкарським верстатом чи електрикою ts2.tech. Вона відзначила, що «понад пів мільярда користувачів» у світі вже щотижня взаємодіють з великими ШІ-моделями, і що за минулий рік поступ ШІ подвоїв ключові показники ts2.tech. Водночас Кук попередила й про «багатовимірні виклики». Хоча ШІ у довгостроковій перспективі може підвищити продуктивність (і навіть допомогти стримати інфляцію), його стрімке впровадження може спричинити короткострокові потрясіння — включаючи сплески інвестицій і витрат, які парадоксальним чином можуть підняти ціни до появи ефективності ts2.tech. Її виважена позиція — не перебільшувати ні утопію, ні катастрофу — відображає ширше консенсус у Вашингтоні: заохочувати розвиток ШІ обережно, уважно стежачи за впливом на робочі місця, рівень інфляції та нерівність після їх появи.

Оборона та геополітика

Пентагон приймає «агентний штучний інтелект»: Міністерство оборони США розширює інвестиції в передовий штучний інтелект, стираючи кордони між Кремнієвою долиною та Пентагоном. У середині липня було оголошено, що OpenAI, Google, Anthropic та xAI Ілона Маска виграли оборонні контракти на суму до 200 мільйонів доларів кожен для створення прототипів передових систем «агентного ШІ» для національної безпеки reuters.com reuters.com. Керівник Офісу цифрових та ШІ-технологій Міністерства оборони заявив, що ці контракти дозволять агентам ШІ підтримувати військові робочі процеси та процеси ухвалення рішень. «Впровадження ШІ трансформує здатність Міністерства оборони підтримувати наших військових і зберігати стратегічну перевагу над супротивниками», — сказав керівник цифрових і ШІ-технологій Даг Метті, підкреслюючи високі ставки reuters.com. Минулого місяця Пентагон вже уклав з OpenAI контракт на 200 мільйонів доларів для адаптації ChatGPT-подібних технологій до потреб оборони reuters.com, а компанія Маска xAI щойно запустила пакет «Grok for Government» для надання своїх останніх моделей (у тому числі Grok 4) федеральним та національним безпековим установам reuters.com. Ці кроки поглиблюють взаємозв’язки між лідерами ШІ та урядом, навіть попри обіцянки офіційних осіб зберігати конкуренцію відкритою. Вони також відбуваються на тлі пом’якшення деяких попередніх регуляцій — у квітні президент Трамп скасував указ епохи Байдена 2023 року, який вимагав ширшого розкриття ризиків ШІ reuters.com, що свідчить про перехід до більш дружнього ставлення до технологій. Американська оборона активно використовує досягнення приватного сектору у сфері ШІ, розраховуючи, що автономні агенти ШІ можуть допомогти у всьому — від аналізу даних до планування на полі бою. (Не всі в захваті від таких тісних стосунків — сенаторка Елізабет Воррен нещодавно закликала Міністерство оборони забезпечити, щоб такі контракти на ШІ залишалися конкурентними та не домінували кілька компаній, що належать мільярдерам reuters.com.)

Nvidia у перехресному вогні технологічної напруги між США та Китаєм: У світі штучний інтелект залишався втягнутим у геополітику. У Пекіні китайські чиновники урочисто прийняли генерального директора Nvidia Дженсена Хуанга 18 липня на зустрічі високого рівня. Міністр торгівлі Китаю запевнив Хуанга, що Китай «буде вітати іноземні AI-компанії» після того, як США минулого року посилили експортний контроль над передовими чипами ts2.tech. Хуанг, чиї графічні процесори Nvidia забезпечують роботу значної частини світового AI, похвалив технологічний прогрес Китаю, назвавши китайські AI-моделі від таких компаній, як Alibaba та Tencent, «світового рівня», та висловив прагнення «поглиблювати співпрацю…в галузі AI» на гігантському китайському ринку ts2.tech. За кулісами з’явилися повідомлення, що Міністерство торгівлі США тихо надало Nvidia дозвіл відновити продажі свого найпотужнішого нового AI-чипа (H20 GPU) китайським клієнтам, тимчасово пом’якшивши заборону на експорт, яка діяла раніше ts2.tech. Цей очевидний жест доброї волі — ймовірно, з метою не задушити бізнес Nvidia — одразу викликав обурення у Вашингтоні. 18 липня конгресмен Джон Муленаар, голова комітету Палати представників з питань Китаю, відкрито розкритикував будь-яке пом’якшення заборони на чипи. «Міністерство торгівлі правильно вчинило, заборонивши H20», — написав він, попереджаючи: «Ми не можемо дозволити Комуністичній партії Китаю використовувати американські чипи для навчання AI-моделей, які будуть служити їхній армії, цензурувати їхній народ і підривати американські інновації». ts2.tech Інші прихильники політики національної безпеки підхопили його суворий меседж («не дозволяйте їм використовувати наші чипи проти нас»), тоді як представники галузі стверджували, що повне роз’єднання шкодить американському бізнесу. Акції Nvidia знизилися, оскільки інвестори занепокоїлися політичними наслідками ts2.tech. Цей епізод демонструє, наскільки складним є процес: США намагаються захистити свою безпеку й технологічне лідерство над Китаєм, але водночас потребують того, щоб їхні компанії (як Nvidia) отримували прибуток і фінансували подальші інновації. Китай зі свого боку сигналізує про відкритість до іноземних AI-компаній, одночасно інвестуючи мільярди у власні AI-чипи, щоб зменшити залежність від американських технологій. Коротко кажучи, ландшафт AI у середині 2025 року – це так само дипломатичні маневри, як і технічні прориви.

Соціальні реакції, етика та освіта

Захоплення та тривога громадськості щодо нових можливостей ШІ: Потік запусків ШІ одразу викликав жваві обговорення — як захоплення, так і обережності — у соціальних мережах. На X (раніше Twitter) та Reddit ChatGPT Agent від OpenAI став тенденцією, оскільки користувачі поспішили протестувати нову автономію чат-бота. Протягом кількох годин люди із захватом ділилися історіями про те, як агент купував квитки в кіно чи повністю планував відпустку, і один здивований користувач вигукнув: «Я не можу повірити, що він зробив усе без мене ts2.tech. Багато хто назвав агента поглядом у близьке майбутнє, де рутинні справи — запис до лікаря, купівля подарунків, планування поїздок — можна повністю довірити ШІ-асистентам. Проте серед загального ажіотажу відчувалася сильна хвиля обережності. Експерти з кібербезпеки та недовірливі користувачі почали шукати слабкі місця системи, закликаючи інших «не залишати її без нагляду». Кадри з демонстрації OpenAI (де підкреслюється, що людина може в будь-який момент зупинити чи скоригувати агента, якщо він відхилиться від сценарію) стали вірусними з підписами на кшталт «Круто, але слідкуйте уважно». ts2.tech Хештег #ChatGPTAgent став майданчиком для дискусій — це справжній прорив чи просто цікава «фішка»? Одним із гострих питань була географія: функція агента поки недоступна в ЄС — ймовірно, через невизначеність із майбутнім регулюванням. Європейські ентузіасти ШІ на форумах скаржилися, що «надмірне регулювання» «змушує нас пропускати» найновіші технології ts2.tech. А прихильники обережної політики ЄС відповідали, що правильніше буде зачекати, доки такі потужні ШІ стануть безпечними. Цей невеличкий «східно-західний» розлом — американці тестують завтрашні можливості ШІ вже сьогодні, а європейці чекають — сам по собі став темою для дискусій. Загалом емоції у соцмережах щодо нових «суперздібностей» ChatGPT були змішаними — від захоплення до нервовості, що відображає поступове звикання суспільства до і переваг, і ризиків штучного інтелекту у повсякденному житті.

Війни за таланти та побоювання щодо концентрації: Агресивне переманювання талантів Meta також викликало жваве обговорення та певне занепокоєння. На LinkedIn інженери жартома оновлювали свої профілі, додаючи нову роботу мрії: «Переманений до лабораторій суперінтелекту Цукерберга». Дехто піджартовував, що найбільший запуск продукту Meta цього тижня — це «прес-реліз зі списком усіх найнятих ними людей». ts2.tech Масштаби відтоку мізків — понад десяток провідних дослідників від конкурентів за кілька місяців — вразили спостерігачів. У техно-твіттері венчурні капіталісти напівжартома питали: «Хтось ще залишився в OpenAI або Google, чи вже всіх найняв Цук?» ts2.tech. Але ця кадрова лихоманка також викликала серйозні питання щодо консолідації влади в AI. Багато учасників спільноти відкритого AI висловили розчарування тим, що відомі дослідники, які виступали за прозорість і децентралізацію штучного інтелекту, тепер переходять за зачинені двері Big Tech ts2.tech. «Ось і прощавай, прозорість», — поскаржився один із користувачів Reddit, побоюючись, що передові розробки стануть ще секретнішими. Інші дотримуються довшої перспективи: якщо Meta інвестує значні ресурси, ці експерти зможуть швидше досягати проривів, ніж у стартапах — а Meta вже має досвід відкриття частини своїх розробок AI. Дискусія підкреслила амбівалентність: захоплення з приводу того, що “AI-зірки” можуть створити щось неймовірне за підтримки корпорації, поєднане зі страхом, що прогрес (і влада) в AI концентрується в руках небагатьох гігантів. Це вічна напруга між централізацією та децентралізацією, яка тепер розігрується у сфері AI.

Людська ціна автоматизації – Зростає невдоволення: Не всі новини про ШІ були сприйняті позитивно. Поки корпорації вихваляються зростанням продуктивності завдяки ШІ, багато з них також скорочують робочі місця, підживлюючи суспільну думку, що автоматизація позбавляє працівників засобів до існування. За останні тижні тисячі працівників технологічних компаній втратили роботу у таких фірмах, як Microsoft, Amazon та Intel. Керівники пояснюють це скороченням витрат та реструктуризацією – і прямо вказують на підвищення ефективності завдяки ШІ та автоматизації як частину цього рівняння ts2.tech. Реакція була різкою. У соціальних мережах і навіть на страйках люди висловлюють обурення, що успіхи ШІ можуть відбуватися за рахунок працівників. Деякі захисники прав трудящих закликають до регуляторної перевірки – пропонуючи ідеї, від обмежень на звільнення, викликані ШІ, до вимог, щоб компанії перенавчали або перекваліфіковували працівників на нові ШІ-орієнтовані ролі, якщо їхні колишні робочі місця автоматизовані ts2.tech. Хвиля звільнень також викликала етичну дискусію: компанії хваляться, що ШІ робить їх продуктивнішими, але якщо ця вигода збагачує переважно акціонерів, а працівники отримують “рожеві конверти”, “чи є це соціально прийнятним?” – запитують критики ts2.tech. Ця суперечка підсилює вимоги забезпечити, щоб вигоди ШІ були розподілені ширше – тема, до якої навіть OpenAI звернулася зі своїм новим фондом “AI for good” на 50 мільйонів доларів для підтримки громадських проєктів. Це нагадування, що “етика ШІ” – це не лише питання упередженості чи безпеки, а також економічної справедливості та людської ціни стрімких змін.

Штучний інтелект для дітей – можливості та занепокоєння: У сфері технологій компанії починають пропонувати дитячі інструменти ШІ – хоча й не без суперечок.

Цими вихідними Ілон Маск оголосив про плани створення «Baby Grok» — юніорської версії його чат-бота xAI, розробленої спеціально для навчання дітей.«Ми створимо Baby Grok… додаток, присвячений контенту, дружньому до дітей», написав Маск у X (Twitter) пізно ввечері в суботу thedailybeast.com.Ідея полягає в запуску спрощеного, з фільтрацією безпеки AI-асистента для дітей, який може відповідати на запитання та допомагати їм у навчанні в освітній, відповідній до віку формі foxbusiness.com foxbusiness.com.Baby Grok буде спрощеною версією основного чат-бота Маска Grok 4 (який його компанія xAI щойно оновила завдяки більш досконалим можливостям навчання foxbusiness.com).Цей крок відбувся після недавніх публічних проблем Grok — бота критикували за численні ненавмисні ворожі та екстремістські висловлювання під час тестувань thedailybeast.com.Звертаючи увагу на дитячу версію, Маск, схоже, прагне покращити імідж ШІ та завоювати нішу в освітніх технологіях, позиціонуючи Grok як конкурента дитячим ШІ-додаткам від OpenAI чи інших thedailybeast.com.«Очікується, що це буде спрощена версія Grok… адаптована для безпечної та освітньої взаємодії з дітьми», зазначено в одному з описів foxbusiness.com.Проте експерти закликають до обережності: AI-компаньйони для дітей несуть унікальні ризики, якщо їх належним чином не контролювати.Наприклад, Комісар з електронної безпеки Австралії видав попереджувальне повідомлення про те, що без належних запобіжних заходів AI-чатботи можуть піддавати дітей небезпечному контенту або маніпуляціям, починаючи від шкідливих ідей та булінгу, до сексуального насильства чи експлуатації через здобуття довіри дитини thedailybeast.com.Також існує занепокоєння, що діти можуть стати надмірно залежними від “друга” ШІ або розмити межі між стосунками з ШІ та людьми thedailybeast.com.Один трагічний випадок у новинах стосувався громадянина США.підліток, який став одержимим чат-ботом з ШІ і наклав на себе руки, що спричинило позов про обов’язок бота щодо турботи thedailybeast.com.Ці випадки підкреслюють, що штучний інтелект, орієнтований на дітей, потребує суворих заходів безпеки.Як висловився один фахівець з етики штучного інтелекту, це схоже на проектування нового виду ігрового майданчика – з неймовірними можливостями для навчання, але з обладнанням, яке має бути побудоване так, щоб діти не травмувалися.Чи здобуде «Baby Grok» довіру батьків, ще належить побачити, але прагнення інтегрувати штучний інтелект у освіту та життя молоді явно прискорюється.

Освіта у добу ШІ: Школи та батьки намагаються пристосуватися до ШІ – і захистити учнів. За відсутності федеральної політики США, більшість штатів уже розробили власні рекомендації щодо ШІ для шкільної освіти (K-12). Станом на цей тиждень, освітні відомства щонайменше 28 штатів (та Округ Колумбія) оприлюднили стандарти щодо таких питань, як академічне шахрайство, безпека учнів та відповідальне використання ШІ в класах governing.com. Ці рекомендації мають на меті допомогти вчителям використовувати інструменти ШІ, встановлюючи при цьому чіткі правила. “Одне з найбільших побоювань… і причина, чому виник запит на регулювання ШІ… – це надати певні рекомендації щодо безпечного використання,” пояснила Аманда Бікерстафф, керівниця неприбуткової організації AI for Education governing.com. Багато штатів акцентують на тому, щоб навчати учнів як перевагам, так і ризикам ШІ – наприклад, як генеративний ШІ може допомагати у навчанні, але також як розпізнавати дезінформацію, створену ШІ, чи уникати надмірної залежності. Такі штати, як Північна Кароліна, Джорджія, Мен та Невада, упродовж останніх місяців впровадили політики щодо ШІ у школах governing.com governing.com. Спостерігачі зазначають, що такі фрагментарні заходи заповнюють критично важливу прогалину, щоб ШІ “служив інтересам дітей… підсилюючи їхню освіту, а не шкодячи їй.” governing.com

Поділ прибутків: Посеред усіх цих змін лідери галузі штучного інтелекту самі визнають необхідність інклюзивного прогресу. Насправді, OpenAI – чий ChatGPT тепер було завантажено вражаючі 900+ мільйонів разів на мобільних пристроях (у 10 разів більше, ніж будь-який інший чат-бот) qz.com qz.com – щойно запустили першу масштабну філантропічну ініціативу. Компанія оголосила про створення фонду на $50 мільйонів для підтримки некомерційних організацій та спільнот, що використовують ШІ на благо суспільства reuters.com. Цей фонд підтримуватиме проєкти, що впроваджують ШІ у сферах освіти, охорони здоров’я, економічного розвитку та громадських досліджень, і був ключовою рекомендацією нової некомерційної “керівної” ради OpenAI reuters.com reuters.com. Некомерційний напрям OpenAI (який досі контролює комерційну компанію) протягом кількох місяців збирав думки понад 500 лідерів спільнот про те, як ШІ може допомогти суспільству reuters.com. У результаті створено фонд, який співпрацюватиме з місцевими організаціями, маючи на меті “використовувати ШІ на благо суспільства” та забезпечити, щоб переваги цієї технології були широко розподілені, а не зосереджені лише в технічних центрах ts2.tech. Це невеликий, але знаковий крок, адже індустрія стоїть перед ключовим питанням: як врівноважити стрімкі інновації із суспільною відповідальністю.


Від залів засідань великих технологічних компаній до наукових лабораторій, від знімальних майданчиків Голлівуду до класних кімнат — останні два дні продемонстрували, що штучний інтелект охоплює всі сектори та регіони. За ці 48 годин ми побачили, як автономні агенти перейшли від концепції до комерційної реальності, як компанії роблять мільярдні ставки на розвиток ШІ, а уряди водночас впроваджують і стримують цю технологію. Ми також побачили проблиски потенціалу ШІ — пришвидшення лікування раку, створення мистецтва та прискорення наукових відкриттів — але й застереження щодо його небезпек: втрати робочих місць, зменшення прозорості та етичних дилем. Як цього тижня зауважив один коментатор: “Штучний інтелект — це нова електрика.” binaryverseai.com Так само, як електрика на початку 1900-х років, стрімке впровадження ШІ викликає одночасно оптимізм і тривогу. Завдання майбутнього — трансформувати цю сирову потужність у загальний прогрес, забезпечивши безпеку системи для всіх.

Джерела: Інформація в цьому звіті була отримана з низки авторитетних новинних джерел, офіційних релізів та експертних коментарів, опублікованих 19–20 липня 2025 року. Основні джерела включають Reuters reuters.com reuters.com, TechCrunch techcrunch.com, Quartz qz.com, а також спеціалізовані дайджести новин про ШІ ts2.tech ts2.tech та інші, які цитуються у тексті.

Tags: