You Won’t Believe What OpenAI Did in July 2025: The Future of Generative AI Just Changed Forever

Jūs neticēsiet, ko OpenAI izdarīja 2025. gada jūlijā: ģeneratīvā mākslīgā intelekta nākotne ir uz visiem laikiem mainījusies

2025. gada jūlijs ir bijis vētrains mēnesis OpenAI ģeneratīvās mākslīgā intelekta centieniem. No revolucionāriem produktu laišanas tirgū un drosmīgām partnerībām līdz nopietnām drošības iniciatīvām un politikas soļiem – OpenAI turpina virzīt mākslīgā intelekta robežas un izraisa daudz ekspertu komentāru. Zemāk apkopojam visus galvenos jaunumus un notikumus, kā arī nozares līderu ieskatus par to, ko tas nozīmē mākslīgā intelekta nākotnei.

ChatGPT iegūst aģentisku jauninājumu – un tas ir kā AI asistents visam

OpenAI jūliju sāka ar lielu produkta laišanu tirgū: ChatGPT “Aģenta” ieviešanu 17. jūlijā. Šis jauninājums pārvērš ChatGPT no statiska čatbota par proaktīvu AI asistentu, kas spēj domāt un rīkoties lietotāja vārdā [1] [2]. Praktiski tas nozīmē, ka lietotāji tagad var lūgt ChatGPT veikt sarežģītus, vairāku soļu uzdevumus – no pētījumu veikšanas un ziņojumu rakstīšanas līdz vietņu pārlūkošanai, kalendāru pārvaldīšanai un pat pirkumu veikšanai tiešsaistē – visu autonomi drošā virtuālā datora vidē [3] [4]. OpenAI raksturo jauno aģentu kā “vienotu aģentisku sistēmu”, kas apvieno labāko no iepriekšējiem eksperimentālajiem rīkiem (ar tīmekli mijiedarbojošos Operatoru un analīzei veltīto Deep Research) ar ChatGPT sarunvalodas inteliģenci [5] [6].

Ko ChatGPT aģents spēj paveikt: Ar ieslēgtu “Aģenta” režīmu (tagad pieejams ChatGPT Plus, Pro un Team abonentiem), mākslīgais intelekts var brīvi pārslēgties starp pārlūkošanu internetā, koda izpildi, spraudņu izmantošanu un piekļuvi savienotajām lietotnēm, lai paveiktu uzdevumus [7] [8]. Piemēram, lietotāji var vienkārši aprakstīt mērķi, un ChatGPT to sadalīs pa soļiem un izpildīs – stāstot par savām darbībām ekrānā – līdz uzdevums ir pabeigts [9] [10]. Dažas no OpenAI un testētāju izceltajām iespējām ir:

  • Tīmekļa automatizācija: Vizualizēta vietņu pārlūkošana, pogu spiešana, formu aizpildīšana un informācijas iegūšana, pat droša pieteikšanās apstrāde [11] [12].
  • Kodēšana un analīze: Iebūvēta termināļa izmantošana koda izpildei, datu analīzei vai diagrammu un prezentāciju ģenerēšanai pēc norādījumiem [13] [14].
  • Integrētas lietotnes: Ar jauno Connectors palīdzību aģents var pieslēgties tādiem pakalpojumiem kā Gmail vai GitHub, lai iegūtu e-pastus, failus un citus ar pieprasījumu saistītus datus [15] [16].
  • Pilna cikla uzdevumu izpilde: Plāno darba plūsmas un izpilda vairāku soļu plānus (piemēram, “izpēti manus konkurentus un izveido prezentāciju par viņu stiprajām pusēm”) bez lietotāja pastāvīgas iesaistes [17] [18].

OpenAI lepojas, ka ChatGPT Agent pārstāv “jaunu AI sistēmu spēju līmeni”, spējot autonomi radīt rezultātus, kas iepriekš prasīja vairāku rīku sasaisti [19]. Ievērojami, agrīnie rādītāji liecina, ka tas sasniedza visaugstākos rezultātus plaša spektra loģiskās domāšanas testos (piemēram, 41,6% rezultāts izaicinošajā “Cilvēces pēdējais eksāmens” testā, pārspējot iepriekšējos modeļus) [20]. “Es domāju, ka 2025. gads būs tas gads, kad ChatGPT no supersaprātīgas lietas, kas var atbildēt uz jautājumiem, pārtaps par ChatGPT, kas dara lietas reālajā pasaulē,” sacīja kāds tehnoloģiju uzņēmuma vadītājs, atspoguļojot nozares sajūsmu [21].

Drošība pirmajā vietā, pat uz inovāciju robežas: Līdzās sajūsmai OpenAI ir atklāti norādījis, ka šis jaudīgais jaunais aģents rada jaunus riskus. Dodot ChatGPT iespēju veikt darbības (piemēram, rakstīt kodu vai pārlūkot tīmekli), sistēmu potenciāli varētu ļaunprātīgi izmantot vai tā varētu pieļaut kļūdas ar reālām sekām. “Mēs nevaram paredzēt visu,” atzina izpilddirektors Sems Altmans, uzsverot, ka šī funkcija ir “inovatīva un eksperimentāla” un “es to vēl neizmantotu augsta riska [uzdevumiem] vai ar daudz personīgas informācijas” [22]. OpenAI publicēja detalizētu “ChatGPT Agent System Card”, kurā aprakstīti ieviestie drošības pasākumi. Tie ietver automātisku atteikumu vai sekundāru pārbaudi bīstamiem pieprasījumiem (īpaši saistībā ar ķīmiskajiem vai bioloģiskajiem ieročiem), aģenta darbību reāllaika uzraudzību un lietotāja apstiprinājuma pieprasīšanu pirms jebkura augstas ietekmes soļa [23] [24]. Iekšējie drošības pētnieki pat nolēma klasificēt aģentu kā “augsta riska” modeli bio/ķīmijas jomā saskaņā ar OpenAI riska sistēmu – pirmo reizi, kad kāds OpenAI modelis saņēmis šādu apzīmējumu [25] [26].

Kāpēc tāda piesardzība? Sākotnējie testi parādīja, ka aģents potenciāli varētu samazināt barjeru iesācējiem atrast kaitīgu informāciju (piemēram, aizpildot plaisu starp vispārīgu informāciju tīmeklī un “praktiski izmantojamiem” ekspertu norādījumiem bioloģijā) [27]. “Daži varētu domāt, ka bioloģiskie riski nav reāli un modeļi sniedz tikai tādu informāciju, kādu var atrast meklējot. Tas varbūt bija taisnība 2024. gadā, bet noteikti vairs nav taisnība šodien,” brīdināja OpenAI pārstāvis Boazs Baraks, tehniskais darbinieks, uzsverot, cik daudz spējīgāks ir jaunais aģents [28]. Atbildot uz to, OpenAI sadarbojās ar bioaizsardzības ekspertiem un “sarkanās komandas” pārstāvjiem, lai rūpīgi pārbaudītu sistēmu pirms palaišanas [29], un ieviesa vairākus drošības slāņus: aģents aktīvi bloķēs jebkādus pieprasījumus, kas saistīti ar bioloģiskajiem ieročiem vai nelikumīgu rīcību, ierobežos potenciāli riskanto pieprasījumu biežumu un pat ļaus cilvēku moderatoriem “pārņemt” aģenta vadību, ja nepieciešams [30] [31]. “Slāņaina aizsardzība ir vienīgais veids, kā līdzsvarot inovācijas un drošību šajā līmenī,” sacīja OpenAI pārstāvis, uzsverot uzņēmuma apņemšanos atbildīgai ieviešanai [32].Nozares eksperti ir ātri izteikušies par šo nozīmīgo notikumu. Daudzi uzskata, ka ChatGPT Agent iezīmē jaunu AI “līdzpilotu” ēru, kas spēj ne tikai sniegt padomus, bet arī reāli izpildīt uzdevumus. “Ir traki vērot, kā cilvēki izmanto ChatGPT… zinot, kas vēl nāks,” kāds OpenAI darbinieks mājienā norādīja uz vēl lielākām lietām nākotnē [33]. Vienlaikus AI drošības pētnieki norāda, ka OpenAI atklātā pieeja – jauno Agent uzskatot par “augsta riska” un ieviešot vēl nebijušus drošības pasākumus – varētu noteikt jaunu caurspīdīguma un piesardzības standartu nozarē [34] [35]. Kopumā ChatGPT Agent izlaišana 2025. gada jūlijā iezīmē izšķirošu brīdi: AI sistēmas vairs tikai neatbild uz mūsu jautājumiem, tās sāk rīkoties mūsu vārdā – un pasaule cieši vēro, kā tas attīstīsies.

DALL·E un tālāk: OpenAI ģeneratīvais AI kļūst multimodāls (ienāk Sora)

OpenAI ģeneratīvā AI attīstība neaprobežojas tikai ar tekstu un attēliem – tagad tā drosmīgi ienāk arī video jomā. Sora, OpenAI jau sen gaidītais teksta-uz-video modelis, šovasar kļuva plaši pieejams lietotājiem kā daļa no ChatGPT premium plāniem [36] [37]. Sora ļauj lietotājiem ievadīt teksta aprakstu (un pēc izvēles attēlus vai video fragmentus) un saņemt augstas izšķirtspējas īsu video klipu kā rezultātu [38]. Piemēram, radītāji var ierakstīt “kovbojs astronauts izpēta džungļus, kas pārvēršas par mēnesi” un vērot, kā Sora ģenerē šo ainu kā dinamisku video. Rīks var arī nevainojami sapludināt divas dažādas video ainas, aizpildīt trūkstošos kadrus starp kadriem un piemērot stilistiskas transformācijas (piemēram, padarīt video kā papīra animāciju) – to visu nodrošina progresīvs ģeneratīvais AI [39] [40].

Lai gan OpenAI oficiāli “palaida” Sora pagājušā gada beigās, 2025. gada jūlijs ir pirmā reize, kad tā ir plaši pieejama sabiedrībai kā iebūvēta funkcija ChatGPT Plus un Pro (bez papildu maksas) [41] [42]. “Sora ļauj lietotājiem ievadīt ainas aprakstu un saņemt augstas izšķirtspējas video klipu,” norādīts kādā ziņojumā, to dēvējot par “modernāko AI video ģenerēšanas rīku”, kas varētu pārdefinēt radošā satura veidošanu [43]. Plus lietotāji tagad var ģenerēt līdz 10 sekunžu, 720p video, savukārt Pro abonenti saņem 1080p klipus līdz 20 sekundēm, ar ātrāku ģenerēšanu un pat lejupielādēm bez ūdenszīmes profesionālai lietošanai [44] [45]. Integrējot Sora, OpenAI norāda, ka multimodālā AI – AI, kas saprot un ģenerē ne tikai tekstu, bet arī attēlus, audio un video – tagad ir būtiska tās stratēģijas daļa. “Sora debija balstās uz OpenAI ambīcijām apgūt multimodalitāti,” sacīja izpilddirektors Sems Altmans tiešraides demonstrācijas laikā, izceļot tādas funkcijas kā “Blend” režīms ainu sapludināšanai un “Loop” režīms bezgalīgi atkārtojošu video veidošanai [46]. Tas virza OpenAI tālāk par ChatGPT tērzēšanas lodziņu un DALL·E attēliem uz pilnvērtīgas video veidošanas jomu, nostiprinot tās pozīcijas tajā, ko daudzi uzskata par ģeneratīvā AI nākamo robežu.

Konkurences vide: OpenAI nav vienīgais, kas tiecas pēc ar AI darbinātas video ģenerēšanas. Patiesībā Sora palaišana notiek laikā, kad ir sīva konkurence no citiem AI laboratorijām – AI bruņošanās sacensības ne tikai tekstā un attēlos, bet tagad arī video. Piemēram, Google izstrādā iekšēju rīku ar nosaukumu “Lumiere” AI video vajadzībām, un jaunuzņēmumi kā Stability AI (zināms ar Stable Diffusion) ir demonstrējuši “Stable Video Diffusion” modeļus [47]. Arī Meta un citi iegulda multimodālajā AI. Izlaižot Sora sabiedrībai caur ChatGPT, OpenAI, iespējams, ir izvirzījies priekšā šajās video ģenerēšanas sacensībās, piedāvājot noslīpētu produktu miljoniem lietotāju. “Video ģenerēšana kļūst par nākamo AI robežu,” norādīja Tech Funding News, atzīmējot, ka OpenAI konkurenti (Google, Meta, Stability) ir tieši uz papēžiem [48]. OpenAI priekšrocība šobrīd ir Sora tieša integrācija ekosistēmā (ChatGPT), ko lietotāji un izstrādātāji jau izmanto – tas samazina barjeru plašai AI ģenerēta video izmantošanai.

Izaicinājumi un pretrunas: Ieviešana nav notikusi bez sarežģījumiem. Īpaši jāatzīmē, ka Sora joprojām nav pieejama Eiropā un Apvienotajā Karalistē uz 2024. gada jūliju, un OpenAI norāda, ka nav laika grafika Sora izlaišanai ES/AK, kamēr viņi risina “juridiskos un drošības standartus” [49]. Daudzi to interpretē kā OpenAI piesardzību, ņemot vērā gaidāmos Eiropas AI noteikumus (ES AI akts, kas paredz stingrus noteikumus ģeneratīvajam AI no 2025. gada). Turklāt Sora izstrādes posmā bija pretestība no radošās kopienas. 2024. gada beigās protestētāji nopludināja agrīnu Sora modeli, un daži mākslinieki beta programmā publicēja atklātu vēstuli, apsūdzot OpenAI par “neapmaksāta darba izmantošanu” un caurspīdīguma trūkumu attiecībā uz šiem testētājiem [50]. “Cienījamie korporatīvie AI valdnieki,” ar šiem vārdiem sākās neapmierinātā vēstule, uzsverot spriedzi starp tehnoloģiju uzņēmumiem un māksliniekiem, kuri baidās tikt atstumti AI dēļ [51]. OpenAI atbildēja, uzsverot aizsardzības pasākumus pret ļaunprātīgu izmantošanu, kas iebūvēti Sorā (lai novērstu, piemēram, deepfake atdarinājumus vai dezinformācijas video [52]), kā arī norādot uz sadarbību ar radošajiem cilvēkiem (uzņēmums demonstrēja mākslinieku un filmu veidotāju lietošanas piemērus, kuri radoši izmanto Sora [53]). Tomēr šis incidents uzsvēra, ka OpenAI ir jāveido uzticība ar mākslinieku kopienu, ieviešot šos jaudīgos ģeneratīvos rīkus.

Kopumā Sora publiskā debija ChatGPT platformā ir nozīmīgs lēciens ģeneratīvā AI jomā – paplašinot mediju no teksta un attēliem līdz pilnvērtīgam video. Tas dod lietotājiem iespēju “iedzīvināt iztēli” pavisam jaunā veidā, vai jūs būtu filmu veidotājs, kas prototipē ainu, vai vienkārši hobija animators. Kā kāds radošais direktors izteicās, “Tas ir kā mazs kinostudija tavā rīcībā – tu apraksti, un tas vizualizē”. OpenAI turpinot pilnveidot Sora (un solot nākotnē vēl garākus un augstākas izšķirtspējas video), robeža starp cilvēka radošumu un AI palīdzību video veidošanā strauji izplūst.

6,5 miljardu dolāru likme uz AI aparatūru – OpenAI apvienojas ar Jony Ive komandu

Viens no visvairāk apspriestajiem notikumiem jūlijā bija OpenAI drosmīgais solis aparatūras jomā, sadarbojoties ar leģendāro Apple dizaineru Džoniju Aivu. 9. jūlijā OpenAI oficiāli apstiprināja, ka tā ir iegādājusies Aiva jaunuzņēmumu “io Products, Inc.” – divus gadus vecu dizaina firmu, kas koncentrējas uz mākslīgā intelekta ierīcēm – darījumā, kura vērtība, kā ziņots, ir gandrīz 6,5 miljardi ASV dolāru (akcijās) [54] [55]. Šis iespaidīgais darījums nozīmē, ka Aivs (radošais prāts aiz iPhone, iMac un citām ikoniskām ierīcēm) un viņa īpaši atlasītā bijušo Apple inženieru komanda tieši pievienojas OpenAI. Saskaņā ar OpenAI paziņojumu, “Džonijs Aivs un [viņa dizaina firma] LoveFrom paliek neatkarīgi, bet ir uzņēmušies dziļas dizaina un radošās atbildības OpenAI ietvaros” [56]. Citiem vārdiem sakot, Džonijs Aivs tagad vada OpenAI produktu un nākotnes MI saskarņu dizaina vīziju.

Kāpēc tas ir svarīgi: Sems Altmans, OpenAI izpilddirektors, bieži ir uzsvēris, ka mākslīgajam intelektam jābūt apvienotam ar lielisku lietotāja pieredzi un fiziskiem formfaktoriem. “Mākslīgais intelekts ir neticama tehnoloģija, taču lieliski rīki prasa darbu tehnoloģiju, dizaina un cilvēku un pasaules izpratnes krustpunktā. Neviens to nespēj kā Džonijs un viņa komanda; rūpība, ko viņi iegulda katrā aspektā… ir ārkārtēja,” sacīja Altmans, skaidrojot partnerības iemeslus [57]. Mērķis ir pilnībā pārveidot to, kā mēs mijiedarbojamies ar mākslīgo intelektu. Altmans un Aivs ir aizskāruši plānus radīt jaunu patērētāju ierīci, kas dziļi integrē OpenAI ģeneratīvo mākslīgo intelektu (iedomājieties ChatGPT intelektu) ar inovatīvu aparatūras dizainu [58] [59]. Lai gan viņi ir bijuši noslēpumaini par detaļām, ir noplūduši mājieni: The Verge ziņoja, ka projekts ir “apvienot ChatGPT mākslīgā intelekta tehnoloģiju ar jaunām aparatūras ierīcēm”, un citi iekšējie avoti spekulē, ka tas varētu būt revolucionārs skatījums uz viedtālruni vai valkājamu ierīci [60] [61]. Viens populārs baumu variants ir, ka viņi pēta balss-pirmā mākslīgā intelekta asistenta ierīci – būtībā “tālruni bez ekrāna,” kas paļaujas uz balsi un apkārtējo mākslīgo intelektu, lai palīdzētu lietotājiem ikdienas dzīvē [62]. Tas būtu radikāli atšķirīgs piegājiens no mūsdienu skārienekrāna ierīcēm, iespējams, ar mērķi padarīt mākslīgo intelektu pieejamāku visas dienas garumā. Abi uzskata, ka viņi mainīs veidu, kā cilvēki mijiedarbojas ar tehnoloģijām, norādīts AppleInsider ziņojumā, uzsverot šī projekta ambīcijas [63].

Darījuma iekšpusē: Ceļojums uz šo apvienošanos patiesībā sākās klusi pirms vairāk nekā diviem gadiem. Ive komanda LoveFrom sāka sadarboties ar OpenAI 2023. gadā, strādājot pie eksperimentāliem AI aparatūras dizainiem [64]. Līdz 2024. gadam Ive bija izveidojis “io Products” kopā ar galvenajiem bijušajiem Apple kolēģiem (tostarp Sera Džonija ilggadējiem līdz-dizaineriem Evansu Henkeju un Tangu Tanu), īpaši lai izstrādātu prototipus “jauniem produktiem, kas iedvesmo, pilnvaro un dod iespējas” jaunām AI pieredzēm [65]. Sākotnēji ziņojumos tika minēts, ka OpenAI varētu ieguldīt ap 500 miljoniem dolāru, taču lietas saasinājās – iesaistījās SoftBank un citi investori, un beigās OpenAI nolēma pilnībā iegādāties io Products par 6,5 miljardiem dolāru [66]. Darījums uz brīdi apstājās prečzīmes strīda dēļ (cits uzņēmums, Iyo, ieguva pagaidu aizliegumu par nosaukuma “io” izmantošanu), kas pat lika OpenAI uz laiku noņemt paziņojuma tīmekļa lapu jūnijā [67]. Taču līdz jūlijam jautājums bija pietiekami atrisināts, lai paziņojums varētu notikt – gan uzmanīgi pilnībā lietojot nosaukumu “io Products, Inc.”, lai izvairītos no pārpratumiem [68].

Nozares skatījumā šī augstākās klases mākslīgā intelekta uzņēmuma un izcilā dizaina vīzijas apvienība ir bezprecedenta. Tas norāda, ka OpenAI neplāno palikt tikai programmatūras/API uzņēmums, bet mērķē tieši veidot mākslīgā intelekta lietotāju pieredzi. “Gala pārdošanas cena izrādījās gandrīz 6,5 miljardi dolāru — akcijās,” uzsvēra kāds ziņojums, norādot, cik augstas ir likmes [69]. Salīdzinājumam, tas ir vairāk nekā Google kādreiz maksāja par Nest vai Motorola iegādi – tas izceļ OpenAI pārliecību, ka nākotnes MI izrāvieniem būs nepieciešams jauns aparatūras risinājums. Pats Džonijs Aivs ir paudis gan sajūsmu, gan atbildības sajūtu. “Man arvien vairāk šķiet, ka viss, ko esmu apguvis pēdējo 30 gadu laikā, ir novedis mani līdz šim brīdim… Esmu ļoti pateicīgs par iespēju būt daļai no tik nozīmīgas sadarbības,” sacīja Aivs, nosaucot Sema Altmana un OpenAI komandas vīziju par “reti iedvesmojošu” [70]. Novērotāji sagaida, ka pirmie šīs partnerības augļi parādīsies gada vai divu laikā – un, lai gan detaļas ir skopas, visticamāk, tas būs patērētājiem paredzēts ierīce, kas pārveidos mūsu ikdienas MI lietošanas veidu, iespējams, izmantojot balsi, sensorus un ChatGPT tipa viedumu vēl visaptverošāk nekā telefona lietotne. Kā kāds tehnoloģiju komentētājs ironiski piezīmēja, “Cerams, viņiem veiksies labāk nekā pēdējam jaunuzņēmumam, kas mēģināja radīt MI ierīci” [71] – atsaucoties uz neveiksmīgo AI Pin ierīci no jaunuzņēmuma Humane. Ņemot vērā Aiva pieredzi un OpenAI tehnoloģijas, gaidas par to, ko viņi atklās, būs ļoti augstas.

OpenAI sabiedrības uzmanības lokā: ieguldījumi kopienās, normatīvie šķēršļi un ekspertu reakcijas

Ne viss ir bijis tikai produktu laišana tirgū un partnerības – 2025. gada jūlijā OpenAI nācās orientēties arī sarežģītajā sociālajā un normatīvajā ainavā ap MI. Šeit ir galvenie notikumi šajā jomā:

1. Ieguldījumi mākslīgajā intelektā sabiedrības labā: OpenAI paziņoja par jaunu 50 miljonu dolāru fondu, lai atbalstītu bezpeļņas un kopienas projektus, kas izmanto mākslīgo intelektu, lai risinātu sabiedrības izaicinājumus [72]. Šis fonds tika izveidots 18. jūlijā kā tieša atbilde uz neatkarīgās OpenAI bezpeļņas komisijas secinājumiem, kas sanāca kopā šī gada sākumā. Komisija apkopoja viedokļus no vairāk nekā 500 bezpeļņas organizācijām un kopienu līderiem (pārstāvot vairāk nekā 7 miljonus cilvēku) par to, kā mākslīgais intelekts varētu palīdzēt risināt tādas problēmas kā izglītība, veselības aprūpe un ekonomiskā nevienlīdzība [73]. Ziņojums bija skaidrs: organizācijām, kas strādā pirmajās līnijās, ir nepieciešami resursi un atbalsts, lai izmantotu mākslīgo intelektu sabiedrības labā. OpenAI atbilde ir šis 50 miljonu dolāru fonds, kas piedāvās grantus un palīdzību “pirmajās līnijās un uz misiju orientētām organizācijām”, kas risina tādas problēmas kā izglītības uzlabošana, ekonomisko iespēju paplašināšana, kopienu organizēšana un veselības aprūpes pakalpojumi [74] [75]. “Mākslīgajam intelektam vajadzētu palīdzēt cilvēkiem risināt vissarežģītākās cilvēces problēmas, un tas nozīmē arī dot iespējas organizācijām, kas strādā pirmajās līnijās,” rakstīja uzņēmums, uzsverot, ka daudzas atbildes par to, kā mākslīgais intelekts var vislabāk palīdzēt, nāks no pašām kopienām [76] [77]. Šo soli eksperti plaši slavējuši kā pozitīvu – tas parāda, ka OpenAI sasaista savu misiju (nodrošināt, lai AGI sniegtu labumu visai cilvēcei) ar konkrētu rīcību. Tas ir arī ievērojams kā viens no pirmajiem lielajiem OpenAI filantropiskajiem pasākumiem. (Salīdzinājumam – OpenAI sākotnēji tika dibināts kā bezpeļņas organizācija, pirms pārejas uz ierobežotas peļņas modeli, un joprojām uztur bezpeļņas struktūrvienību, kas paredzēta ilgtermiņa labvēlīgas ietekmes veicināšanai [78] [79].) Ieguldot 50 miljonus dolāru jau tagad un solot, ka tas ir “viens no pirmajiem soļiem” plašākos centienos, OpenAI, šķiet, vēlas demonstrēt sociālo atbildību mākslīgā intelekta sacensību laikā [80].

2. Atvērtā pirmkoda MI izlaišanas aizkavēšana: Nedaudz pārsteidzošā pavērsienā OpenAI apturēja jauna atvērtā svara MI modeļa izlaišanu, kuru daudzi kopienā ar nepacietību gaidīja. Sems Altmans atklāja (ar 12. jūlija tvītu), ka OpenAI “plānoja palaist [mūsu] atvērto svaru modeli nākamnedēļ… [bet] mēs to aizkavējam”, lai veiktu papildu drošības pārbaudes un izvērtētu augsta riska jomas [81]. Tiek uzskatīts, ka runa ir par mazāka mēroga valodas modeli, kuru OpenAI plāno padarīt atvērtu pirmkodu (vai vismaz publiskot tā svarus) – tas ir atkāpšanās no ierastās slēgtā modeļa pieejas. Tas jau vienreiz tika atlikts agrāk vasarā, un tagad tā izlaišana ir uz nenoteiktu laiku atlikta, gaidot papildu izvērtēšanu [82]. “Mēs vēl nezinām, cik ilgu laiku tas prasīs,” atzina Altmans, uzsverot, ka, lai arī OpenAI “uzticas, ka kopiena radīs lieliskas lietas” ar atvērtu modeli, viņi vēlas pārliecināties, ka to var izlaist atbildīgi [83]. Šāda piesardzība izraisīja dažādas reakcijas. Daudzi atvērtā pirmkoda MI entuziasti ir vīlušies par aizkavēšanos, jo viņi vēlas iegūt jaudīgu jaunu modeli, ar kuru eksperimentēt. Taču citi – tostarp daži MI ētikas eksperti – atzinīgi novērtēja OpenAI par drošības prioritizēšanu pār ātrumu, īpaši ņemot vērā pieaugošās bažas par MI modeļu ļaunprātīgu izmantošanu (piemēram, surogātpastam, dziļviltojumiem utt.). Tas skaidri norāda, ka regulatori un sabiedrības uzmanība ietekmē OpenAI lēmumus: uzņēmums labi apzinās, ka problemātiska izlaišana varētu izraisīt regulatīvu reakciju. (Jāatzīmē, ka ASV FTC jau 2023. gadā sāka izmeklēšanu pret OpenAI par privātuma un dezinformācijas kaitējumu [84], un šī uzraudzība joprojām turpinās.) Altmaņa atklātība šajā jautājumā – būtībā sakot, “mēs varētu to izlaist tagad, bet tas varētu būt riskanti, tāpēc pagaidām to nedarīsim” – iezīmē OpenAI pieejas briedumu, salīdzinot ar agrākām, agresīvākām palaišanām.

3. Mākslīgā intelekta politika un caurspīdīguma pasākumi: OpenAI arī veica soļus, lai sagatavotos gaidāmajām regulatīvajām prasībām attiecībā uz ar mākslīgo intelektu ģenerētu saturu. Viens kluss, bet nozīmīgs atjauninājums: visiem ar DALL·E 3 (OpenAI attēlu ģenerators) radītajiem attēliem tagad ir kriptogrāfiski pievienota C2PA metadati, kas norāda, ka tie ir ģenerēti ar mākslīgo intelektu [85]. OpenAI sāka ieviest šo izcelsmes funkciju pagājušajā gadā un ir apņēmusies to paplašināt arī uz Sora video izvadi [86]. Šī metadati (balstīta uz atvērto standartu no Coalition for Content Provenance and Authenticity) ļauj izdevējiem un platformām automātiski noteikt, vai attēlu ir radījis vai rediģējis mākslīgais intelekts, kas tiek uzskatīts par būtisku cīņā pret dziļviltojumiem un dezinformāciju [87] [88]. “Šī gada sākumā mēs sākām pievienot C2PA metadatus visiem ar DALL·E 3 radītajiem un rediģētajiem attēliem… Mēs integrēsim C2PA arī Sora, kad modelis tiks plaši palaists,” norādīja OpenAI bloga atjauninājumā [89] [90]. Politikas veidotāji ir atzinīgi novērtējuši šādus soļus – patiesībā ES gaidāmais Mākslīgā intelekta akts, visticamāk, noteiks caurspīdīguma prasības mākslīgā intelekta radītajam saturam, un uzņēmumi, kas jau ievieš satura akreditācijas, būs soli priekšā. Papildus tam OpenAI pievienojās C2PA vadības komitejai un ir pētījusi ūdenszīmju metodes mākslīgā intelekta tekstam, tādējādi parādot savu nodomu veidot un ievērot nozares standartus mākslīgā intelekta caurspīdīguma jomā [91] [92].

Uz regulatīvā frontē

, Eiropas Savienības Mākslīgā intelekta akts rada lielu ietekmi uz OpenAI darbību. Akta noteikumi par “pamata modeļiem” (piemēram, GPT-4) sāks stāties spēkā 2025. gadā, un uzņēmumiem būs jāatklāj vairāk informācijas par apmācību datiem, jānodrošina stingra riska kontrole un jāmarķē ar mākslīgo intelektu ģenerēts saturs. Nav nejaušība, ka OpenAI vēl nav palaidis tādus pakalpojumus kā Sora ES [93] – visticamāk, viņi gaida, lai nodrošinātu atbilstību (vai vismaz skaidrību) pirms to darīt. OpenAI izpilddirektors ir sadarbojies ar Eiropas regulatoriem un pat īslaicīgi 2023. gadā piedraudēja aiziet no Eiropas, ja noteikumi būs pārāk apgrūtinoši (vēlāk viņš šo nostāju mainīja). Tagad, 2025. gadā, OpenAI, šķiet, piekopj sadarbības pilnāku pieeju: ievēro standartus (piemēram, C2PA), finansē sabiedrības pētījumus par MI ietekmi un publiski apņemas veikt drošības testēšanu. Kā norādīja viens Eiropas MI politikas eksperts, “Tas uzsver nepieciešamību pēc ciešas saskaņošanas ar ES regulējumu… lai nodrošinātu, ka ģeneratīvais MI atbilst mūsu vērtībām”, un OpenAI, šķiet, klausās [94].

4. Ekspertu komentāri – Hipe un brīdinājumi: Straujā attīstība OpenAI šomēnes ir izraisījusi komentārus no visām tehnoloģiju pasaules malām. Daudzi nozares līderi ir sajūsmā: Microsoft izpilddirektors Satja Nadella nosauca ChatGPT aģentu par “jaunu paradigmu skaitļošanā” (Microsoft, protams, ir liels OpenAI partneris un investors), un riska kapitālisti norāda uz OpenAI soļiem kā apliecinājumu, ka aģenti un multimodālais MI ir nākamais lielais tirgus. Tajā pašā laikā daži kritiķi aicina uz piesardzību. Pazīstamais MI skeptiķis Gerijs Markuss apgalvoja, ka, neskatoties uz OpenAI progresu, “mums joprojām trūkst skaidra apstiprinājuma, ka šīm sistēmām var uzticēties visos scenārijos”, atkārtoti aicinot veikt trešo pušu auditu jaudīgiem MI modeļiem [95]. Ir arī baumas par OpenAI iekšējo kultūru pēc tik strauja gada – jūnijā ziņots, ka daži bijušie OpenAI darbinieki uzskatīja, ka uzņēmuma peļņas dzinulis aizēno tā drošības ideālus [96]. OpenAI vadība atzīst spiedienu. “2025. gads būs gads, kad aģenti patiesi pievienosies darbaspēkam,” nesen prognozēja Sems Altmans [97] – un ar jūlija jaunumiem šī prognoze piepildās – taču viņš arī brīdina, ka sabiedrībai būs jāpielāgojas. Vienā publiskā forumā Altmans pārdomāja ietekmi uz darba tirgu, sakot, ka sagaida, ka MI “būtiski mainīs uzņēmumu rezultātus”, automatizējot rutīnas uzdevumus [98], un aicināja politikas veidotājus sākt pārdomāt izglītību un nodarbinātību MI atbalstītai pasaulei.


Nozīmīgi produktu laišanas tirgū notikumi, piemēram, ChatGPT Agent un Sora paplašināšana, būtiskas stratēģiskas likmes un pastiprināti drošības pasākumi – OpenAI šī gada 2025. gada jūlijā neapšaubāmi ir noteicis ģeneratīvā mākslīgā intelekta nākotnes toni. Uzņēmums meistarīgi balansē starp inovācijām un atbildību: ieviešot jaudīgus jaunus rīkus, kas “spēj paveikt ievērojamus, sarežģītus uzdevumus” [99], vienlaikus ieguldot resursus drošības pētījumos, politikas veidošanā un sadarbībā ar kopienu. Ieejot 2025. gada otrajā pusē, visa uzmanība ir pievērsta OpenAI – un patiesībā visai nozarei –, lai redzētu, vai šie notikumi patiešām mainīs spēles noteikumus uz labu. “Mākslīgā intelekta nākotne ir kļuvusi daudz tuvāka,” atzīmēja kāds eksperts, “un OpenAI vienlaikus gan virza šo attīstību, gan cenšas to padarīt atbildīgu.” Tehnoloģiju gigantiem, jaunuzņēmumiem, regulatoriem un sabiedrībai cieši vērojot, viena lieta ir skaidra: tas, ko OpenAI paveica 2025. gada jūlijā, ir uz visiem laikiem mainījis ģeneratīvā mākslīgā intelekta attīstības virzienu – un šis stāsts tikai sākas.

Avoti:

  • OpenAI, “Introducing ChatGPT Agent: bridging research and action,” 2025. gada 17. jūlijs [100] [101].
  • OpenAI, “ChatGPT Agent System Card,” 2025. gada 17. jūlijs [102] [103].
  • TechCrunch, “ChatGPT: Everything you need to know… (OpenAI launches a general-purpose agent in ChatGPT),” 2025. gada 18. jūlijs [104] [105].
  • Cybernews, “OpenAI’s new ChatGPT agent can handle your daily tasks,” 2025. gada 10. jūlijs [106] [107].
  • Tech Funding News, “Gaismas, kamera, Sora: OpenAI atklāj revolucionāru mākslīgā intelekta video ģenerēšanas rīku,” 2024. gada 11. decembris [108] [109].
  • Tech Funding News, par Sora debiju un funkcijām [110] [111].
  • International Business Times (caur inkl), “OpenAI klasificē ChatGPT aģentu kā augsta bioloģiskā riska, pastiprina drošības pasākumus…,” 2025. gada 17. jūlijs [112] [113].
  • OpenAI, “Vēstule no Sema & Džonija,” atjaunināts 2025. gada 9. jūlijā [114] [115].
  • The Verge, “OpenAI noslēdz darījumu par Jony Ive uzņēmuma io iegādi un AI aparatūras izstrādi,” 2025. gada 9. jūlijs [116] [117].
  • AppleInsider, “OpenAI un Jony Ive io Products apvienošanās ir pabeigta,” 2025. gada 9. jūlijs [118] [119].
  • OpenAI, “50 miljonu dolāru fonds kopienu attīstīšanai,” 2025. gada 18. jūlijs [120] [121].
  • OpenAI Direktoru padome, “Paziņojums par OpenAI bezpeļņas komisijas ziņojumu,” 2025. gada 17. jūlijs [122] [123].
  • OpenAI, “Izpratne par to, no kurienes nāk tas, ko redzam un dzirdam tiešsaistē” (Satura autentiskuma atjauninājums) [124] [125].
Roadmap to Become a Generative AI Expert for Beginners in 2025

References

1. openai.com, 2. openai.com, 3. openai.com, 4. openai.com, 5. openai.com, 6. openai.com, 7. openai.com, 8. openai.com, 9. openai.com, 10. cybernews.com, 11. openai.com, 12. openai.com, 13. openai.com, 14. openai.com, 15. openai.com, 16. openai.com, 17. openai.com, 18. cybernews.com, 19. cybernews.com, 20. cybernews.com, 21. em360tech.com, 22. cybernews.com, 23. www.inkl.com, 24. www.inkl.com, 25. openai.com, 26. www.inkl.com, 27. www.inkl.com, 28. www.inkl.com, 29. www.inkl.com, 30. www.inkl.com, 31. www.inkl.com, 32. www.inkl.com, 33. medium.com, 34. www.inkl.com, 35. www.inkl.com, 36. techfundingnews.com, 37. techfundingnews.com, 38. techfundingnews.com, 39. techfundingnews.com, 40. techfundingnews.com, 41. techfundingnews.com, 42. techfundingnews.com, 43. techfundingnews.com, 44. openai.com, 45. openai.com, 46. techfundingnews.com, 47. techfundingnews.com, 48. techfundingnews.com, 49. techfundingnews.com, 50. techfundingnews.com, 51. techfundingnews.com, 52. techfundingnews.com, 53. openai.com, 54. www.theverge.com, 55. appleinsider.com, 56. www.theverge.com, 57. openai.com, 58. www.theverge.com, 59. appleinsider.com, 60. www.theverge.com, 61. appleinsider.com, 62. appleinsider.com, 63. appleinsider.com, 64. openai.com, 65. openai.com, 66. appleinsider.com, 67. www.theverge.com, 68. www.theverge.com, 69. appleinsider.com, 70. openai.com, 71. appleinsider.com, 72. openai.com, 73. openai.com, 74. openai.com, 75. openai.com, 76. openai.com, 77. openai.com, 78. openai.com, 79. openai.com, 80. openai.com, 81. techcrunch.com, 82. techcrunch.com, 83. techcrunch.com, 84. www.foley.com, 85. openai.com, 86. openai.com, 87. openai.com, 88. openai.com, 89. openai.com, 90. openai.com, 91. openai.com, 92. openai.com, 93. techfundingnews.com, 94. www.dataprotectionlawhub.com, 95. garymarcus.substack.com, 96. www.crescendo.ai, 97. fortune.com, 98. fortune.com, 99. cybernews.com, 100. openai.com, 101. openai.com, 102. openai.com, 103. www.inkl.com, 104. techcrunch.com, 105. techcrunch.com, 106. cybernews.com, 107. cybernews.com, 108. techfundingnews.com, 109. techfundingnews.com, 110. techfundingnews.com, 111. techfundingnews.com, 112. www.inkl.com, 113. www.inkl.com, 114. openai.com, 115. openai.com, 116. www.theverge.com, 117. www.theverge.com, 118. appleinsider.com, 119. appleinsider.com, 120. openai.com, 121. openai.com, 122. openai.com, 123. openai.com, 124. openai.com, 125. openai.com

AI Revolution Roundup: Meta’s Secret Weapon, China’s Global Gambit & Breakthrough Tech (July 25–26, 2025)
Previous Story

Mākslīgā intelekta revolūcijas apskats: Meta slepenais ierocis, Ķīnas globālā spēle un izrāviena tehnoloģijas (2025. gada 25.–26. jūlijs)

Portugal’s Digital Revolution: Complete Guide to Internet Access and Satellite Services
Next Story

Portugal’s Digital Revolution: Complete Guide to Internet Access and Satellite Services

Stock Market Today

  • Trump Threatens China With New Tariffs as Markets React
    President Donald Trump threatened a 'massive' tariff increase on Chinese goods, sending U.S. stocks toward session lows and injecting uncertainty into the U.S.–China relationship. He described China as "very hostile" on trade and said a meeting with President Xi might not happen at APEC. The move comes as China tightened controls on rare earth exports, a critical input for tech and manufacturing. Traders watched the S&P 500 and Nasdaq swing after earlier gains, underscoring the sensitivity of markets to policy signals. Despite weeks of talks, a comprehensive trade deal remains elusive, with rare earths and tech tariffs front and center. The episode highlights how geopolitical risk and trade policy can drive volatility in equities.
  • Signal Advisors Boosts JPMorgan Stake by $3.1 Million Ahead of Q3 Earnings
    Signal Advisors Wealth boosted its JPMorgan Chase stake by 10,476 shares, roughly $3.1 million in Q3, increasing total JPM holdings to 41,470 shares. The position represents about 1.2% of its AUM and remains outside the fund's top five holdings. At Friday morning prices around $308.31, JPM has surged about 45% over the last year, helping the bank post strong results ahead of its upcoming earnings release. The move underscores growing appetite for large-cap financials within the portfolio.
  • Rocket Lab Stock Surges on KeyBanc Target Upgrade, but Profitability Outlook Remains Murky
    Rocket Lab (RKLB) stock jumped about 16% intraday, lifting weekly gains to roughly 37% as KeyBanc raised its price target to $11 and cited growing visibility into RKLB's ability to scale. Analyst Michael Leshock said RKLB could become an industry leader in launch services and satellite design. Despite the rally, valuation implies only modest near‑term upside, and some doubts remain about profitability. Management now expects the Neutron rocket to debut in 2025 with first profits not seen until 2027, delaying a potential path to profitability. The debate continues on whether to buy at this level, with others like Motley Fool suggesting several other stocks for investors. RKLB trades above $10 with a long growth story, but near‑term upside may be limited.
  • Investing Pros’ Strategy as AI Bubble Fears Rise
    Investing professionals are signaling a cautious pivot as concerns about an AI-driven bubble grow. The recommended playbook centers on risk management, diversification, and a tilt toward high-conviction AI beneficiaries while avoiding overpaying for hype. Analysts advise trimming highly speculative names, favoring companies with durable earnings, strong balance sheets, and clear AI catalysts. Investors are urged to use disciplined position sizing, maintain liquidity to seize new opportunities, and balance growth names with defensive allocations. The narrative emphasizes earnings visibility, realistic multiples, and hedging strategies amid rising volatility. In short, focus on quality AI exposure, patient compounding, and avoidance of crowded trades to weather the rotation and potential pullbacks.
  • Stock market today: Dow, S&P 500, Nasdaq slide as Trump threatens tariffs on China
    US stocks slid Friday as President Trump threatened a 'massive increase' in tariffs on Chinese goods, pushing the Dow down about 0.8%, the S&P 500 down 1.3%, and the Nasdaq more than 2% lower. Trump’s post on Truth Social signaled ongoing tensions with China and Xi Jinping after Beijing tightened export controls on rare earth minerals, halted US soybean purchases, and cited an antitrust probe into Qualcomm. With the week shaping up as a proxy for AI demand hopes vs. shutdown fears, investors faced a delayed release of data and look ahead to earnings season led by JPMorgan and Citigroup, with revenue expectations muted by tariffs. Chinese stocks tumbled on word of Trump canceling a Xi meeting; Alibaba, Tencent, and Baidu slid. The rare earth sector swung on the news.
Go toTop