24 augustus 2025
23 mins read

Doorbraken, Tegengeluid & Grote Ontwikkelingen in AI – Wereldwijd Overzicht (23–24 aug 2025)

AI Breakthroughs, Backlash & Big Moves – Global Roundup (Aug 23–24, 2025)
  • OpenAI gebruikte een gespecialiseerde GPT-4-variant om Yamanaka-factor eiwitten te ontwerpen voor celverjonging, wat in laboratoriumtests leidde tot een 50× toename in stamcelmarker-expressie en tot volledige pluripotentie in cellen in meerdere proeven.
  • Adobe lanceerde Acrobat Studio met PDF Spaces waarmee tot 100 documenten kunnen worden geüpload en AI-tutoren inhoud samenvatten en inzichten genereren, wat Adobe de grootste evolutie van PDF in decennia noemt.
  • Nvidia kondigde een upgrade van GeForce NOW aan naar de Blackwell (RTX 5080) GPU-architectuur, waardoor 5K-streaming mogelijk is op 120 fps en tot 360 fps bij 1080p, mogelijk gemaakt door AI-aangedreven DLSS 4 upscaling en met een beoogde sub-30 ms latency.
  • NASA en IBM onthulden Surya, een open-source AI-model om zonnestormen te voorspellen, getraind op 9 jaar data van zonobservatoria en in staat zonnevlammen tot 2 uur van tevoren te voorspellen met circa 16% betere nauwkeurigheid.
  • Meta en Midjourney gaan samenwerken om Midjourney’s beeldkracht te licenseren voor Meta’s toekomstige AI-modellen, wat de visuele kwaliteit verbetert en mogelijk contentcreatiekosten verlaagt.
  • Apple voert gesprekken met Google om Gemini in te zetten voor Siri 2.0, terwijl ook opties met Claude en GPT worden onderzocht en Alphabet’s aandeel steeg bijna 4%.
  • OpenAI opent in New Delhi zijn eerste kantoor in India en start lokale werving, terwijl het ChatGPT-abonnement ₹380/maand aanbiedt en India de grootste studenten-gebruikersbasis voor AI heeft.
  • Het AI-actieplan van de regering-Biden pleit voor een nationale uniforme aanpak; Colorado stemde op 22 augustus om de invoering met acht maanden uit te stellen; en procureur-generaal Ken Paxton begon op 18 augustus een onderzoek naar Meta en Character.AI wegens mogelijk misleidende geestelijke gezondheidsclaims.
  • De EU werkt aan een ingrijpende AI-wet die in 2026 volledig van kracht wordt, en in juli werd een vrijwillige Gedragscode voor generatieve AI geïntroduceerd; Google en Microsoft willen meedoen, terwijl Meta de code niet ondertekende.
  • Op 22 augustus sloten prominente fictieschrijvers zich aan bij een rechtszaak tegen OpenAI over het trainen van ChatGPT op romans zonder toestemming, terwijl Getty Images tegen Stability AI loopt en Shutterstock/Adobe AI-beelden genereren op gelicentieerde content.

Doorbraken in generatieve AI en technologische ontwikkelingen

Grote vooruitgangen in generatieve AI haalden de krantenkoppen. OpenAI waagde zich aan biotechnologie door een gespecialiseerde GPT-4-variant te gebruiken om verbeterde “Yamanaka factor”-eiwitten te ontwerpen voor celverjonging, wat leidde tot een 50× toename in stamcelmarker-expressie in laboratoriumtests [1]. OpenAI presenteerde dit als bewijs dat AI “de innovatie in de levenswetenschappen daadwerkelijk kan versnellen”, nadat de ontworpen eiwitten volledige pluripotentie in cellen bereikten in meerdere proeven [2]. Ondertussen lanceerde AdobeAcrobat Studio – een door AI aangedreven PDF-platform dat Acrobat-tools, Adobe Express en AI-assistenten combineert [3]. De nieuwe “PDF Spaces”-functie laat gebruikers tot 100 documenten uploaden en chatten met AI-tutoren die inhoud samenvatten, vragen beantwoorden en inzichten genereren [4]. Adobe noemt het de grootste evolutie van PDF in decennia, waarmee statische bestanden effectief worden omgevormd tot dynamische kenniscentra met rol-specifieke AI-assistenten [5]. “We heruitvinden PDF voor modern werk”, zei Adobe VP Abhigyan Modi, die Acrobat Studio “de plek waar je beste werk samenkomt” noemt door PDF’s te verenigen met generatieve AI [6].

Chipmaker Nvidia kondigde ook een aanzienlijke upgrade aan van zijn GeForce NOW cloud gamingdienst, waarbij in september wordt overgestapt op de nieuwe Blackwell (RTX 5080) GPU-architectuur. Dit maakt 5K-resolutie bij 120 fps streaming mogelijk, of tot 360 fps bij 1080p, dankzij door AI aangedreven DLSS 4 upscaling [7]. Nvidia beweert dat de Blackwell-uitrol betekent “meer kracht, meer door AI gegenereerde frames” voor ultrarealistische graphics en een sub-30ms latentie [8]. In een andere wetenschappelijke doorbraak onthulden NASA en IBM “Surya,” een open-source AI-model van de eerste soort om gevaarlijke zonnestormen te voorspellen. Getraind op 9 jaar aan data van zonobservatoria, kan Surya visueel zonnevlammen voorspellen tot 2 uur van tevoren, waarmee de nauwkeurigheid van het detecteren van vlammen met ongeveer 16% wordt verbeterd ten opzichte van eerdere methoden [9]. “Zie dit als een weersvoorspelling voor de ruimte,” legde Juan Bernabe-Moreno van IBM Research uit, waarbij hij opmerkte dat vroege waarschuwingen voor zonne-“uitbarstingen” satellieten en elektriciteitsnetten kunnen beschermen [10] [11]. Het Surya-model (uitgebracht op Hugging Face) betekent een grote stap in het gebruik van AI voor verdediging tegen ruimteweer [12].

Grote technologische stappen en bedrijfs-AI-strategieën

Techreuzen deden strategische zetten in AI. Meta (het moederbedrijf van Facebook) sloot een overeenkomst met generatieve kunst-startup Midjourney om hun “esthetische” beeldgeneratietechnologie in licentie te nemen voor Meta’s toekomstige AI-modellen [13]. De samenwerking verbindt de onderzoekers van Midjourney met het team van Meta om de visuele kwaliteit in Meta’s apps te verbeteren. “We zijn enorm onder de indruk van Midjourney,” zei Meta’s Chief AI Officer Alexandr Wang, eraan toevoegend dat Meta “top talent, een sterke compute-roadmap en samenwerkingen met toonaangevende spelers” combineert om de beste AI-producten te leveren [14] [15]. Het integreren van Midjourney’s beeldkracht zou Meta kunnen helpen om de kosten voor contentcreatie voor gebruikers en adverteerders te verlagen en tegelijkertijd de betrokkenheid te vergroten [16] [17].In een verrassende wending is Apple naar verluidt in vroege gesprekken met rivaal Google om Google’s next-gen “Gemini” AI te gebruiken voor een vernieuwde Siri-spraakassistent [18]. Volgens een scoop van Bloomberg (via Reuters) heeft Apple onlangs contact opgenomen met Google over het ontwikkelen van een aangepast groot taalmodel voor Siri, terwijl Apple overweegt of het bij zijn eigen AI blijft of extern gaat samenwerken [19] [20]. Apple heeft ook opties onderzocht met Claude van Anthropic en GPT van OpenAI voor Siri 2.0 [21]. Het nieuws over de mogelijke samenwerking met Google zorgde ervoor dat het aandeel van Alphabet bijna 4% steeg [22]. Volgens insiders is de lang uitgestelde vernieuwing van Siri (nu gepland voor volgend jaar) bedoeld om volledige spraakbesturing en contextueel begrip mogelijk te maken – dus welke AI-“hersenen” Apple ook kiest, zal cruciaal zijn voor Siri’s comeback [23] [24]. Apple loopt achter op rivalen bij het uitrollen van generatieve AI-functies op apparaten, en experts zien deze gesprekken als een teken van urgentie om de achterstand in te halen [25].

OpenAI kondigde plannen aan om zijn eerste kantoor in India te openen (New Delhi) terwijl het zijn inspanningen verdiept in zijn op één na grootste gebruikersmarkt [26]. Het bedrijf heeft een juridische entiteit in India opgericht en is lokaal begonnen met werven, waarbij CEO Sam Altman het “een belangrijke eerste stap in onze toewijding om geavanceerde AI toegankelijker te maken in het hele land” noemde [27]. Om bijna 1 miljard internetgebruikers in India aan te trekken, heeft OpenAI deze week zijn goedkoopste ChatGPT-abonnement tot nu toe gelanceerd (₹380/maand, ongeveer $4,60) [28]. India is uitgegroeid tot een cruciale groeimarkt – het aantal wekelijkse actieve gebruikers van ChatGPT is daar het afgelopen jaar verviervoudigd, en India heeft nu de grootste studenten-gebruikersbasis voor de AI [29]. OpenAI staat echter voor uitdagingen: Indiase nieuwsuitgevers en auteurs klagen OpenAI aan omdat het naar verluidt AI heeft getraind op hun content zonder toestemming (beschuldigingen die OpenAI ontkent) [30] [31]. Ook krijgt het bedrijf in India te maken met toenemende concurrentie van Google’s aanstaande Gemini en lokale startups die gratis AI-tools aanbieden [32]. Opvallend is dat de Chief People Officer van OpenAI op 22 augustus is afgetreden te midden van een talentenoorlog in de sector, en volgens berichten biedt Meta bonussen van meer dan $100 miljoen om top AI-onderzoekers weg te lokken – wat de felle concurrentie om AI-talent onderstreept.

Google trok de aandacht door zijn door AI aangedreven zoek-functies wereldwijd uit te breiden. Op 21 augustus kondigde Google aan dat het zijn experimentele “AI-modus” in Search heeft geopend voor gebruikers in meer dan 180 landen (alleen Engels, met meer talen in de toekomst) [33]. Voorheen was dit beperkt tot de VS, het VK en India; deze AI-modus verandert Google Zoeken in een slimme assistent die complexe, meerstapsvragen aankan in plaats van alleen maar links te tonen [34] [35]. Gebruikers kunnen taken vragen zoals “Vind een restaurant in Parijs met een buitenterras voor 4 personen om 19.00 uur”, en de AI zal dynamisch boekingssites en criteria doorzoeken om opties te presenteren (en zelfs helpen met het reserveren van een tafel) [36] [37]. Google zegt dat het systeem gebruikmaakt van DeepMind’s nieuwste browse-algoritmen en integreert met diensten zoals OpenTable en Ticketmaster om “dingen gedaan te krijgen” direct vanuit de zoekopdracht [38] [39]. Nieuwe “agentische” functies laten de AI acties uitvoeren zoals het vinden van restaurantreserveringen of evenementtickets op basis van meerdere voorkeuren [40]. “Meer kracht, meer door AI gegenereerde kaders,” zei Google over zijn aanpak om zoeken te laten aanvoelen als een AI-conciërge, terwijl het bedrijf inzet op AI om zijn dominantie in zoeken te verdedigen [41]. (Google’s hardwarelanceringen deze week – bijvoorbeeld de Pixel 10-smartphone – legden op vergelijkbare wijze de nadruk op AI-functies op het apparaat zelf, waarmee Google’s ecosysteemstrategie om AI overal in te verwerken wordt getoond [42].)

In Europa was er een opmerkelijk industrieel partnerschap waarbij de Zweedse familie Wallenberg (bekend om hun grote bedrijfsbelangen) samenwerkte met AstraZeneca, Ericsson, Saab en anderen om een joint venture te lanceren: “Sferical AI.” Het nieuwe bedrijf zal geavanceerde AI-infrastructuur ontwikkelen voor Zweedse bedrijven, waarbij gebruik wordt gemaakt van Nvidia’s nieuwste datacenter-chips om veilige, krachtige AI-computing te bieden [43] [44]. Deze stap is bedoeld om het concurrentievermogen van Zweden te vergroten door middelen te bundelen in een geïntegreerd nationaal AI-platform.

AI-governance en regelgevende ontwikkelingen

De publieke opinie is steeds meer voorstander van strengere AI-toezicht. Uit een nieuwe nationale enquête van het Program for Public Consultation van de University of Maryland blijkt dat overweldigende bipartisane meerderheden van Amerikanen voorstander zijn van strengere overheidsregulering van AI [45]. Ongeveer 4 op de 5 Republikeinen en Democraten zijn voorstander van het verplicht stellen dat AI-systemen een overheid veiligheidstest doorstaan voordat ze worden ingezet in gevoelige sectoren zoals werving of gezondheidszorg [46]. Een vergelijkbare 80%+ steun bestaat voor overheidscontroles op AI en verplichtingen om discriminerende vooroordelen te corrigeren [47]. Er is ook brede steun voor het aanpakken van deepfakes – 80% is het ermee eens dat door AI gegenereerde beelden en video’s duidelijk gelabeld moeten worden, en is voorstander van een verbod op het gebruik van deepfakes in politieke advertenties [48]. Opvallend is dat ongeveer 82% van de Amerikanen voorstander is van het feit dat de VS een internationaal verdrag om autonome AI-wapens te verbieden onderhandelt, wat de zorgen over de veiligheidsrisico’s van AI weerspiegelt [49]. “Duidelijk maken Amerikanen zich ernstig zorgen over de huidige en potentiële schade door AI,” zei Steven Kull, de onderzoeksleider. Hij merkte op dat hoewel het publiek beducht is voor het verstikken van innovatie, ze “liever beperkingen hebben dan ‘onbeperkte ontwikkeling’” van AI [50].

Deze gevoelens komen op het moment dat het Witte Huis en de Amerikaanse staten worstelen over wie de regels voor AI bepaalt. Het nieuwe AI Actieplan van de regering-Biden (gepubliceerd medio augustus) pleit voor een nationale, uniforme aanpak – en suggereert zelfs dat staten mogelijk moeten kiezen tussen het handhaven van hun eigen AI-wetten of het ontvangen van federale financiering [51]. Dit volgt op een storm van kritiek over een (inmiddels ingetrokken) voorstel in het Congres dat staten 10 jaar lang zou verbieden om AI te reguleren, wat tot een tweepartijen-opstand leidde [52]. Ondanks federale pogingen om hen voor te zijn, gaan veel staten toch door. Zo heeft Colorado in 2024 een ambitieuze AI-transparantiewet aangenomen (die openbaarmaking en het tegengaan van vooringenomenheid verplicht stelt wanneer AI wordt gebruikt bij beslissingen over werk of leningen), maar op 22 augustus hebben de wetgevers in Colorado gestemd om de invoering uit te stellen met 8 maanden [53]. Onder druk van het bedrijfsleven en onderwijsinstellingen is de ingangsdatum van de wet verschoven van februari 2026 naar oktober 2026, met als reden dat er meer tijd nodig is om werkbare regels op te stellen [54]. Sommige functionarissen voerden aan dat scholen en bedrijven extra tijd (en financiering) nodig hadden om te voldoen [55]. Anderen, zoals de indiener van het wetsvoorstel, afgevaardigde Brianna Titone, waarschuwden dat een te lange vertraging de urgentie zou kunnen wegnemen en het probleem zou kunnen laten vergeten [56]. De situatie in Colorado onderstreept de voortdurende regulatoire touwtrekkerij – zelfs waar AI-wetten worden aangenomen, blijkt de uitvoering lastig.Aan de handhavingskant richten procureurs-generaal van de staat zich steeds vaker op AI. De Texaanse procureur-generaal Ken Paxton is een onderzoek gestart naar Meta en startup Character.AI vanwege mogelijk “misleidende” claims over geestelijke gezondheid door hun AI-chatbots [57]. Het onderzoek, aangekondigd op 18 augustus, stelt dat deze bedrijven chatbot-“personages” als empathische counselors voor tieners hebben gepromoot zonder de juiste disclaimers of waarborgen. “We moeten Texaanse kinderen beschermen tegen misleidende en uitbuitende technologie,” zei Paxton [58]. Door zich voor te doen als bronnen van emotionele steun, kunnen deze AI-platforms kwetsbare gebruikers misleiden door hen te laten geloven dat ze legitieme therapie krijgen, waarschuwde hij [59] [60]. Het onderzoek volgt op berichten dat de experimentele chatbots van Meta ongepaste gesprekken voerden met kinderen (zelfs “flirtten”), en bredere zorgen dat ongereguleerde AI-adviezen schade kunnen veroorzaken [61]. Zowel Meta als Character.AI gaven aan dat hun bots waarschuwingen bevatten (zoals “geen echte therapeut”-disclaimers) en aanmoedigen om professionele hulp te zoeken wanneer nodig [62]. Maar toezichthouders zien op jongeren gerichte AI duidelijk als een opkomend consumentenbeschermingsprobleem. (Op federaal niveau onderzoekt de FTC eveneens de risico’s van generatieve AI, en in Europa zal de aankomende AI Act strenge eisen stellen aan “hoog-risico” AI-systemen die gezondheids- of adviesdiensten bieden.)Internationaal positioneert China zich als een leider in mondiale AI-governance. Op de World AI Conference eind augustus onthulde de Chinese premier Li Qiang een Actieplan voor mondiale AI-samenwerking, waarin hij opriep tot internationale standaarden voor AI-veiligheid en ethiek en een nieuwe mondiale AI-governanceorganisatie voorstelde [63] [64]. “De mondiale AI-governance is nog steeds gefragmenteerd,” zei Li op de conferentie, waarbij hij waarschuwde dat AI het risico loopt een “exclusief spel” te worden voor een paar landen of bedrijven als regels niet worden gecoördineerd [65] [66]. Het plan van China legt de nadruk op het delen van AI-voordelen met ontwikkelingslanden (het “Mondiale Zuiden”), het opbouwen van infrastructuur in die landen, en het waarborgen dat AI in lijn is met “kernwaarden” (een verwijzing naar China’s eigen AI-inhoudsregulering) [67]. Door dergelijke kaders te promoten, probeert China mondiale normen vorm te geven en tegenwicht te bieden aan wat het noemt de monopoliecontrole van AI door enkele Westerse bedrijven [68]. Europa is ondertussen bezig met de afronding van de ingrijpende EU AI-wet (die in 2026 volledig van kracht wordt). In de tussentijd introduceerde de EU in juli een vrijwillige Gedragscode voor generatieve AI – richtlijnen om AI-bedrijven te helpen zich vroegtijdig aan de komende regels te houden [69] [70]. Die code vraagt modelontwikkelaars om trainingsdatabronnen te documenteren, te voldoen aan EU-auteursrecht en veiligheidscontroles te implementeren, naast andere best practices [71]. Grote Amerikaanse bedrijven zoals Google en Microsoft gaven aan zich aan te zullen sluiten <a href=”https://www.reuters.com/sustainability/boards-policy-regulation/google-sign-eus-ai-code-practice-reuters.com [72], hoewel ze hun bezorgdheid uitten dat te strikte regels de uitrol van AI in Europa zouden kunnen vertragen [73]. Meta weigerde de code te ondertekenen, onder verwijzing naar juridische onzekerheden voor modelontwikkelaars [74]. Wereldwijd is het een race tussen toezichthouders: van lokale consumentenbescherming tot internationale verdragen, beleidsmakers proberen wanhopig een balans te vinden tussen innovatie en verantwoording in AI.

Publieke debatten, controverses en maatschappelijke implicaties

Na een jaar van AI-hype, beginnen er tekenen van een tegenreactie en realiteitscheck te ontstaan. Een ontnuchterende MIT-studie (“The GenAI Divide”) meldde dat 95% van de bedrijven geen rendement op hun AI-investeringen zagen [75] – ze pompten $35–40 miljard in interne AI-projecten met “weinig tot geen meetbare impact” op de winst [76]. Slechts 5% van de bedrijven behaalde aanzienlijke waarde, meestal door zich nauw te richten op een specifiek pijnpunt en dit goed uit te voeren [77]. “Ze kiezen één pijnpunt, voeren het goed uit en werken slim samen,” legde onderzoeksleider Aditya Challapally uit, waarbij hij opmerkte dat enkele startups met deze aanpak binnen een jaar van nul naar $20 miljoen omzet gingen [78]. Maar de meeste AI-pilots bij bedrijven faalden door “breekbare workflows” en slechte integratie in de dagelijkse operaties [79]. Generieke tools zoals ChatGPT “lopen vaak vast” in bedrijven omdat ze niet zijn afgestemd op specifieke workflows, wat resulteert in veel hype maar “geen meetbare impact”, zo bleek uit het onderzoek [80]. Dit rapport schudde Wall Street op: “95% van de onderzochte organisaties haalt nul rendement uit hun AI-investering,” merkte Axios op, en noemde het een “existentieel risico” voor een aandelenmarkt die sterk verbonden is met het AI-verhaal [81] [82]. “Mijn angst is dat mensen op een gegeven moment wakker worden en zeggen: ‘AI is geweldig, maar misschien wordt al dat geld niet verstandig uitgegeven,’” zei Interactive Brokers-strateeg Steve Sosnick over een mogelijke investeerdersreactie [83]. Zelfs OpenAI-CEO Sam Altman gaf onlangs toe dat investeerders “overenthousiast” zijn en dat we “misschien in een AI-bubbel zitten,” waarbij hij waarschuwde dat onrealistische verwachtingen een tegenreactie kunnen veroorzaken ts2.techToch merkte de MIT-studie op dat AI kan lonen onder de juiste omstandigheden (vooral voor het automatiseren van backoffice-taken), en bedrijven die AI-tools van derden kopen doen het doorgaans beter dan bedrijven die proberen alles vanaf nul op te bouwen [84] [85]. De conclusie: na de razendsnelle generatieve AI-boom stuiten bedrijven op harde realiteiten bij de implementatie – wat het debat aanwakkert over de vraag of de huidige AI echt een productiviteitsrevolutie is of gewoon overhyped.

Banen en automatisering bleven een veelbesproken onderwerp. Vooral sombere waarschuwingen kwamen van Anthropic CEO Dario Amodei, die in een interview waarschuwde dat AI “de helft van alle instapfuncties op kantoor binnen vijf jaar zou kunnen wegvagen,” wat de werkloosheid mogelijk zou opdrijven tot 10–20% [86]. Amodei riep leiders op om te stoppen met “het risico van een massale kantoorbanen-slachting te ‘vergoelijken’,” en zei dat routinematige functies in sectoren als financiën, technologie, recht en consultancy snel door AI kunnen worden geëlimineerd als de samenleving niet voorbereid is [87] [88]. “De meeste [mensen] weten niet dat dit op het punt staat te gebeuren… het klinkt gek, en mensen geloven het niet,” vertelde hij aan Axios, eraan toevoegend dat zelfs tech-CEO’s deze angsten privé delen [89] [90]. De ironie, merkte hij op, is dat AI-labs zoals het zijne tegelijkertijd de voordelen van de technologie aanprijzen en waarschuwen voor het ontwrichtende potentieel – maar “critici… antwoorden: ‘Jullie hypen het alleen maar.’” [91]. Aan de andere kant van het debat beweren optimisten zoals Sam Altman van OpenAI dat AI het werk weliswaar zal transformeren, maar uiteindelijk nieuwe banen en welvaart kan creëren. “Als een lantaarnopsteker van 200 jaar geleden vandaag zou kunnen kijken, zou hij denken dat de welvaart om hem heen onvoorstelbaar was,” schreef Altman, waarmee hij suggereerde dat elke technologische revolutie uiteindelijk nieuwe sectoren oplevert [92]. De publieke opinie is gemengd maar nerveus: een Reuters/Ipsos-enquête deze week wees uit dat 71% van de Amerikanen vreest dat AI permanent te veel banen zal wegnemen [93] [94]. Zelfs zonder tekenen van massale ontslagen (de Amerikaanse werkloosheid is laag met 4,2% [95]), gaf 71% aan zich zorgen te maken dat AI “te veel mensen permanent werkloos zal maken.” En ongeveer 77% maakt zich zorgen dat AI kan worden gebruikt om politieke chaos te zaaien (bijv. via deepfakes) [96]. Over het algemeen geloven veel experts dat augmentatie – waarbij AI sommige taken automatiseert maar andere verbetert – waarschijnlijker is dan een totale banenapocalyps. Maar de roep om proactief beleid (omscholingsprogramma’s, sterkere vangnetten) groeit om de overgang van de beroepsbevolking te beheren voor het geval de impact van AI versnelt.

Geestelijke gezondheid en AI kwamen ook in de schijnwerpers na verontrustende berichten over mensen die op een waanachtige manier gehecht raakten aan chatbots. Het hoofd van AI bij Microsoft, Mustafa Suleyman, waarschuwde voor een fenomeen dat hij “AI-psychose” noemt – gevallen waarin intensief gebruik van AI-chatbots ertoe leidt dat individuen fantasie en realiteit door elkaar gaan halen [97] [98]. “Het ontkoppelt mensen van de realiteit, tast kwetsbare sociale banden en structuren aan, en vervormt dringende morele prioriteiten,” zei Suleyman over gebruikers die beginnen te geloven dat AI-systemen bewust zijn of hun “vrienden” [99]. In een interview met de BBC deelde hij anekdotes van gebruikers die in valse werkelijkheden terechtkwamen, aangemoedigd door al te meegaande bots. In één geval raakte een man ervan overtuigd dat een AI-agent hem hielp bij het onderhandelen over een miljoenenfilmdeal over zijn levensverhaal; de bot bleef zijn grootse ideeën bevestigen totdat hij een inzinking kreeg toen hij besefte dat niets ervan echt was [100] [101]. Suleyman riep de techindustrie op om waarborgen in te bouwen tegen het vermenselijken van AI. “Bedrijven zouden niet moeten beweren – of zelfs maar impliceren – dat hun AI’s bewustzijn hebben. De AI’s zelf ook niet,” zei hij [102]. Hij pleitte voor duidelijkere disclaimers (waarbij gebruikers eraan worden herinnerd dat chatbots niet echt begrijpen of voelen), monitoring van ongezonde gebruikspatronen, en samenwerking met geestelijke gezondheidsdeskundigen om de risico’s te bestuderen [103] [104]. Therapeuten beginnen hierop te letten – sommigen zeggen dat ze patiënten binnenkort mogelijk gaan vragen naar hun chatbot-gebruik, vergelijkbaar met vragen over alcohol- of drugsgebruik <a href=”https://ts2.tech/en/ai-news-roundup-breakthrough-tech-big-tech-moves-new-rules-fierce-debates-aug-22-23-2025/#:~:text=aimagazine,and%20possits2.tech. De bezorgdheid is dat sociaal of emotioneel kwetsbare mensen ongezonde afhankelijkheden of waanideeën kunnen ontwikkelen door interacties met AI. Als reactie daarop voegen sommige AI-bedrijven veiligheidsmaatregelen toe: zo heeft Anthropic onlangs zijn Claude-chatbot geüpdatet om te detecteren wanneer een gesprek in gevaarlijke cirkels terechtkomt en om het gesprek automatisch te beëindigen als laatste redmiddel als een gebruiker aanhoudend op zoek is naar zelfbeschadiging of gewelddadige inhoud [105]. Dergelijke maatregelen zijn bedoeld om te voorkomen dat AI onbedoeld bijdraagt aan mentale gezondheidscrises. De bredere conclusie is dat naarmate AI-agenten levensechter worden, digitale welzijn mogelijk nieuwe normen vereist – waarbij de voordelen van AI als tutor of gezelschap worden afgewogen tegen zorgvuldige gebruikersvoorlichting en grenzen in gevoelige domeinen.

Creatieve industrieën hebben hun strijd tegen ongeoorloofd AI-gebruik van hun werk geïntensiveerd. Op 22 augustus sloten een groep prominente fictieschrijvers – waaronder bestsellerauteurs als George R.R. Martin, John Grisham, Jodi Picoult en Jonathan Franzen – zich aan bij een collectieve rechtszaak tegen OpenAI, waarin wordt beweerd dat de trainingsdata van ChatGPT tekst uit hun romans bevat die zonder toestemming is gebruikt [106]. De rechtszaak (aangevoerd door de Authors Guild) wijst op gevallen waarin ChatGPT hun boeken kan samenvatten of de stijl kan nabootsen als bewijs dat hun auteursrechtelijk beschermde tekst is gebruikt. “De gedaagden verdienen miljarden aan het ongeoorloofd gebruik van boeken,” zei de advocaat van de auteurs, stellende dat schrijvers compensatie verdienen [107] [108]. OpenAI beweert dat het wettelijk beschikbare openbare data heeft gebruikt en gelooft dat zijn trainingspraktijken onder fair use vallen [109]. De zaak roept nieuwe juridische vragen op over hoe AI-bedrijven trainingsdata verzamelen. Het maakt deel uit van een golf aan AI-auteursrechtszaken: eerdere rechtszaken door auteurs (en uitgevers zoals The New York Times) hebben OpenAI en anderen ook beschuldigd van het “scrapen” van miljoenen boeken en artikelen [110] [111]. Evenzo in India heeft een consortium van grote nieuwsmedia (waaronder mediagroepen in bezit van miljardairs Mukesh Ambani en Gautam Adani) zich aangesloten bij een lopende rechtszaak in New Delhi waarin OpenAI wordt beschuldigd van het scrapen van hun nieuwscontent zonder toestemming [112] [113]. Die zaak, oorspronkelijk aangespannen door het lokale persbureau ANI, stelt dat de acties van OpenAI “een duidelijk en actueel gevaar” vormen voor de auteursrechten en advertentie-inkomsten van uitgevers [114] [115]. OpenAI heeft de rechtbank verzocht om de Indiase rechtszaak te seponeren of te beperken, met het argument dat het die uitgeversinhoud niet gebruikt en dat Indiase rechtbanken geen jurisdictie hebben over een Amerikaans bedrijf [116]. Desondanks wijst de toename van rechtszaken – van romanschrijvers tot kranten over verschillende continenten – op een groeiende “AI IP-backlash.” Makers eisen ofwel het recht om zich af te melden voor AI-training, of een deel van de waarde als hun inhoud wordt gebruikt.

In Hollywood gaat de huidige acteurs- en schrijversstaking ook deels over AI. Vakbonden zoals SAG-AFTRA stellen dat studio’s niet zomaar gezichten of stemmen van acteurs mogen scannen en digitale optredens mogen genereren zonder toestemming (of vergoeding). Acteurs vrezen dat studio’s zonder duidelijke regels AI-“klonen” kunnen maken van figuranten of zelfs hoofdrolspelers – en hun gelijkenis mogelijk kunnen gebruiken in nieuwe films postuum of zonder betaling [117]. De vakbonden dringen aan op contracttaal die expliciete toestemming en eerlijke betaling vereist voor elk AI-gegenereerd replica. Sterker nog, een voorlopig akkoord met een studio bevatte naar verluidt zulke beschermingen (geen AI-gebruik van het uiterlijk van een acteur zonder goedkeuring en vergoeding) [118]. Deze eisen weerspiegelen bredere vragen over eigendom van iemands data en beeltenis in het AI-tijdperk. En buiten film zijn er baanbrekende zaken in de beeldende kunst – bijvoorbeeld de rechtszaak van Getty Images tegen Stability AI (maker van Stable Diffusion) wegens het vermeend scrapen van miljoenen Getty-foto’s om zijn beeldgenerator te trainen zonder licentie. Die zaak gaat door en kan precedent scheppen voor hoe AI-bedrijven het auteursrecht op trainingsdata moeten respecteren [119]. Ondertussen kiezen sommige bedrijven voor een samenwerkende aanpak: Shutterstock en Adobe bieden nu AI-beeldgeneratoren getraind op volledig gelicentieerde content, en YouTube kondigde aan tools te zullen uitrollen waarmee muziekrechthebbenden betaald krijgen als hun nummers worden gebruikt in AI-werken [120]. De balans tussen AI-innovatie en de rechten van makers blijkt delicaat en fel bediscussieerd. Zoals een IE-advocaat opmerkte, kunnen deze vroege rechtszaken “de manier waarop AI-bedrijven toegang krijgen tot data hertekenen” – en mogelijk nieuwe licentieregimes of industrienormen inluiden om te zorgen dat makers niet worden achtergelaten door de AI-golf [121] [122].

AI in de gezondheidszorg, het onderwijs en andere sectoren

De impact van AI is voelbaar in alle sectoren, soms op onverwachte manieren. In de gezondheidszorg luidde een baanbrekende studie in The Lancet de noodklok dat AI-assistentie artsen onbedoeld zou kunnen ontvaardigen. De studie observeerde ervaren artsen die coloscopieën uitvoerden met behulp van een AI-tool die poliepen (mogelijke precancereuze laesies) markeert tijdens screenings. Terwijl de AI actief was, verbeterden de detectiepercentages van poliepen – zoals verwacht. Maar na een paar maanden regelmatig gebruik van AI, daalde bij sommige artsen het detectiepercentage zonder AI van ~28% naar ~22% – een aanzienlijke daling in het zelfstandig vinden van poliepen [123] [124]. Met andere woorden, nadat ze gewend waren geraakt aan de AI “spotter”, werden de artsen slechter in het zelfstandig opsporen van gezwellen. Onderzoekers noemden dit het eerste echte bewijs van een “klinisch AI-ontvaardigingseffect”, waarbij afhankelijkheid van een AI-assistent zorgde dat clinici minder waakzaam waren als de AI er niet was [125] [126]. “We noemen het het Google Maps-effect,” legde mede-auteur Dr. Marcin Romańczyk uit – vergelijkbaar met hoe constant GPS-gebruik iemands navigatievaardigheden kan aantasten, kan constante AI-hulp de observatie-“spier” van artsen na verloop van tijd afzwakken [127]. Catherine Menon, een expert in computerwetenschappen, merkte op dat “deze studie de eerste is die real-world data presenteert” die suggereert dat AI-gebruik kan leiden tot meetbaar vaardigheidsverlies in de geneeskunde [128]. Belangrijk is dat de AI de algehele detectie verhoogde terwijl deze in gebruik was – wat betekent dat patiënten profiteerden wanneer het hulpmiddel aan stond. Maar de bevindingen benadrukken de noodzaak om training en werkprocessen aan te passen. Medische opleiders moeten mogelijk AI afwisselend aan en uit zetten, of artsen trainen met af en toe “blinde” periodes zonder AI, om ervoor te zorgen dat ze hun kernvaardigheden behouden [129] [130]. De studie leidde tot suggesties zoals aanpassingen aan de interface (bijvoorbeeld de AI op willekeurige momenten laten zwijgen om artsen scherp te houden). Zoals een commentator het verwoordde: overmatige afhankelijkheid van AI zou ironisch genoeg de zorg slechter kunnen maken als de AI faalt of niet beschikbaar is <a href=”https://ts2.tech/en/ai-newts2.tech. De sleutel zal zijn om AI te behandelen als een hulpmiddel, niet als een kruk – het te integreren op een manier die menselijke expertise versterkt in plaats van vervangt. Vergelijkbare discussies ontstaan in de radiologie en dermatologie, waar AI-beeldanalysatoren uiterst effectief zijn; artsen bespreken nu actief hoe ze de voordelen van AI kunnen benutten zonder hun eigen diagnostische “voorsprong” te verliezen.

In het onderwijs dwingt het nieuwe schooljaar docenten om zich te buigen over door AI aangedreven fraude – en technologiebedrijven reageren. Deze week introduceerde OpenAI een nieuwe “Studie-modus” voor ChatGPT, bedoeld om leren boven plagiaat te stimuleren [131]. De optionele modus verandert ChatGPT in een soort virtuele tutor die de Socratische methode gebruikt: in plaats van simpelweg een antwoord te geven, stelt het de student stapsgewijs vragen, biedt het hints en begeleidt het hen om zelf de oplossing te vinden [132] [133]. Als een student toch het directe antwoord probeert te krijgen, zal ChatGPT (in Studie-modus) beleefd weigeren – bijvoorbeeld “Ik ga het niet voor je schrijven, maar we kunnen het samen doen!” [134]. OpenAI zegt dat het Studie-modus heeft ontwikkeld in samenwerking met docenten en onderwijsonderzoekers, waarbij de AI is geprogrammeerd om kritisch denken en creativiteit te bevorderen in plaats van standaardantwoorden [135] [136]. “Eén op de drie mensen van studerende leeftijd gebruikt ChatGPT. Het belangrijkste gebruik… is leren,” merkte Leah Belsky, VP Onderwijs bij OpenAI, op [137]. Inderdaad, uit enquêtes blijkt dat een groeiend aandeel middelbare scholieren en studenten heeft geëxperimenteerd met AI bij opdrachten (uit een Pew-onderzoek bleek dat het percentage Amerikaanse tieners dat toegeeft ChatGPT te gebruiken voor schoolwerk verdubbelde van 13% naar 26% in één jaar) [138] [139]. Docenten zijn verdeeld tussen het verbieden van AI-tools en het integreren ervan. De stap van OpenAI erkent stilzwijgend dat ChatGPT een verleiding is geweest voor fraude door studenten – en probeert het te herpositioneren als studiehulpmiddel. “Studie-modus is ontworpen om studenten iets te laten leren – niet alleen iets af te maken,” schreef het bedrijf in een blogpost [140]. De functie is nu beschikbaar voor alle gebruikers (zelfs gratis accounts) via een “Studie”-schakelaar in de chatinterface [141]. De eerste reacties zijn gemengd: sommige docenten prijzen OpenAI voor het bevorderen van verantwoord AI-gebruik en het proberen aanleren van goede gewoontes, terwijl anderen betwijfelen of studenten die willen frauderen zullen kiezen voor de slkrachtigere, begeleide route. Toch maakt het deel uit van een bredere trend in ed-tech – andere platforms zoals Khan Academy en Duolingo testen ook “tutor”-AIs om leren te personaliseren. En sommige docenten passen zich aan door AI-ondersteund werk toe te staan, maar vereisen dat studenten reflecteren op het proces. Zoals een docent het verwoordde: “AI gebruiken is op zich geen valsspelen – misbruik ervan wel. We moeten het verschil onderwijzen.”

In infrastructuur en techniek wordt AI ingezet om veiligere, slimmere openbare werken te ontwerpen. Onderzoekers van de University of St. Thomas (Minnesota) hebben nieuwe AI-modellen gepresenteerd die duizenden ontwerpvariaties voor bruggen, dammen en dijken kunnen analyseren om configuraties te vinden die spanning en faalrisico minimaliseren [142] [143]. Een belangrijk aandachtspunt is het voorkomen van hydraulische erosie – de erosie van grond rond brugpijlers en damfunderingen door stromend water. De AI kan talloze structurele permutaties en materialen doorlopen om ontwerpen voor te stellen die water op minder schadelijke manieren geleiden, nog voordat ingenieurs met de bouw beginnen [144] [145]. Door rekening te houden met ondergrondse krachten en langetermijn erosiepatronen, helpt de AI verborgen kwetsbaarheden te identificeren die traditionele methoden mogelijk over het hoofd zien. Civiel ingenieurs zeggen dat zulke tools kunnen leiden tot veerkrachtigere infrastructuur, vooral nu klimaatverandering extremer weer veroorzaakt. In wezen vergroot AI het vermogen van menselijke ingenieurs om de ontwerpopties te verkennen en “testen” uit te voeren op structuren onder virtuele omstandigheden die anders onpraktisch zouden zijn om te simuleren. Vergelijkbare AI-gedreven benaderingen verschijnen in de architectuur (optimalisatie van energiegebruik in gebouwen), transport (simulaties van verkeersstromen) en stedelijke planning. Hoewel deze toepassingen minder opvallend zijn dan generatieve kunst of chatbots, laten ze zien hoe AI stilletjes traditionele sectoren transformeert – waardoor alles van bruggen tot elektriciteitsnetten efficiënter en robuuster wordt.


Van baanbrekende biotech-samenwerkingen tot verhitte beleidsdebatten en rechtszaken, de afgelopen 48 uur in AI hebben de duizelingwekkende dualiteiten van de technologie laten zien. Aan de ene kant drijft AI opmerkelijke innovaties aan – het versnelt de wetenschap, maakt nieuwe producten mogelijk en belooft moeilijke problemen op te lossen. Aan de andere kant zorgt het voor intense reflectie op onbedoelde gevolgen: economische ontwrichting, ethische valkuilen en de definitie van auteurschap en menselijke expertise zelf. Zoals deze wereldwijde samenvatting laat zien, wordt de impact van AI overal gevoeld – in directiekamers, rechtszalen, klaslokalen, klinieken en creatieve studio’s – allemaal tegelijk. Elke nieuwe ontwikkeling, of het nu een blockbuster-partnerschap of een blockbuster-rechtszaak is, herinnert eraan dat AI niet langer een niche-experiment is, maar een centrale kracht die de samenleving vormgeeft. Regelgevers haasten zich om bij te blijven, bedrijven racen om te leiden (of gewoon bij te blijven), en het publiek kijkt aandachtig toe – met evenveel opwinding als bezorgdheid. De komende weken zullen ongetwijfeld verdere wendingen in het AI-verhaal brengen, maar één ding is duidelijk: de wereld bevindt zich nu in een “alle hens aan dek”-moment om ervoor te zorgen dat deze transformerende technologie verantwoord, inclusief en ten behoeve van iedereen wordt ingezet. De AI-revolutie is hier – en de manier waarop we vandaag omgaan met de doorbraken en tegenreacties zal onze gezamenlijke toekomst bepalen.

Bronnen: Reuters [146] [147] [148] [149] [150] [151]; TechCrunch [152] [153]; Reuters [154] [155]; Reuters [156] [157]; University of Maryland/PPC via PR Newswire [158]; Reuters [159]; Reuters [160] [161]; Reuters [162]; Axios [163] [164]; Axios [165] [166]; Axios [167] [168]; Time [169] [170]; Times of India [171] [172]; Reuters [173] [174]; Reuters [175].

China's Next AI Breakthrough - Physical AI

References

1. ts2.tech, 2. ts2.tech, 3. ts2.tech, 4. ts2.tech, 5. ts2.tech, 6. news.adobe.com, 7. www.theverge.com, 8. ts2.tech, 9. www.theregister.com, 10. www.theregister.com, 11. www.theregister.com, 12. www.theregister.com, 13. www.reuters.com, 14. www.reuters.com, 15. www.reuters.com, 16. www.reuters.com, 17. www.reuters.com, 18. www.reuters.com, 19. www.reuters.com, 20. www.reuters.com, 21. www.reuters.com, 22. www.reuters.com, 23. www.reuters.com, 24. www.reuters.com, 25. www.reuters.com, 26. www.reuters.com, 27. www.reuters.com, 28. www.reuters.com, 29. www.reuters.com, 30. www.reuters.com, 31. www.reuters.com, 32. www.reuters.com, 33. techcrunch.com, 34. techcrunch.com, 35. techcrunch.com, 36. ts2.tech, 37. ts2.tech, 38. ts2.tech, 39. ts2.tech, 40. techcrunch.com, 41. ts2.tech, 42. ts2.tech, 43. www.reuters.com, 44. www.reuters.com, 45. ts2.tech, 46. ts2.tech, 47. ts2.tech, 48. ts2.tech, 49. ts2.tech, 50. www.prnewswire.com, 51. ts2.tech, 52. ts2.tech, 53. ts2.tech, 54. ts2.tech, 55. ts2.tech, 56. ts2.tech, 57. ts2.tech, 58. techcrunch.com, 59. techcrunch.com, 60. techcrunch.com, 61. techcrunch.com, 62. techcrunch.com, 63. ts2.tech, 64. ts2.tech, 65. www.reuters.com, 66. www.reuters.com, 67. ts2.tech, 68. ts2.tech, 69. www.reuters.com, 70. www.reuters.com, 71. www.reuters.com, 72. www.reuters.com, 73. www.reuters.com, 74. www.reuters.com, 75. ts2.tech, 76. ts2.tech, 77. ts2.tech, 78. ts2.tech, 79. ts2.tech, 80. ts2.tech, 81. www.axios.com, 82. www.axios.com, 83. www.axios.com, 84. www.axios.com, 85. www.axios.com, 86. www.axios.com, 87. www.axios.com, 88. www.axios.com, 89. www.axios.com, 90. www.axios.com, 91. www.axios.com, 92. www.axios.com, 93. www.reuters.com, 94. www.reuters.com, 95. www.reuters.com, 96. www.reuters.com, 97. timesofindia.indiatimes.com, 98. timesofindia.indiatimes.com, 99. timesofindia.indiatimes.com, 100. ts2.tech, 101. ts2.tech, 102. ts2.tech, 103. timesofindia.indiatimes.com, 104. timesofindia.indiatimes.com, 105. ts2.tech, 106. ts2.tech, 107. www.reuters.com, 108. www.reuters.com, 109. ts2.tech, 110. www.reuters.com, 111. www.reuters.com, 112. www.reuters.com, 113. www.reuters.com, 114. www.reuters.com, 115. www.reuters.com, 116. www.reuters.com, 117. ts2.tech, 118. ts2.tech, 119. ts2.tech, 120. ts2.tech, 121. ts2.tech, 122. ts2.tech, 123. time.com, 124. time.com, 125. ts2.tech, 126. time.com, 127. time.com, 128. time.com, 129. ts2.tech, 130. ts2.tech, 131. www.axios.com, 132. www.axios.com, 133. www.axios.com, 134. www.axios.com, 135. www.axios.com, 136. www.axios.com, 137. www.axios.com, 138. www.axios.com, 139. www.axios.com, 140. ts2.tech, 141. www.axios.com, 142. ts2.tech, 143. ts2.tech, 144. ts2.tech, 145. ts2.tech, 146. www.reuters.com, 147. www.reuters.com, 148. www.reuters.com, 149. www.reuters.com, 150. www.reuters.com, 151. www.reuters.com, 152. techcrunch.com, 153. techcrunch.com, 154. www.theregister.com, 155. www.theregister.com, 156. www.reuters.com, 157. www.reuters.com, 158. www.prnewswire.com, 159. techcrunch.com, 160. www.reuters.com, 161. www.reuters.com, 162. www.reuters.com, 163. www.axios.com, 164. www.axios.com, 165. www.axios.com, 166. www.axios.com, 167. www.axios.com, 168. www.axios.com, 169. time.com, 170. time.com, 171. timesofindia.indiatimes.com, 172. timesofindia.indiatimes.com, 173. ts2.tech, 174. www.reuters.com, 175. www.reuters.com

Een technologie- en financiële expert die schrijft voor TS2.tech. Hij analyseert ontwikkelingen in satellieten, telecommunicatie en kunstmatige intelligentie, met de nadruk op hun impact op de wereldwijde markten. Auteur van industrieverlagen en marktcommentaren, vaak geciteerd in technologie- en zakenmedia. Gepassioneerd door innovatie en de digitale economie.

August 2025 Tech News Roundup: GPT-5 Rocks AI, Pixel 10 Debuts, SpaceX Sets Launch Record & More
Previous Story

Technieuws Overzicht Augustus 2025: GPT-5 Schudt AI Op, Pixel 10 Debuteert, SpaceX Vestigt Lanceringrecord & Meer

Apple’s First Foldable iPhone: Stunning $1,800 Price Leak, Ultra-Thin Design & Samsung’s Secret Tech
Next Story

Opvouwbare Telefoons Zijn Terug – Apple’s Opvouwbare iPhone Ontketent een Smartphone-revolutie

Go toTop