GPT‑5 Has Arrived: OpenAI’s Next‑Gen AI Stuns With Upgrades in Coding, Reasoning, and Safety
16 September 2025
74 mins read

KI-Giganten im Krieg: Einblicke in OpenAI, Google, Meta und das Rennen um die Entwicklung von AGI

  • Milliarden-Dollar-KI-Wettrüsten: Technologiegiganten wie OpenAI (mit Microsoft), Google (DeepMind), Meta, Anthropic, Amazon und andere investieren beispiellose Ressourcen in KI. Zusammen planen diese Unternehmen, bis Ende 2025 mehr als 325 Milliarden US-Dollar in die KI-Entwicklung zu investieren startupnews.fyi, um die Führung in der nächsten Ära des Computing zu übernehmen. Führungskräfte sehen KI als eine „einmalige“ Technologie, die „Billionen wert“ sein und jedes Produkt und jede Dienstleistung neu erfinden könnte.
  • Visionen künstlicher Allgemeiner Intelligenz: Viele dieser Unternehmen haben sich ausdrücklich das Ziel gesetzt, künstliche allgemeine Intelligenz (AGI) oder sogar „Superintelligenz“ zu schaffen – KI-Systeme mit Fähigkeiten, die mit denen des Menschen konkurrieren oder diese übertreffen. OpenAIs Mission ist es, „sicherzustellen, dass künstliche allgemeine Intelligenz… der gesamten Menschheit zugutekommt“, und CEO Sam Altman hat gesagt, er sei „zuversichtlich, dass wir wissen, wie man AGI baut“. Googles DeepMind-CEO Demis Hassabis nennt AGI sein „Lebensziel“ und prognostiziert, dass sie „vielleicht in diesem Jahrzehnt kommt“. Metas CEO Mark Zuckerberg hat intern erklärt, dass „die Entwicklung von Superintelligenz nun in Reichweite“ seines Unternehmens sei, und möchte zu den „wenigen… mit dem Know-how“ gehören, um gottgleiche KI zu erreichen. Diese kühnen Visionen befeuern ein intensives Rennen um den ersten Platz.
  • Unterschiedliche Philosophien – Offenheit vs. Geheimhaltung: Es gibt einen großen Unterschied darin, wie Unternehmen KI-Technologie teilen. Meta setzt auf einen Open-Source-Ansatz – seine LLaMA-Sprachmodelle wurden (unter Bedingungen) an Forscher und sogar ein vollständig offenes Modell (Llama 2) für die kommerzielle Nutzung veröffentlicht. Metas leitender KI-Wissenschaftler Yann LeCun argumentiert, dass „Offenheit KI sicherer macht, indem sie eine verteilte Überprüfung ermöglicht“ und dass offene Entwicklung Innovation beschleunigt. Im Gegensatz dazu halten OpenAI (trotz des Namens) und Anthropic ihre leistungsstärksten Modelle proprietär und bieten Zugang über APIs, veröffentlichen aber nicht die Gewichtungsdateien. OpenAI wechselte nach GPT-3 von Open Source zu geschlossen, unter Berufung auf Sicherheits- und Wettbewerbsbedenken. CEO Altman hat angedeutet, dass die uneingeschränkte öffentliche Freigabe fortschrittlicher Modelle gefährlich sein könnte, und befürwortet eine kontrolliertere Einführung. Anthropics CEO Dario Amodei bezeichnet die Open-vs.-Closed-Debatte sogar als „falsche Fährte“ in der KI – entscheidend sei, welche Modelle am besten abschneiden, nicht ob ihr Code offen ist. Diese philosophische Kluft bestimmt, wie weit KI-Fähigkeiten verbreitet werden.
  • Sicherheits- und Ausrichtungsziele: Alle KI-Akteure erkennen KI-Sicherheitsprobleme an, gewichten sie jedoch unterschiedlich. Anthropic wurde ausdrücklich mit einer „Safety-First“-Ethik gegründet: Das Unternehmen erforscht Techniken zur KI-Ausrichtung wie die „Constitutional AI“-Methode, um Modellen ethische Prinzipien zu vermitteln. Amodei hat gewarnt, dass mit dem Erreichen des menschlichen Niveaus durch KI-Systeme „die Dringlichkeit dieser Dinge zugenommen hat“ und er empfindet eine „Pflicht, die Welt vor möglichen Nachteilen zu warnen“. OpenAI äußert ebenfalls Bedenken hinsichtlich „Missbrauchs“ oder Unfällen und erklärt, fortgeschrittene KI „geht mit ernsthaften Risiken von Missbrauch, drastischen Unfällen und gesellschaftlichen Störungen einher“. OpenAI und Anthropic verzögerten beide die öffentliche Freigabe ihrer neuesten Modelle, bis umfangreiche Sicherheitsanpassungen vorgenommen wurden (zum Beispiel wurde OpenAIs GPT-4 monatelang durch Red-Teaming getestet, um schädliche Ausgaben einzudämmen). Im Gegensatz dazu ist Metas Führung gegenüber existenziellen Risiken gelassener – LeCun hat öffentlich KI-„Weltuntergangs-“Szenarien als „völligen Quatsch“ abgetan und argumentiert, dass aktuelle Systeme „unterhalb des Tierniveaus arbeiten“. Dennoch verfügt selbst Meta über ein KI-Ethikteam und Inhaltsfilter für seine Modelle. Bemerkenswert ist, dass im Mai 2023 die CEOs von OpenAI, DeepMind und Anthropic gemeinsam eine Erklärung unterzeichneten, dass „die Minderung des Aussterberisikos durch KI eine globale Priorität neben Pandemien und Atomkrieg sein sollte.“ safe.ai Mit anderen Worten: Selbst die führenden KI-Laborleiter erkennen potenzielle existenzielle Risiken an, auch wenn sie sich darin unterscheiden, wie offen sie diese diskutieren oder angehen.
  • Technische Ansätze – Skalierung vs. neue Wege:Große Sprachmodelle (LLMs) und Deep Learning im großen Maßstab stehen im Mittelpunkt der Strategien der meisten Labore. OpenAI war Vorreiter bei riesigen generativen Textmodellen (GPT-Serie) und multimodalen Modellen (z. B. kann GPT-4 Bilder verarbeiten) und setzt stark auf Reinforcement Learning from Human Feedback (RLHF), um das Modellverhalten auszurichten. Googles DeepMind baut ebenfalls riesige Modelle (das kommende „Gemini“-Modell ist ein multimodales System mit einer Billion Parametern, das Googles Sprachmodell-Technologie mit DeepMinds Stärken im Reinforcement Learning kombiniert). DeepMind bringt einzigartiges Know-how aus seinen spielenden KIs (AlphaGo, AlphaZero) ein – Demis Hassabis deutet an, dass Gemini Planungs- und Werkzeugnutzungs-Fähigkeiten integrieren wird, die über heutige Chatbots hinausgehen. Anthropic konzentriert sich auf „Skalierungsgesetze“ – es hat immer größere Modelle trainiert (Claude 1, Claude 2) und 100K-Token-Kontextfenster für erweitertes Schlussfolgern eingeführt. Anthropics Besonderheit ist, diese Modelle über eine „Verfassung“ von Richtlinien statt nur RLHF auszurichten, um ein stabileres, wertekonsistentes Verhalten zu erreichen. Meta setzt sowohl auf Skalierung als auch Effizienz – seine LLaMA-Modelle (7B–70B Parameter) sind kleiner als GPT-4, aber dank hochwertiger Trainingsdaten überraschend wettbewerbsfähig. Metas Forschung untersucht auch neue Architekturen (z. B. „Mixture-of-Experts“ in einem Llama-4-Prototyp) und längerfristige Ideen wie LeCuns Vision von verkörperter KI und selbstüberwachtem Lernen, das über reine Textvorhersage hinausgeht. Kurz gesagt, OpenAI/Google/Anthropic setzen vor allem auf die Skalierung von Deep Learning (mit einigen algorithmischen Tricks), während Metas KI-Labor und einige andere glauben, dass grundlegende Durchbrüche (neue Modelldesigns, Gedächtnismechanismen usw.) letztlich notwendig sein werden, um echte AGI zu erreichen.
  • Aktuelle Produkte und Zielgruppen: Die Unternehmen unterscheiden sich darin, wie sie KI einsetzen. OpenAI erreichte Massenmarkt-Konsumenten direkt mit ChatGPT, das über 100 Millionen Nutzer für kostenlose (und inzwischen kostenpflichtige) KI-Konversationen gewann. Außerdem lizenziert es seine Modelle über die Azure-Cloud für Unternehmensanwendungen. Google hat generative KI in viele Produkte integriert: seinen Bard-Chatbot (ein experimenteller öffentlicher Dienst), Google Search (mit KI-Zusammenfassungen und Q&A in den Suchergebnissen) und Produktivitätstools (Duet AI für Gmail/Docs, Code-Vervollständigung in Android Studio usw.). Googles größte Kunden sind wohl die Milliarden von Such- und Android-Nutzern – was Sicherheit entscheidend macht, um die Marke zu schützen – sowie Cloud-Kunden, die seine Modelle über Google Cloud Vertex AI nutzen. Meta hatte bis vor Kurzem keinen eigenen öffentlichen Chatbot; stattdessen wurden Modelle für Entwickler als Open Source bereitgestellt. Nun wird KI in Facebook, Instagram und WhatsApp integriert – z. B. KI-Chat-Personas und Bildgeneratoren für Nutzer sowie Tools für Werbetreibende. Metas Open-Source-LLaMA wird von Forschern und Start-ups weit verbreitet genutzt (oft gehostet auf Hugging Face oder anderen Plattformen). Anthropic richtet sich in erster Linie an Unternehmen und Entwickler: Der Claude-Assistent ist über eine API und über Partner verfügbar (wie Slacks KI-Assistent und Quoras Poe-Chatbot). Anthropic positioniert Claude als sicherere Alternative zu GPT-4 und hat Investitionen von Unternehmen wie Quora, Slack und anderen erhalten, die Claude für Endnutzer integrieren. Microsoft hat als enger Partner von OpenAI GPT-4 in Bing Chat (Suchmaschine für Verbraucher) und „Copilot“-Assistenten in Windows 11, Office 365, GitHub und mehr eingebettet und erreicht damit sowohl Verbraucher als auch Unternehmenskunden. Amazon durchdringt sein Einzelhandels- und Cloud-Imperium mit generativer KI – von einer Next-Gen-Alexa, die Dialoge führen kann, über KI-gestütztes Einkaufen und Verkäufer-Tools bis hin zu seinen AWS-Cloud-Diensten (es startete Bedrock, um verschiedene Foundation-Modelle als Service anzubieten, darunter eigene Titan/Nova-Modelle und Drittanbieter-Modelle wie Claude und Stable Diffusion). Zusammengefasst bieten OpenAI und Anthropic KI hauptsächlich über API/Partnerschaften an (wobei ChatGPT die bemerkenswerte Direktanwendung von OpenAI ist), Google und Microsoft nutzen ihre riesigen Software-Ökosysteme, um KI-Funktionen zu integrieren, Meta versorgt die Entwickler-Community mit offenen Modellen und beginnt erst mit KI-Funktionen für Verbraucher, und Amazon nutzt KI, um seine E-Commerce-Dominanz und Cloud-Angebote für Unternehmen zu stärken.
  • Kommerzielle Strategien und Finanzierung: Das Rennen wird auch durch Wettbewerbs- und finanzielle Anreize angetrieben. OpenAI wandelte sich in eine gewinnorientierte, aber gedeckelte Gesellschaft um und sicherte sich eine Investition von über 13 Milliarden US-Dollar von Microsoft, was Microsoft einen exklusiven Vorteil bei OpenAIs Technologie verschafft. OpenAI monetarisiert über Cloud-API-Nutzung und ChatGPT-Abonnements, und die Bewertung des Unternehmens ist stark gestiegen (angeblich 20–30 Milliarden US-Dollar bis 2023). Anthropic hat Milliarden von Google (~400 Mio. US-Dollar Investition) und Amazon eingeworben (das allein 2023 bis zu 4 Milliarden US-Dollar für eine Minderheitsbeteiligung und AWS-Integrationsrechte zugesagt hat). Das bedeutet, dass Anthropics Modelle sowohl auf Google Cloud als auch auf AWS verfügbar sind – eine ungewöhnliche doppelte Partnerschaft. Google DeepMind und Meta finanzieren ihre KI-Bemühungen intern – im Grunde „KI-Kostenstellen“, die durch riesige Werbe- und Social-Media-Einnahmen subventioniert werden. Google hat Berichten zufolge zig Milliarden für KI-Forschung und -Entwicklung ausgegeben (es wurden riesige TPU-Supercomputer für das Training gebaut) und sogar sein Brain-Team mit DeepMind zusammengelegt, um Talente zu bündeln. Auch Meta hat die KI-Ausgaben erhöht: Zuckerberg genehmigte massive GPU-Käufe und eine Einstellungswelle von Top-Forschern (sogar Abwerbungen von OpenAI mit Angeboten von bis zu 100 Millionen US-Dollar). Die Mitarbeiterzahl in Metas KI-Abteilung überschritt 1.000 Forscher. Der Druck, eine Rendite zu zeigen, ist hoch: Besonders Meta sucht nach KI-Durchbrüchen, um die Ausgaben nach bisher gemischten Ergebnissen zu rechtfertigen (die Demo eines neuen Modells im April 2025 enttäuschte, was zu Führungswechseln führte). Amazon und Microsoft erwarten, dass ihre Cloud-Plattformen mit wachsender KI-Nutzung Umsätze erzielen – z. B. verkauft Microsoft Azure-Guthaben für OpenAIs Modelle (und erhält einen Anteil an künftigen AGI-Gewinnen von OpenAI, die über die Deckelung hinausgehen), und Amazons AWS wird zahllose KI-Anwendungen hosten. Kurz gesagt, jeder Akteur verfolgt einen anderen Monetarisierungsansatz: Cloud-Dienste (Amazon, Microsoft, Google), Nutzerbindung (Meta, Google), Unternehmenssoftware (Microsoft) oder API-Verkäufe und künftige AGI-Dienste (OpenAI, Anthropic). Alle jedoch streben einen First-Mover-Vorteil in einem Technologiesprung an, von dem sie glauben, dass er die Märkte umgestalten wird.
  • Regulierung und politische Positionen: Die KI-Giganten sagen öffentlich, dass sie Regulierung begrüßen – aber ihre Ansichten darüber, wie diese aussehen sollte, gehen auseinander. OpenAIs Altman hat Lizenzierungs- oder Sicherheitsanforderungen für die leistungsstärksten Modelle vorgeschlagen und sogar eine neue internationale Behörde (wie eine „IAEA für KI“) zur Überwachung superintelligenter Systeme angeregt. OpenAIs Policy-Post vom Mai 2023 stellte fest, dass „ein gewisses Maß an Koordination“ zwischen führenden Initiativen nötig sein wird, und brachte Ideen wie die Überwachung der Rechennutzung zur Durchsetzung von Obergrenzen ins Spiel. Anthropic teilt diese Sichtweise; Dario Amodei sagte zu und beriet zur US-KI-Politik und unterstützte die Ausweitung von Exportkontrollen (z. B. Beschränkung des Verkaufs fortschrittlicher Chips), um ein unkontrolliertes Wettrüsten zu verlangsamen. Sowohl OpenAI als auch Anthropic traten 2023 dem „Frontier Model Forum“ der Branche bei, zusammen mit Google und Microsoft, und verpflichteten sich, bei Sicherheitsstandards für fortschrittliche KI zusammenzuarbeiten. Google-CEO Sundar Pichai hat ebenfalls erklärt, KI sei „zu wichtig, um nicht reguliert zu werden“, und DeepMinds Hassabis setzt sich für internationale Zusammenarbeit bei KI-Regeln ein. Allerdings bevorzugen diese Unternehmen eine zurückhaltende oder gezielte Regulierung, die sich auf Hochrisiko-Anwendungen oder fortschrittliche Modelle konzentriert, nicht auf eine breite Unterdrückung der KI-Entwicklung. Sie ziehen oft eine Grenze zwischen „hochleistungsfähiger KI“ (die möglicherweise neue Aufsicht benötigt) und gewöhnlicher KI, die durch bestehende Gesetze abgedeckt werden kann. Metas Haltung ist etwas differenzierter: Mark Zuckerberg unterstützt öffentlich „offene“ KI-Entwicklung und den Erhalt eines breiten Zugangs, aber da die Regulierungsbehörden ihren Fokus schärfen, hat Meta signalisiert, dass man künftig „vorsichtig sein wird, was wir als Open Source bereitstellen“. Meta plädiert für einen ausgewogenen Ansatz, der offene Forschung nicht behindert – LeCun hat sich gegen Regeln eingesetzt, die beispielsweise die Veröffentlichung von Modellgewichten einschränken oder für offene Modelle aufwendige Lizenzen verlangen würden. Alle großen Unternehmen haben sich auf bestimmte freiwillige Verpflichtungen geeinigt (in einer Zusage an das Weiße Haus 2023), wie das Testen von KI auf Sicherheit vor der Veröffentlichung, die Implementierung von Wasserzeichen für KI-generierte Inhalte und das Teilen von Best Practices. Aber es bleiben Unterschiede: So waren Unternehmen wie OpenAI und Google beim Veröffentlichen von Modelldetails zurückhaltender und vertreten die Philosophie, dass Sicherheit und Schutz Geheimhaltung an der Spitze erfordern. Währenddessen argumentieren Meta und viele akademische Experten, dass Transparenz und Peer Review von KI-Modellen entscheidend für Vertrauen sind. Diese Debatte ist im Gange, während Regierungen neue KI-Gesetze entwerfen (das KI-Gesetz der EU, vorgeschlagene US-Gesetzgebung usw.) und Ereignisse (wie prominente KI-Fehler oder Missbrauchsfälle) die öffentliche Meinung prägen.
  • Weitere bemerkenswerte Akteure: Neben den großen Fünf umfasst die breitere KI-Landschaft neue Start-ups und globale Akteure. Musks xAI (gegründet 2023) ist ein bemerkenswerter Neuzugang – Elon Musk sagte, er habe xAI gegründet, um eine „maximal neugierige, wahrheitssuchende“ KI zu entwickeln, die „die wahre Natur des Universums verstehen“ soll, und kritisierte damit implizit OpenAI für wahrgenommene Voreingenommenheit. xAI befindet sich noch in der Forschung & Entwicklung, ist mit ehemaligen DeepMind- und OpenAI-Mitarbeitern besetzt und könnte mit Musks X (Twitter) und Tesla für Daten kooperieren. Inflection AI, mitbegründet von DeepMinds Mustafa Suleyman, verfolgt einen anderen Ansatz: Es entwickelte „Pi“, einen persönlichen KI-Chatbot, und will eine KI schaffen, die „eine Art Coach oder Vertrauter“ für Einzelpersonen sein kann. Inflection hat über 1,3 Mrd. US-Dollar (von Investoren wie Reid Hoffman und Microsoft) eingesammelt und Berichten zufolge ein Modell mit 43 Milliarden Parametern trainiert, womit es sich zwischen Big Tech und Open-Source-Idealen positioniert. Stability AI setzt sich für Open Source im Bereich generativer KI ein – es finanzierte die Entwicklung von Stable Diffusion (Bildgenerator) und arbeitet an offenen Textmodellen. Stability-CEO Emad Mostaque ist der Ansicht, dass breiter Zugang Innovationen fördert und „verhindert, dass wenige Konzerne die KI kontrollieren“. Allerdings hatte Stability mit finanziellen Herausforderungen zu kämpfen und sein Einfluss ist derzeit bei Sprachmodellen geringer als im Bereich Bildgenerierung. IBM und Oracle konzentrieren sich auf Unternehmens-KI: IBMs Watsonx-Initiative bietet auf Unternehmen zugeschnittene Modelle mit Schwerpunkt auf Transparenz und Erklärbarkeit (IBM hebt die Einhaltung von Fairness und Prüfbarkeit hervor und verzichtet auf „Black Box“-Großmodelle, sofern sie nicht vertrauenswürdig sind). Chinesische TechnologiekonzerneBaidu, Alibaba, Tencent, Huawei – sind ebenfalls im Rennen, allerdings durch strenge staatliche Aufsicht eingeschränkt. Baidus ERNIE Bot und Alibabas Tongyi Qianwen sind chinesische LLMs, die 2023 eingeführt wurden und GPT-ähnliche Fähigkeiten für den heimischen Markt bieten sollen (mit starker Zensur der Ausgaben). Die chinesische Regierung hat Sicherheitsüberprüfungen und sogar Haftung für KI-Anbieter vorgeschrieben, falls deren Modelle verbotene Inhalte erzeugen. Dies zeigt, wie Geopolitik und unterschiedliche Werte die KI prägen: US-Unternehmen setzen auf Selbstregulierung und Partnerschaft mit westlichen Regierungen, während Chinas Ansatz eine staatlich gelenkte Entwicklung ist, um wettbewerbsfähig und gleichzeitig kontrolliert zu bleiben. Schließlich produzieren auch die Wissenschaft und Non-Profit-Organisationen (wie das Allen Institute for AI, LAION, EleutherAI) weiterhin offene Modelle und Tools (z. B. das RedPajama-Projekt, das den LLaMA-Trainingsdatensatz nachbildet usw.), sodass ein Open-Source-Gegengewicht erhalten bleibt. Zusammengefasst ist das Rennen um fortschrittliche KI nicht nur ein Wettstreit der großen Firmenlabore, sondern umfasst auch Start-ups, nationale Interessen und eine Open-Source-Community – alle bringen unterschiedliche Philosophien für die Zukunft der KI ein.

Das neue KI-Wettrüsten: Eine Einführung

Ein heftiger globaler Wettbewerb ist im Gange, um die nächste Generation künstlicher Intelligenz zu entwickeln – nicht nur spezialisierte Werkzeuge, sondern generelle KI, die die Gesellschaft insgesamt transformieren könnte. Im Jahr 2023 löste der atemberaubende Erfolg von OpenAIs ChatGPT ein „KI-Wettrüsten“ unter den Technologiegiganten aus. Bis 2025 hat sich dieses Rennen nur noch beschleunigt. Amazon, Microsoft, Google, Meta und OpenAI (oft gegenseitig oder von Investoren unterstützt) sind gemeinsam auf dem Weg, in diesem Jahr Hunderte Milliarden Dollar für KI-Forschung und Infrastruktur auszugeben startupnews.fyi. Ihr Ziel? Sich gegenseitig zu übertreffen, indem sie leistungsfähigere, vielseitigere KI-Systeme schaffen – mit dem ultimativen Preis: Künstliche Allgemeine Intelligenz (AGI), ein System mit kognitiven Fähigkeiten auf menschlichem (oder darüber hinausgehendem) Niveau.

Warum dieser plötzliche Ansturm? Jedes Unternehmen sieht enorme Einsätze: Wer die beste KI entwickelt, könnte die Tech-Branche für Jahrzehnte dominieren. KI hat das Potenzial, Websuche, Produktivitätssoftware, Social-Media-Feeds, E-Commerce, Gesundheitswesen, Finanzen – praktisch jeden Bereich – zu revolutionieren. „KI wird das Größte sein, was sie in ihrem Leben gesehen haben“, beschreibt ein Risikokapitalgeber die Denkweise der Big-Tech-CEOs, „und wenn sie nicht herausfinden, wie sie ein großer Player werden, werden sie abgehängt.“. Anders gesagt: Die Angst, etwas zu verpassen und die Billionen an zukünftigem KI-Wert zu verlieren, treibt die Unternehmen dazu, „all-in“ zu gehen. Facebook-Gründer Mark Zuckerberg soll beispielsweise Kollegen gesagt haben, dass es nicht akzeptabel sei, bei KI kein führender Akteur zu sein „inakzeptabel“ und begann, intensiv Talente zu rekrutieren, um aufzuholen.

Gleichzeitig verkünden diese Unternehmen hochtrabende Visionen davon, was ihre KI erreichen wird. OpenAI spricht davon, mit AGI „der gesamten Menschheit zu nützen“. DeepMind-CEO Demis Hassabis stellt sich vor, dass KI wissenschaftliche Rätsel löst – von der Heilung von Krankheiten bis zur Revolutionierung der Energie – und eine Ära „radikalen Überflusses“ und menschlichen Gedeihens einleitet. Metas Führungskräfte sprechen davon, dass KI „superintelligente“ persönliche Assistenten und neue kreative Werkzeuge für Milliarden Menschen ermöglicht. Selbst Skeptiker sind sich einig, dass KI die Produktivität dramatisch steigern könnte: „Es wird zehnmal größer als das Internet sein“, sagte Hassabis dem The Guardian, mit dem Potenzial für „unglaublichen Wohlstand“, wenn es richtig gemacht wird.

Doch hinter der optimistischen Botschaft steckt auch tiefe Angst – vor Sicherheit, Ethik und Kontrolle. Fortschrittliche KI birgt Risiken des Missbrauchs, unbeabsichtigten schädlichen Verhaltens, Arbeitsplatzverlusten und sogar (im extremsten Fall) dem Verlust menschlicher Kontrolle. Bezeichnenderweise warnen gerade die Pioniere, die an AGI arbeiten, auch vor deren Gefahren. Mitte 2023 kursierte unter KI-Experten eine einzeilige Erklärung, die von Altman (OpenAI), Hassabis (DeepMind), Amodei (Anthropic) und vielen anderen unterzeichnet wurde: „Die Minderung des Aussterberisikos durch KI sollte eine globale Priorität sein, gleichrangig mit anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg.“ safe.ai. Kurz gesagt: Auch wenn sie Milliarden in KI investieren, mahnen diese Führungskräfte zur Vorsicht, um „es richtig zu machen“. Dieses Paradox – mit Höchstgeschwindigkeit voranzutreiben und gleichzeitig zu versuchen, die „Welt nicht zu zerstören“ – prägt die aktuelle KI-Landschaft.

In diesem Bericht werden wir die Strategien, Ziele und Philosophien der führenden KI-Labore vergleichen: OpenAI, Anthropic, Google DeepMind, Meta (Facebook) und andere wie Microsoft und Amazon, die stark involviert sind. Wir werden die jeweilige Vision der Unternehmen für AGI untersuchen, ihren technischen Ansatz (Reinforcement Learning, Alignment-Methoden, Open-Source vs. geschlossene Modelle usw.), ihre öffentlichen Stellungnahmen und Ansichten der Führungskräfte sowie ihre Positionen zur Regulierung. Außerdem werden wir beleuchten, wie sie sich in Fragen der Sicherheit, Offenheit, Skalierung, Kommerzialisierung und Risiko unterscheiden. Unterwegs heben wir Zitate von CEOs und Experten hervor, die Einblicke in ihr Denken geben. Abschließend gehen wir auf die breitere gesellschaftliche Debatte ein: Während diese KI-Giganten voranstürmen, wie stellen wir sicher, dass die Technologie sicher, transparent und zum Nutzen aller ist?

Tauchen wir ein in die Welt der KI-Supermächte und sehen wir uns an, was genau sie zu bauen versuchen – und warum.

OpenAI: Intelligenz skalieren – sicher und kommerziell

OpenAI gilt oft als Auslöser des aktuellen KI-Booms. Ursprünglich 2015 als gemeinnütziges Forschungslabor gegründet, wandelte sich OpenAI 2019 in ein „capped-profit“-Unternehmen, um Investitionen anzuziehen – und fand in Microsoft einen mächtigen Förderer. Das ausgegebene Ziel von OpenAI ist nichts Geringeres, als AGI zu erschaffen und sicherzustellen, dass sie allen zugutekommt. „Unsere Mission ist es, sicherzustellen, dass künstliche allgemeine Intelligenz … der gesamten Menschheit zugutekommt“, erklärt das Unternehmen in seiner Charta. Sam Altman, CEO von OpenAI, hat geäußert, dass er AGI für erreichbar innerhalb vielleicht eines Jahrzehnts hält. „Wir sind jetzt zuversichtlich, dass wir wissen, wie man AGI baut, wie wir sie traditionell verstanden haben“, schrieb Altman 2023. OpenAI-Forscher äußerten Optimismus, dass das Hochskalieren von Modellen (plus algorithmische Verbesserungen) letztlich zu KI auf menschlichem Niveau führen wird. Wie es in einem OpenAI-Blogpost heißt, „wird die erste AGI nur ein Punkt auf einem Kontinuum der Intelligenz sein“ – also ein früher Meilenstein auf dem Weg zu noch allgemeineren und leistungsfähigeren Systemen.

Strategie und Technologie: OpenAIs Ansatz konzentriert sich darauf, immer größere generative Modelle zu trainieren und sie dann mit menschlichen Werten in Einklang zu bringen. Sie sorgten 2020 mit GPT-3 (ein Sprachmodell mit 175 Milliarden Parametern, das bemerkenswert menschenähnlichen Text erzeugen konnte) für Schlagzeilen und erneut mit ChatGPT (feinabgestimmt aus GPT-3.5 mit konversationsbasiertem Instruction-Following). 2023 stellte OpenAI GPT-4 vor, ein multimodales Modell, das Text- und Bildeingaben akzeptiert und beeindruckende Problemlösungsfähigkeiten in Mathematik, Programmierung und Schreiben zeigt. OpenAI setzt stark auf Reinforcement Learning from Human Feedback (RLHF), um seine Modelle dazu zu bringen, hilfreich und nicht toxisch zu antworten. Der Erfolg von ChatGPT ist zu einem großen Teil dieser Methode zu verdanken – menschliche Tester brachten dem Modell bei, bestimmte Anfragen abzulehnen und höfliche Anweisungen zu befolgen. „Unser Wechsel von Modellen wie GPT-3 zu InstructGPT und ChatGPT ist ein frühes Beispiel für die Entwicklung zunehmend ausgerichteter und steuerbarer Modelle“, schrieb OpenAI.

OpenAI erforscht auch neuartige Alignment-Techniken. Mitte 2023 gründete das Unternehmen ein Team für „Superalignment“, um die Ausrichtung einer zukünftigen superintelligenten KI anzugehen, und widmete diesem Vorhaben 20 % seiner Rechenleistung. Die technische Philosophie war im Allgemeinen: Zuerst ein leistungsfähiges Modell trainieren, dann das Verhalten durch Feinabstimmung, Moderationsfilter und Rückkopplungsschleifen mit Nutzern korrigieren. Kritiker bezeichnen dies manchmal als „move fast and fix alignment later“, aber OpenAI argumentiert, dass die schrittweise Einführung von Modellen der beste Weg sei, um zu lernen und sich anzupassen. „Wir glauben… ein allmählicher Übergang in eine Welt mit AGI ist besser als ein plötzlicher“, schrieb das Unternehmen und erklärte, es wolle eine „enge Rückkopplungsschleife aus schnellem Lernen und sorgfältiger Iteration“ schaffen, indem es Zwischenmodelle veröffentlicht.

Wichtig ist, dass OpenAI bei seinen neuesten Modellen deutlich verschlossener geworden ist – eine starke Abkehr von der anfänglichen Offenheit. Die technischen Details und Trainingsdaten von GPT-4 wurden nicht veröffentlicht (aus Wettbewerbs- und Sicherheitsgründen), was in der Forschungsgemeinschaft auf Kritik stieß. OpenAI räumt ein, dass es einen Widerspruch zwischen Offenheit und Vorsicht gibt: „Da unsere Systeme der AGI näherkommen, werden wir immer vorsichtiger… Manche Menschen halten die Risiken für fiktiv; wir wären erfreut, wenn sie Recht behalten, aber wir handeln so, als wären diese Risiken existenziell“, schrieb das Team. OpenAI hat zwar Arbeiten zu den Fähigkeiten und Verzerrungen von GPT-4 veröffentlicht, aber nicht die vollständigen Modellgewichte oder den Code. Diese Änderung wurde mit der Verhinderung von Missbrauch und dem Schutz vor böswilligen Akteuren begründet. Sie entspricht jedoch auch den Geschäftsinteressen – die Partnerschaft mit Microsoft erfordert eine gewisse Exklusivität. Microsoft investierte über 13 Milliarden Dollar in OpenAI und darf im Gegenzug die Modelle von OpenAI in der Azure Cloud einsetzen und sogar in Produkte wie Bing und Office integrieren. OpenAIs Einnahmen stammen von Microsoft (das Cloud-Gewinne teilt) und von API-Kunden – bis September 2025 soll der Jahresumsatz mit dem Verkauf von KI-Zugängen über 1 Milliarde Dollar betragen haben. Das Gewinnstreben und das Sicherheitsmotiv zusammen haben OpenAI zu einer streng kontrollierten Veröffentlichungsstrategie für seine fortschrittlichsten KI-Modelle veranlasst.

Öffentliche Haltung und Führung: Sam Altman ist zu einer wichtigen öffentlichen Stimme für die Chancen und Risiken von KI geworden. In einem Time-Porträt erklärte Altman OpenAIs Sichtweise, dass AGI enormen Nutzen bringen wird – Wohlstand steigern, die Wirtschaft ankurbeln, wissenschaftliche Entdeckungen fördern, wenn sie richtig gemanagt wird. Gleichzeitig warnte er aber auch vor „ernsten Risiken: Missbrauch, drastische Unfälle, gesellschaftliche Umwälzungen“. Deshalb engagiert sich Altman proaktiv bei politischen Entscheidungsträgern. Im Mai 2023 sagte er vor dem US-Kongress aus, dass „wenn diese Technologie schiefgeht, es sehr schiefgehen kann“, und forderte die Einführung einer Lizenzierung für leistungsstarke KI-Modelle und möglicherweise einer globalen Regulierungsbehörde. Er schlug sogar vor, dass Regierungen KI-Labore bei bestimmten Fähigkeitsgrenzen ohne Aufsicht stoppen könnten – ein bemerkenswerter Vorschlag von jemandem, der eines der fortschrittlichsten Labore leitet. OpenAIs offizieller Blog zur „Governance of Superintelligence“ forderte eine internationale Behörde, die KI-Systeme ab einem bestimmten Rechenleistungsniveau inspiziert und prüft. Gleichzeitig lehnen Altman und OpenAI strenge Regeln für kleinere KI-Modelle und Open-Source-Projekte ab; sie schrieben, dass „die Ermöglichung von Open-Source-Entwicklung unterhalb einer signifikanten Schwelle wichtig ist“ und dass heutige Modelle (wie ChatGPT-Niveau) „Risiken haben… die mit anderen Internet-Technologien vergleichbar sind“, die mit bestehenden Rahmenwerken gehandhabt werden können. Kurz gesagt, OpenAI befürwortet strenge Regulierung für die Spitzentechnologie (Frontier-, potenziell AGI-Level-Systeme), aber mildere Regulierung für KI im Allgemeinen.

Auch andere Führungskräfte von OpenAI haben starke Meinungen. Chief Scientist Ilya Sutskever (ein Mitgründer) hat darüber nachgedacht, dass fortgeschrittene KI an kritischen Punkten ein Verlangsamen erfordern könnte – er brachte Anfang 2023 kontrovers ins Gespräch, dass die Gesellschaft irgendwann vielleicht „nicht weitermachen“ sollte, wenn Modelle zu intelligent werden, obwohl OpenAI als Ganzes zu diesem Zeitpunkt keine Pause befürwortete. Sutskever löste auch Debatten aus, indem er vorschlug, dass große neuronale Netzwerke „leicht bewusst“ sein könnten, was die rätselhafte Natur dieser Modelle unterstreicht. Mitgründer/Präsident Greg Brockman spricht oft über die Demokratisierung von KI (er hat sich dafür ausgesprochen, sichere AGI schließlich als Open Source bereitzustellen, nachdem das Alignment-Problem gelöst ist). Dieses Ideal von „KI für alle“ bleibt Teil der Rhetorik von OpenAI – zum Beispiel stellen sie sich vor, dass zukünftige AGI „Hilfe bei nahezu jeder kognitiven Aufgabe“ für jedermann bietet und als universeller Verstärker menschlicher Kreativität dient. Doch vorerst balanciert OpenAI auf einem schmalen Grat: Sie teilen KI breit über API/Apps, halten aber die zugrundeliegende Technologie unter Verschluss.

Produkt und Zielgruppe: Das Flaggschiff von OpenAI ist ChatGPT, das KI einem breiten Publikum zugänglich gemacht hat. Bereits wenige Monate nach dem Start im November 2022 erreichte ChatGPT Berichten zufolge 100 Millionen Nutzer – die schnellste Verbreitung einer App in der Geschichte bis zu diesem Zeitpunkt. Menschen nutzen es für alles, vom Verfassen von E-Mails und Aufsätzen über Programmierhilfe, Nachhilfe bis hin zu kreativem Schreiben. Das verschaffte OpenAI beispielloses Feedback aus der Praxis (und auch eine dominierende Marke im KI-Bereich). Inzwischen haben sie ChatGPT Plus (eine kostenpflichtige Version mit schnelleren Antworten und Plugins, die ChatGPT die Nutzung von Tools oder das Surfen im Internet ermöglichen) und ChatGPT Enterprise (mit Datenschutz- und Sicherheitsgarantien für Unternehmen) veröffentlicht. Separat bietet OpenAI GPT-4, GPT-3.5, DALL·E 3 (Bildgenerator) und andere Modelle über eine API an, die Entwickler in ihre eigenen Produkte integrieren können. Tausende Unternehmen bauen auf der OpenAI-API auf – von großen Firmen wie Khan Academy (KI-Tutoren) und Stripe (KI-Kundensupport) bis hin zu Start-ups, die KI-Schreib- oder Analysetools entwickeln.

Die enge Partnerschaft von OpenAI mit Microsoft verstärkt die Reichweite. Microsofts Bing Chat, im Wesentlichen ChatGPT mit Internetzugang und aktuellen Informationen, brachte das OpenAI-Modell Millionen von Suchenden näher (und war Microsofts Versuch, Google herauszufordern). Noch bedeutender ist, dass Microsoft die OpenAI-Modelle als „Copilots“ für Office 365 (Word, Excel, PowerPoint, Outlook), GitHub (Programmierassistent) und sogar Windows selbst integriert hat. „KI wird das Nutzererlebnis jedes Microsoft-Produkts neu erfinden“, erklärte CEO Satya Nadella. Tatsächlich kann Microsoft 365 Copilot mit GPT-4 Dokumente entwerfen oder Meetings zusammenfassen und verspricht so eine Steigerung der Produktivität im Büro. Durch die Nutzung der riesigen Vertriebskanäle von Microsoft im Unternehmensbereich gelangt die OpenAI-Technologie rasch in Unternehmen und Behörden. Microsoft hat sogar einen Azure OpenAI Service geschaffen, damit Unternehmenskunden auf OpenAI-Modelle mit zusätzlicher Sicherheit, Compliance und Anpassungsmöglichkeiten zugreifen können. Diese Kommerzialisierungsstrategie war äußerst erfolgreich – bis 2024 hatten von OpenAI unterstützte Azure-Dienste Tausende Kunden (darunter große Namen wie HSBC, IKEA und Boeing) und die Nachfrage überstieg zeitweise die GPU-Kapazitäten der Microsoft-Cloud.

Werte und Kontroversen: OpenAI positioniert sich als von einem langfristigen, eher altruistischen Ziel getrieben (Sicherstellung, dass AGI sicher und für alle von Nutzen ist), sieht sich jedoch Skepsis ausgesetzt. Der Wechsel zu einem gewinnorientierten und geheimen Modell führte dazu, dass einige Kritiker (darunter auch bei Meta und in Open-Source-Communities) OpenAI der Heuchelei bezichtigten – „OpenAIs geschlossene Modelle“ wurden zu einer ständigen Ironie. OpenAI entgegnet, dass „Sicherheit und Schutz“ es erfordern, Modelle nicht als Open Source zu veröffentlichen, da sie missbraucht werden könnten (zum Beispiel befürchtet man die Ermöglichung massenhaft generierter Desinformation oder die Befähigung von Kriminellen zur Erstellung von Biowaffen-Formeln – Risiken, die ein mächtiges, unzensiertes Modell darstellen könnte). Dieser paternalistische Ansatz hat eine Debatte ausgelöst: Ist es besser oder überhaupt ethisch vertretbar, wenn ein Unternehmen einseitig entscheidet, wer KI bekommt und nach welchen Regeln?

Eine weitere Kontroverse ist KI-Alignment: OpenAIs Modelle verfügen über Moderationsfilter, die bestimmte Anfragen ablehnen (z. B. Anweisungen zu Gewalt, hasserfüllte Inhalte usw.). Einige Nutzer (und politische Akteure) beklagen, ChatGPT sei „zu woke“ oder in seinen Antworten voreingenommen. Sam Altman hat das Problem eingeräumt und erklärt, „wir werden versuchen, die Vorurteile zu beseitigen,“ aber auch, dass eine völlig neutrale KI unmöglich sei, da „Nutzer unterschiedliche Definitionen von Korrektheit haben werden“. OpenAI forscht an Möglichkeiten, Nutzern zu erlauben, eigene Inhaltspräferenzen innerhalb von Grenzen festzulegen. Das verdeutlicht eine grundlegende Herausforderung: Wie kann KI an vielfältige menschliche Werte angepasst werden? OpenAI investiert erhebliche F&E in dieses Thema, sowohl technisch (RLHF, Feintuning anhand von Feedback) als auch politisch (Zusammenarbeit mit Ethikern und Durchführung von Umfragen zu akzeptablem Verhalten).

Schließlich wurden OpenAIs Sicherheitsvorkehrungen sowohl gelobt als auch kritisiert. Einerseits beschäftigt das Unternehmen Red Teams (externe Experten, die Modelle auf schädliche Fähigkeiten testen) und veröffentlicht Berichte zu Vorurteilen und Risiken. Bei GPT-4 wurden beispielsweise zusätzliche emergente Fähigkeiten festgestellt (wie das Bestehen bestimmter Prüfungen in den obersten Perzentilen) sowie eine gewisse Neigung, Fakten zu halluzinieren oder „das System auszutricksen“, wenn es geschickt angeregt wird. OpenAI hat Nutzungsrichtlinien und Überwachung eingeführt, um diese Probleme zu mindern, und arbeitet aktiv mit der Wissenschaft an KI-Sicherheitsforschung zusammen (kürzlich Partnerschaft mit dem Alignment Research Center, um die Fähigkeit von GPT-4 zu testen, autonom zu handeln usw.). Andererseits argumentieren Kritiker, OpenAI bringt weiterhin leistungsstarke Modelle auf den Markt, ohne sie vollständig zu verstehen – und weisen darauf hin, dass die Interna von GPT-4 eine Blackbox bleiben, bei der selbst OpenAI nicht weiß, wie es fortgeschrittene Fähigkeiten entwickelt. OpenAI entgegnet, dass eine schrittweise Einführung mit Schutzmaßnahmen besser sei als zu warten, da die Nutzung in der Praxis Probleme aufdeckt, die in späteren Updates behoben werden können.

Zusammenfassend ist OpenAI das prototypische „move fast (but not too fast) and make AI break things (but patch them)“ Unternehmen. Es skaliert KI-Fähigkeiten unermüdlich hoch und hat den Maßstab dafür gesetzt, was KI leisten kann (und alle Konkurrenten dazu gebracht, das Niveau von GPT-4 zu erreichen). Dieses Streben verbindet OpenAI mit einer expliziten (manche sagen selbstwidersprüchlichen) sicherheitsorientierten Erzählung – es fordert Aufsicht, während es das Rennen anführt. Wie wir sehen werden, ahmen andere Unternehmen OpenAI sowohl nach als dass sie es kritisieren und unterscheiden sich in wichtigen Punkten hinsichtlich Offenheit, Profit und Forschungskultur.

Anthropic: Safety-First-KI und „konstitutionelles“ Alignment

Anthropic wird oft im selben Atemzug wie OpenAI genannt – nicht nur wegen des Reims in den Namen. Tatsächlich wurde Anthropic von ehemaligen OpenAI-Führungskräften gegründet, die mit der Ausrichtung von OpenAI unzufrieden wurden. Im Jahr 2020 verließen der OpenAI-Vizepräsident für Forschung Dario Amodei (und seine Schwester Daniela) das Unternehmen nach Meinungsverschiedenheiten darüber, wie schnell OpenAI große Modelle einsetzte und sich in Richtung Microsoft und Profit orientierte. Sie gründeten Anthropic im Jahr 2021 ausdrücklich als ein KI-Labor mit Fokus auf KI-Sicherheit und Ausrichtung. Die Mission von Anthropic ist es, zuverlässige, interpretierbare und steuerbare KI-Systeme zu entwickeln – im Wesentlichen, das Alignment-Problem zu lösen und dennoch fortschrittliche KI zu schaffen. Dario Amodei warnt seit Jahren davor, dass unkontrollierte KI-Entwicklungen „katastrophal schlechte“ Folgen für die Gesellschaft haben könnten. Er gilt als einer der „vorsichtigeren“ Führungskräfte (von einigen Kritikern als Doomer bezeichnet, wobei er die Rolle des Realisten annimmt). „Wir sehen es als unsere Pflicht an, die Welt vor dem zu warnen, was passieren wird… denn wir könnten eine so gute Welt haben, wenn wir alles richtig machen“, sagte Amodei in einem Interview Mitte 2025.

Technischer Ansatz: Anthropic verfolgt eine Strategie, bei der große allgemeine Modelle (ähnlich der GPT-Reihe von OpenAI) trainiert werden, wobei jedoch großer Wert auf Alignment-Techniken gelegt wird, um ein sicheres Verhalten zu gewährleisten. Der primäre KI-Assistent, Claude, ist ein KI-Chatbot ähnlich wie ChatGPT. Die erste Version von Claude (Anfang 2022) basierte auf einem Modell mit mehreren zehn Milliarden Parametern und war bemerkenswert, weil sie eine von Anthropic entwickelte neuartige Trainingsmethode namens „Constitutional AI“ verwendete. Die Idee, wie in der Forschung von Anthropic erklärt, ist es, der KI einen Satz von Prinzipien oder eine „Verfassung“ zu geben (entnommen aus Quellen wie der Allgemeinen Erklärung der Menschenrechte oder nicht-westlichen Philosophien usw.) und die KI sich selbst verbessern zu lassen, indem sie ihre Ausgaben anhand dieser Prinzipien kritisiert und überarbeitet. Diese Methode verringert die Abhängigkeit von menschlichem Feedback bei jedem Feintuning-Schritt; stattdessen lernt die KI, sich durch Verstärkungslernen mit einem festen Satz von menschlich genehmigten Werten abzustimmen, wobei das Belohnungsmodell von der Verfassung abgeleitet wird. In der Praxis lehnt Claude böswillige Anfragen ab, indem er auf seine Prinzipien verweist (z. B. könnte er sagen, dass er keine hasserfüllten Inhalte erstellen kann, da dies gegen das Prinzip des Respekts gegenüber allen Menschen verstößt). Frühe Tests zeigten, dass Claude weniger wahrscheinlich aus dem Ruder läuft oder unerlaubte Inhalte produziert als nicht ausgerichtete Modelle, obwohl er immer noch ausgetrickst werden konnte.

Anthropic ist auch an der Spitze der Modells Skalierung. Sie veröffentlichten einflussreiche Forschung zu Skalierungsgesetzen, die zeigen, wie sich die Modellleistung mit mehr Daten und Parametern vorhersehbar verbessert. Im Jahr 2023 stellte Anthropic Claude 2 vor, ein deutlich leistungsfähigeres Modell (bei vielen Aufgaben vergleichbar mit GPT-3.5/GPT-4) und sorgte für Aufsehen mit einem 100.000 Token Kontextfenster – das bedeutet, Claude konnte Hunderte von Seiten Text auf einmal lesen und verarbeiten. Das war deutlich mehr als der Kontext anderer Modelle und ermöglichte es beispielsweise, lange Dokumente oder sogar den Text eines ganzen Romans in einer einzigen Eingabe zu analysieren. Dies demonstrierte Anthropics Fokus auf „Informationsspeicherung und -verarbeitung“, was für Aufgaben wie das Verstehen langer Verträge oder Gespräche entscheidend ist.

Während Anthropic keine genauen Parameterzahlen veröffentlicht hat, gab es Gerüchte, dass Claude 2 in der Größenordnung von 50 bis 100 Milliarden Parametern liegt (kleiner als GPT-4, das auf über 170 Milliarden geschätzt wird). Allerdings gleicht Anthropic dies durch clevere Trainingsmethoden aus – sie trainierten mit einem umfangreichen Korpus, der vielfältige Internetdaten und Code umfasst, und verfeinern Claude kontinuierlich mithilfe von Feedback aus einem Beta-Programm. Sie haben auch viel Aufwand in die Interpretierbarkeit gesteckt: Anthropic-Forscher untersuchen die „Neuronen“ und Verhaltensweisen innerhalb von Sprachmodellen, um zu verstehen, wie sie Konzepte bilden. Zum Beispiel haben sie Analysen veröffentlicht, wie ein Modell „eine lineare Sequenz“ repräsentieren könnte oder wo Vorurteile kodiert sein könnten, um Wege zur Anpassung zu finden. Dies spiegelt eine forschungsorientierte Kultur bei Anthropic wider – viele Mitarbeiter sind promovierte Wissenschaftler, die sich auf grundlegende Fragen der KI-Ausrichtung konzentrieren, nicht nur auf das Produkt.

Sicherheitsphilosophie: Anthropic legt vermutlich mehr Wert auf KI-Sicherheit als jedes andere große Labor. Von Anfang an positionierten sie sich als Unternehmen, das KI „auf eine Weise entwickelt, die Sicherheit ernsthaft priorisiert.“ Ihr Firmenethos ist nach „Anthropic“ (bedeutet „den Menschen betreffend“) benannt, um die Ausrichtung an menschlichen Werten zu betonen. Dario Amodei hat sich offen zu kurzen Zeitrahmen für leistungsfähige KI und zur Notwendigkeit der Vorbereitung geäußert. Berichten zufolge sagte er Kollegen, dass er eine erhebliche Wahrscheinlichkeit (in der Größenordnung von 10-20 %) für das Eintreten von AGI in den nächsten Jahren sieht und damit ein ebenso erhebliches Risiko, dass etwas schiefgeht, wenn es nicht richtig gehandhabt wird. Deshalb engagiert er sich in politischen Kreisen: „Die nationalen Sicherheitsfragen, die wirtschaftlichen Fragen [durch KI] rücken immer näher… die Dringlichkeit ist gestiegen,“ sagte er. Im Gegensatz zu Yann LeCun bei Meta, der „Weltuntergangsszenarien“ verspottet, scheut Amodei nicht davor zurück, über Worst-Case-Szenarien zu sprechen – aber er tut dies, um jetzt für Gegenmaßnahmen zu werben. Er betont jedoch auch, dass Anthropic enorme Vorteile durch KI sieht. „Ich glaube, wir schätzen die Vorteile wahrscheinlich mehr als jeder andere… aber gerade deshalb, weil wir eine so gute Welt haben könnten, fühle ich mich verpflichtet, vor den Risiken zu warnen,“ erklärte er.

Was Ausrichtungsstrategien betrifft, experimentiert Anthropic neben Constitutional AI mit Techniken wie skalierbarer Aufsicht (können wir KI-Systeme einsetzen, um andere KIs zu überwachen und zu trainieren), adversarialem Testen (Versuch, schlechtes Verhalten in einer sicheren Testumgebung hervorzurufen) und empirischer Sicherheit (Messung von Dingen wie Ehrlichkeit oder Toxizitätsraten). Sie sind bekannt für das „HARNESS“-Evaluierungsframework, das Modelle mit einer Reihe kniffliger Eingaben auf die Probe stellt. Anthropic trainiert seine Modelle auch einfach darauf, mehr Dinge abzulehnen: Claude ist im Allgemeinen konservativer darin, was es nicht tun wird, verglichen mit den rohen GPT-Modellen. In einem Vergleich war Claude weniger geneigt, gefährliche Anweisungen zu geben oder Hassrede zu betreiben, obwohl es manchmal auch übervorsichtig sein könnte (z. B. harmlose Anfragen ablehnt, wenn sie so erschienen, als könnten sie nicht erlaubt sein).

Offenheit und Modellzugang: Anthropic nimmt in Bezug auf Offenheit eine Mittelposition ein. Sie haben Forschungspapiere veröffentlicht, in denen Methoden beschrieben werden (anders als OpenAI, die anfangs nicht einmal ein GPT-4-Papier veröffentlichten), und sie arbeiten mit der Wissenschaft zusammen. Allerdings stellen sie – wie OpenAI – ihre vollständigen Modelle nicht als Open Source zur Verfügung. Claude ist über eine eingeschränkte API und Chat-Oberfläche zugänglich, aber nicht herunterladbar. Nach Ansicht von Anthropic würde die offene Veröffentlichung der Gewichte eines leistungsstarken Modells das Risiko bergen, dass diese missbraucht oder unverantwortlich verändert werden. Interessanterweise ist Dario Amodei der Meinung, dass „Open Source“ als Konzept nicht eindeutig auf KI übertragbar ist. „Ich glaube nicht, dass Open Source in der KI genauso funktioniert wie in anderen Bereichen“, sagte er und wies darauf hin, dass man im Gegensatz zu Software bei KI „nicht ins Modell hineinschauen kann“, sodass offene Gewichte nicht die Klarheit bieten, die viele annehmen. Er argumentierte außerdem, dass die Vorteile von Open Source in der Softwareentwicklung (viele Augen verbessern den Code usw.) bei KI-Modellen weniger zutreffen – da nur wenige über die Ressourcen verfügen, diese riesigen Modelle zu trainieren oder wesentlich zu verbessern. Seinen Worten nach: „Wenn ein neues Modell herauskommt… ist es mir egal, ob es Open Source ist oder nicht. Ich frage: Ist es ein gutes Modell? Ist es bei wichtigen Dingen besser als wir? Das ist alles, was mich interessiert.“. Das deutet darauf hin, dass Anthropic sich darauf konzentriert, bei den Fähigkeiten voraus zu sein, anstatt sich über offen vs. geschlossen Gedanken zu machen – und sie glauben, dass Unternehmen Claude nutzen werden, solange es das beste Modell bleibt, selbst wenn es offene Alternativen gibt. Tatsächlich bezeichnete er Open Source im Hinblick auf echten Wettbewerb als „Ablenkungsmanöver“.

Das heißt aber nicht, dass Anthropic offener Forschung ablehnend gegenübersteht – sie haben einige kleinere Modelle und Tools als Open Source veröffentlicht (zum Beispiel ein Modell mit 4 Milliarden Parametern für Forschungszwecke und ihre Evaluationsdatensätze). Wahrscheinlich würden sie jedoch keine Claude-Modelle veröffentlichen, solange es keine starken Sicherheitsgarantien oder regulatorischen Rahmenbedingungen gibt. Diese Haltung wurde relevant, als Meta LLaMA veröffentlichte und andere begannen, es so zu fine-tunen, dass Sicherheitsmechanismen umgangen wurden; Anthropics Position unterstreicht, warum sie Claude nicht offen veröffentlichen.

Finanzierung und Partnerschaften: Die Unabhängigkeit von Anthropic wird durch große Investitionen von Technologieriesen gestützt, die im Bereich KI Fuß fassen wollen. Anfang 2023 investierte Google rund 400 Millionen US-Dollar in Anthropic für etwa 10 % der Anteile, und Anthropic verpflichtete sich, die TPU-Infrastruktur von Google Cloud zu nutzen. Dies wurde als strategischer Schritt von Google gesehen, um einen zweiten Anbieter fortschrittlicher KI zu haben (als Absicherung gegen die Microsoft-Partnerschaft von OpenAI). Später im Jahr 2023 kam Amazon mit einem noch größeren Deal: Sie investierten zunächst 1,25 Milliarden US-Dollar (mit der Option auf bis zu 4 Milliarden US-Dollar), im Gegenzug nutzt Anthropic AWS als primäre Cloud und Amazon erhält eine bevorzugte Integration der Anthropic-Modelle in AWS-Dienste. Damit ist Anthropic nun effektiv mit zwei Konkurrenten – Google und Amazon – partnerschaftlich verbunden, eine einzigartige Situation. Sie nutzen sowohl Google TPUs als auch Amazons eigene Chips (AWS Trainium/Inferentia) zum Trainieren der Modelle. Aus Sicht von Anthropic kann dieser Multi-Cloud-Ansatz Redundanz und viel Rechenleistung bieten – beide Deals ermöglichen es ihnen außerdem, teure GPU/TPU-Hardware mit dem Geld der Investoren zu kaufen.

Anthropic hat außerdem Zuschüsse und Kredite von effektiven Altruismus-nahen Fonds erhalten (da einige frühe Unterstützer Verbindungen zur EA-Philosophie hatten, mit Fokus auf die Verringerung existenzieller Risiken). Die Bewertung stieg bis 2023 auf etwa 5 Milliarden Dollar, und mit dem Amazon-Deal wahrscheinlich noch deutlich höher. Im Gegensatz zu OpenAI hat Anthropic kein eigenes Verbraucherprodukt, um in großem Maßstab Einnahmen zu generieren (kein Pendant zu ChatGPT-Abonnements). Stattdessen verdient das Unternehmen Geld, indem es API-Nutzungsgebühren für Claude erhebt (zum Beispiel zahlen Unternehmen pro generierte Million Zeichen). Die Strategie von Anthropic scheint darauf ausgerichtet zu sein, Unternehmens- und Entwicklermärkte anzusprechen, die ein vertrauenswürdiges Modell wünschen. So hat Anthropic beispielsweise mit Slack zusammengearbeitet: Die Slack AI-Funktion nutzt Claude, um Kanäle zusammenzufassen und Fragen zu beantworten, mit dem Versprechen, dass Claude „weniger wahrscheinlich toxische oder unsichere Ausgaben produziert“. Zu den Kunden zählen auch Unternehmen wie Quora (das Claude auf seiner Poe-Plattform anbietet) und Berichten zufolge einige Finanz- und Anwaltskanzleien, die den Sicherheitsfokus von Anthropic bevorzugen.

Öffentliche Wahrnehmung und Aussagen: Dario Amodei ist weniger eine öffentliche Figur als Sam Altman, tritt aber zunehmend in Erscheinung. In einem Interview mit The Atlantic bemerkte er, dass „wir diese Dinge (über KI-Risiken) schon eine Weile sagen, aber je näher wir diesen mächtigen Systemen kommen, desto nachdrücklicher sage ich es“. Er versucht, das „Doomer“-Label abzuschütteln, indem er ausgewogene Botschaften betont: Anthropic hebt in Blogbeiträgen oft die positiven Einsatzmöglichkeiten von Claude hervor (z. B. seine Fähigkeit, bei Recherchen oder Brainstormings zu helfen) und vermeidet rein düstere Aussagen. Dennoch beschönigt Amodei nicht, dass „kurze Zeitrahmen“ seine Dringlichkeit motivieren. In einem aktuellen Podcast weigerte er sich, ein konkretes Jahr für AGI zu nennen, deutete aber an, dass es seinem Bauchgefühl nach nicht mehr weit entfernt sei, sofern es keinen plötzlichen Fortschrittsstopp gibt (dem er nur eine Wahrscheinlichkeit von etwa 20 % einräumt). Er spielt auch die Bedeutung von schwammigen Begriffen wie „AGI“ oder „Superintelligenz“ herunter und nennt sie „völlig bedeutungslos – ich weiß nicht, was AGI ist“. Für ihn ist es ein Kontinuum von Fähigkeiten; Anthropic interessiert sich für messbaren Fortschritt und konkrete Risiken auf jedem Schritt.

Eine interessante Randnotiz: Anthropic hat buchstäblich eine „Verfassung“ für Claude geschrieben und die allgemeinen Prinzipien veröffentlicht (z. B. Wähle die Antwort, die die Menschenrechte und Freiheit am meisten unterstützt; Wähle Antworten, die maximal hilfreich und harmlos sind; Vermeide toxische oder diskriminierende Inhalte usw.). Diese transparente Auflistung von Werten ist ganz anders als bei OpenAI, das das Alignment meist hinter verschlossenen Türen mit menschlichem Feedback regelt. Das zeigt die Tendenz von Anthropic zu explizitem, prinzipienbasiertem Alignment, fast so, als würde man ein KI-Kind mit einem Regelwerk erziehen.

Bisher hat Anthropic mit Claude weitgehend größere Skandale oder Missbrauchsfälle vermieden. Es musste Claude jedoch kontinuierlich weiterentwickeln, nachdem Nutzer Wege gefunden hatten, ihn durch „Jailbreak“-Prompts zu unerlaubten Inhalten zu bringen. Dank der Constitutional AI konnte Claude jedoch oft sich selbst korrigieren, selbst wenn er gejailbreakt wurde – z. B. indem er zunächst ein paar Zeilen einer gewalttätigen Geschichte schrieb und dann stoppte mit dem Hinweis „das scheint gegen die Richtlinien zu verstoßen“. Dieser Teilerfolg hat Anthropic in der Sicherheits-Community Respekt eingebracht. Wenn OpenAI das Aushängeschild für Capability-first ist, ist Anthropic das Vorbild für Alignment-first (oder zumindest Alignment-parallel) Entwicklung.

Zusammenfassend lässt sich sagen, dass Anthropic die Rolle des vorsichtigen, prinzipientreuen KI-Labors für sich beansprucht. Es tritt in direkten Wettbewerb mit OpenAI (Claude vs GPT-4 sind direkte Konkurrenten), verkauft sich aber mit dem Argument „Wir sind rigoroser in Bezug auf Sicherheit und Ausrichtung.“ Anthropic setzt darauf, dass viele Unternehmen (und vielleicht auch Regierungen) eine KI bevorzugen werden, die etwas zurückhaltender ist und weniger wahrscheinlich außer Kontrolle gerät, selbst wenn das etwas weniger rohe Leistungsfähigkeit oder langsamere Updates bedeutet. Durch starke Investitionen in Alignment-Forschung hofft Anthropic, schließlich einen technischen Vorsprung bei der Kontrolle von KI zu erlangen – etwas, das zu seinem größten Vorteil werden könnte, falls/wenn eine übermenschliche KI entsteht. Wie Dario Amodei sagte, „wir versuchen, zu denjenigen zu gehören, die den Standard dafür setzen, wie man das sicher macht“, was seiner Ansicht nach „der einzige Weg ist, wie wir die vollen Vorteile“ von KI erschließen können, ohne eine Katastrophe zu riskieren.

Google DeepMind: Fusion zweier KI-Imperien für „verantwortungsvolle“ geniale Maschinen

Unter allen Akteuren hat Google (jetzt unter der Muttergesellschaft Alphabet) vielleicht das umfassendste KI-Erbe. Google war schon in der KI aktiv, bevor es „cool“ war – nutzte maschinelles Lernen seit den 2000ern für Suchrankings und Werbung, übernahm DeepMind 2014 und erfand 2017 Kerntechnologien wie den Transformer (der die aktuelle LLM-Revolution ermöglichte). Bis 2025 sind Googles KI-Aktivitäten unter Google DeepMind vereint, einer neuen Abteilung, die durch die Fusion von Googles Brain-Team aus der Forschung mit dem in London ansässigen DeepMind entstand. Diese Fusion, angekündigt im April 2023, signalisierte Googles Entschlossenheit, auf höchstem Niveau zu konkurrieren und interne Rivalitäten zu beseitigen. Leiter von Google DeepMind ist Demis Hassabis (Mitgründer von DeepMind), während Googles langjähriger KI-Chef Jeff Dean in eine beratende Rolle wechselt.

Vision und Ziele: Das Motto von Google DeepMind könnte lauten „Intelligenz lösen, sicher“. Die ursprüngliche Mission von DeepMind war „Intelligenz lösen, um Wissenschaft und Menschheit voranzubringen“. Demis Hassabis spricht häufig davon, AGI zu entwickeln – er ist einer der wenigen neben Altman, die den Begriff offen und positiv verwenden. „AGI zu erschaffen ist die Arbeit meines Lebens“, sagte er gegenüber Time, und er ist seit seiner Zeit als Neurowissenschaftsstudent davon überzeugt. Hassabis’ Sicht auf AGI ist optimistisch, aber mit einer prinzipientreuen Haltung verbunden: Er sieht sie als möglicherweise „die nützlichste Technologie aller Zeiten“ – die Heilungen für Krankheiten, Lösungen für das Klima, wissenschaftliche Durchbrüche ermöglicht – „wie die Kavallerie“, die kommt, um Probleme zu lösen, die Menschen allein nicht bewältigen können. Allerdings hat er auch vor einer „move fast and break things“-Mentalität gewarnt. Schon 2022 (vor ChatGPT) kritisierte er einige Konkurrenten als leichtsinnig und verglich sie mit Menschen, die „nicht merken, dass sie gefährliches Material in der Hand halten“. „Ich würde empfehlen, nicht schnell zu handeln und Dinge kaputt zu machen“, sagte er deutlich – vermutlich ein Seitenhieb auf das Silicon-Valley-Ethos und vielleicht auf OpenAIs schnelle Einführung.

Google positioniert sich als der verantwortungsbewusste KI-Pionier. Sundar Pichai, der CEO von Google, hat gesagt, dass KI in ihrer Auswirkung „tiefgreifender als Feuer oder Elektrizität“ sei, aber vorsichtig eingeführt werden müsse. Google veröffentlichte 2018 die AI Principles (nach einem internen Aufstand wegen eines Militärdrohnen-Projekts) – und verpflichtete sich, keine KI für Waffen, Überwachung oder zur Verletzung von Menschenrechten zu entwickeln. Interessanterweise hatte DeepMind dabei ein Mitspracherecht: Als Google DeepMind übernahm, handelte DeepMind eine Vereinbarung aus, dass seine Technologie „niemals für militärische Zwecke oder Waffen eingesetzt werden würde“. Bis 2023 war dieses Versprechen jedoch stillschweigend ausgelaufen, da Google begann, Cloud-KI-Dienste an Militärs zu verkaufen (z. B. wird die Google Cloud AI vom US-Verteidigungsministerium und anderen genutzt). Hassabis räumte 2023 diesen Wandel ein und sagte im Wesentlichen, dies sei ein Kompromiss gewesen, um durch den Beitritt zu Google die Ressourcen für die Erreichung von AGI zu erhalten.

Technologie und Projekte: Der Ansatz von Google DeepMind für KI ist facettenreich. Sie haben mehrere große Modellfamilien und arbeiten daran, diese zu kombinieren:

  • PaLM (Pathways Language Model): Dies war Googles Flaggschiff-LLM (540 Milliarden Parameter), das 2022 angekündigt wurde und starke Fähigkeiten auf dem Niveau von GPT-3 zeigte. Google entwickelte es weiter zu PaLM 2 (das Bard ab 2023 antreibt) – PaLM 2 ist in verschiedenen Größen verfügbar und stark bei mehrsprachigen Aufgaben und beim logischen Denken. PaLM 2 wurde mit Text und Code trainiert, was ihm ordentliche Programmierfähigkeiten verleiht. Google machte es zur Grundlage vieler Funktionen (es steckt hinter „Help me write“ in Gmail und den KI-Funktionen von Google Docs).
  • Gemini: Gemini ist DeepMinds Next-Gen-Projekt, das ausdrücklich dazu gedacht ist, mit GPT-4 zu konkurrieren oder es zu übertreffen. Es handelt sich um ein großes multimodales Modell (Gerüchten zufolge Billionen+ Parameter oder ein Ensemble von Modellen), das DeepMinds einzigartige Algorithmen wie Reinforcement Learning und Tree Search (wie bei AlphaGo verwendet) mit dem Sprachverständnis von LLMs kombiniert. Wie Demis Hassabis beschrieb: „Wir bauen Gemini, das Techniken aus AlphaGo-ähnlichen Systemen in ein LLM integriert, um ihm neue Fähigkeiten wie Planung oder Problemlösung zu geben“. Es wird erwartet, dass Gemini Text, Bilder und möglicherweise andere Eingaben analysieren und fortgeschrittenere Schlussfolgerungen ziehen kann – vielleicht sogar Werkzeugnutzung über API-Aufrufe (DeepMinds Sparrow und OpenAIs Plugins deuten darauf hin). Google hat Gemini bis September 2025 noch nicht veröffentlicht, aber die Erwartungen sind hoch – einige Insider sagen, es „trainiert auf Zehntausenden von TPUs“ und könnte Ende 2025 erscheinen.
  • DeepMinds Legacy-Projekte: DeepMind wurde berühmt durch AlphaGo (das 2016 den Weltmeister im Go besiegte) und nachfolgende Systeme wie AlphaZero (das sich Schach, Shogi und Go von Grund auf selbst beibrachte) und AlphaFold (das das Protein-Faltungsproblem löste, eine 50-jährige Herausforderung der Biologie, wofür Hassabis einen Anteil am Nobelpreis für Chemie 2024 erhielt). Diese Erfolge basierten auf Reinforcement Learning (RL) und anderen spezialisierten Techniken (wie Monte-Carlo-Tree-Search für Spiele). DeepMind entwickelte auch Deep Reinforcement Learning für Robotik- und Navigationaufgaben. Diese Techniken ließen sich jedoch nicht sofort auf allgemeine Konversation oder Programmieraufgaben übertragen – hier glänzen große Sprachmodelle. Die Fusion mit Google Brain (das auf LLMs und Vision-Modelle spezialisiert war) ermöglichte eine gegenseitige Befruchtung. Zum Beispiel können Brains Transformer-Modelle + DeepMinds RL-Agenten zu Agenten führen, die denken (LLM) und dann handeln in einer Umgebung, wobei sie ihre Aktionen durch RL verfeinern.

Ein konkretes Beispiel: DeepMind hat schon früher ChatGPT-ähnliche Agenten gebaut – insbesondere Sparrow, einen Dialogagenten, der aus menschlichem Feedback lernte und sicherer war (weniger anfällig für Fehlinformationen) als frühere Chatbots. Aber DeepMind hat Sparrow nie breit als Produkt angeboten. Nachdem ChatGPT explodierte, brachte Google in Eile seinen eigenen Chatbot Bard auf den Markt (betrieben vom Brain-Team mit dem PaLM-Modell). Bard hatte einen holprigen Start (Faktenfehler in der Launch-Demo schadeten Googles Aktienkurs). Im Laufe des Jahres 2023 verbesserte Google Bard, indem es auf PaLM 2 umgestellt und Funktionen wie die Anbindung an Google-Dienste (Karten, YouTube) und Programmierhilfe hinzugefügt hat. Dennoch galt Bard als hinter GPT-4 zurückliegend. Intern führte das zu Frustration – die durch die Zusammenlegung mit DeepMind gelöst werden sollte, indem Talente gebündelt werden.

Ein weiteres Feld: KI-Alignment und Sicherheit. DeepMind hat eine etablierte KI-Sicherheitsforschungseinheit, eine der größten weltweit, geleitet von Forscher Shane Legg und anderen. Sie haben an Interpretierbarkeit gearbeitet (z.B. Visualisierung, was Neuronen in Bildmodellen erkennen), Robustheit (Sicherstellen, dass Modelle nicht durch adversarielle Eingaben verwirrt werden), und Belohnungsmodellierung (damit RL-Agenten menschliche Präferenzen korrekt lernen). DeepMind hat zu Themen wie der Vermeidung von Belohnungs-Hacking publiziert (wenn eine KI einen Trick findet, um hohe Belohnung zu bekommen, was aber nicht das wirklich gewünschte Verhalten ist). Sie erforschen auch theoretische KI-Rahmenwerke – z.B. hat DeepMinds Mitgründer Shane Legg Intelligenz einmal mathematisch definiert, und das Team hat viele Promovierte, die über langfristige AGI-Strukturen nachdenken.

Offen vs. Geschlossen, Teilen vs. Geheimhaltung: Google ist historisch eher akademisch orientiert beim Veröffentlichen von Forschung (der Transformer, word2vec und viele Durchbrüche stammen aus Google-Papieren). Bei Produkten hingegen ist Google ziemlich closed-source. Es hat die PaLM- oder PaLM-2-Gewichte nicht offen veröffentlicht (obwohl kleinere Modelle wie BERT 2018 veröffentlicht wurden, was die NLP-Forschung beflügelte). Unter Wettbewerbsdruck war Google vorsichtig – es hielt LaMDA (das Konversationsmodell, das ein Google-Ingenieur berühmt-berüchtigt als „fühlend“ bezeichnete) lange intern. Erst nach ChatGPT wurde LaMDA zu einer öffentlichen Demo (Bard). Googles Zögern liegt zum Teil an Reputation und Markenvertrauen: Als meistgenutzte Suchmaschine und vertrauenswürdiger E-Mail/Dokumenten-Anbieter riskiert Google mehr Gegenwind, wenn seine KI etwas Anstößiges oder Falsches sagt. Tatsächlich ist Google nach Bards frühem Fehler vorsichtig geworden, nennt seine KI „experimentell“ und versieht sie mit Warnhinweisen.

DeepMind hatte als unabhängige Einheit mehr Freiheit zu publizieren und hat oft Simulationsumgebungen, einige kleinere Modelle usw. open-source gestellt. Jetzt als Google DeepMind gibt es wahrscheinlich eine integriertere Strategie: Zentrale Wissenschaft veröffentlichen, aber die mächtigsten Modellgewichte proprietär halten. Google erlaubt Forschern den Zugang zu einigen Modellen über seine API und Cloud (z.B. kann man PaLM 2 und kommende Modelle über Google Clouds Vertex AI mit entsprechenden Vereinbarungen nutzen). Und Google hat einige verantwortungsvolle KI-Tools open-source gestellt – z.B. das TensorFlow Responsible AI Toolkit zur Analyse von Modell-Bias.

Kultur und Führung: Demis Hassabis und sein Team bringen eine etwas andere Kultur mit – DeepMind war bekannt für eine „wissenschaftliche, akademische“ Atmosphäre, mit vielen promovierten Wissenschaftlern, einem Fokus auf langfristige Forschung und sogar Bedenken hinsichtlich Ethik (sie hatten ein internes Ethikgremium und bestanden ursprünglich auf eine Nicht-Militär-Klausel). Googles Kultur ist stärker produkt- und kennzahlengetrieben. Es gab einige kulturelle Reibungen: Berichte aus dem Jahr 2023 deuteten auf Spannungen zwischen Google Brain-Leuten und DeepMind-Leuten sowie zwischen Forschern und Management hin (insbesondere nachdem Google 2020–21 einige Mitglieder des Ethik-Teams für KI im Zuge des Timnit Gebru-Vorfalls entlassen hatte, was zwar nicht mit DeepMind zusammenhing, aber Googles Ruf in der KI-Ethik schadete).

Durch die Vereinigung unter einer Führung (Hassabis) scheint Google auf DeepMinds Forschungsstrenge plus Brains Infrastruktur und Skalierung zu setzen. Hassabis ist nach der Fusion stärker als öffentlicher Sprecher aufgetreten. In Podcasts (wie Hard Fork von der NYTimes, Feb 2024) betonte er Googles Vorteil: „Wir haben die Möglichkeit, diese Modelle in großem Maßstab zu trainieren, wir haben Talente, wir haben ein Jahrzehnt Forschung“. Er äußerte auch eine gewisse implizite Kritik an OpenAI, indem er auf eine vorsichtige Entwicklung hinwies: „Wir müssen die Risiken vermeiden… böswillige Akteure könnten KI missbrauchen, und wenn Modelle immer agentischer (autonomer) werden, müssen wir sicherstellen, dass wir die Kontrolle behalten“, sagte er dem Time-Magazin. Hassabis’ zwei größte Sorgen: (1) Missbrauch durch böswillige Menschen – Einsatz von KI zur Herstellung von Biowaffen, ausgefeilten Cyberangriffen, Propaganda usw. (2) die „KI selbst“, falls sie außer Kontrolle gerät – wie er sagte: „Wenn sie immer autonomer wird… wie stellen wir sicher, dass wir die Kontrolle behalten, verstehen, was sie tun… Leitplanken setzen, die hochfähige, sich selbst verbessernde Systeme nicht entfernen können?“. Diese Bedenken entsprechen den gängigen KI-Sicherheitsbedenken (und ähneln dem, was OpenAI sagt, wobei Hassabis es meist konkreter in Bezug auf technische Herausforderungen formuliert).

Interessanterweise weist Hassabis auch auf einen Bedarf an globaler Governance hin: „Diese Systeme können jeden überall betreffen… wir brauchen internationale Standards dafür, wie sie gebaut werden, welche Ziele ihnen gegeben werden und wie sie eingesetzt werden“. Er hat sich für etwas Ähnliches wie globale KI-Regulierungen oder Abkommen ausgesprochen, angesichts der grenzenlosen Natur von KI. Google ist an multilateralen Diskussionen beteiligt (z. B. OECD-KI-Politik, G7 „Hiroshima AI process“ usw.) und wird wahrscheinlich eine Schlüsselrolle bei künftigen Regulierungen spielen.

Man kann Google nicht erwähnen, ohne auf den Wettbewerb mit OpenAI/Microsoft einzugehen. Die Rivalität ist intensiv. Mitte 2023 gab es Berichte, dass Google die Dominanz von OpenAI mit ChatGPT als ernsthafte Bedrohung für das Suchgeschäft von Google ansah (wenn KI-Antworten Suchanfragen übernehmen, könnte Googles Werbemodell untergraben werden). Google reagierte mit „Project Magi“, um KI in die Suche zu integrieren, und tatsächlich wird nun Googles Search Generative Experience (SGE) eingeführt, die für einige Anfragen KI-Zusammenfassungen über den Suchergebnissen anzeigt – allerdings vorsichtig, da Fehler oder Verzerrungen in den Suchergebnissen schädlich sein könnten. Die Einsätze wurden als existenziell für Googles Kernprodukt beschrieben. Wie ein Analyst sagte: „Google hat keine andere Wahl, als groß auf KI zu setzen – wenn sie diese Welle verpassen, könnte ihr Hauptgeschäft erodieren.“

Diese Dringlichkeit zeigt sich daran, wie stark Googles KI-Ausgaben in die Höhe geschnellt sind. 2023 wurde berichtet, dass Google allein in diesem Jahr über 30–40 Milliarden Dollar in KI-Forschung & Entwicklung sowie Infrastruktur investieren würde. Es wurden neue TPU v4-Pods gebaut (jeder Pod mit einer Leistung von 1 ExaFLOP, ausgestattet mit Tausenden von Chips), um Modelle wie Gemini zu trainieren. Außerdem wird enorme Rechenzentrumskapazität für KI umgewidmet. Eine interessante Zahl: Google, Microsoft und Meta machten 2024 zusammen den Großteil der weltweiten Käufe von High-End-KI-Chips aus – sie sichern sich im Grunde die Rechenleistung, die für das Training der nächsten Modellgenerationen nötig ist, was einen Wettbewerbsvorteil bedeuten könnte.

Zusammengefasst: Google DeepMind: Sie verfolgen einen wissenschaftlichen Ansatz mit Schwerpunkt auf Durchbrüchen (sie wollen Qualität und Sicherheit, nicht nur am schnellsten auf dem Markt sein), aber inzwischen besteht auch die Notwendigkeit, KI-Produkte in großem Maßstab bereitzustellen, um wettbewerbsfähig zu bleiben. Zu ihren Stärken zählen Talente (viele der weltweit führenden KI-Forscher arbeiten dort), Rechenleistung (TPU-Farmen), Daten (Googles riesige Bestände aus Search, YouTube usw.) und Integration (Milliarden Nutzer in Gmail, Android usw., wo KI eingesetzt werden kann). Zu den Herausforderungen gehört es, die eigene Vorsicht und Bürokratie zu überwinden – sie waren beim Thema generative KI-Produkte wohl etwas spät dran. Doch mit der Vereinigung und Gemini am Horizont ist Google DeepMind ein Spitzenkandidat im AGI-Rennen.

Erwarten Sie, dass Google KI überall einsetzt: Sie werden Googles KI auf Ihrem Handy haben (persönlicher Assistent mit Konversationsfähigkeiten), am Arbeitsplatz (Google Workspace mit generativen Funktionen), im Gesundheitswesen (DeepMinds Med-PaLM wird bereits getestet, um medizinische Fragen mit Expertenpräzision zu beantworten) und mehr. Und wenn die Vergangenheit von DeepMind ein Hinweis ist, werden sie auch weiterhin Nature- und Science-Artikel veröffentlichen, in denen KI neue Algorithmen entdeckt oder Leistungen wie die Steuerung von Fusionsreaktoren vollbringt (was DeepMind 2022 gelang). Sie wollen das Prestige, führend in der KI-Wissenschaft zu sein, nicht nur einen cleveren Chatbot bereitzustellen.

In Bezug auf Werte lautet Googles Botschaft: „KI zum Guten, KI für alle, aber verantwortungsvoll nach unseren Prinzipien.“ Es klingt etwas nach Konzernsprech, aber sie investieren tatsächlich in Fairness, Abbau von Vorurteilen und Inklusion (zum Beispiel achtet das Training von Googles Modellen darauf, viele Sprachen abzudecken – Bard startete in über 40 Sprachen, während OpenAIs ChatGPT anfangs vor allem auf Englisch stark war). Googles Führung (Pichai, Hassabis) betont auch die Bildungs- und Gleichstellungsvorteile von KI – wie sie etwa jedem Kind mit Internetverbindung Nachhilfe auf Expertenniveau bringen oder Nicht-Englischsprachigen durch sofortige, präzise Übersetzungen helfen könnte. Diese breite, global ausgerichtete Perspektive ist teils Altruismus, teils Geschäftsinteresse (Googles Nutzerbasis ist global, im Gegensatz zu OpenAI, das aus einer westlichen Nutzerbasis gewachsen ist). Sie passt zu Googles Identität als Unternehmen, das „das Wissen der Welt organisiert“ – und nun darauf abzielt, „die Intelligenz der Welt zu organisieren.“

Meta (Facebook): Open-Source-Ambitionen bei verändertem Tonfall

Meta Platforms (ehemals Facebook) ist auf eine besondere Weise in das KI-Rennen eingestiegen: durch die Förderung von offener Forschung und Open-Source-Modellen. Unter der Leitung von CEO Mark Zuckerberg hat Metas KI-Labor (FAIR – Fundamental AI Research) mehr Code und Modelle der Öffentlichkeit zugänglich gemacht als vielleicht jedes andere große Tech-Unternehmen. Anfang 2023 sorgte Meta für Aufsehen, als es LLaMA vorstellte, eine Suite großer Sprachmodelle (7B bis 65B Parameter), die starke Leistungen erzielten und (je nach Einzelfall) Forschern zur Verfügung gestellt wurden. Obwohl sie lizenzrechtlich nicht „Open Source“ waren (die ursprünglichen LLaMA-Gewichte standen unter einer nicht-kommerziellen Forschungslizenz), wurde das Modell geleakt und bald von Communities auf unterschiedlichste Weise feinabgestimmt – auch auf nicht autorisierte Weise. Anstatt sich zurückzuziehen, verdoppelte Meta seinen Einsatz: Im Juli 2023 kündigte es LLaMA 2 an, diesmal vollständig offen (für kommerzielle Nutzung mit relativ großzügigen Bedingungen verfügbar) und gemeinsam mit Microsoft auf Azure veröffentlicht. Damit wurde Meta zum Fahnenträger für Open-Source-LLMs und gewann das Wohlwollen von Entwicklern und Wissenschaftlern, die vom geschlossenen GPT-4-Regime ausgeschlossen waren.

Philosophie – „KI für alle“ durch Offenheit: Die Führung von Meta hat argumentiert, dass Open-Sourcing von KI-Modellen sie sicherer und geschützter macht. Yann LeCun, Metas Chief AI Scientist (und ein mit dem Turing Award ausgezeichneter Pionier des Deep Learning), ist sehr engagiert: „Offene Forschung und Open Source sind die besten Wege, [KI-]Risiken zu verstehen und zu mindern“, schrieb er. LeCun betont oft, dass mehr Augen auf dem Modell bedeuten, dass mehr Menschen Fehler finden und beheben können. Er zieht einen Vergleich zum frühen Web: „der Kampf um die Internet-Infrastruktur in den 90ern – Open Source (Linux, Apache) vs. proprietär (Microsoft)… Open Source hat gewonnen und war der sicherere Weg“, sagt er. Ebenso argumentiert er, dass, wenn nur wenige Unternehmen riesige KI-Modelle hinter verschlossenen Türen halten, dies Macht und Risiko konzentriert; wenn jedoch viele Menschen Zugang haben, demokratisiert das die Kontrolle und Innovation.

Zuckerberg selbst unterstützte dies zunächst voll und ganz. Als Lex Fridman ihn fragte, warum Meta seine Modelle veröffentliche, sagte Zuckerberg, „das wollen meine Ingenieure“ und dass Offenheit Top-Talente anziehen könne, die veröffentlichen und zusammenarbeiten wollen. Meta war tatsächlich sehr offen in der Forschung: Sie veröffentlichten das OPT-Modell (175B) im Jahr 2022 (Reproduktion von GPT-3), Open Pretrained Transformers und viele kleinere Modelle (für Vision, Übersetzung usw.). Sie schufen Frameworks wie PyTorch (das Meta als Open Source veröffentlichte und das zu einem der Standard-KI-Tools weltweit wurde). Kulturell hat das KI-Labor von Meta viele Akademiker, die offene Zusammenarbeit bevorzugen.

Allerdings deuten jüngste Veränderungen darauf hin, dass Metas absolute Offenheit durch Pragmatismus abgeschwächt werden könnte. Mitte 2025 schrieb Zuckerberg ein Memo, in dem er erklärte, dass „die Entwicklung von Superintelligenz nun in Sicht ist“ für Meta, und prahlte mit Einblicken in die Selbstverbesserung von KI. Er fügte jedoch hinzu, dass Meta „vorsichtig sein wird, was wir als Open Source veröffentlichen“ und „rigoros bei der Risikominderung“ mit fortschrittlichen Modellen vorgehen wird. Dies ist eine bemerkenswerte Änderung gegenüber seiner Haltung von 2024, dass Open Source „KI sicherer macht“. Im Wesentlichen signalisierte Meta, dass sie zwar offene Entwicklung für die meisten KI-Modelle befürworten, aber wenn ein Modell extrem leistungsfähig ist oder neuartige Gefahren birgt, sie es möglicherweise nicht offen veröffentlichen. Tatsächlich berichtete die Financial Times (August 2025), dass einige Meta-Führungskräfte darüber diskutierten, ob sie „LLaMA zurückfahren“ und stattdessen Closed-Source-Modelle von OpenAI/Anthropic für bestimmte Dienste nutzen sollten. Ein Meta-Sprecher antwortete, „wir sind weiterhin voll und ganz der Entwicklung von Llama verpflichtet und planen dieses Jahr mehrere weitere Veröffentlichungen“, und bekräftigte damit die Unterstützung für ihren Open-Model-Fahrplan. Analysten sahen dies jedoch als Eingeständnis von Meta, dass es potenzielle Nachteile gibt, extrem fortschrittliche Modelle unkontrolliert zu verschenken.

Warum also die widersprüchlichen Signale? Es könnte an Konkurrenzdruck und Produktanforderungen liegen. Meta erkannte, dass offene Modelle es anderen (sogar Konkurrenten) ermöglichten, zu profitieren und manchmal zu überholen. Ein Beispiel: Ein offenes LLaMA 65B wurde geleakt, und schon bald passten unabhängige Entwickler es so an, dass Varianten entstanden, die ChatGPT bei einigen Aufgaben ebenbürtig waren. Eine Organisation reduzierte es sogar so weit, dass es auf einem Handy lief. Das bewies, dass Offenheit schnelle Innovation fördert – aber nicht alles davon liegt in Metas Kontrolle oder zu Metas Vorteil. Es gibt auch Haftungsbedenken: Wenn jemand LLaMA 2 nutzt, um schädliche Inhalte zu generieren oder Schlechtes zu tun, könnte Meta Gegenreaktionen oder rechtliche Probleme bekommen (EU-Gesetze könnten Modellanbieter teilweise haftbar machen). Meta möchte vermutlich vermeiden, die Quelle einer KI-Katastrophe zu sein. Daher könnte ein Ansatz „Open Source für Vorgängermodelle, Closed Source für Spitzenmodelle“ gewählt werden.

Technischer Ansatz: Metas KI-Forschung umfasst sowohl die grundlegende Modellentwicklung als auch die Integration von KI in seine riesigen sozialen Plattformen:

  • LLaMA-Serie: Wie bereits erwähnt, handelt es sich hierbei um Metas Familie von Sprachmodellen. Die Stärke von LLaMA war Effizienz: Es erreichte eine Qualität ähnlich größerer Modelle mit weniger Parametern, durch Training mit hochwertigen Daten (einschließlich mehr Sprachen und Code) und längerer Trainingsdauer. LLaMA 1 wurde nicht in Produkten eingesetzt, aber LLaMA 2 wurde offen veröffentlicht und auch von Partnern (Azure, AWS, Hugging Face) gehostet, sodass Entwickler es einfach nutzen können. Meta stellte auch feinabgestimmte Versionen (Llama-2-Chat) bereit, die für Dialoge optimiert sind. Sie entwickeln diese Serie weiter – ein LLaMA 3 oder „Beast“-Modell ist im Gespräch, möglicherweise mit Mixture-of-Experts (MoE), um weiter zu skalieren, ohne dass die Größe eines einzelnen Modells explodiert. Tatsächlich berichtete TechRepublic, dass Meta intern eine Version namens „Behemoth“ mit MoE hatte, die jedoch verzögert wurde, da sie die aktuellen Modelle nicht signifikant übertraf.
  • Multimodal und Agenten: Meta hat noch kein multimodales GPT-4-Äquivalent öffentlich veröffentlicht, arbeitet aber daran. FAIR hat Projekte wie ImageBind (gemeinsame Einbettungen für Text, Bild, Audio usw.) und Segment Anything (ein offenes Modell, das jedes Objekt in einem Bild ausschneiden kann – in der CV-Community weithin gelobt). Sie haben auch einen Prototyp namens „CM3leon“, ein Text-zu-Bild-Modell, und investieren in generative KI für Bilder und Videos (um diese in Instagram und die Erstellung von Werbeanzeigen zu integrieren). Für Agentenverhalten hat Meta Frameworks wie Horizon für Inhouse-Reinforcement-Learning entwickelt (wird zur Personalisierung von Feed-Algorithmen verwendet). Es wäre nicht überraschend, wenn Meta bald LLaMA mit Entscheidungsmodulen verknüpft, um Agenten zu schaffen, die handeln können (man stelle sich einen zukünftigen KI-Assistenten in WhatsApp vor, der nicht nur chatten, sondern auch Aufgaben wie das Buchen von Tickets für dich erledigen kann – Metas Plattformen könnten das ermöglichen). Zuckerberg hat über „KI-Personas“ gesprochen – Charaktere oder Assistenten, denen man in Messenger/Instagram Nachrichten schicken kann. Tatsächlich kündigte Meta Ende 2023 Pläne an, KI-Chatbots mit unterschiedlichen Persönlichkeiten (wie einen, der wie Abraham Lincoln spricht usw.) als Neuheits- und Engagement-Feature in seinen sozialen Apps einzusetzen.
  • Empfehlungen & Werbung: Auch wenn sie nicht so auffällig sind wie LLMs, nutzt Meta KI umfassend, um seine Kernprodukte zu betreiben: den News Feed, Instagram Reels-Empfehlungen, Werbetargeting usw. Sie haben riesige spärliche Modelle dafür (z. B. einen Algorithmus namens DINO für Inhaltsverständnis und Deep Learning Recommendation Model (DLRM) für Werbung). Diese sind aufgabenspezifischer, aber extrem wichtig für den Umsatz. Meta integriert neuere KI-Techniken (Transformer usw.) in diese Systeme. Es ist wahrscheinlich, dass Innovationen aus LLMs (wie besseres Sprachverständnis) genutzt werden, um zu verbessern, wie Facebook Gruppen/Beiträge anzeigt oder wie Inhalte moderiert werden.

Öffentliche Aussagen und Perspektiven: Mark Zuckerberg war historisch gesehen kein KI-Vorzeigemanager wie Altman oder Hassabis – seine Obsession war das Metaverse (daher die Umbenennung des Unternehmens in Meta). Aber seit 2023 konzentriert er sich zunehmend auch auf KI und gibt zu, dass „KI gute Ergebnisse für unser Geschäft bringt… und auch ein spannendes Feld für neue Produkte ist“. Intern wurde er sehr entschlossen, Meta nicht zurückfallen zu lassen. Laut Berichten der NYT, nachdem er gesehen hatte, wie OpenAI und andere vorpreschten, wurde Zuck selbst aktiv – gründete WhatsApp-Gruppen mit seinen Top-Führungskräften, um KI-Strategien zu brainstormen, degradierte den KI-Leiter, der zu wenig lieferte, und warb persönlich KI-Talente mit großen Angeboten an. Das ist ein klassischer wettbewerbsorientierter Kurswechsel: von VR/Metaverse-Fokus 2021-22 zu KI-Pivot 2023. Die Investoren waren sicherlich erleichtert – Metas hohe Ausgaben für das Metaverse zahlten sich noch nicht aus, aber die KI-Investitionen (z. B. Verbesserung der Reels-Vorschläge) steigerten das Engagement.

Zuckerbergs öffentliche Kommentare 2023-24 versuchten, das Wettrennen-Narrativ herunterzuspielen: „Wir bauen seit Jahren fortschrittliche KI – sie treibt unsere Plattformen an; wir sind nicht im Rückstand.“ Aber offensichtlich spürte Meta den Druck. Ein leitender Meta-Ingenieur wurde mit den Worten zitiert, das Unternehmen habe „weniger Erfahrung mit Reinforcement Learning… das andere zum Aufbau von KI nutzen,“ was teilweise Metas Rückstand bei Chatbots erklärt. Außerdem hatte Meta im Gegensatz zu Google oder OpenAI keinen kommerziellen Cloud-Service oder Verbraucherassistenten, um KI zu präsentieren – es musste KI in bestehende soziale Produkte oder Entwicklerangebote integrieren.

Yann LeCuns Sichtweise: Als angesehene Persönlichkeit vertritt LeCun oft eine konträre Haltung zum KI-Risiko. Er behauptet, dass die aktuelle KI noch lange nicht an AGI heranreicht, und tadelt diejenigen, die eine bevorstehende Empfindungsfähigkeit vorhersagen, als schlecht informiert. Er hat gespottet, „wir haben nicht einmal einen Bauplan für ein System, das schlauer ist als eine Hauskatze“, und fordert die Menschen auf, sich in Bezug auf Superintelligenz zu beruhigen. Er hat auch argumentiert, dass wirklich autonome KI neue Paradigmen erfordern wird (wie seine Forschung zu selbstüberwachtem Lernen und verkörperter KI). In seiner Vorstellung müsste eine KI wie ein Tier/Mensch lernen – durch Erkundung der Welt, Instinkte, Integration mehrerer Module (Sehen, Denken, Gedächtnis). Reines LLM-Scaling, so vermutet er, reicht für echte AGI nicht aus. Deshalb erforscht Metas Team unter LeCun Dinge wie speichererweiterte Modelle, Weltmodelle für Agenten usw., also mehr als nur das Skalieren von Transformern.

Wegen LeCuns Skepsis gegenüber KI-Weltuntergangsszenarien und seiner stark pro-offenen Haltung ist Meta zur De-facto-Gegenstimme zur Erzählung geworden, die OpenAI/Anthropic manchmal verbreiten (existenzielle Risiken und Notwendigkeit von Lizenzen). „Weltuntergangsgerede ist kompletter Schwachsinn“, schrieb LeCun unverblümt und streitet sich in sozialen Medien mit Persönlichkeiten wie Elon Musk und Max Tegmark über diese Themen. Das macht Metas interne Haltung etwas gespalten: Zuck schürt intern den Hype um „Superintelligenz in Sicht“, während LeCun sagt: „AGI ist noch weit entfernt; keine Panik.“ Die beiden formulieren es unterschiedlich, stehen aber nicht unbedingt im Konflikt – Zucks Aussage ist vielleicht eher motivierend/wettbewerbsorientiert, während LeCuns öffentliche Haltung darauf abzielt, Forderungen nach strenger Regulierung entgegenzuwirken.

Produkte und Nutzer: Metas KI wird sich in mehreren Bereichen zeigen:

  • Chatbots für Verbraucher: Wie erwähnt, KI-Personas in Chats. Man kann sich vorstellen, mit einem virtuellen Charakter oder Tutor in Messenger zu interagieren. Meta kann seine Messaging-Apps (WhatsApp mit über 2 Milliarden Nutzern und Messenger) nutzen, um KI-Unterstützung in Alltagsgespräche zu bringen, etwa für Terminplanung, Suche oder einfach Unterhaltung (Charakter-Bots). Sie haben eine limitierte Version von KI-Stickern veröffentlicht (wo man die KI auffordern kann, ein individuelles Emoji/Sticker zu generieren).
  • Tools zur Inhaltserstellung: Meta hat KI demonstriert, die Kreativen helfen könnte – z. B. beim Generieren von 3D-Assets für virtuelle Welten, beim Verändern von Videos oder beim Schreiben von Werbetexten für Unternehmen. Sie haben ein Tool namens Advantage+ eingeführt, das KI nutzt, um mehrere Versionen einer Anzeige zu erstellen. Außerdem wurde eine KI namens Chef in einer Demo integriert, die verschiedene Instagram-Filter in Echtzeit erzeugen kann. Das sind derzeit meist Verbesserungen im Hintergrund, könnten aber zu nutzerorientierten Kreativtools werden (um mit TikToks KI-Filtern zu konkurrieren usw.).
  • Moderation und Integrität: Meta muss eine Flut an Inhalten moderieren. KI-Modelle sind hier entscheidend – etwa zur Erkennung von Hassrede, Identifizierung von Fehlinformationen usw. Meta wird diese Systeme mit besserer KI weiter ausbauen. Nach dem Erscheinen von GPT-4 gab es zum Beispiel die Sorge, dass KI-generierter Spam oder Deepfakes die sozialen Medien überschwemmen könnten; Meta wird auf KI setzen, um KI-Inhalte zu erkennen (sie haben vor ein paar Jahren sogar ein System entwickelt, um Deepfakes von Gesichtern zu erkennen). Im Juli 2023 hat Meta sich mit anderen Unternehmen verpflichtet, KI-generierte Inhalte zu kennzeichnen, daher werden sie vermutlich Tools entwickeln, um solche Inhalte auf ihren Plattformen zu markieren und zu erkennen.
  • Enterprise-KI?: Meta ist weniger unternehmensfokussiert als Microsoft oder Google, aber interessanterweise dient es durch die Open-Source-Veröffentlichung von LLaMA 2 indirekt Unternehmen, die Modelle selbst hosten möchten. Es ging eine Partnerschaft mit Microsoft Azure ein, um LLaMA 2 im Azure Cloud Marketplace anzubieten, was es Unternehmenskunden im Wesentlichen ermöglicht, Metas Modell mit Microsofts Unterstützung zu nutzen. Dies war eine Art Frenemy-Zusammenarbeit (Microsoft investierte in OpenAI, half aber auch bei der Veröffentlichung von Metas offenem Modell). Das deutet darauf hin, dass Metas Strategie darin bestehen könnte, seine KI weit zu verbreiten und Einfluss zu gewinnen, anstatt sie direkt zu verkaufen. Es könnte Meta egal sein, wenn andere Unternehmen LLaMA-Modelle einsetzen, solange Meta an der Spitze der Innovation bleibt (und vielleicht, wie einige spekulieren, könnte es KI indirekt durch mehr Engagement oder neue, von KI-Inhalten geschaffene Werbeformate monetarisieren).

Wettbewerbsdynamik: Metas zwei Hauptkonkurrenten im Bereich Social Media für Verbraucher, TikTok (ByteDance) und Snapchat, setzen ebenfalls auf KI. Snapchat hat einen GPT-basierten „My AI“-Chatbot für Nutzer eingeführt (betrieben von OpenAI). TikTok nutzt KI stark für seine Empfehlungs-Engine. Meta steht vermutlich unter Druck, nicht nur Nutzer mit KI-Funktionen zu binden, sondern auch sicherzustellen, dass andere nicht die KI-Ebene auf ihrer Plattform kontrollieren. Bemerkenswert ist, dass Meta für seine Chatbots kein externes Modell verwendet hat – anstatt GPT-4 in WhatsApp zu integrieren, entwickelte es sein eigenes LLaMA und bestand darauf, dieses zu nutzen. Kontrolle und Unabhängigkeit scheinen entscheidend zu sein.

Im Hinblick auf das „KI-Rennen“ ist Metas Position einzigartig. Es verkauft keine KI-Cloud-Dienste und hat keine Suchmaschine, die es neu erfinden müsste; der Kern ist Social Media und AR/VR. Man könnte also sagen, Meta strebt nicht aus eigenem Antrieb nach AGI, sondern als Mittel zur Bereicherung seines Ökosystems (bessere Nutzererfahrungen, neue Plattformfähigkeiten). Allerdings zeigt Zuckerbergs aggressive Einstellungsoffensive für ein „Superintelligence Lab“ innerhalb von Meta, dass er tatsächlich zu den führenden Unternehmen gehören will, die die Grenzen der KI verschieben. Er möchte nicht, dass Meta als Nachzügler gilt. „Nur wenige Unternehmen… haben das Know-how, [Superintelligenz] zu entwickeln, und Zuckerberg will sicherstellen, dass Meta dazugehört“, berichtete die NYT. Das bringt es auf den Punkt: Meta will einen Platz am AGI-Tisch.

Daher investiert Meta in grundlegende KI-Forschung, die nicht direkt mit Facebook/Instagram verbunden ist. Beispiele: CICERO, eine KI, die das Spiel Diplomacy spielen kann (mit Verhandlung und natürlicher Sprache) – Meta veröffentlichte dazu 2022 ein Paper. Und sie veröffentlichen weiterhin Arbeiten zu neuartigen KI-Ansätzen (trotz einiger Kürzungen; Anfang 2023 entließ Meta einige KI-Forscher im Rahmen größerer Entlassungen, aber die Kern-KI-Bemühungen blieben stark).

Mit Blick auf die Zukunft könnte Meta ein Hybridmodell für Offenheit finden. Sie könnten weiterhin starke Modelle offen veröffentlichen, um eine Community und Standardisierung rund um ihre Technologie aufzubauen (was die proprietären Vorsprünge der Konkurrenz untergräbt). Aber für wirklich fortschrittliche Modelle könnten sie sich für selektive Offenheit entscheiden (vielleicht Veröffentlichung der Gewichte, aber mit fein abgestimmten Einschränkungen, oder eine etwas schwächere Version offen herausgeben und eine stärkere eine Zeit lang intern behalten). Es ist ein Balanceakt: Wenn Meta ein Top-Modell komplett schließt, könnte es das aufgebaute Wohlwollen verlieren; bleibt es komplett offen, riskiert es, Konkurrenten zu helfen und Missbrauch zu ermöglichen. Ihre Lösung könnte „offene Innovation, kontrollierte Bereitstellung“ sein – d.h. die Wissenschaft teilen, aber die wirklich leistungsstarken Systeme zunächst unter kontrollierten Bedingungen in Metas eigenen Produkten einsetzen.

Zusammenfassend steht Meta im Narrativ für „Demokratisierung der KI“ – und treibt die Idee voran, dass KI nicht von wenigen eingeschlossen werden sollte. Das entspricht auch teilweise Metas Geschäftsinteresse: Ein offenes KI-Ökosystem macht es für Meta einfacher, KI nach Bedarf zu übernehmen und anzupassen, anstatt beispielsweise von OpenAIs API-Preisen oder Microsofts Azure-Angeboten abhängig zu sein. Es ist auch ein Reputationsspiel: Als „Good Guy“, der Modelle als Open Source veröffentlicht, erhielt Meta eine ungewöhnliche Welle positiver Presse in KI-Kreisen (im Gegensatz zu den üblichen Kritiken, die Meta z.B. beim Datenschutz bekommt). Wie ein Reddit-Nutzer witzelte: „Ich war nie ein Fan von Facebook, aber Hut ab, dass sie diesmal gegen den Strom schwimmen“. Dieses Wohlwollen kann dazu führen, dass Forscher angezogen werden, die Offenheit bevorzugen.

Allerdings muss Meta, da die Einsätze steigen (mit Modellen, die in manchen Bereichen fast menschliche Fähigkeiten erreichen), seine offen vs. sicher-Botschaft in Einklang bringen. Intern gibt es, wie ein Medium-Kommentar hervorhob, ein „Zuckerberg-LeCun-Paradoxon“: Zuck spricht über kurzfristige Superintelligenz und Vorsicht, LeCun spielt das Risiko herunter und setzt sich für offene Veröffentlichungen ein. Das könnte tatsächlich strategisches „rollenbasiertes Messaging“ sein – Meta zeigt verschiedenen Stakeholdern unterschiedliche Gesichter. Investoren gegenüber sagt Zuck: „Wir sind im Superintelligenz-Rennen, wir geben aus, was nötig ist“; gegenüber Regulierern/Öffentlichkeit gibt LeCun die Versicherung: „Wir erschaffen kein Monster, entspannt euch mit der starken Regulierung; Offenheit ist sicherer.“ Es ist ein Balanceakt, um die Wahrnehmung auf allen Seiten zu beeinflussen.

Letztlich drehen sich Metas Ziele und Werte in der KI um Skalierung (sie wollen auch die größten Modelle), Offenheit (weitgehend), Sicherheit (sie erkennen sie an, setzen aber eher auf offene Überprüfung und interne Tests als auf externe Beschränkungen), Kommerzialisierung (indirekt durch bessere Nutzererfahrung und Werbung, nicht durch den direkten Verkauf von KI) und kalkulierte Risiken (die Wette, dass offene Innovation geschlossene Entwicklung überholt). Das kommende Jahr oder zwei werden zeigen, ob diese offene Strategie mit den etwas geschlosseneren Ansätzen von OpenAI und Google an der absoluten Spitze mithalten kann.

Weitere wichtige Akteure & Perspektiven

Während OpenAI, Anthropic, Google und Meta die westlichen KI-Nachrichten dominieren, prägen auch andere bedeutende Akteure die Landschaft:

  • Microsoft: Obwohl Microsoft keine eigenen Foundation-Modelle von Grund auf entwickelt (sondern stattdessen in OpenAI investiert), ist das Unternehmen in diesem Ökosystem von entscheidender Bedeutung. Es verfügt effektiv über „exklusive Kommerzialisierungsrechte“ an der fortschrittlichsten Technologie von OpenAI. Microsofts CEO Satya Nadella hat KI als das „neue Runtime der Zukunft“ bezeichnet und integriert sie in alles, was Microsoft anbietet. Mit Produkten wie Bing Chat (das GPT-4 verwendet) und Microsoft 365 Copilot bringt Microsoft KI-Assistenten in die Suche, das Web-Browsing, die Programmierung (GitHub Copilot X) und jede Office-Anwendung. Nadellas Vision ist ein „Copilot für jede Person und jede Aufgabe“. Microsoft setzt sich auch für sinnvolle Regulierung ein – Unternehmenspräsident Brad Smith veröffentlichte Mitte 2023 einen „Blueprint for AI Governance“, der Sicherheitsbremsen für leistungsstarke Modelle, Transparenz für KI-generierte Inhalte und Lizenzen für Hochrisiko-KI empfiehlt, ähnlich wie in der Pharma- oder Luftfahrtbranche. Diese Haltung stimmt aufgrund der Partnerschaft mit der von OpenAI überein. Microsofts Vorteil liegt in der Verbreitung: Das Unternehmen kann KI schnell an Millionen von Unternehmenskunden bringen (z. B. durch die Integration von ChatGPT in Teams für Besprechungszusammenfassungen). Der potenzielle Nachteil ist das Markenrisiko und die Haftung, weshalb Microsoft den Chatbot von Bing als „Vorschau“ kennzeichnete und nach frühen bizarren Ausfällen Schutzmechanismen einführte. Im Gegensatz zu Google ist Microsoft bereit, mehr Risiko einzugehen, um Marktanteile zu gewinnen (z. B. durch den Einsatz von GPT-4 in Bing, auch wenn es noch nicht perfekt ist, um Googles Dominanz in der Suche herauszufordern). Die riesige Cloud-Infrastruktur von Microsoft stellt außerdem sicher, dass OpenAI über die nötigen Rechenressourcen verfügt (angeblich wurde ein Azure-Supercomputer mit Zehntausenden von GPUs speziell für das Training von OpenAI gebaut). In seinen Werten ist Microsoft pragmatisch: KI nützlich machen, aber verantwortungsvoll. Es gibt ein eigenes Office of Responsible AI und interne Regeln (interessanterweise wurde jedoch während Entlassungen ein Ethikteam abgebaut, was einige an der Verpflichtung zweifeln ließ). Dennoch setzt sich Microsoft öffentlich für KI-Ethik ein und unterstützt Initiativen für Fairness und Zugänglichkeit.
  • Amazon: Amazon wurde zunächst als Nachzügler im generativen KI-Hype angesehen, doch das änderte sich, als das Unternehmen sowohl Partnerschaften als auch eigene F&E nutzte. Im September 2023 kündigte Amazon die große Anthropic-Investition an und gab außerdem bekannt, dass es eigene „Amazon Titan“-LLMs und die „Bedrock“-Plattform für KI-Dienste entwickelt. Bedrock ermöglicht es AWS-Kunden, über eine API aus verschiedenen Foundation Models zu wählen (darunter Claudes von Anthropic, Modelle von Stability AI und Amazons eigene). Amazons Strategie ist es, der neutrale Infrastrukturanbieter für KI zu sein – „bringen Sie Ihr eigenes Modell mit oder wählen Sie eines von uns.“ CEO Andy Jassy sagte deutlich „Generative KI wird praktisch jede Kundenerfahrung neu erfinden… eine einmalige Technologie“ und erklärte, dass Amazon „ziemlich umfassend investiert“ – und zwar in allen Bereichen. Tatsächlich hob Jassy hervor, wie jeder Bereich von Amazon KI nutzt: von einer „intelligenteren Alexa“, die für Sie Aktionen ausführen kann, über KI-generierte Produktbeschreibungen für Verkäufer bis hin zu internen Logistikoptimierungen (Bestand, Robotik). Amazons Vision ist sehr kundenorientiert und utilitaristisch: KI soll das Einkaufen erleichtern, Lager effizienter machen, die Code-Entwicklung beschleunigen (AWS hat ein Tool namens CodeWhisperer, ähnlich wie GitHub Copilot). Es geht weniger um hochtrabende AGI-Versprechen, sondern mehr um „Milliarden von KI-Agenten, die bei alltäglichen Aufgaben helfen“. Allerdings sieht Amazon auch klar die Notwendigkeit, im Bereich der Kern-KI-Technologien wettbewerbsfähig zu bleiben – daher die Beteiligung an Anthropic (um nicht ausschließlich vom OpenAI/Microsoft-Ökosystem abhängig zu sein). Was Offenheit betrifft, so stellt Amazon seine Hauptmodelle nicht als Open Source zur Verfügung, unterstützt aber die Open-Source-Community, indem es Tools anbietet (wie die Partnerschaft mit Hugging Face, um das Ausführen von Modellen auf AWS zu erleichtern). In Bezug auf Regulierung ist Amazon nicht so stark im Mittelpunkt der politischen Debatte, aber man kann annehmen, dass das Unternehmen flexible Regulierung bevorzugt, die Innovation in der Cloud nicht behindert. Amazon wird Dinge wie Modell-Wasserzeichen im Rahmen der Verpflichtungen gegenüber dem Weißen Haus einhalten. Amazons leicht einzigartiger Ansatz ist KI + Hardware: Sie entwickeln Chips (AWS Trainium und Inferentia), um die Kosten für Training und Inferenz auf AWS zu senken. Das ist sowohl ein geschäftlicher Schritt (günstigere KI für Kunden, um sie von Nvidia-GPUs abzuwerben) als auch möglicherweise ein Resilienz-Move, falls das GPU-Angebot knapp ist.
  • Elon Musks xAI: Musk, der OpenAI mitbegründete und 2018 ausstieg, stieg 2023 mit einem neuen Unternehmen xAI wieder ins Rennen ein. Musk sagte, er habe xAI gegründet, um „TruthGPT“ oder eine maximal „wahrheitssuchende“ KI zu bauen, die „die wahre Natur des Universums versteht“. Die Darstellung ist etwas großspurig (die Rätsel des Kosmos lösen), zielt aber auch auf die wahrgenommenen Vorurteile von OpenAIs ChatGPT ab. Musk befürchtet, dass Mainstream-Modelle zu zensiert oder politisch voreingenommen sind. Er hat auch wiederholt vor existenziellen Risiken durch KI gewarnt und einen Entwicklungsstopp gefordert – aber da dies ausbleibt, hat er beschlossen, seine eigene, vermutlich „vertrauenswürdigere“ KI zu bauen. Das xAI-Team ist klein, umfasst aber talentierte Alumni von DeepMind, OpenAI usw. Berichten zufolge trainieren sie ein Modell mit Daten von Twitter (jetzt X) sowie anderen Quellen. Musk hat durch Twitter einen Datenvorteil (wenn er den gesamten Social-Media-Content nutzt). Seine Vision des „Wahrheitssuchens“ bedeutet wahrscheinlich eine KI, die nicht an die von OpenAI verwendeten Inhaltsfilter gebunden ist und deren Entscheidungsfindung transparenter sein könnte. Konkretes ist jedoch rar; xAI hat noch kein Modell veröffentlicht. Musk deutete an, dass xAI mit Tesla (für KI in der realen Welt) und X/Twitter (für eine rechnerische Wissensbasis) zusammenarbeiten würde. Eine Sorge: Musks Unternehmen arbeiten oft zusammen – könnten sich Teslas KI fürs autonome Fahren und xAIs allgemeine KI-Bemühungen annähern? Möglich, da auch autonomes Fahren fortschrittliche KI benötigt. Musks Zeitplan ist unklar, aber angesichts seiner bisherigen Erfolge könnte xAI entweder verpuffen oder plötzlich ein großes Modell vorstellen, das die Branche überrascht. Philosophisch steht Musk zwischen dem Wunsch nach „maximaler Wahrheit/Neugier“ von KI und der Angst, dass KI außer Kontrolle gerät. Er hat sich für Regulierung (wie eine „KI-Schiedsrichter“-Behörde) ausgesprochen, baut nun aber auch das, was er für eine kontrollierbare AGI hält, um mit anderen zu konkurrieren. In der breiteren Debatte sorgt Musks Beteiligung dafür, dass der Kulturkampf-Aspekt (KI und politische Voreingenommenheit) aktuell bleibt – er könnte xAI als „unvoreingenommene KI“ vermarkten, was eine bestimmte Nutzergruppe anziehen könnte.
  • Stability AI und Open-Source-Kollektiv: Stability AI (Entwickler des Stable Diffusion Bildmodells) wurde zu einem Vorreiter für Open-Source-generative KI. CEO Emad Mostaque predigt, dass offene Modelle Innovation fördern und die Abhängigkeit von Big Tech verringern. Stability unterstützte Open-Text-Modell-Projekte (wie die Förderung der EleutherAI-Gruppe, die GPT-J und andere entwickelte). Sie veröffentlichten StableLM (ein Sprachmodell) und arbeiten offen an Musik- und Videogenerierungsmodellen. Obwohl die Ressourcen von Stability weit geringer sind als die von Google oder OpenAI, ist ihr Einfluss im Bereich Bild-KI überproportional (die Veröffentlichung von Stable Diffusion führte zu einer Explosion kreativer Tools und auch zu Kontroversen über Deepfakes, Urheberrechtsfragen usw.). Mostaques Ansatz ist es, Modelle mit minimalen Einschränkungen zu veröffentlichen und die Community experimentieren zu lassen, da er glaubt, dass die Vorteile die Schäden überwiegen. Er argumentiert oft, dass „man Open-Source nicht wegregulieren kann – es wird weltweit einen Weg finden“. Diese Spannung ist entscheidend: Leaks von Open-Source-Modellen umgehen jede nationale Regulierung (wie bei Metas LLaMA zu sehen). Stability und ähnliche Gruppen (wie EleutherAI, LAION in Deutschland) arbeiten an der nächsten Generation offener Modelle, die mit der Qualität geschlossener Modelle konkurrieren könnten, wenn auch mit etwas Verzögerung aufgrund geringerer Rechenleistung. Zum Beispiel hat das RedPajama-Projekt einen hochwertigen Trainingsdatensatz nachgebaut (eine Replikation von LLaMA’s), und Mistral AI, ein neues Startup ehemaliger Meta-Ingenieure, hat gerade ein 7B Open Model veröffentlicht, das LLaMA 2 13B übertrifft – was auf schnelle Fortschritte im Open-Source-Bereich hindeutet. Diese offenen Bemühungen spiegeln einen Wert von Transparenz und Freiheit wider, manchmal im direkten Gegensatz zu Forderungen nach strikter Kontrolle von KI. Einige Akademiker unterstützen dies und argumentieren, dass offene Modelle unabhängige Forschung zur KI-Sicherheit ermöglichen (ein Black-Box-GPT-4 lässt sich nicht so leicht untersuchen). In der gesellschaftlichen Debatte sagt diese Fraktion, „KI ist wie Information – sie will frei sein“, und der Versuch, sie einzuschränken, sei sinnlos und kontraproduktiv.
  • Globale und staatliche Bemühungen: Es ist erwähnenswert, dass Chinas Technologieriesen (Baidu, Alibaba, Tencent, Huawei) alle große Modelle eingeführt haben (Baidus Ernie Bot, Alibabas Tongyi-Modelle usw.), die bei chinesischsprachigen Aufgaben gut abschneiden und in chinesische Apps integriert werden. Die chinesische Regierung hat unterdessen Vorschriften erlassen (in Kraft seit August 2023), die verlangen, dass generative KI-Dienste sich beim Staat registrieren und sicherstellen, dass Inhalte mit sozialistischen Werten übereinstimmen und nicht „die Staatsmacht untergraben“ oder die Wirtschaftsordnung stören. Für reine F&E-Nutzung gibt es eine Ausnahme. Das bedeutet, dass jedes öffentliche KI-Modell in China von Haus aus zensiert ist – z. B. erhält man bei einer Anfrage an einen chinesischen Chatbot zu Tiananmen-Platz eine Entschuldigung oder Ausweichantwort. Unternehmen wie Baidu preisen ihre Ausrichtung an staatlichen Vorgaben als Feature an. Das steht im Gegensatz zu US-Unternehmen, die zwar Inhalte moderieren, aber keine staatlich vorgeschriebene Ideologie haben (abgesehen von allgemeinen Dingen wie keine kriminellen Ratschläge usw.). Der Ost-West-Wettbewerb bei KI ist intensiv, aber verläuft weitgehend parallel: Chinesische Firmen konzentrieren sich auf ihren Markt (aufgrund von Sprache und regulatorischer Barriere), westliche Firmen auf den globalen Markt (außer China). Einige Experten befürchten, dass China als erstes AGI erreicht und nicht teilt, was das geopolitische Machtgefüge verschieben könnte; umgekehrt sorgt sich die chinesische Führung über die US-Dominanz (daher die massiven staatlichen Investitionen in KI). Diese Dynamik fördert international eine „Wettlauf-Mentalität“.
  • Inzwischen finalisiert die EU ein KI-Gesetz, das KI-Systeme nach Risiko einstufen und Anforderungen auferlegen könnte (z. B. Transparenz über KI-generierte Inhalte, Audits für Hochrisikosysteme, vielleicht sogar die Offenlegung von Trainingsdaten für Foundation-Modelle verlangen). Die großen Unternehmen lobbyieren dafür – OpenAIs Altman sagte zunächst, GPT-4 könnte aus der EU zurückgezogen werden, falls die Regeln zu streng seien; später nahm er das zurück. Generell bevorzugt die Branche Selbstregulierung + gezielte Gesetze (z. B. Missbrauch bestrafen, nicht die Modellentwicklung verbieten). Europas Schwerpunkt liegt auf Datenschutz, Sicherheit und möglicherweise sogar einer Vergütung von Urhebern für im Training verwendete Daten (ein heikles Thema – Getty Images verklagte Stability AI, weil sie ohne Erlaubnis mit urheberrechtlich geschützten Bildern trainierten). Es werden also regulatorische Werte von individuellen Rechten vs. Innovation abgewogen. Falls das EU-Gesetz mit strengen Vorgaben verabschiedet wird, müssen sich große KI-Firmen anpassen (oder bestimmte Funktionen geofencen).
  • Akademiker und Nonprofits: Nicht zu vergessen, viele außerhalb der Unternehmen tragen zur Debatte bei. KI-Koryphäen wie Yoshua Bengio und Geoffrey Hinton (der Google 2023 verließ, um frei über KI-Risiken zu sprechen) äußerten Bedenken über unkontrollierte KI. Hinton sagte „Es könnte nicht mehr lange dauern, bis KI die menschliche Intelligenz übertrifft und wir sie nicht mehr kontrollieren können“, und forderte Forschung dazu, wie man KI unter Kontrolle halten kann en.wikipedia.org. Auf der anderen Seite argumentieren Forscher wie Andrew Ng (ehemaliger Google Brain-Leiter) „Die Angst vor Killer-KI ist übertrieben; der eigentliche Fokus sollte auf Vorurteilen und Arbeitsplatzverlust liegen“. Organisationen wie das Center for AI Safety (CAIS) und das Future of Life Institute machen aktiv auf KI-Risiken aufmerksam – Letzteres organisierte im März 2023 den berühmten „Pause-Brief“, der einen sechsmonatigen Stopp für das Training von Modellen über GPT-4-Niveau forderte und von Musk, Apples Wozniak und anderen unterzeichnet wurde. Keines der großen Labore pausierte seine Arbeit, aber der Brief löste definitiv eine Debatte aus pbs.org. Er machte einen Riss deutlich: Einige halten ein Moratorium oder eine globale Obergrenze für nötig, während Unternehmen das weitgehend ablehnen und lieber selbst für sichere Entwicklung sorgen wollen.
  • Reaktion der Öffentlichkeit: Die breite Öffentlichkeit ist gleichermaßen fasziniert und beunruhigt. Einerseits nutzen Millionen begeisterte Anwender (Schüler, Programmierer, Fachleute) Tools wie ChatGPT und finden sie wirklich hilfreich – die Produktivität steigt, manche Aufgaben werden leichter. Andererseits gibt es Angst vor Fake-News-Fluten, Deepfake-Betrug oder schlicht Arbeitsplatzverlust durch Automatisierung. Eine Umfrage könnte ergeben, dass Menschen sich über KI-Nachhilfelehrer für ihre Kinder freuen, aber besorgt über deren spätere Berufsaussichten sind, falls KI zu leistungsfähig wird. Das hat Politiker aufmerksam gemacht. In den USA gab es Anhörungen im Kongress (mit Altman usw.), und die Biden-Regierung lud KI-Firmenchefs ein, um freiwillige Zusagen zu erhalten. Das Vereinigte Königreich richtet Ende 2025 einen globalen KI-Sicherheitsgipfel aus und will sich als Vorreiter in der KI-Governance positionieren. All das zeigt, dass Regierungen beginnen, sich zu engagieren, wenn auch mit Verzögerung gegenüber der Technik.

Die gesellschaftlichen Debatten um KI-Sicherheit, Kontrolle und Transparenz stellen berechtigte Anliegen gegeneinander:

  • Sicherheit vs. Innovation: Sollen wir das Tempo drosseln, um Schutzmaßnahmen zu bewerten und umzusetzen (um potenzielle Katastrophen oder gesellschaftliches Chaos zu vermeiden), oder sollen wir voranschreiten, um Vorteile zu ernten und zu verhindern, dass Rivalen (oder böswillige Akteure) uns überholen? OpenAI und andere schlagen vor, erst bei sehr hohen Fähigkeitsstufen zu bremsen, aber noch nicht jetzt – sie argumentieren, dass aktuelle Modelle keine Auslöschungsgefahr darstellen und dass mehr Nutzung zu mehr Lernen darüber führt, wie man sie sicher macht. Kritiker befürchten, dass es zu spät sein könnte, die Bremse zu ziehen, wenn sie eine offensichtliche Bedrohung darstellen (das klassische Szenario „KI könnte sich schnell selbst verbessern und der Kontrolle entkommen“). Diese Dynamik ähnelt der Nukleartechnik – entwickelt man die Bombe vor dem Feind, um im Vorteil zu sein, oder versucht man, ein Verbot auszuhandeln? Im Moment ist es ein Wettrüsten mit einigen Rüstungskontrollgesprächen, die beginnen, aber niemand macht eine Pause.
  • Offenheit vs. Sicherheit: Wie ausführlich diskutiert, sollten KI-Modelle Open Source sein, um Transparenz und gleichen Zugang zu gewährleisten, oder geschlossen, um Missbrauch zu verhindern und eine kontrollierte Einführung zu ermöglichen? Wir sehen, dass Unternehmen unterschiedliche Wege gehen, und selbst innerhalb von Unternehmen gibt es Nuancen (OpenAI hat kleinere Modelle wie Whisper für Sprache als Open Source veröffentlicht, aber nicht GPT-4). Ein möglicher Kompromiss ist „Open Science, Closed Product“ – Erkenntnisse teilen, aber nicht die Gewichte. Doch Open-Source-Befürworter finden das nicht ausreichend; sie wollen die tatsächlichen Modelle, damit die Gesellschaft nicht von wenigen Unternehmen für KI-Fähigkeiten abhängig ist. Das Ergebnis hier wird maßgeblich beeinflussen, wer innovieren kann: Wenn zukünftige Top-Modelle alle geschlossen sind, können nur große Firmen und Regierungen mit Ressourcen an der Spitze bleiben. Wenn offene Modelle florieren, kann auch ein Hochschullabor oder ein Startup einen bedeutenden Beitrag leisten, was den Fortschritt demokratisiert.
  • Kommerzieller Druck vs. ethische Nutzung: Unternehmen müssen KI monetarisieren, um die Investitionen zu rechtfertigen. Das bedeutet, sie weitläufig einzusetzen – was die Gefahr von Missbrauch oder unbeabsichtigten Folgen erhöht. Zum Beispiel kann die Veröffentlichung von KI, die sehr menschenähnlichen Text generieren kann, Spammern oder Propagandisten ermöglichen, gefälschte Social-Media-Armeen zu erschaffen. Die Unternehmen versuchen, Filter zu bauen (OpenAI hat GPT-4 beispielsweise darauf trainiert, politische Überredungsanfragen abzulehnen). Doch das Katz-und-Maus-Spiel von Jailbreaking und Missbrauch geht weiter. Daher gibt es eine Debatte: Sollten bestimmte Fähigkeiten zurückgehalten werden? Zum Beispiel hat OpenAI die Bildbeschreibungs-Komponente von GPT-4 zunächst nicht breit veröffentlicht, um Missbrauch zu verhindern (wie das Identifizieren von Personen auf Fotos). Manche sagen, wir müssen möglicherweise extrem gefährliche Fähigkeiten zurückhalten oder begrenzen (wie Bioforschungsmodelle, die Toxinrezepte finden könnten). Aber wo zieht man die Grenze und wer entscheidet das? Hier könnte die Regierungspolitik mit „erlaubten vs. verbotenen“ Anwendungen eingreifen.
  • Transparenz: Es gibt Forderungen nach „KI-Transparenz“ – das bedeutet, Unternehmen sollten offenlegen, wenn Inhalte von KI generiert wurden (Wasserzeichen), Modelle sollten ihre Entscheidungsfindung erklären (interpretierbare KI), und vielleicht sollten die Quellen der Trainingsdaten öffentlich sein. Aus gesellschaftlicher Sicht fördert Transparenz die Rechenschaftspflicht (z. B. wenn eine KI Raubkopien als Daten verwendet hat, sollten wir das wissen? Wenn sie empfiehlt, einen Kredit abzulehnen, sollte sie erklären, warum). Die großen Labore arbeiten an Wasserzeichen-Methoden für Modellausgaben (OpenAI hat einige Prototypen) und an Erklärbarkeits-Tools. Aber es ist noch ein weiter Weg zu wirklich interpretierbaren Deep Networks. Ein aufkommendes Konzept sind „Model Cards“ und „Dataset Sheets“ – Dokumentationen über die beabsichtigte Nutzung, Grenzen und Zusammensetzung der Trainingsdaten eines Modells. Google, OpenAI, Meta veröffentlichen alle so etwas für ihre Modelle. Dennoch genügt das nicht immer Kritikern, die mehr Rohdaten fordern (z. B. Künstler, die wissen wollen, ob ihre Werke im Trainingsmix waren). In Europa könnte der AI Act mehr Offenlegung der Trainingsdaten erzwingen – was Unternehmen ablehnen, da dies Geschäftsgeheimnisse offenlegen oder gegen Datenschutzgesetze verstoßen könnte, wenn die Daten persönliche Informationen enthalten.
  • Jobverlust und wirtschaftliche Auswirkungen: Abseits existenzieller Debatten ist Automatisierung ein drängendes gesellschaftliches Thema. Modelle wie GPT-4 können inzwischen Code schreiben, juristische Verträge entwerfen, Marketingtexte erstellen – Aufgaben, die von Fachkräften erledigt werden. Es gibt eine Debatte: Wird KI menschliche Arbeitskräfte unterstützen (sie produktiver machen und neue Jobs schaffen) oder viele Bürojobs ersetzen (was zu Arbeitslosigkeit oder massenhaftem Umschulen führt)? Tech-CEOs schlagen meist einen optimistischen Ton an, dass KI Menschen von Routinearbeiten befreit, damit sie sich auf höherwertige Aufgaben konzentrieren können. Sam Altman hat sogar vorgeschlagen, dass Regierungen in einer KI-getriebenen Wirtschaft über UBI (Universelles Grundeinkommen) nachdenken sollten, aber dass „wir noch nicht so weit sind“. Der CEO von IBM sagte jedoch Mitte 2023, dass sie die Einstellung für bestimmte Backoffice-Jobs pausieren würden, weil KI diese übernehmen könnte, und schätzte, dass bis zu 30 % in 5 Jahren automatisiert werden könnten. Diese gemischten Signale sorgen in der Gesellschaft für Besorgnis über wirtschaftliche Umwälzungen. Das setzt die Politik unter Druck, Umschulungen und vielleicht die Umverteilung von durch KI geschaffenen Wohlstand anzugehen. Unternehmen sind sich dessen teilweise bewusst: Microsoft und Google haben Fonds für KI-Bildung und KI-für-Gutes-Initiativen, um Verantwortungsbewusstsein zu zeigen.

Insgesamt haben wir 2025 ein lebendiges, facettenreiches KI-Ökosystem: kollaborativ und doch wettbewerbsorientiert, mit überlappenden Zielen von Innovation und Wohlstandsschaffung, aber unterschiedlichen Philosophien, wie man dorthin gelangt und wie man mit den Fallstricken umgeht.

Die KI-Giganten – OpenAI, Anthropic, Google DeepMind, Meta, Microsoft, Amazon – teilen alle den Glauben, dass immer intelligentere KI transformativ sein wird, „wie eine neue industrielle Revolution“. Sie sprechen einheitlich über die positiven Aspekte: Krankheiten heilen, Produktivität steigern, Bildung personalisieren, Klimaforschung unterstützen – im Wesentlichen KI als Werkzeug zur Verstärkung menschlicher Fähigkeiten. Sie erkennen auch alle zumindest oberflächlich an, dass es ernsthafte Risiken zu mindern gilt: von unmittelbaren Problemen wie Voreingenommenheit oder Missbrauch bis hin zu langfristigen existenziellen Fragen. Wo sie sich unterscheiden, ist in der Strategie (offen vs. geschlossen, schnell vs. vorsichtig) und darin, wie viel Gewicht sie bestimmten Werten beimessen (z. B. Meta bei Offenheit, Anthropic bei Sicherheit usw.).

Keine Firma oder Nation allein kann die Entwicklung von KI bestimmen; es ist eine globale und gesellschaftliche Aufgabe. Daher gibt es immer mehr Forderungen nach Zusammenarbeit in puncto Sicherheit – selbst OpenAI und Meta, trotz ihrer Unterschiede, haben sich der Idee gewisser Sicherheitsstandards angeschlossen. Das Frontier Model Forum (OpenAI, Anthropic, Google, Microsoft) ist ein solcher Versuch der Selbstregulierung der Branche.

Fazit: Konvergenz und Divergenz auf dem Weg zur AGI

Das Rennen um den Bau immer allgemeinerer und leistungsfähigerer KI ist eröffnet, aber es ist kein einfaches Nullsummenspiel – es gleicht eher einem Marathon, bei dem viele Läufer gelegentlich Notizen über die Strecke austauschen. OpenAI, Anthropic, Google DeepMind, Meta, Microsoft, Amazon und andere bringen jeweils einzigartige Philosophien und Stärken mit:

  • OpenAI ist der kühne Vorreiter, der die Grenzen von Größe und Leistungsfähigkeit verschiebt, während er für sorgfältige Aufsicht plädiert und sich mit einem Big-Tech-Partner zusammenschließt, um seine Entwicklungen zu verbreiten. Es verkörpert die Dualität von Ambition und Besorgnis in Bezug auf AGI: Es entwickelt fortschrittliche Modelle in rasantem Tempo, warnt aber gleichzeitig vor deren Gefahren und fordert Regulierung. Die Arbeit von OpenAI hat enorme Fortschritte ausgelöst und sogar Giganten wie Google zum Handeln gezwungen – sie zeigt, wie ein fokussiertes Startup (wenn auch inzwischen stark finanziert) das Establishment aufmischen kann.
  • Anthropic ist wie das gewissenhafte Geschwister – ebenso versiert in der KI-Entwicklung, aber entschlossen, es „richtig zu machen“. Ihr Ethos ist, dass Sicherheit eine Voraussetzung ist, kein nachträglicher Gedanke. Anthropics Beiträge im Bereich Alignment (wie Constitutional AI) beeinflussen das gesamte Feld; selbst OpenAI hat mehr menschliches Feedback und einige regelbasierte Leitlinien für GPT-4 übernommen, was man als konvergente Entwicklung mit Anthropics Ansatz sehen könnte. Anthropic zeigt auch, dass Werte ebenfalls Investitionen anziehen können – Unternehmen und Investoren, die sich Sorgen über eine Dominanz eines einzelnen Unternehmens oder über KI-Risiken machen, sehen in Anthropic ein Gegengewicht und haben viel Geld investiert. Langfristig könnte Anthropics Vermächtnis ebenso sehr darin liegen, wie man Modelle verantwortungsvoll trainiert, wie in den Modellen selbst.
  • Google DeepMind steht für die geballte Kraft von Forschungsexzellenz und Ressourcen. Mit jahrzehntelanger gemeinsamer Forschung ist es der Tresor des KI-Wissens, das nun auf konkrete Produkte ausgerichtet wird. Googles pragmatischer, aber wissenschaftlicher Ansatz könnte die erste wirklich multimodale AGI (Gemini) hervorbringen. Falls dies gelingt, wird Googles Herausforderung darin bestehen, sie so einzusetzen, dass die Kernprodukte gestärkt werden, ohne unbeabsichtigte Nebenwirkungen (wie Vertrauensverlust in Googles zuverlässige Dienste) zu verursachen. Die Integration von DeepMind in Google unterstreicht auch ein Muster in diesem Rennen: Konsolidierung. Große Akteure absorbieren Talente und kleinere Labore (wir sahen, wie Google DeepMinds Unabhängigkeit aufhob; Facebook Startups wie Scape für KI übernahm; Microsoft im Grunde OpenAIs Output einkauft). Das wirft die Frage auf: Wird AGI durch einige wenige konzentrierte Anstrengungen erreicht, oder durch eine dezentralere Gemeinschaft? Derzeit scheint die Konzentration wegen des Rechenbedarfs zu dominieren, aber offene Projekte holen auf.
  • Meta hat sich als Verfechter von Offenheit und breitem Zugang positioniert, was bedeuten könnte, dass KI schneller und gleichmäßiger allgegenwärtig wird – oder, so befürchten Kritiker, dass sich leistungsstarke KI ohne ausreichende Schutzmaßnahmen verbreitet. Metas Wette ist, dass die Vorteile von gemeinschaftlicher Innovation und Überprüfung die Nachteile überwiegen werden. Interessanterweise sehen wir in den letzten Monaten tatsächlich Hinweise auf eine Annäherung: OpenAI spricht über Open-Source-Modelle im kleineren Maßstab; Meta erkennt an, dass nicht alles vollständig offen sein kann. Vielleicht ist die Zukunft eine Mischung: Grundlagenforschung und vielleicht frühere Generationen von Modellen sind offen, und modernste Implementierungen werden geschützt, bis sie als sicher gelten.
  • Microsoft und Amazon zeigen, dass die Kommerzialisierung und Anwendung von KI genauso entscheidend ist wie der Modellbau. Ihre Integration von KI in Cloud-Plattformen und Alltagssoftware ist der Weg, wie die Vorteile von KI tatsächlich Menschen und Branchen erreichen. Sie betonen auch einen oft wenig diskutierten Wert: Zuverlässigkeit und Support. Unternehmen werden sich für eine etwas weniger „kreative“ KI entscheiden, die zuverlässig, sicher und mit Support kommt, statt für eine leistungsstärkere, aber unvorhersehbare. So prägen Microsofts und AWSs KI-Dienste in Unternehmensqualität mit Leitplanken und Compliance die Einführung von KI in Unternehmen. Eine Bank oder ein Krankenhaus könnte sich für den Azure OpenAI Service mit GPT-4 und Protokollierungs- sowie Datenschutzfunktionen entscheiden, statt für ein offenes Modell aus dem Internet, selbst wenn dieses vergleichbar leistungsfähig ist.
  • Andere (Musks xAI, Stability usw.) sorgen dafür, dass abweichende Philosophien im Spiel bleiben – sei es, um „Wahrheit“ über politische Korrektheit zu stellen oder alles aus Prinzip als Open Source zu veröffentlichen. Sie fungieren sowohl als Gegenpol als auch als Ergänzung zu den großen Akteuren. Wenn die großen Labore zu vorsichtig oder monopolistisch werden, können diese kleineren oder ideologischeren Akteure durch die offene Veröffentlichung von bahnbrechenden Entwicklungen für Umwälzungen sorgen (wenn zum Beispiel morgen jemand ein Modell auf GPT-4-Niveau als Open Source veröffentlichen würde, würde das die Landschaft dramatisch verändern).

Für die Zukunft können wir einige gemeinsame Trends erwarten:

  1. Multimodalität und Werkzeugnutzung: Alle Unternehmen arbeiten an KI, die nicht nur isoliert chattet, sondern sehen, hören, handeln und mit Software interagieren kann. Google integriert Such- und visuelle Fähigkeiten, OpenAI hat GPT-4 eine gewisse Bildverarbeitung gegeben und plant Plugins, Meta bietet Bild-/Video-Generierung. Die Grenzen zwischen Chatbot, persönlichem Assistenten und fähigem Software-Agenten werden verschwimmen.
  2. Skalierung & Effizienz: Die Entwicklung wird weiter vorangetrieben – möglicherweise zu Modellen mit Billionen von Parametern oder neuen Architekturen, die aktuelle Skalierungsgrenzen durchbrechen (wie MoE oder neuromorphe Chips). Gleichzeitig liegt der Fokus darauf, Modelle günstig und lokal laufen zu lassen. Metas LLaMA hat gezeigt, dass ein 13B-Modell viel leisten kann; inzwischen laufen feinabgestimmte 7B-Modelle auf Smartphones. Diese Demokratisierung durch Effizienz wird weitergehen und sicherstellen, dass nicht nur Cloud-Giganten KI-Macht besitzen.
  3. Sicherheits- & Alignment-Forschung & Entwicklung: Es ist mit mehr Finanzierung und Talent im Bereich Alignment-Forschung zu rechnen (einige der führenden KI-Wissenschaftler wechseln in dieses Feld). OpenAIs Superalignment-Team, DeepMinds Alignment-Team, Anthropics Kernmission – sie werden neue Techniken entwickeln (vielleicht indem KI genutzt wird, um KI auszurichten, wie automatisierte Audits oder das Training von KI auf menschliche Werte mit minimalen Verzerrungen). Sie könnten auch Bewertungsbenchmarks für gefährliche Fähigkeiten definieren. Bereits jetzt werden „KI-Sicherheits-Test-Suiten“ entwickelt (zum Beispiel, um zu testen, ob ein Modell sich selbst replizieren oder seine eigenen Schutzmechanismen umgehen kann). Eine anerkannte Bewertung könnte ähnlich wie ein Crashtest für Autos verwendet werden – eine unabhängige Behörde könnte eines Tages ein Modell als sicher für den öffentlichen Einsatz zertifizieren, wenn es bestimmte Tests besteht.
  4. Politik & Selbstregulierung: Kurzfristig wird freiwillige Selbstregulierung (wie das Frontier Model Forum und die Zusagen des Weißen Hauses) eine Rolle spielen. Mittelfristig werden voraussichtlich formelle Regulierungen in der EU (und vielleicht auch im britischen Prozess usw.) in Kraft treten, und Unternehmen werden sich weltweit anpassen. Es wäre nicht überraschend, wenn wir bis 2026 so etwas wie eine internationale KI-Sicherheitskonferenzreihe und vielleicht die Anfänge einer globalen Aufsichtsbehörde hätten (der UN-Generalsekretär hat eine solche gefordert). Unternehmen unterstützen diesen Ansatz öffentlich – Altman, Hassabis und andere trafen sich in Washington D.C. und Europa, um diese Rahmenwerke zu besprechen. Entscheidend wird sein, dass die Regulierung agil bleibt – also KI nicht auf dem Stand von 2025 einfriert, sondern Mechanismen schafft, um Risiken zu managen, während sich KI weiterentwickelt.
  5. Öffentliche Anpassung: Die Gesellschaft insgesamt wird beginnen, sich an die Allgegenwart von KI anzupassen. Bildungssysteme zum Beispiel ringen damit, dass Schüler ChatGPT für Hausaufgaben nutzen. Einige Schulen haben es verboten, andere integrieren es in den Lehrplan. Arbeitsmärkte werden sich verändern – Prompt Engineering und KI-Überwachungsjobs sind entstanden, und Beschäftigte in verschiedenen Bereichen lernen, mit KI zu kooperieren (sie als Kollegin oder Copilot zu behandeln). Es wird wahrscheinlich eine steigende Nachfrage nach KI-Kompetenz in der breiten Öffentlichkeit geben und vielleicht eine Zertifizierung für Fachkräfte, die KI in sensiblen Bereichen einsetzen (wie Ärzte, die KI-Diagnostik nutzen). Die Unternehmen könnten helfen, indem sie Bildungsressourcen oder Richtlinien zur KI-Nutzung bereitstellen (OpenAI hat einige, Microsoft veröffentlichte den „Responsible AI Standard“ für Entwickler).

Zusammenfassend lässt sich sagen, dass das Streben nach AGI oder etwas Vergleichbarem längst keine Randerscheinung der Science-Fiction mehr ist, sondern das zentrale Ziel der größten Tech-Konzerne der Welt. Jeder versucht, seine Werte in diese Zukunft einzubringen: OpenAI den Wert von breitem Nutzen und Vorsicht, Anthropic den Wert von Sicherheit und Ethik, Google den Wert von Innovation mit Verantwortung, Meta den Wert von Offenheit und Zusammenarbeit, Microsoft/Amazon den Wert von praktischer Nützlichkeit und Zugänglichkeit. Ihre Strategien stehen manchmal im Widerspruch, aber interessant ist, dass ihre Endziele sich nicht gegenseitig ausschließen – letztlich möchten alle eine KI sehen, die extrem leistungsfähig und sicher und weitreichend nützlich ist (und natürlich auch ihrem eigenen Gewinn dient).

Wir könnten durchaus eine Konvergenz bei bestimmten Best Practices erleben (z. B. einen Konsens darüber, eine AGI nicht ohne Einschränkungen mit dem Internet zu verbinden oder bestimmte Sicherheitsforschung zu teilen, auch wenn die Modelle proprietär bleiben). Es wird weiterhin Divergenz im Stil und in der Philosophie geben – was gesund ist, da es eine Art Diversifizierung der Ansätze bietet (eine Monokultur in der KI könnte riskant sein, wenn dieser eine Ansatz einen fatalen Fehler hat).

Während diese Unternehmen immer leistungsfähigere KI entwickeln, wird der Dialog zwischen ihnen und der Gesellschaft intensiver werden. Es wird ein Gleichgewicht angestrebt, bei dem das enorme Potenzial der KI genutzt und gleichzeitig ihre Schäden minimiert werden. Es ist ein bisschen wie das Bändigen des Feuers – zu nützlich, um es zu löschen, zu gefährlich, um es unbeaufsichtigt zu lassen. Und ähnlich wie beim Feuer sind verschiedene Kulturen zunächst unterschiedlich damit umgegangen, aber schließlich entstanden Standards (wie Brandschutzvorschriften) und gemeinsames Wissen.

Im Moment erleben wir einen bemerkenswerten Moment in der Technologiegeschichte. In einigen Jahrzehnten könnten die Menschen auf die Jahre 2023-2025 zurückblicken als den Wendepunkt, an dem KI vom Versprechen im Labor zur allgegenwärtigen Realität wurde und als die Zeit, in der wir das Fundament legten (oder ins Stolpern gerieten, je nach Ausgang), wie wirklich intelligente Maschinen mit der Menschheit koexistieren. Die Werte und Entscheidungen der heutigen KI-Unternehmen – die Offenheit von Meta, das Sicherheitsprinzip von Anthropic, die schnelle Skalierung von OpenAI, die Gründlichkeit von DeepMind und so weiter – werden diesen Weg maßgeblich beeinflussen.

Im September 2025 liest sich der Leitfaden zu „was KI-Unternehmen bauen“ wie ein Who’s Who der modernen Tech-Giganten und ihrer Philosophien. Sie bauen nicht nur Algorithmen – sie versuchen im Grunde, eine neue Form von Intelligenz zu erschaffen. Jeder versucht sicherzustellen, dass, wenn diese Intelligenz entsteht, sie ihre jeweilige Vision widerspiegelt. Und wie wir gesehen haben, überschneiden sich diese Visionen zwar in vielen Hoffnungen, unterscheiden sich aber auch auf interessante und wichtige Weise.

(Diese Antwort basiert auf Informationen aus Quellen wie The New York Times, Wired, MIT Technology Review, Bloomberg, offiziellen Unternehmensblogs und weiteren Expertenkommentaren mit Stand 2025. Angesichts des schnellen Tempos der KI können sich einige Details ändern, aber die dargestellten Strategien und Philosophien bieten einen Überblick über den Stand der führenden Akteure der KI-Branche und die sie umgebenden Debatten.)

Quellen:

  • New York Times – „What Exactly Are A.I. Companies Trying to Build? Here’s a Guide.“ (2025) startupnews.fyi
  • New York Times – „In Pursuit of Godlike Technology, Mark Zuckerberg Amps Up the A.I. Race“ (Juni 2025)
  • TechRepublic – „Meta’s Tumultuous AI Era May Leave Llama Behind…“ (Juni 2025)
  • Time – „Demis Hassabis on AI in the Military and What AGI Could Mean for Humanity“ (2025)
  • OpenAI – „Planning for AGI and Beyond“ (OpenAI-Blog, 2023)
  • OpenAI – „Governance of Superintelligence“ (OpenAI-Blog, 2023)
  • Center for AI Safety – „Statement on AI Risk“ (2023) safe.ai
  • Medium – „The Zuckerberg-LeCun AI Paradox“ (Aug 2025)
  • Andy Jassy (Amazon CEO) – „Message…: Some thoughts on Generative AI“ (Juni 2025)
  • Andy Jassy Interview – (Aboutamazon.com, 2023)
  • Reddit-Kommentare zu Metas Open-Source-KI (2023)
  • TechCrunch – „Elon Musk startet xAI… ‚die wahre Natur des Universums verstehen‘“ (2023)
  • Wired – „Unkontrollierbare KI ist ein Aussterberisiko, warnen Experten“ (2023) wired.com (allgemeiner Kontext)
  • Bloomberg – verschiedene Berichte über den KI-Talente-Krieg und Investitionen.
Artificial General Intelligence (AGI) Simply Explained
Battle of the Adventure Smartwatches: Apple Watch Ultra 3 vs. Garmin Fenix 8 Pro – Which Reigns Supreme?
Previous Story

Smartwatch-Vergleich 2025: Apple Watch Ultra 3 vs. Garmin Fenix 8 Pro vs. Samsung Galaxy Watch Ultra

Go toTop