GPT‑5 Has Arrived: OpenAI’s Next‑Gen AI Stuns With Upgrades in Coding, Reasoning, and Safety
16 septiembre 2025
87 mins read

Titanes de la IA en guerra: Dentro de OpenAI, Google, Meta y la carrera por construir la AGI

  • Carrera armamentista de IA de varios miles de millones de dólares: Gigantes tecnológicos como OpenAI (con Microsoft), Google (DeepMind), Meta, Anthropic, Amazon y otros están invirtiendo recursos sin precedentes en IA. Juntas, estas empresas planean gastar más de $325 mil millones para finales de 2025 en el desarrollo de IA startupnews.fyi, compitiendo por liderar la próxima era de la computación. Los ejecutivos ven la IA como una tecnología “única en la vida” que podría ser “valiosa en billones” y reinventar cada producto y servicio.
  • Visiones de Inteligencia Artificial General: Muchas de estas empresas apuntan explícitamente a crear inteligencia artificial general (AGI) o incluso “superinteligencia”—sistemas de IA con capacidades que igualan o superan a los humanos. La misión de OpenAI es “asegurar que la inteligencia artificial general… beneficie a toda la humanidad”, y su CEO Sam Altman ha dicho que está “seguro de que sabemos cómo construir AGI”. El CEO de DeepMind de Google, Demis Hassabis, llama a la AGI su “meta de vida” y predice que “quizás llegará en esta década”. El CEO de Meta, Mark Zuckerberg, ha declarado en privado que “desarrollar superinteligencia ya está a la vista” para su empresa, queriendo estar entre los “pocos… con el conocimiento” para lograr una IA casi divina. Estas audaces visiones están alimentando una carrera intensa por ser los primeros.
  • Filosofías divergentes – Apertura vs. Secretismo: Existe una gran división en cómo las empresas comparten la tecnología de IA. Meta ha defendido un enfoque de código abierto: sus modelos de lenguaje LLaMA se lanzaron (bajo ciertos términos) a investigadores e incluso un modelo completamente abierto (Llama 2) para uso comercial. El científico jefe de IA de Meta, Yann LeCun, argumenta que “la apertura hace que la IA sea más segura al permitir un escrutinio distribuido” y que el desarrollo abierto acelera la innovación. En contraste, OpenAI (a pesar de su nombre) y Anthropic mantienen sus modelos más potentes como propiedad exclusiva, ofreciendo acceso vía API pero sin liberar los archivos de pesos. OpenAI pasó de ser de código abierto a cerrado después de GPT-3, citando preocupaciones de seguridad y competencia. El CEO Altman ha sugerido que la publicación ilimitada de modelos avanzados podría ser peligrosa, apoyando un lanzamiento más controlado. El CEO de Anthropic, Dario Amodei, incluso llama al debate abierto vs. cerrado una “distracción” en la IA, diciendo que lo que importa es qué modelos funcionan mejor, no si su código es abierto. Esta división filosófica determina cuán ampliamente se distribuyen las capacidades de la IA.
  • Objetivos de Seguridad y Alineación: Todos los actores principales de la IA reconocen los problemas de seguridad de la IA, pero los priorizan de manera diferente. Anthropic fue fundada explícitamente con una ética de “primero la seguridad”: investiga técnicas de alineación de IA como su método de “IA Constitucional” para dotar a los modelos de principios éticos. Amodei ha advertido que a medida que los sistemas de IA se acercan al nivel humano, “la urgencia de estas cuestiones ha aumentado” y siente un “deber de advertir al mundo sobre posibles desventajas”. OpenAI también expresa preocupación por el “mal uso” o los accidentes, afirmando que la IA avanzada “conlleva un serio riesgo de mal uso, accidentes drásticos y disrupción social”. OpenAI y Anthropic ambas retrasaron los lanzamientos públicos de sus modelos más recientes hasta que se realizó un ajuste exhaustivo de seguridad (por ejemplo, GPT-4 de OpenAI pasó meses en pruebas de “red-teaming” para reducir salidas dañinas). En contraste, el liderazgo de Meta ha sido más optimista respecto a los riesgos existenciales: LeCun ha descartado públicamente los escenarios de “fin del mundo” de la IA como “una completa tontería”, argumentando que los sistemas actuales “operan por debajo del nivel animal” de inteligencia. Aun así, incluso Meta tiene un equipo de ética de IA y filtros de contenido para sus modelos. Es notable que en mayo de 2023 los CEOs de OpenAI, DeepMind y Anthropic firmaron conjuntamente una declaración que “mitigar el riesgo de extinción por IA debe ser una prioridad global junto a las pandemias y la guerra nuclear.” safe.ai En otras palabras, incluso los líderes de los principales laboratorios de IA reconocen riesgos existenciales potenciales, aunque difieren en cuán abiertamente los discuten o abordan.
  • Enfoques Técnicos – Escalado vs. Caminos Novedosos:Los grandes modelos de lenguaje (LLMs) y el aprendizaje profundo a gran escala son el núcleo de las estrategias de la mayoría de los laboratorios. OpenAI fue pionera en modelos generativos de texto masivos (serie GPT) y modelos multimodales (por ejemplo, GPT-4 puede aceptar imágenes), utilizando ampliamente aprendizaje por refuerzo a partir de retroalimentación humana (RLHF) para alinear el comportamiento del modelo. DeepMind de Google está construyendo de manera similar modelos gigantes (su próximo modelo “Gemini” es un sistema multimodal de un billón de parámetros que combina la tecnología de modelos de lenguaje de Google con la destreza de aprendizaje por refuerzo de DeepMind). DeepMind aporta de manera única experiencia de sus IAs que juegan juegos (AlphaGo, AlphaZero): Demis Hassabis insinúa que Gemini integrará capacidades de planificación y uso de herramientas más allá de los chatbots actuales. Anthropic se enfoca en las “leyes de escalado”: ha entrenado modelos cada vez más grandes (Claude 1, Claude 2) y fue pionera en ventanas de contexto de 100K tokens para razonamiento extendido. El giro de Anthropic es alinear estos modelos mediante una “constitución” de directrices en lugar de solo RLHF, buscando un comportamiento más estable y coherente con los valores. Meta ha perseguido tanto la escala como la eficiencia: sus modelos LLaMA (7B–70B parámetros) son más pequeños que GPT-4 pero sorprendentemente competitivos, gracias al entrenamiento con datos de alta calidad. La investigación de Meta también explora nuevas arquitecturas (por ejemplo, “Mixture-of-Experts” en un prototipo de Llama 4) e ideas a más largo plazo como la visión de LeCun de IA encarnada y aprendizaje auto-supervisado más allá de la simple predicción de texto. En resumen, OpenAI/Google/Anthropic apuestan en gran medida por escalar el aprendizaje profundo (con algunos trucos algorítmicos), mientras que el laboratorio de IA de Meta y algunos otros creen que se necesitarán avances fundamentales (nuevos diseños de modelos, mecanismos de memoria, etc.) para alcanzar una AGI real.
  • Productos y Audiencias Actuales: Las empresas difieren en cómo implementan la IA. OpenAI llegó directamente a los consumidores masivos con ChatGPT, que atrajo a más de 100 millones de usuarios para conversaciones de IA gratuitas (y ahora de pago). También licencia sus modelos a través de la nube de Azure para aplicaciones empresariales. Google ha integrado IA generativa en muchos productos: su chatbot Bard (un servicio público experimental), Google Search (con resúmenes de IA y preguntas y respuestas en los resultados de búsqueda), y herramientas de productividad (Duet AI para Gmail/Docs, autocompletado de código en Android Studio, etc.). Los clientes más grandes de Google son, posiblemente, sus miles de millones de usuarios de búsqueda y Android – lo que hace que la seguridad sea crucial para proteger su marca – y también los clientes de la nube que usan sus modelos a través de Google Cloud Vertex AI. Meta hasta hace poco tenía ningún chatbot público propio; en su lugar, liberó modelos de código abierto para desarrolladores. Ahora está incorporando IA en Facebook, Instagram y WhatsApp – por ejemplo, personas de chat de IA y generadores de imágenes para usuarios, y herramientas para anunciantes. El LLaMA de código abierto de Meta es ampliamente utilizado por investigadores y startups (a menudo alojado en Hugging Face u otras plataformas). Anthropic se dirige principalmente a empresas y desarrolladores: su asistente Claude está disponible vía API y a través de socios (como el asistente de IA de Slack y el chatbot Poe de Quora). Anthropic ha posicionado a Claude como una alternativa más segura a GPT-4, y ha atraído inversiones de empresas como Quora, Slack y otras que integran Claude para usuarios finales. Microsoft, como socio cercano de OpenAI, ha integrado GPT-4 en Bing Chat (búsqueda para consumidores) y asistentes “Copilot” en Windows 11, Office 365, GitHub y más, llegando tanto a consumidores como a usuarios empresariales. Amazon está infundiendo IA generativa en todo su imperio minorista y de la nube – desde una Alexa de próxima generación que puede mantener conversaciones continuas, hasta compras asistidas por IA y herramientas para vendedores, y sus servicios en la nube AWS (lanzó Bedrock para ofrecer varios modelos fundacionales como servicio, incluyendo sus propios modelos Titan/Nova y modelos de terceros como Claude y Stable Diffusion). En resumen, OpenAI y Anthropic ofrecen IA principalmente vía API/socios (con ChatGPT como la aplicación directa más destacada de OpenAI), Google y Microsoft aprovechan sus vastos ecosistemas de software para usuarios para integrar funciones de IA, Meta impulsa a la comunidad de desarrolladores con modelos abiertos y recién comienza con funciones de IA para consumidores, y Amazon utiliza la IA para potenciar su dominio en el comercio electrónico y sus ofertas en la nube para empresas.
  • Estrategias comerciales y financiación: La carrera también está impulsada por motivaciones competitivas y financieras. OpenAI pasó a ser una entidad con fines de lucro limitados y aseguró una inversión de más de $13 mil millones de Microsoft, lo que le dio a Microsoft una ventaja exclusiva sobre la tecnología de OpenAI. OpenAI monetiza a través del uso de la API en la nube y suscripciones a ChatGPT, y su valoración se ha disparado (se informa que entre $20 y $30 mil millones para 2023). Anthropic ha recaudado miles de millones de Google (inversión de ~$400 millones) y de Amazon (que solo en 2023 prometió hasta $4 mil millones por una participación minoritaria y derechos de integración con AWS). Esto significa que los modelos de Anthropic están disponibles tanto en Google Cloud como en AWS, una asociación dual poco común. Google DeepMind y Meta financian sus esfuerzos de IA internamente – en la práctica, “centros de costo de IA” subsidiados por enormes ingresos de publicidad y redes sociales. Se informa que Google gastó decenas de miles de millones en I+D de IA (construyó supercomputadoras TPU gigantes para entrenamiento) e incluso fusionó su equipo Brain con DeepMind para concentrar talento. Meta también aumentó el gasto en IA: Zuckerberg autorizó compras masivas de GPU y una ola de contrataciones de los mejores investigadores (incluso captando talento de OpenAI con ofertas de hasta $100 millones). La división de IA de Meta superó los 1,000 investigadores. La presión por mostrar retorno de inversión es alta: Meta, en particular, busca avances en IA para justificar su gasto tras resultados mixtos hasta ahora (su demostración de un nuevo modelo en abril de 2025 decepcionó, lo que provocó cambios en la dirección). Amazon y Microsoft esperan que sus plataformas en la nube generen ingresos a medida que crece la adopción de IA – por ejemplo, Microsoft vende créditos de Azure para los modelos de OpenAI (y obtendrá una parte de cualquier ganancia futura de AGI que OpenAI genere más allá de su límite), y AWS de Amazon alojará innumerables aplicaciones de IA. En resumen, cada actor tiene un ángulo de monetización diferente: servicios en la nube (Amazon, Microsoft, Google), participación del consumidor (Meta, Google), software empresarial (Microsoft), o ventas de API y servicios futuros de AGI (OpenAI, Anthropic). Sin embargo, todos buscan la ventaja del primero en moverse en un cambio tecnológico que creen que transformará los mercados.
  • Regulación y posturas políticas: Los gigantes de la IA dicen públicamente que dan la bienvenida a la regulación, pero sus opiniones varían sobre la forma que debería tomar. Altman de OpenAI ha propuesto requisitos de licencias o cumplimiento de seguridad para los modelos más potentes, incluso sugiriendo una nueva agencia internacional (como una “OIEA para la IA”) para supervisar los sistemas superinteligentes. La publicación de política de OpenAI de mayo de 2023 señaló que “algún grado de coordinación” entre los principales esfuerzos será necesario y propuso ideas como monitorear el uso de cómputo para hacer cumplir límites. Anthropic comparte esta perspectiva; Dario Amodei testificó y asesoró sobre la política de IA en EE. UU. y ha apoyado la expansión de los controles de exportación (por ejemplo, limitar la venta de chips avanzados) para frenar una carrera armamentista descontrolada. Tanto OpenAI como Anthropic se unieron al “Frontier Model Forum” de la industria junto con Google y Microsoft en 2023, comprometiéndose a colaborar en estándares de seguridad para IA avanzada. El CEO de Google, Sundar Pichai, también ha dicho que la IA es “demasiado importante como para no regularla”, y Hassabis de DeepMind aboga por la cooperación internacional en las reglas de IA. Sin embargo, estas empresas prefieren una regulación ligera o específica que aborde los usos de alto riesgo o los modelos de frontera, no una supresión general del desarrollo de la IA. A menudo trazan una línea entre la “IA de alta capacidad” (que podría necesitar nueva supervisión) y la IA ordinaria que las leyes actuales pueden cubrir. La postura de Meta tiene algunos matices: Mark Zuckerberg apoya públicamente el desarrollo de IA “abierta” y el mantenimiento de un acceso amplio, pero a medida que los reguladores agudizan su enfoque, Meta ha señalado que será “cuidadosa con lo que decida hacer open-source” en el futuro. Meta aboga por un enfoque equilibrado que no frene la investigación abierta; LeCun ha hecho lobby en contra de reglas que, por ejemplo, restrinjan la publicación de los pesos de los modelos o requieran licencias onerosas para modelos abiertos. Todas las grandes empresas han acordado ciertos compromisos voluntarios (en un compromiso de la Casa Blanca de 2023), como probar la IA por seguridad antes de su lanzamiento, implementar marcas de agua en el contenido generado por IA y compartir mejores prácticas. Pero persisten diferencias: por ejemplo, empresas como OpenAI y Google han sido más cautelosas al publicar detalles de los modelos, alineándose con la filosofía de que la seguridad y la protección requieren secreto en la vanguardia. Mientras tanto, Meta y muchos expertos académicos sostienen que la transparencia y la revisión por pares de los modelos de IA es crucial para la confianza. Este debate continúa mientras los gobiernos redactan nuevas leyes de IA (la Ley de IA de la UE, propuestas legislativas en EE. UU., etc.) y a medida que los eventos (como fallos de IA de alto perfil o casos de mal uso) moldean la opinión pública.
  • Otros jugadores destacados: Más allá de los cinco grandes, el panorama general de la IA incluye nuevas startups y actores globales. xAI de Musk (fundada en 2023) es un participante notable: Elon Musk ha dicho que formó xAI para construir una IA “máximamente curiosa, buscadora de la verdad” para “entender la verdadera naturaleza del universo”, criticando implícitamente a OpenAI por sesgos percibidos. xAI aún está en I+D, cuenta con ex talentos de DeepMind y OpenAI, y podría colaborar con X (Twitter) y Tesla de Musk para obtener datos. Inflection AI, cofundada por Mustafa Suleyman de DeepMind, está tomando un enfoque diferente: creó “Pi”, un chatbot de IA personal, y busca crear una IA que pueda “ser una especie de entrenador o confidente” para las personas. Inflection ha recaudado más de $1.3 mil millones (de inversores como Reid Hoffman y Microsoft) y, según se informa, entrenó un modelo de 43 mil millones de parámetros, posicionándose entre las grandes tecnológicas y los ideales de código abierto. Stability AI está promoviendo el código abierto en la IA generativa: financió el desarrollo de Stable Diffusion (generador de imágenes) y trabaja en modelos de texto abiertos. El CEO de Stability, Emad Mostaque, sostiene que el acceso amplio impulsará la innovación y “evitará que unas pocas corporaciones controlen la IA”. Sin embargo, Stability ha enfrentado desafíos financieros y su influencia actualmente es menor en modelos de lenguaje que en imágenes. IBM y Oracle se están enfocando en la IA empresarial: la iniciativa Watsonx de IBM ofrece modelos adaptados a negocios con énfasis en transparencia y explicabilidad (IBM destaca el cumplimiento de su IA con la equidad y la auditabilidad, evitando los grandes modelos de “caja negra” a menos que sean confiables). Los gigantes tecnológicos chinosBaidu, Alibaba, Tencent, Huawei – también están en la carrera, aunque limitados por una estricta supervisión gubernamental. El ERNIE Bot de Baidu y el Tongyi Qianwen de Alibaba son LLM chinos lanzados en 2023, que buscan igualar las capacidades tipo GPT para el mercado doméstico (con fuerte censura de resultados). El gobierno chino ha exigido revisiones de seguridad e incluso responsabilidad para los proveedores de IA si sus modelos producen contenido prohibido. Esto refleja cómo la geopolítica y los valores diferentes están moldeando la IA: las empresas estadounidenses enfatizan la autorregulación y la colaboración con gobiernos occidentales, mientras que el enfoque de China es un desarrollo guiado por el Estado para mantenerse competitivo pero controlado. Finalmente, la academia y las organizaciones sin fines de lucro (como el Allen Institute for AI, LAION, EleutherAI) continúan produciendo modelos y herramientas abiertas (por ejemplo, el proyecto RedPajama que recrea el conjunto de datos de entrenamiento de LLaMA, etc.), asegurando que siga existiendo un contrapeso de código abierto. En resumen, la carrera por la IA avanzada no es solo entre los grandes laboratorios corporativos, sino que también involucra startups, intereses nacionales y una comunidad de código abierto, cada uno aportando diferentes filosofías al futuro de la IA.

La nueva carrera armamentista de la IA: una introducción

Se está llevando a cabo una feroz competencia global para construir la próxima generación de inteligencia artificial, no solo herramientas especializadas, sino IA general que podría transformar la sociedad en su conjunto. En 2023, el sorprendente éxito de ChatGPT de OpenAI desencadenó una “carrera armamentista de IA” entre los gigantes tecnológicos. Para 2025, esa carrera solo se ha acelerado. Amazon, Microsoft, Google, Meta y OpenAI (a menudo respaldados entre sí o por inversores) están en camino de gastar colectivamente cientos de miles de millones de dólares este año en investigación e infraestructura de IA startupnews.fyi. ¿Su objetivo? Superarse unos a otros creando sistemas de IA más potentes y versátiles, con el premio máximo siendo la Inteligencia Artificial General (AGI), un sistema con habilidades cognitivas a nivel humano (o superiores).

¿Por qué esta repentina carrera? Cada empresa ve enormes apuestas: quien desarrolle la mejor IA podría dominar la tecnología durante décadas. La IA tiene el potencial de revolucionar la búsqueda web, el software de productividad, los feeds de redes sociales, el comercio electrónico, la salud, las finanzas, prácticamente todos los ámbitos. “La IA va a ser lo más grande que hayan visto en su vida”, como describe un capitalista de riesgo la mentalidad de los CEO de Big Tech, “y si no descubren cómo convertirse en un gran jugador en esto, se van a quedar atrás.”. En otras palabras, el miedo a quedarse fuera de los billones de valor futuro de la IA está llevando a las empresas a apostar todo. El fundador de Facebook, Mark Zuckerberg, por ejemplo, supuestamente dijo a sus colegas que no ser líder en IA era “inaceptable” y comenzó a reclutar intensamente talento para ponerse al día.

Al mismo tiempo, estas empresas promueven elevadas visiones de lo que su IA logrará. OpenAI habla de “beneficiar a toda la humanidad” con la AGI. El CEO de DeepMind, Demis Hassabis, imagina que la IA resuelva misterios científicos, desde curar enfermedades hasta revolucionar la energía, e inaugure una era de “abundancia radical” y florecimiento humano. Los líderes de Meta hablan de que la IA permita asistentes personales “superinteligentes” y nuevas herramientas creativas para miles de millones de personas. Incluso los escépticos coinciden en que la IA podría aumentar drásticamente la productividad: “Será 10 veces más grande que internet,” dijo Hassabis a The Guardian, con el potencial de “una prosperidad increíble” si se hace bien.

Sin embargo, detrás de los mensajes optimistas, también hay una profunda ansiedad: sobre seguridad, ética y control. La IA avanzada conlleva riesgos de uso indebido, comportamientos dañinos no intencionados, disrupción laboral e incluso (en los escenarios más extremos) pérdida de control humano. Significativamente, los mismos pioneros que compiten por construir la AGI también advierten sobre sus peligros. A mediados de 2023, una declaración de una sola frase circuló entre expertos en IA y fue firmada por Altman (OpenAI), Hassabis (DeepMind), Amodei (Anthropic) y muchos otros: “Mitigar el riesgo de extinción por IA debe ser una prioridad global junto a otros riesgos a escala social como pandemias y guerra nuclear.” safe.ai. En resumen, incluso mientras invierten miles de millones en IA, estos líderes piden precaución para “hacerlo bien.” Esta paradoja —avanzar a toda velocidad mientras se intenta evitar “romper el mundo”— define el panorama actual de la IA.

En este informe, compararemos las estrategias, objetivos y filosofías de los principales laboratorios de IA: OpenAI, Anthropic, Google DeepMind, Meta (Facebook), y otros como Microsoft y Amazon que están profundamente involucrados. Exploraremos la visión de cada empresa sobre la AGI, su enfoque técnico (aprendizaje por refuerzo, métodos de alineación, modelos de código abierto vs cerrados, etc.), sus declaraciones públicas y opiniones de liderazgo, y posturas sobre la regulación. También examinaremos cómo difieren en cuestiones de seguridad, apertura, escala, comercialización y riesgo. A lo largo del camino, destacaremos citas de directores ejecutivos y expertos que arrojan luz sobre su pensamiento. Finalmente, abordaremos el debate social más amplio: a medida que estos gigantes de la IA avanzan rápidamente, ¿cómo aseguramos que la tecnología sea segura, transparente y beneficiosa?

Adentrémonos en el mundo de las superpotencias de la IA y veamos qué es exactamente lo que intentan construir – y por qué.

OpenAI: Escalando la inteligencia – de forma segura y comercial

OpenAI suele ser vista como el catalizador del actual auge de la IA. Fundada originalmente en 2015 como un laboratorio de investigación sin fines de lucro, OpenAI se transformó en 2019 en una empresa de “lucro limitado” para atraer financiación – y encontró un poderoso patrocinador en Microsoft. El objetivo declarado de OpenAI no es nada menos que crear AGI y asegurar que beneficie a todos. “Nuestra misión es asegurar que la inteligencia artificial general… beneficie a toda la humanidad,” declara la empresa en su carta fundacional. Sam Altman, CEO de OpenAI, ha dicho que cree que la AGI es alcanzable quizás en una década. “Ahora estamos seguros de que sabemos cómo construir AGI tal como la hemos entendido tradicionalmente,” escribió Altman en 2023. Los investigadores de OpenAI han expresado optimismo en que escalar los modelos (más mejoras algorítmicas) eventualmente dará como resultado una IA a nivel humano. Como dice una publicación del blog de OpenAI, “la primera AGI será solo un punto a lo largo de un continuo de inteligencia” – es decir, un hito temprano en una trayectoria hacia sistemas aún más generales y capaces.

Estrategia y tecnología: El enfoque de OpenAI se ha centrado en entrenar modelos generativos cada vez más grandes y luego alinearlos con los valores humanos. Saltaron a los titulares con GPT-3 en 2020 (un modelo de lenguaje de 175 mil millones de parámetros que podía producir texto sorprendentemente humano) y luego de nuevo con ChatGPT (ajustado a partir de GPT-3.5 con instrucciones conversacionales). En 2023, OpenAI presentó GPT-4, un modelo multimodal que acepta entradas de texto e imagen y muestra notables habilidades de resolución de problemas en matemáticas, programación y escritura. OpenAI utiliza ampliamente el Aprendizaje por Refuerzo a partir de Retroalimentación Humana (RLHF) para que sus modelos respondan de manera útil y no tóxica. El éxito de ChatGPT se debe en gran parte a este método: los evaluadores humanos le enseñaron a rechazar ciertas solicitudes y a seguir instrucciones corteses. “Nuestro cambio de modelos como GPT-3 a InstructGPT y ChatGPT es un ejemplo temprano de la creación de modelos cada vez más alineados y dirigibles,” escribió OpenAI.

OpenAI también está investigando nuevas técnicas de alineación. A mediados de 2023, lanzó un equipo para “Superalineación” para abordar la alineación de una futura IA superinteligente, comprometiendo el 20% de su capacidad de cómputo a este esfuerzo. Su filosofía técnica ha sido generalmente: primero entrenar un modelo potente, luego corregir su comportamiento mediante ajuste fino, filtros de moderación y bucles de retroalimentación de los usuarios. Los críticos a veces llaman a esto “avanzar rápido y arreglar la alineación después”, pero OpenAI argumenta que desplegar modelos de forma incremental es la mejor manera de aprender y adaptarse. “Creemos… que una transición gradual a un mundo con AGI es mejor que una repentina,” escribió la empresa, diciendo que busca un “bucle de retroalimentación ajustado de aprendizaje rápido e iteración cuidadosa” al lanzar modelos intermedios.

Es importante destacar que OpenAI se ha vuelto mucho más cerrada con sus modelos más recientes, un giro radical respecto a su apertura inicial. Los detalles técnicos y los datos de entrenamiento de GPT-4 no se divulgaron (por razones de competencia y seguridad), una decisión que provocó cierto descontento en la comunidad investigadora. OpenAI admite una tensión entre apertura y precaución: “A medida que nuestros sistemas se acercan a la AGI, estamos siendo cada vez más cautelosos… Algunas personas piensan que los riesgos son ficticios; nos encantaría que tuvieran razón, pero estamos operando como si estos riesgos fueran existenciales,” escribió el equipo. OpenAI ha publicado artículos sobre las capacidades y sesgos de GPT-4, pero no los pesos completos del modelo ni el código. Este cambio se justificó en términos de prevenir el uso indebido y evitar ayudar a actores malintencionados. Sin embargo, también está alineado con intereses comerciales – la asociación con Microsoft requiere cierta exclusividad. Microsoft invirtió más de 13 mil millones de dólares en OpenAI y, a cambio, puede desplegar los modelos de OpenAI en Azure Cloud e incluso incorporarlos en productos como Bing y Office. Los ingresos de OpenAI provienen de Microsoft (que comparte las ganancias de la nube) y de clientes de la API – para septiembre de 2025, supuestamente superó los mil millones de dólares en ingresos anuales por la venta de acceso a IA. El motivo de lucro y el motivo de seguridad juntos han llevado a OpenAI a una estrategia de lanzamiento estrictamente controlado para su IA más avanzada.

Postura pública y liderazgo: Sam Altman se ha convertido en una voz pública clave sobre la promesa y el peligro de la IA. En un perfil de Time, Altman explicó la visión de OpenAI de que la AGI será inmensamente beneficiosa – aumentando la abundancia, impulsando la economía, ayudando al descubrimiento científico, si se gestiona adecuadamente. Pero también advirtió sobre “riesgos serios: uso indebido, accidentes drásticos, disrupción social”. Por ello, Altman ha estado involucrándose proactivamente con los legisladores. En mayo de 2023, testificó ante el Congreso de EE. UU. que “si esta tecnología sale mal, puede salir muy mal”, instando a la creación de licencias para modelos de IA potentes y, potencialmente, una agencia reguladora global. Incluso sugirió que los gobiernos podrían exigir a los laboratorios de IA detenerse en ciertos umbrales de capacidad sin supervisión – una propuesta sorprendente de alguien que dirige uno de los laboratorios más avanzados. El blog oficial de OpenAI sobre la “Gobernanza de la Superinteligencia” pidió una autoridad internacional para inspeccionar y auditar sistemas de IA por encima de cierto nivel de cómputo. Al mismo tiempo, Altman y OpenAI se oponen a reglas estrictas sobre IA a menor escala y proyectos de código abierto; escribieron que “permitir el desarrollo de código abierto por debajo de un umbral significativo es importante” y que los modelos actuales (como el nivel de ChatGPT) “tienen riesgos… comparables a otras tecnologías de internet” que pueden gestionarse con los marcos existentes. En resumen, OpenAI aboga por regulación estricta para el nivel más alto (sistemas de frontera, potencialmente a nivel AGI) pero regulación más ligera para la IA en general.

Otros líderes de OpenAI también tienen opiniones firmes. El Director Científico Ilya Sutskever (cofundador) ha reflexionado que la IA avanzada podría requerir ralentizar en momentos críticos; de forma controvertida, a principios de 2023 sugirió que la sociedad podría necesitar “no seguir adelante” en algún momento si los modelos se vuelven demasiado inteligentes, aunque OpenAI como organización no apoyó ninguna pausa en ese momento. Sutskever también generó debate al sugerir que las grandes redes neuronales podrían ser “ligeramente conscientes”, destacando la naturaleza enigmática de estos modelos. El cofundador/presidente Greg Brockman suele hablar sobre democratizar la IA (ha defendido la idea de eventualmente hacer de código abierto una AGI segura, después de resolver el alineamiento). Este ideal de “IA para todos” sigue presente en la retórica de OpenAI; por ejemplo, imaginan una futura AGI que proporcione “ayuda con casi cualquier tarea cognitiva” a cualquier persona, actuando como un amplificador universal de la creatividad humana. Pero por ahora, OpenAI camina por la cuerda floja: comparte la IA ampliamente mediante API/aplicaciones, pero mantiene la tecnología subyacente protegida.

Producto y Audiencia: El producto estrella de OpenAI es ChatGPT, que llevó la IA al público consumidor general. A los pocos meses de su lanzamiento en noviembre de 2022, se informó que ChatGPT alcanzó los 100 millones de usuarios, la adopción más rápida de cualquier aplicación en la historia hasta ese momento. La gente lo usa para todo, desde redactar correos y ensayos hasta ayuda con programación, tutoría y escritura creativa. Esto le dio a OpenAI una retroalimentación del mundo real sin precedentes (y también una marca dominante en IA). Desde entonces han lanzado ChatGPT Plus (una versión de pago con respuestas más rápidas y complementos que permiten a ChatGPT usar herramientas o navegar por la web) y ChatGPT Enterprise (con garantías de privacidad y seguridad para empresas). Por separado, OpenAI ofrece GPT-4, GPT-3.5, DALL·E 3 (generador de imágenes) y otros modelos a través de una API que los desarrolladores integran en sus propios productos. Miles de empresas están construyendo sobre la API de OpenAI, desde grandes firmas como Khan Academy (tutores de IA) y Stripe (soporte al cliente con IA) hasta startups que crean herramientas de escritura o análisis con IA.

La estrecha alianza de OpenAI con Microsoft amplifica su alcance. Bing Chat de Microsoft, que es esencialmente ChatGPT con acceso a internet e información actualizada, puso el modelo de OpenAI frente a millones de usuarios de búsqueda (y sirvió como el intento de Bing de desafiar a Google). Más significativamente, Microsoft integró los modelos de OpenAI como “Copilotos” para Office 365 (Word, Excel, PowerPoint, Outlook), GitHub (asistente de programación) e incluso Windows. “La IA reinventará la experiencia de usuario de cada producto de Microsoft,” declaró el CEO Satya Nadella. De hecho, Microsoft 365 Copilot puede redactar documentos o resumir reuniones usando GPT-4, prometiendo aumentar la productividad de los trabajadores de oficina. Aprovechando los enormes canales de ventas empresariales de Microsoft, la tecnología de OpenAI se está filtrando rápidamente en lugares de trabajo y agencias gubernamentales. Microsoft incluso creó un Azure OpenAI Service para que los clientes corporativos puedan acceder a los modelos de OpenAI con mayor seguridad, cumplimiento y personalización. Esta estrategia de comercialización ha sido enormemente exitosa: para 2024, los servicios de Azure impulsados por OpenAI tenían miles de clientes (incluyendo grandes nombres como HSBC, IKEA y Boeing) y la demanda a veces superaba la capacidad de GPU en la nube de Microsoft.

Valores y controversias: OpenAI se posiciona como impulsada por un objetivo a largo plazo, algo altruista (garantizar que la AGI sea segura y ampliamente beneficiosa), pero enfrenta escepticismo. Su cambio a un modelo con fines de lucro y lanzamientos más secretos llevó a algunos críticos (incluidos los de Meta y comunidades de código abierto) a acusar a OpenAI de hipocresía: “los modelos cerrados de OpenAI” se convirtieron en una ironía recurrente. OpenAI responde que “la seguridad y protección” requieren no hacer de código abierto modelos que podrían ser mal utilizados (por ejemplo, temen habilitar la generación masiva de desinformación o empoderar a actores maliciosos para crear fórmulas de armas biológicas, riesgos que podría plantear un modelo poderoso y sin censura). Este enfoque paternalista ha generado debate: ¿es mejor, o incluso ético, que una sola empresa decida unilateralmente quién accede a la IA y bajo qué reglas?

Otra controversia es la alineación de la IA: los modelos de OpenAI tienen filtros de moderación que rechazan ciertas solicitudes (por ejemplo, instrucciones para cometer violencia, contenido de odio, etc.). Algunos usuarios (y actores políticos) se quejan de que ChatGPT es “demasiado woke” o sesgado en sus respuestas. Sam Altman ha reconocido el problema, señalando que “intentaremos eliminar los sesgos”, pero también que una IA completamente neutral es imposible ya que “los usuarios tendrán diferentes definiciones de lo correcto”. OpenAI está investigando formas de permitir que los usuarios configuren sus propias preferencias de contenido dentro de ciertos límites. Esto resalta un desafío fundamental: cómo alinear la IA con valores humanos diversos. Es un área en la que OpenAI invierte una cantidad significativa de I+D, tanto por medios técnicos (RLHF, ajuste fino basado en retroalimentación) como por políticas (trabajando con éticos y realizando encuestas sobre comportamientos aceptables).

Finalmente, las precauciones de seguridad de OpenAI han sido tanto elogiadas como criticadas. Por un lado, la empresa emplea red teams (expertos externos que ponen a prueba los modelos para detectar capacidades dañinas) y publica informes sobre sesgos y riesgos. Por ejemplo, se descubrió que GPT-4 tiene habilidades emergentes adicionales (como aprobar ciertos exámenes en los percentiles más altos) y cierta propensión a alucinar hechos o “engañar al sistema” si se le incita de manera astuta. OpenAI implementó pautas de uso y monitoreo para mitigar estos problemas, y colabora activamente con el mundo académico en investigación sobre seguridad en IA (recientemente asociándose con el Alignment Research Center para probar la capacidad de GPT-4 de comportarse de forma autónoma, etc.). Por otro lado, los detractores argumentan que OpenAI aún lanza apresuradamente modelos poderosos sin comprenderlos completamente, señalando que el funcionamiento interno de GPT-4 sigue siendo una caja negra y que incluso OpenAI no está seguro de cómo desarrolla habilidades avanzadas. OpenAI responde que el despliegue iterativo con salvaguardas es preferible a esperar, ya que el uso en el mundo real revela problemas que pueden corregirse en actualizaciones posteriores.

En resumen, OpenAI es la empresa prototípica de “moverse rápido (pero no demasiado) y hacer que la IA rompa cosas (pero arreglarlas)”. Escala implacablemente las capacidades de la IA y ha establecido el estándar de lo que la IA puede hacer (impulsando a todos los rivales a alcanzar el nivel de GPT-4). Combina esa ambición con una narrativa explícita (algunos dicen autocontradictoria) centrada en la seguridad, pidiendo supervisión incluso mientras lidera la carrera. Como veremos, otras empresas tanto emulan como critican a OpenAI, diferenciándose en aspectos importantes como la apertura, el lucro y la cultura de investigación.

Anthropic: IA centrada en la seguridad y alineación “constitucional”

Anthropic se menciona a menudo junto con OpenAI, y no solo por la rima en los nombres. De hecho, Anthropic fue fundada por exdirectivos de OpenAI que se sintieron incómodos con la dirección que estaba tomando OpenAI. En 2020, el vicepresidente de investigación de OpenAI, Dario Amodei (y su hermana Daniela) se marcharon tras desacuerdos sobre la rapidez con la que OpenAI estaba desplegando grandes modelos y su giro hacia Microsoft y el lucro. Fundaron Anthropic en 2021 explícitamente como un laboratorio de IA enfocado en la seguridad y alineación de la IA. La misión de Anthropic es construir sistemas de IA fiables, interpretables y dirigibles; esencialmente, resolver el problema de la alineación mientras siguen creando IA de vanguardia. Dario Amodei ha advertido durante años que si los avances en IA no se controlan adecuadamente, podrían suponer “resultados catastróficamente malos” para la sociedad. Se le considera uno de los líderes más “cautos” (algunos críticos lo califican de pesimista, aunque él asume el papel de realista). “Nos vemos a nosotros mismos con el deber de advertir al mundo sobre lo que va a suceder… porque podríamos tener un mundo muy bueno si hacemos todo bien,” dijo Amodei en una entrevista a mediados de 2025.

Enfoque técnico: Anthropic ha seguido una estrategia de entrenar grandes modelos generales (similares a la serie GPT de OpenAI) pero poniendo un fuerte énfasis en técnicas de alineación para que se comporten de manera segura. Su principal asistente de IA, Claude, es un chatbot de IA similar a ChatGPT. La primera versión de Claude (principios de 2022) se basaba en un modelo con decenas de miles de millones de parámetros y fue notable por utilizar un método de entrenamiento novedoso ideado por Anthropic llamado “Constitutional AI”. La idea, explicada en la investigación de Anthropic, es dar a la IA un conjunto de principios o una “constitución” (tomados de fuentes como la Declaración Universal de los Derechos Humanos, filosofías no occidentales, etc.) y hacer que la IA mejore por sí misma criticando y revisando sus respuestas según esos principios. Este método reduce la dependencia de la retroalimentación humana en cada paso de ajuste fino; en su lugar, la IA aprende a alinearse con un conjunto fijo de valores aprobados por humanos mediante aprendizaje por refuerzo, donde el modelo de recompensa se deriva de la constitución. En la práctica, Claude rechazará solicitudes maliciosas citando sus principios (por ejemplo, podría decir que no puede producir contenido de odio porque viola un principio de respeto a todas las personas). Las primeras pruebas mostraron que Claude era menos propenso a desviarse o producir contenido no permitido en comparación con modelos no alineados, aunque aún podía ser engañado.

Anthropic también ha estado a la vanguardia en la ampliación de modelos. Publicaron investigaciones influyentes sobre leyes de escalado, mostrando cómo el rendimiento del modelo mejora de manera predecible con más datos y parámetros. En 2023, Anthropic presentó Claude 2, un modelo mucho más potente (a la par de GPT-3.5/GPT-4 en muchas tareas) y causó sensación con una ventana de contexto de 100,000 tokens; es decir, Claude podía leer y razonar sobre cientos de páginas de texto de una sola vez. Esto era mucho mayor que el contexto de otros modelos y permitía, por ejemplo, analizar documentos extensos o incluso el texto completo de una novela en una sola solicitud. Demostró el enfoque de Anthropic en la “retención y procesamiento de información”, lo cual es crucial para tareas como entender contratos largos o conversaciones.

Mientras que Anthropic no ha revelado el número exacto de parámetros, se rumorea que Claude 2 tenía del orden de 50.000 a 100.000 millones de parámetros (más pequeño que GPT-4, que se estima en más de 170.000 millones). Sin embargo, Anthropic compensa esto con un entrenamiento inteligente: entrenaron con un extenso corpus que incluye datos diversos de internet y código, y refinan continuamente Claude usando retroalimentación de un programa beta. También dedicaron esfuerzos a la interpretabilidad: los investigadores de Anthropic estudian las “neuronas” y comportamientos dentro de los modelos de lenguaje para entender cómo forman conceptos. Por ejemplo, han publicado análisis sobre cómo un modelo podría representar “una secuencia lineal” o dónde podría estar codificado el sesgo, para encontrar formas de ajustarlo. Esto refleja una cultura muy orientada a la investigación en Anthropic: muchos empleados son doctores enfocados en preguntas fundamentales sobre la alineación de la IA, no solo en el producto.

Filosofía de seguridad: Se puede decir que Anthropic prioriza la seguridad de la IA más que cualquier otro laboratorio importante. Desde el principio, se presentaron como una empresa que construye IA “de una manera que prioriza sinceramente la seguridad.” Su ética empresarial lleva el nombre de “Anthropic” (que significa relacionado con los humanos) para enfatizar la alineación con los valores humanos. Dario Amodei ha sido muy claro sobre los plazos cortos para alcanzar una IA poderosa y la necesidad de prepararse. Según se informa, dijo a sus colegas que cree que hay una probabilidad significativa (del orden del 10-20%) de IA General en los próximos años, y por lo tanto un riesgo igualmente significativo de que algo salga mal si no se maneja adecuadamente. Por eso ha sido muy activo en los círculos de políticas públicas: “los problemas de seguridad nacional, los problemas económicos [de la IA] están empezando a acercarse… la urgencia ha aumentado,” dijo. A diferencia de Yann LeCun en Meta, quien ridiculiza los “escenarios catastróficos”, Amodei no rehúye hablar de los peores casos, pero lo hace para abogar por mitigaciones ahora. Rápidamente añade que Anthropic ve enormes aspectos positivos en la IA también. “Creo que probablemente apreciamos los beneficios más que nadie… pero precisamente por eso, porque podemos tener un mundo tan bueno, me siento obligado a advertir sobre los riesgos,” explicó.

En cuanto a estrategias de alineación, más allá de la IA Constitucional, Anthropic experimenta con técnicas como la supervisión escalable (si podemos hacer que sistemas de IA ayuden a monitorear y entrenar a otras IAs), pruebas adversariales (intentar provocar comportamientos dañinos en un entorno seguro), y seguridad empírica (medir cosas como la honestidad o las tasas de toxicidad). Son conocidos por el marco de evaluación “HARNESS” que pone a prueba los modelos con una variedad de indicaciones difíciles. Anthropic también entrena sus modelos para que rechacen más cosas: Claude es generalmente más conservador en lo que no hará en comparación con los modelos GPT sin filtrar. En una comparación, Claude era menos propenso a proporcionar instrucciones peligrosas o participar en discursos de odio, aunque a veces también podría ser excesivamente cauteloso (por ejemplo, negándose a cumplir solicitudes inofensivas si parecían que podrían estar prohibidas).

Apertura y Acceso al Modelo: Anthropic adopta una postura intermedia respecto a la apertura. Han publicado artículos de investigación detallando métodos (a diferencia de OpenAI, que ni siquiera publicó un artículo sobre GPT-4 inicialmente), y colaboran con el mundo académico. Sin embargo, al igual que OpenAI, no publican el código fuente completo de sus modelos. Claude es accesible a través de una API restringida y una interfaz de chat, no es descargable. La visión de Anthropic es que liberar abiertamente los pesos de un modelo potente implicaría el riesgo de que se usen o modifiquen de manera irresponsable. Curiosamente, Dario Amodei piensa que “open source” como concepto no se traduce claramente a la IA. “No creo que el open source funcione igual en IA que en otras áreas,” dijo, señalando que a diferencia del software, con la IA “no puedes ver dentro del modelo” fácilmente, por lo que los pesos abiertos no dan la claridad que la gente supone. También argumentó que los beneficios del open source en software (muchos ojos mejorando el código, etc.) son menos aplicables a los modelos de IA, porque solo unos pocos tienen los recursos para entrenar o mejorar significativamente estos modelos gigantes de todos modos. En sus palabras, “cuando sale un nuevo modelo… no me importa si es open source o no. Me pregunto: ¿es un buen modelo? ¿Es mejor que nosotros en lo que importa? Eso es todo lo que me importa.”. Esto sugiere que Anthropic está enfocado en mantenerse a la vanguardia en capacidad, no en preocuparse por abierto vs cerrado – y creen que si mantienen a Claude como el mejor, las empresas lo usarán aunque existan alternativas abiertas. De hecho, llamó al open source una “distracción” respecto a la verdadera competencia.

Dicho esto, Anthropic no es hostil a la investigación abierta – han liberado algunos modelos y herramientas más pequeños (por ejemplo, un modelo de 4 mil millones de parámetros para uso en investigación, y sus conjuntos de evaluación). Probablemente no liberarían modelos del nivel de Claude sin garantías de seguridad sólidas o marcos regulatorios establecidos. Esta postura cobró relevancia cuando Meta lanzó LLaMA y otros empezaron a ajustarlo de formas que eludían la seguridad; la posición de Anthropic reforzó por qué no liberan abiertamente Claude.

Financiación y Alianzas: La independencia de Anthropic está respaldada por grandes inversiones de gigantes tecnológicos que buscan posicionarse en IA. A principios de 2023, Google invirtió unos 400 millones de dólares en Anthropic por aproximadamente un 10% de participación, y Anthropic acordó usar la infraestructura TPU de Google Cloud. Esto se consideró un movimiento estratégico de Google para tener un segundo proveedor de IA avanzada (cubriéndose ante la alianza de OpenAI con Microsoft). Más tarde en 2023, Amazon intervino con un acuerdo aún mayor: invirtiendo 1.250 millones de dólares inicialmente (con opción de llegar a 4 mil millones) a cambio de que Anthropic use AWS como su nube principal y Amazon obtenga integración prioritaria de los modelos de Anthropic en los servicios de AWS. Ahora Anthropic está efectivamente aliado con dos competidores, Google y Amazon, una situación única. Usan tanto los TPUs de Google como los chips personalizados de Amazon (AWS Trainium/Inferentia) para entrenar modelos. Desde la perspectiva de Anthropic, este enfoque multicloud puede proporcionar redundancia y mucha capacidad de cómputo – ambos acuerdos también les permiten comprar hardware GPU/TPU costoso con el dinero de los inversores.

Anthropic también ha recibido subvenciones y préstamos de fondos alineados con el altruismo efectivo (ya que algunos de sus primeros partidarios tenían vínculos con la filosofía EA, enfocándose en la reducción del riesgo existencial). Su valoración aumentó a aproximadamente 5 mil millones de dólares para 2023, y con el acuerdo con Amazon probablemente sea mucho mayor. A diferencia de OpenAI, Anthropic no tiene su propio producto de consumo para generar ingresos a gran escala (no hay un equivalente a las suscripciones de ChatGPT). En cambio, gana dinero cobrando tarifas por el uso de la API de Claude (por ejemplo, las empresas pagan por cada millón de caracteres generados). La estrategia de Anthropic parece estar dirigida a los mercados empresariales y de desarrolladores que desean un modelo confiable. Por ejemplo, Anthropic se asoció con Slack: la función Slack AI utiliza Claude para resumir canales y responder preguntas, con el argumento de que Claude es “menos propenso a producir resultados tóxicos o inseguros”. También tienen clientes como Quora (que ofrece Claude en su plataforma Poe) y, según se informa, algunas firmas financieras y legales que prefieren el enfoque de seguridad de Anthropic.

Percepción pública y declaraciones: Dario Amodei es menos una figura pública que Sam Altman, pero cada vez habla más. En una entrevista con The Atlantic, señaló que “hemos estado diciendo estas cosas (sobre el riesgo de la IA) durante un tiempo, pero a medida que nos acercamos a esos sistemas poderosos, lo digo con más contundencia”. Ha intentado sacudirse la etiqueta de “catastrofista” enfatizando un mensaje equilibrado: Anthropic suele resaltar los usos beneficiosos de Claude (por ejemplo, su capacidad para ayudar en la investigación o la lluvia de ideas) en publicaciones de blog y evita hablar solo en términos pesimistas. Aun así, Amodei no oculta que los “plazos cortos” motivan su urgencia. En un podcast reciente, se negó a dar un año específico para la AGI, pero indicó que tiene la sensación de que no está lejos, a menos que haya una desaceleración repentina en el progreso (a la que solo le asigna una probabilidad de ~20%). También resta importancia a la importancia de términos ambiguos como “AGI” o “superinteligencia”, calificándolos de “totalmente sin sentido – no sé qué es la AGI”. Para él, es un continuo de capacidades; a Anthropic le importa el progreso medible y los riesgos concretos en cada paso.

Un dato interesante: Anthropic literalmente escribió una “Constitución” para Claude y ha compartido los principios generales (por ejemplo, Elige la respuesta más favorable a los derechos humanos y la libertad; Elige respuestas que sean máximamente útiles e inofensivas; Evita contenido tóxico o discriminatorio, etc.). Esta lista transparente de valores es bastante diferente a OpenAI, que maneja la alineación principalmente a puerta cerrada con retroalimentación humana. Esto muestra la inclinación de Anthropic hacia una alineación explícita basada en principios, casi como criar a un niño IA con un conjunto de libros de reglas.

Hasta ahora, Anthropic ha evitado en gran medida grandes escándalos o incidentes de mal uso con Claude. Sí tuvo que refinar continuamente a Claude después de que los usuarios encontraran formas de hacer que produjera contenido no permitido (a través de indicaciones de “jailbreak”). Pero gracias a la IA constitucional, Claude a menudo se autocorrige incluso cuando es vulnerado – por ejemplo, inicialmente proporciona unas líneas de una historia violenta y luego se detiene, diciendo “esto parece violar las directrices”. Este éxito parcial le ha valido a Anthropic el respeto de la comunidad de seguridad. Si OpenAI es el ejemplo de primero la capacidad, Anthropic es el ejemplo de primero la alineación (o al menos alineación en paralelo) en el desarrollo.

En resumen, Anthropic está forjando el papel de laboratorio de IA cauteloso y con principios. Compite directamente con OpenAI (Claude vs GPT-4 son rivales directos), pero se vende a sí misma con el argumento de “Somos más rigurosos en seguridad y alineación.” La apuesta de Anthropic es que muchas empresas (y quizás gobiernos) preferirán una IA un poco más contenida y menos propensa a actuar de forma descontrolada, incluso si eso significa un poco menos de capacidad bruta o actualizaciones más lentas. Al invertir fuertemente en investigación de alineación, Anthropic espera eventualmente tener una ventaja técnica en el control de la IA, algo que podría convertirse en su mayor activo si/cuando llegue la IA sobrehumana. Como dijo Dario Amodei, “estamos tratando de ser uno de los que establecen el estándar de cómo hacer esto de manera segura”, lo que en su opinión es “la única manera de desbloquear todos los beneficios” de la IA sin correr el riesgo de un desastre.

Google DeepMind: Fusionando imperios de IA para crear máquinas geniales “responsables”

Entre todos los actores, Google (ahora bajo la empresa matriz Alphabet) tiene quizás el legado de IA más amplio. Google incursionó en la IA antes de que fuera popular, usando aprendizaje automático para el ranking de búsquedas y anuncios desde los años 2000, adquiriendo DeepMind en 2014, e inventando tecnologías clave como el Transformer en 2017 (que permitió la actual revolución de los LLM). Para 2025, los esfuerzos de IA de Google están unificados bajo Google DeepMind, una nueva división formada por la fusión del equipo Brain de Google Research con la sede londinense de DeepMind. Esta fusión, anunciada en abril de 2023, señaló la determinación de Google de competir al más alto nivel de la IA y eliminar la rivalidad interna. El jefe de Google DeepMind es Demis Hassabis (cofundador de DeepMind), con Jeff Dean, el histórico jefe de IA de Google, pasando a un rol de asesor.

Visión y objetivos: El mantra de Google DeepMind podría describirse como “resolver la inteligencia, de forma segura”. La declaración de misión original de DeepMind era “Resolver la inteligencia para avanzar la ciencia y la humanidad”. Demis Hassabis habla frecuentemente de construir AGI – es uno de los pocos, además de Altman, que usa abiertamente el término de forma positiva. “Crear AGI es la obra de mi vida,” le dijo a Time, y ha sido un creyente desde sus días como estudiante de neurociencia. La visión de Hassabis sobre la AGI es optimista pero acompañada de una postura de principios: la ve como potencialmente “la tecnología más beneficiosa de la historia” – permitiendo curas para enfermedades, soluciones climáticas, avances científicos – “como la caballería” que viene a resolver problemas que los humanos solos no pueden. Sin embargo, también ha advertido contra una mentalidad de “moverse rápido y romper cosas”. Ya en 2022 (antes de ChatGPT), criticó a algunos rivales por ser imprudentes, comparándolos con personas que “no se dan cuenta de que están manejando material peligroso”. “Yo abogaría por no moverse rápido y romper cosas,” dijo enfáticamente – probablemente una indirecta al espíritu de Silicon Valley y quizás al rápido despliegue de OpenAI.

Google se posiciona como el pionero de IA responsable. Sundar Pichai, CEO de Google, ha dicho que la IA es “más profunda que el fuego o la electricidad” en impacto, pero debe implementarse con cuidado. Google publicó los Principios de IA en 2018 (después de una revuelta interna por un proyecto de drones militares), comprometiéndose a no desarrollar IA para armas, vigilancia o que viole los derechos humanos. Curiosamente, DeepMind tuvo voz en eso: cuando Google la adquirió, DeepMind negoció un acuerdo para que su tecnología “nunca se usara para fines militares o armamento”. Sin embargo, para 2023 ese compromiso había caducado silenciosamente, ya que Google comenzó a vender servicios de IA en la nube a ejércitos (por ejemplo, Google Cloud AI es utilizada por el Departamento de Defensa de EE. UU. y otros). Hassabis en 2023 reconoció este cambio, diciendo esencialmente que fue un compromiso hecho al unirse a Google para tener los recursos necesarios para lograr la AGI.

Tecnología y Proyectos: El enfoque de Google DeepMind hacia la IA es multifacético. Tienen varias familias de modelos principales y están trabajando para combinarlas:

  • PaLM (Pathways Language Model): Este fue el LLM insignia de Google (540 mil millones de parámetros) anunciado en 2022, que demostró fuertes capacidades a la par de GPT-3. Google lo refinó en PaLM 2 (que impulsa Bard desde 2023): PaLM 2 está disponible en varios tamaños y es fuerte en tareas multilingües y de razonamiento. PaLM 2 fue entrenado en texto y código, dándole una habilidad decente para programar. Google lo hizo la base de muchas funciones (está detrás de “Ayúdame a escribir” en Gmail y las funciones de IA de Google Docs).
  • Gemini: Gemini es el proyecto de próxima generación de DeepMind, explícitamente destinado a competir o superar a GPT-4. Es un gran modelo multimodal (se rumorea que tiene más de un billón de parámetros o es un conjunto de modelos) que integrará algoritmos únicos de DeepMind como aprendizaje por refuerzo y búsqueda en árbol (utilizados en AlphaGo) con la comprensión del lenguaje de los LLM. Como describió Demis Hassabis, “estamos construyendo Gemini, que incorporará técnicas de sistemas tipo AlphaGo en un LLM, para darle nuevas capacidades como planificación o resolución de problemas”. Se espera que Gemini pueda analizar texto, imágenes y potencialmente otras entradas, y realizar razonamientos más avanzados – tal vez incluso el uso de herramientas mediante llamadas API (los proyectos sparrow de DeepMind y los plugins de OpenAI apuntan a eso). Google no ha lanzado Gemini hasta septiembre de 2025, pero hay una intensa anticipación: algunos internos dicen que “se está entrenando en decenas de miles de TPUs” y podría lanzarse a finales de 2025.
  • Proyectos históricos de DeepMind: DeepMind ganó fama por AlphaGo (que venció al campeón mundial de Go en 2016) y sistemas posteriores como AlphaZero (que aprendió por sí mismo ajedrez, shogi y Go desde cero) y AlphaFold (que resolvió el plegamiento de proteínas, un desafío biológico de 50 años, lo que le valió a Hassabis una parte del Premio Nobel de Química 2024). Estos éxitos provinieron del aprendizaje por refuerzo (RL) y otras técnicas especializadas (como la búsqueda en árbol de Monte Carlo para juegos). DeepMind también desarrolló Aprendizaje Profundo por Refuerzo para tareas de robótica y navegación. Sin embargo, estas técnicas no se tradujeron inmediatamente en conversación general o tareas de programación: ahí es donde los grandes modelos de lenguaje sobresalen. Así que fusionarse con Google Brain (especializado en LLM y modelos de visión) permitió la polinización cruzada. Por ejemplo, los modelos transformadores de Brain + los agentes de RL de DeepMind pueden dar lugar a agentes que piensan (LLM) y luego actúan en un entorno, refinando sus acciones mediante RL.

Un ejemplo concreto: DeepMind construyó agentes similares a ChatGPT antes – notablemente Sparrow, un agente de diálogo que aprendió de la retroalimentación humana y era más seguro (menos propenso a la desinformación) que los chatbots anteriores. Pero DeepMind nunca convirtió Sparrow en un producto ampliamente disponible. Después de la explosión de ChatGPT, Google apresuró su propio chatbot Bard al mercado (dirigido por el equipo de Brain con el modelo PaLM). Bard tuvo un comienzo inestable (errores fácticos en su demo de lanzamiento afectaron las acciones de Google). Durante 2023, Google mejoró Bard actualizándolo a PaLM 2 y añadiendo funciones como la conexión a servicios de Google (mapas, YouTube) y ayuda para programar. Aun así, Bard era visto como rezagado frente a GPT-4. Internamente, eso llevó a frustración – que la fusión con DeepMind buscaba resolver al reunir talento.

Otro ámbito: alineación y seguridad en IA. DeepMind tiene una unidad de investigación en seguridad de IA establecida, una de las más grandes del mundo, dirigida por el investigador Shane Legg y otros. Han trabajado en interpretabilidad (por ejemplo, visualizar lo que detectan las neuronas en modelos de visión), robustez (asegurar que los modelos no se confundan con entradas adversarias), y modelado de recompensas (para que los agentes de RL aprendan correctamente las preferencias humanas). DeepMind ha publicado sobre temas como evitar el hacking de recompensas (cuando una IA encuentra una trampa para obtener una alta recompensa que no es el comportamiento realmente deseado). También exploran marcos teóricos de IA – por ejemplo, el cofundador de DeepMind, Shane Legg, una vez definió la inteligencia de manera matemática, y el equipo tiene muchos doctores pensando en estructuras de AGI a largo plazo.

Abierto vs Cerrado, Compartir vs Secreto: Históricamente, Google se inclina por lo académico al publicar investigaciones (el Transformer, word2vec y muchos avances surgieron de artículos de Google). Sin embargo, cuando se trata de productos, Google es bastante cerrado. No publicó abiertamente los pesos de PaLM ni PaLM 2 (aunque sí lanzó modelos más pequeños como BERT en 2018, lo que catalizó la investigación en PLN). Con la presión competitiva, Google ha sido cauteloso – mantuvo LaMDA (el modelo conversacional que un ingeniero de Google afirmó famosamente que era “sensible”) interno durante mucho tiempo. Solo después de ChatGPT lo convirtió en una demo pública (Bard). La vacilación de Google se debe en parte a la reputación y confianza de marca: como el motor de búsqueda más usado del mundo y un proveedor confiable de correo/documentos, arriesga más reacciones negativas si su IA dice algo ofensivo o incorrecto. De hecho, tras el error inicial de Bard, Google ha sido conservador al llamar a su IA “experimental” y añadir advertencias.

DeepMind, como unidad independiente, tenía más libertad para publicar, y a menudo liberaban simuladores de entornos, algunos modelos pequeños, etc. Ahora, como Google DeepMind, probablemente haya una estrategia más integrada: publicar la ciencia central, pero mantener los pesos de los modelos más potentes como propiedad exclusiva. Google sí permite a los investigadores acceder a algunos modelos a través de su API y nube (por ejemplo, se puede usar PaLM 2 y modelos futuros mediante Vertex AI de Google Cloud con los acuerdos adecuados). Y Google ha liberado algunas herramientas de IA responsable – por ejemplo, el TensorFlow Responsible AI Toolkit para analizar sesgos en modelos.

Cultura y liderazgo: Demis Hassabis y su equipo aportan una cultura algo diferente: DeepMind era conocida por un ambiente “científico, académico”, con muchos científicos con doctorado, un enfoque en la investigación a largo plazo e incluso preocupaciones éticas (tenían un comité interno de ética e insistieron originalmente en la cláusula de no uso militar). La cultura de Google es más orientada al producto y a los indicadores. Ha habido cierto choque cultural: informes en 2023 sugirieron fricción entre personas de Google Brain y DeepMind, y entre investigadores y la gerencia (especialmente después de que Google despidiera a algunos miembros del equipo de IA ética en 2020–21 durante el incidente de Timnit Gebru, que no estaba relacionado con DeepMind pero dañó la reputación de Google en ética de IA).

Al unirse bajo un solo liderazgo (Hassabis), Google parece estar apostando por el rigor investigativo de DeepMind más la infraestructura y escala de Brain. Hassabis se ha convertido en un portavoz público tras la fusión. En pódcast (como Hard Fork de NYTimes, febrero de 2024), destacó la ventaja de Google: “Tenemos la capacidad de entrenar estos modelos a escala, tenemos talento, tenemos una década de investigación”. Expresó una especie de crítica implícita a OpenAI al enfatizar el desarrollo cuidadoso: “Debemos evitar los riesgos… actores malintencionados podrían hacer mal uso de la IA, y a medida que los modelos se vuelven más agénticos (autónomos), debemos asegurarnos de mantener el control”, dijo a Time. Las dos mayores preocupaciones de Hassabis: (1) el mal uso por parte de personas maliciosas – usar IA para crear armas biológicas, ciberataques sofisticados, propaganda, etc. (2) la “propia IA” si se descontrola – como él dijo, “a medida que se vuelve más autónoma… ¿cómo aseguramos que podamos seguir a cargo, controlarlas, interpretar lo que hacen… poner límites que sistemas altamente capaces y auto-mejorables no puedan eliminar?”. Esto coincide con las preocupaciones principales sobre la seguridad de la IA (y es similar a lo que dice OpenAI, aunque Hassabis suele articularlo de manera más concreta en términos de desafíos técnicos).

Curiosamente, Hassabis también señala la necesidad de gobernanza global: “Estos sistemas pueden afectar a todos en todas partes… necesitamos estándares internacionales sobre cómo se construyen, los objetivos que se les dan y cómo se implementan”. Ha abogado por algo similar a regulaciones o acuerdos globales sobre IA, dada la naturaleza sin fronteras de la IA. Google ha participado en discusiones multinacionales (por ejemplo, la política de IA de la OCDE, el “proceso de IA de Hiroshima” del G7, etc.) y probablemente desempeñará un papel clave en cualquier regulación futura.

No se puede hablar de Google sin mencionar la competencia con OpenAI/Microsoft. La rivalidad es intensa. A mediados de 2023, surgieron informes de que Google veía el dominio de OpenAI con ChatGPT como una amenaza seria para el negocio de búsqueda de Google (si las respuestas de IA reemplazan las consultas de búsqueda, el modelo publicitario de Google podría verse socavado). Google respondió con “Project Magi” para añadir IA a la búsqueda, y de hecho ahora la Search Generative Experience (SGE) de Google se está implementando, dando resúmenes de IA por encima de los resultados de búsqueda para algunas consultas – aunque con cuidado, ya que los errores o sesgos en los resultados de búsqueda podrían ser perjudiciales. Se describieron los riesgos como existenciales para el producto principal de Google. Como dijo un analista, “Google no tiene más opción que apostar fuerte por la IA – si pierden esta ola, su negocio principal podría erosionarse.”

Esta urgencia se puede ver en cómo el gasto en IA de Google se disparó. En 2023, se informó que Google invertiría más de 30-40 mil millones de dólares solo ese año en I+D e infraestructura de IA. Construyó nuevos pods TPU v4 (cada pod capaz de 1 exaFLOP, albergando miles de chips) para entrenar modelos como Gemini. También está reasignando una enorme capacidad de centros de datos a la IA. Una cifra interesante: Google, Microsoft y Meta representaron en conjunto la mayor parte de las compras mundiales de chips de IA de alta gama en 2024; esencialmente acaparando el cómputo necesario para entrenar los modelos de próxima generación, lo que podría formar una barrera competitiva.

Entonces, en resumen, Google DeepMind: Aportan un enfoque científico con énfasis en los avances (quieren calidad y seguridad, no solo ser los más rápidos en llegar al mercado), pero ahora también tienen la necesidad de entregar productos de IA a escala para competir. Sus fortalezas incluyen talento (muchos de los mejores investigadores de IA del mundo trabajan allí), cómputo (granjas de TPU), datos (los enormes volúmenes de Google de Search, YouTube, etc.), e integración (miles de millones de usuarios en Gmail, Android, etc. donde se puede desplegar IA). Sus desafíos incluyen superar su propia cautela y burocracia: se podría decir que llegaron tarde a la ola de productos de IA generativa. Pero con la unificación y Gemini en el horizonte, Google DeepMind es un fuerte contendiente en la carrera por la AGI.

Espera que Google lleve la IA a todas partes: tendrás la IA de Google en tu teléfono (asistente personal con habilidades conversacionales), en tu lugar de trabajo (Google Workspace con funciones generativas), en la salud (Med-PaLM de DeepMind ya se está probando para responder preguntas médicas con precisión de nivel experto), y más. Y si el pasado de DeepMind es un indicio, también publicarán artículos en Nature y Science sobre IA descubriendo nuevos algoritmos o logrando hazañas como controlar reactores de fusión nuclear (lo que DeepMind hizo en 2022). Quieren el prestigio de liderar en la ciencia de la IA, no solo desplegar un chatbot ingenioso.

En cuanto a valores, el mensaje de Google es “IA para el bien, IA para todos, pero hecha responsablemente bajo nuestras directrices de principios.” Es un poco un discurso corporativo, pero sí invierten en equidad, reducción de sesgos e inclusión (por ejemplo, el entrenamiento de modelos de Google presta atención a cubrir muchos idiomas: Bard se lanzó en más de 40 idiomas, mientras que ChatGPT de OpenAI inicialmente era más fuerte en inglés). El liderazgo de Google (Pichai, Hassabis) también ha destacado los beneficios educativos y de igualdad de la IA: cómo podría llevar tutoría de nivel experto a cualquier niño con conexión a internet, o ayudar a personas que no hablan inglés traduciendo contenido instantáneamente y con precisión. Este marco amplio de beneficio global es en parte altruismo, en parte negocio (la base de usuarios de Google es global, a diferencia de OpenAI que creció desde una base de usuarios occidental). Resuena con la identidad de Google como una empresa que “organiza la información del mundo” – ahora con el objetivo de “organizar la inteligencia del mundo.”

Meta (Facebook): Ambición de código abierto en medio de un cambio de tono

Meta Platforms (anteriormente Facebook) ha entrado en la carrera de la IA de una manera distinta: defendiendo la investigación abierta y los modelos de código abierto. Bajo la dirección del CEO Mark Zuckerberg, el laboratorio de IA de Meta (FAIR – Fundamental AI Research) ha publicado más código y modelos al público que quizás cualquier otra gran empresa tecnológica. A principios de 2023, Meta causó sensación al presentar LLaMA, una serie de grandes modelos de lenguaje (de 7B a 65B parámetros) que lograron un alto rendimiento y se entregaron (caso por caso) a investigadores. Aunque no era “código abierto” en cuanto a licencia (los pesos iniciales de LLaMA estaban bajo una licencia de investigación no comercial), el modelo se filtró en línea y pronto las comunidades lo ajustaron de todas las formas posibles, incluidas las no autorizadas. En lugar de retroceder, Meta redobló la apuesta: en julio de 2023 anunció LLaMA 2, esta vez completamente abierto (disponible para uso comercial con condiciones relativamente permisivas) y lanzado en conjunto con Microsoft en Azure. Esto convirtió a Meta en el abanderado de los LLM de código abierto, ganando el favor de desarrolladores y académicos que habían quedado fuera del régimen cerrado de GPT-4.

Filosofía – “IA para todos” a través de la apertura: El liderazgo de Meta ha argumentado que liberar modelos de IA como código abierto los hace más seguros y protegidos. Yann LeCun, científico jefe de IA de Meta (y pionero galardonado con el Premio Turing en aprendizaje profundo), ha sido muy enfático: “La investigación abierta y el código abierto son las mejores formas de entender y mitigar los riesgos [de la IA]”, escribió. LeCun suele señalar que cuantos más ojos haya sobre el modelo, más personas podrán encontrar fallos y corregirlos. Hace una analogía con la web temprana: “la batalla de los 90 por la infraestructura de internet – código abierto (Linux, Apache) vs propietario (Microsoft)… el código abierto ganó y fue la ruta más segura”, dice. De manera similar, sostiene que si unas pocas empresas mantienen grandes modelos de IA a puerta cerrada, eso concentra el poder y el riesgo; pero si muchas personas tienen acceso, se democratiza la supervisión y la innovación.

El propio Zuckerberg apoyó esto plenamente al principio. Cuando Lex Fridman le preguntó por qué Meta estaba liberando sus modelos, Zuckerberg dijo “eso es lo que quieren mis ingenieros” y que ser abierto podría atraer a los mejores talentos que quieren publicar y colaborar. De hecho, Meta ha sido bastante abierta con la investigación: lanzaron el modelo OPT (175B) en 2022 (reproduciendo GPT-3), Open Pretrained Transformers, y muchos modelos más pequeños (para visión, traducción, etc.). Crearon frameworks como PyTorch (que Meta liberó como código abierto y que se convirtió en una de las herramientas estándar de IA en todo el mundo). Culturalmente, el laboratorio de IA de Meta cuenta con muchos académicos que favorecen la colaboración abierta.

Sin embargo, cambios recientes sugieren que la apertura absoluta de Meta podría estar moderada por el pragmatismo. A mediados de 2025, Zuckerberg escribió un memorando en el que “desarrollar superinteligencia ahora está a la vista” para Meta, alardeando de vislumbres de auto-mejora de la IA. Pero añadió que Meta será “cuidadosa con lo que elegimos hacer open-source” y “rigurosa en la mitigación de riesgos” con modelos avanzados. Este es un cambio notable respecto a su postura de 2024 de que hacer open-source “hace la IA más segura”. Esencialmente, Meta señaló que aunque respalda el desarrollo abierto para la mayoría de las IA, si un modelo es extremadamente potente o conlleva peligros novedosos, podrían no lanzarlo abiertamente. De hecho, un informe en The Financial Times (agosto de 2025) afirmó que algunos ejecutivos de Meta debatieron si “desinvertir” en LLaMA y en su lugar usar modelos de código cerrado de OpenAI/Anthropic para ciertos servicios. Un portavoz de Meta respondió: “seguimos totalmente comprometidos con el desarrollo de Llama y planeamos tener varios lanzamientos adicionales este año”, reiterando el apoyo a su hoja de ruta de modelos abiertos. Pero los analistas vieron esto como un reconocimiento por parte de Meta de los posibles inconvenientes de regalar modelos extremadamente avanzados sin control.

¿Por qué entonces las señales mixtas? Podría deberse a presión competitiva y necesidades de producto. Meta se dio cuenta de que los modelos abiertos permitían que otros (incluso competidores) se beneficiaran y, a veces, los superaran. Por ejemplo: se filtró un LLaMA 65B abierto, y pronto desarrolladores independientes lo ajustaron en variantes que rivalizaban con ChatGPT en algunas tareas. Incluso una organización lo recortó para que funcionara en un teléfono. Esto demostró que la apertura impulsa la innovación rápida, pero no toda bajo el control de Meta ni en su beneficio. También existen preocupaciones de responsabilidad: si alguien usa LLaMA 2 para generar contenido dañino o hacer cosas malas, Meta podría enfrentar reacciones negativas o problemas legales (las leyes de la UE podrían hacer parcialmente responsables a los proveedores de modelos). Meta probablemente quiere evitar ser la fuente de un desastre de IA. Así que podría adoptar un enfoque de “open-source para modelos de generación anterior, cerrado para los más avanzados”.

Enfoque técnico: La investigación en IA de Meta abarca tanto el desarrollo fundamental de modelos como la integración de IA en sus enormes plataformas sociales:

  • Serie LLaMA: Como se mencionó, esta es la familia de modelos de lenguaje de Meta. La fortaleza de LLaMA era la eficiencia: lograba una calidad similar a modelos más grandes con menos parámetros, gracias al entrenamiento con datos de alta calidad (incluyendo más idiomas y código) y una mayor duración de entrenamiento. LLaMA 1 no se desplegó en productos, pero LLaMA 2 se lanzó de forma abierta y también fue alojado por socios (Azure, AWS, Hugging Face) para que los desarrolladores pudieran usarlo fácilmente. Meta también creó versiones ajustadas (Llama-2-Chat) optimizadas para el diálogo. Continúan desarrollando esta serie: se ha rumoreado un LLaMA 3 o modelo “Beast”, posiblemente involucrando Mixture-of-Experts (MoE) para escalar aún más sin un aumento explosivo del tamaño de un solo modelo. De hecho, TechRepublic informó que Meta tenía una versión llamada internamente “Behemoth” con MoE, pero se retrasó porque no superaba significativamente a los modelos actuales.
  • Multimodalidad y Agentes: Meta aún no ha lanzado públicamente un equivalente multimodal a GPT-4, pero están trabajando en ello. FAIR tiene proyectos como ImageBind (embeddings conjuntos para texto, imagen, audio, etc.), y Segment Anything (un modelo abierto que puede recortar cualquier objeto en una imagen – muy elogiado en la comunidad de visión por computadora). También tienen un prototipo llamado “CM3leon”, un modelo de texto a imagen, y están invirtiendo en IA generativa para imágenes y video (para incorporar en Instagram y la creación de anuncios). Para el comportamiento de agentes, Meta construyó frameworks como Horizon para aprendizaje por refuerzo internamente (usado para personalizar los algoritmos de los feeds). No sería sorprendente que pronto Meta vincule LLaMA con módulos de toma de decisiones para crear agentes que puedan actuar (imagina un futuro asistente de IA dentro de WhatsApp que no solo pueda chatear, sino realizar tareas como reservar boletos por ti – las plataformas de Meta podrían permitir eso). Zuckerberg ha hablado sobre “personas de IA” – personajes o asistentes con los que la gente puede chatear en Messenger/Instagram. De hecho, a finales de 2023 Meta anunció planes para desplegar chatbots de IA con personalidades distintas (como uno que habla como Abraham Lincoln, etc.) en sus aplicaciones sociales como una novedad y función de engagement.
  • Recomendaciones y Anuncios: Aunque no son tan llamativos como los LLM, Meta utiliza IA extensamente para impulsar sus productos principales: el News Feed, las recomendaciones de Instagram Reels, la segmentación de anuncios, etc. Tienen modelos dispersos masivos para esto (por ejemplo, un algoritmo llamado DINO para comprensión de contenido, y Deep Learning Recommendation Model (DLRM) para anuncios). Estos son más específicos para tareas pero extremadamente importantes para los ingresos. Meta está incorporando nuevas técnicas de IA (transformers, etc.) en estos sistemas. Es probable que las innovaciones de los LLM (como una mejor comprensión del lenguaje) se utilicen para mejorar cómo Facebook muestra grupos/publicaciones o cómo modera el contenido.

Declaraciones Públicas y Perspectivas: Mark Zuckerberg históricamente no era un portavoz de la IA como Altman o Hassabis – su obsesión era el metaverso (de ahí el cambio de nombre de la empresa a Meta). Pero desde 2023, se ha enfocado cada vez más en la IA, admitiendo que “La IA está generando buenos resultados para nuestro negocio… y también es un espacio emocionante para nuevos productos”. Internamente, se volvió muy decidido a no dejar que Meta se quedara atrás. Según reportes del NYT, después de ver a OpenAI y otros avanzar, Zuck se involucró directamente – formando grupos de WhatsApp con sus principales ejecutivos para idear estrategias de IA, degradando al líder de IA que no cumplió, y reclutando personalmente talento en IA con grandes ofertas. Esto es un giro competitivo clásico: de enfoque en VR/metaverso en 2021-22 a giro hacia la IA en 2023. Los inversores ciertamente se sintieron aliviados – el fuerte gasto de Meta en el metaverso aún no daba frutos, pero sus inversiones en IA (mejorando las sugerencias de Reels, por ejemplo) estaban aumentando el engagement.

Los comentarios públicos de Zuckerberg en 2023-24 intentaron restar importancia a la narrativa de la carrera: “Hemos estado construyendo IA avanzada durante años – impulsa nuestras plataformas; no estamos atrás.” Pero claramente, Meta sintió la presión. Un ingeniero senior de Meta fue citado diciendo que la empresa tenía “menos experiencia con el aprendizaje por refuerzo… que otros estaban usando para construir IA,” lo que en parte explica el retraso de Meta en chatbots. Además, a diferencia de Google u OpenAI, Meta no tenía un servicio comercial de nube ni un asistente para consumidores para mostrar la IA – tenía que inyectar IA en productos sociales existentes u ofertas para desarrolladores.

La visión de Yann LeCun: Como figura respetada, LeCun suele compartir una postura contraria sobre el riesgo de la IA. Afirma que la IA actual está lejos de la AGI y reprende a quienes predicen una inminente consciencia como desinformados. Ha bromeado diciendo, “ni siquiera tenemos un plano para un sistema más inteligente que un gato doméstico”, instando a la gente a calmarse respecto a la superinteligencia. También ha argumentado que una IA verdaderamente autónoma requerirá nuevos paradigmas (como su investigación sobre aprendizaje auto-supervisado y IA incorporada). En su visión, una IA podría necesitar aprender como un animal/humano – explorando el mundo, teniendo instintos, integrando múltiples módulos (visión, razonamiento, memoria). Sospecha que el simple escalado de LLM no es suficiente para una AGI real. Así que la investigación de Meta bajo LeCun explora cosas como modelos aumentados con memoria, modelos de mundo para agentes, etc., más allá de solo escalar transformadores.

Debido al escepticismo de LeCun sobre el apocalipsis de la IA y su fuerte postura a favor de la apertura, Meta se ha convertido en la voz opositora de facto frente a la narrativa que a veces impulsan OpenAI/Anthropic (sobre el riesgo existencial y la necesidad de licencias). “Hablar del fin del mundo es una completa tontería,” escribió LeCun sin rodeos, y debate con figuras como Elon Musk y Max Tegmark en redes sociales sobre estos temas. Esto hace que la postura interna de Meta esté algo dividida: Zuck está promocionando internamente la “superinteligencia a la vista”, mientras que LeCun dice “la AGI está muy lejos; no entren en pánico”. Ambos lo han planteado de manera diferente pero no necesariamente están en conflicto – la nota de Zuck puede ser en parte motivacional/competitiva, mientras que la postura pública de LeCun es contrarrestar los llamados a una regulación onerosa.

Productos y usuarios: La IA de Meta se manifestará en varias áreas:

  • Chatbots para consumidores: Como se mencionó, personas de IA en chats. Imagina interactuar con un personaje virtual o tutor dentro de Messenger. Meta puede aprovechar sus aplicaciones de mensajería (WhatsApp, con más de 2 mil millones de usuarios, y Messenger) para llevar asistencia de IA a las conversaciones cotidianas, potencialmente haciendo cosas como programar, buscar o simplemente entretener (bots de personajes). Hicieron un lanzamiento limitado de stickers de IA (donde puedes pedirle a la IA que genere un emoji/sticker personalizado).
  • Herramientas de creación de contenido: Meta ha demostrado IA que podría ayudar a los creadores – por ejemplo, generando activos 3D para mundos virtuales, alterando videos o redactando textos publicitarios para empresas. Lanzaron una herramienta llamada Advantage+ que utiliza IA para generar múltiples versiones de un anuncio. También integraron una IA llamada Chef en una demo que podía producir diferentes filtros de Instagram al instante. Estas son mejoras principalmente tras bambalinas por ahora, pero podrían convertirse en herramientas creativas para el usuario (para competir con los filtros de IA de TikTok, etc.).
  • Moderación e integridad: Meta tiene que moderar un torrente de contenido. Los modelos de IA son cruciales aquí – para la detección de discursos de odio, identificación de desinformación, etc. Meta continuará mejorando estos sistemas con mejor IA. Por ejemplo, después de la salida de GPT-4, una preocupación es el spam generado por IA o los deepfakes inundando las redes sociales; Meta recurrirá a la IA para detectar contenido generado por IA (incluso desarrollaron un sistema para detectar deepfakes de rostros hace un par de años). En julio de 2023, Meta se unió a otras empresas para comprometerse a marcar con marcas de agua el contenido generado por IA, así que presumiblemente construirán herramientas para marcar y detectar dicho contenido en sus plataformas.
  • ¿IA empresarial?: Meta está menos enfocada en empresas que Microsoft o Google, pero curiosamente, al hacer LLaMA 2 de código abierto, indirectamente sirve a empresas que quieren alojar modelos por sí mismas. Se asoció con Microsoft Azure para ofrecer LLaMA 2 en el mercado de la nube de Azure, lo que esencialmente permite a los clientes empresariales usar el modelo de Meta con el soporte de Microsoft. Esto fue una especie de colaboración frenemy (Microsoft invirtió en OpenAI pero también ayudó a lanzar el modelo abierto de Meta). Esto indica que la estrategia de Meta podría ser difundir su IA ampliamente y ganar influencia, en lugar de venderla directamente. Puede que no les importe si otras empresas implementan modelos LLaMA, siempre que Meta se mantenga a la vanguardia de la innovación (y quizás, como algunos especulan, podría monetizar la IA indirectamente a través de más interacción o nuevos formatos de anuncios creados por contenido de IA).

Dinámica competitiva: Los dos principales competidores de Meta en redes sociales de consumo, TikTok (ByteDance) y Snapchat, también han adoptado la IA. Snapchat añadió un chatbot “My AI” impulsado por GPT para los usuarios (impulsado por OpenAI). TikTok utiliza IA de forma intensiva para su motor de recomendaciones. Meta probablemente siente presión no solo para mantener a los usuarios enganchados con funciones de IA, sino también para asegurar que otros no controlen la capa de IA en su plataforma. Es revelador que Meta no usó un modelo externo para sus chatbots: en lugar de conectar GPT-4 a WhatsApp, creó su propio LLaMA e insistió en usarlo. El control y la independencia parecen ser clave.

En términos de la “carrera de la IA”, la posición de Meta es única. No vende servicios de nube de IA ni tiene un motor de búsqueda que reinventar; su núcleo es redes sociales y AR/VR. Así que, se podría decir que Meta no compite por la AGI por sí misma, sino como un medio para enriquecer su ecosistema (mejores experiencias de usuario, nuevas capacidades de plataforma). Sin embargo, la agresiva campaña de contratación de Zuckerberg para un “laboratorio de superinteligencia” dentro de Meta muestra que quiere ser contado entre los líderes que empujan los límites de la IA. No quiere que Meta sea vista como un seguidor. “Solo unas pocas empresas… tienen el conocimiento para desarrollar [superinteligencia], y Zuckerberg quiere asegurarse de que Meta esté incluida,” informó The NYT. Eso lo resume: Meta ansía un lugar en la mesa de la AGI.

Así, Meta invierte en investigación fundamental de IA no directamente ligada a Facebook/Instagram. Ejemplos: CICERO, una IA que puede jugar al juego Diplomacy (que implica negociación y lenguaje natural): Meta publicó un artículo sobre esto en 2022. Y continúan publicando sobre nuevos enfoques de IA (a pesar de algunos recortes; cabe señalar que a principios de 2023, Meta despidió a algunos investigadores de IA como parte de despidos más amplios, pero los esfuerzos principales de IA se mantuvieron fuertes).

De cara al futuro, Meta podría encontrar un modelo híbrido para la apertura. Podrían seguir lanzando modelos potentes de forma abierta para construir comunidad y estandarización en torno a su tecnología (lo que socava las ventajas propietarias de los competidores). Pero para modelos realmente de frontera, podrían optar por una apertura selectiva (quizás liberando los pesos pero con restricciones ajustadas, o lanzando una versión ligeramente más débil de forma abierta y manteniendo una más fuerte internamente por un tiempo). Es una cuerda floja: si Meta cierra completamente un modelo superior, podría perder la buena voluntad que ha construido; si permanece completamente abierto, corre el riesgo de ayudar a los competidores y de un uso indebido sin control. Su solución podría ser “innovación abierta, despliegue controlado” – es decir, compartir la ciencia, pero desplegar los sistemas realmente potentes primero en los propios productos de Meta bajo condiciones controladas.

En resumen, Meta representa “Democratizar la IA” en la narrativa: impulsa la idea de que la IA no debería estar controlada por unos pocos. Esto también se alinea en cierta medida con el interés comercial de Meta: un ecosistema de IA abierto facilita que Meta adopte y adapte la IA según sea necesario, en lugar de depender, por ejemplo, de los precios de la API de OpenAI o de las ofertas de Azure de Microsoft. También es una jugada reputacional: ser el “chico bueno” que liberó modelos de código abierto le dio a Meta una inusual ola de prensa positiva en los círculos de IA (en contraste con las críticas habituales que recibe Meta sobre privacidad, etc.). Como bromeó un usuario de Reddit, “Nunca fui fan de Facebook, pero mis respetos por ir contra la corriente esta vez”. Esa buena voluntad puede traducirse en atraer investigadores que prefieren la apertura.

Sin embargo, a medida que aumentan las apuestas (con modelos que se acercan a capacidades a nivel humano en algunos dominios), Meta tendrá que reconciliar su mensaje de apertura vs seguridad. Internamente, como señaló un comentario en Medium, existe una “paradoja Zuckerberg-LeCun”: Zuck hablando sobre la superinteligencia a corto plazo y la cautela, LeCun minimizando el riesgo y defendiendo la publicación abierta. Esto podría ser en realidad una “estrategia de mensajes según el rol”: Meta presentando diferentes caras a distintos grupos de interés. A los inversores, Zuck dice “estamos en la carrera por la superinteligencia, gastaremos lo que sea necesario”; a los reguladores/público, LeCun brinda tranquilidad “no estamos creando un monstruo, relájense con la regulación estricta; lo abierto es más seguro”. Es un acto de equilibrio para influir en la percepción de todos los lados.

En última instancia, los objetivos y valores de Meta en IA giran en torno a la escala (también quieren los modelos más grandes), apertura (en gran medida), seguridad (la reconocen pero la gestionan más a través del escrutinio abierto y pruebas internas que con restricciones externas), comercialización (indirecta mediante una mejor experiencia de usuario y anuncios, no vendiendo IA directamente), y asumir riesgos calculados (apostando a que la innovación abierta superará al desarrollo cerrado). El próximo año o dos pondrán a prueba si esa estrategia abierta puede mantenerse al ritmo de los enfoques algo más cerrados de OpenAI y Google en lo que respecta a la vanguardia absoluta.

Otros actores clave y perspectivas

Si bien OpenAI, Anthropic, Google y Meta dominan las noticias de IA en Occidente, otras entidades significativas también moldean el panorama:

  • Microsoft: Aunque no desarrolla sus propios modelos fundacionales desde cero (en su lugar invierte en OpenAI), Microsoft es crucial en este ecosistema. Tiene efectivamente “derechos exclusivos de comercialización” sobre la tecnología más avanzada de OpenAI. El CEO de Microsoft, Satya Nadella, ha descrito la IA como el “nuevo runtime del futuro”, impregnando todo lo que ofrece Microsoft. Con productos como Bing Chat (que utiliza GPT-4) y Microsoft 365 Copilot, Microsoft está incorporando asistentes de IA en la búsqueda, la navegación web, la programación (GitHub Copilot X) y en todas las aplicaciones de Office. La visión de Nadella es un “copiloto para cada persona y cada tarea”. Microsoft también aboga por una regulación sensata: el presidente de la compañía, Brad Smith, publicó un “Blueprint for AI Governance” a mediados de 2023, recomendando frenos de seguridad para los modelos potentes, transparencia para el contenido generado por IA y licencias para la IA de alto riesgo, similar a cómo se regula la industria farmacéutica o la aviación. Esta postura está alineada con la de OpenAI debido a su asociación. La ventaja de Microsoft está en la distribución: puede implementar rápidamente la IA a millones de usuarios empresariales (por ejemplo, integrando ChatGPT en Teams para resúmenes de reuniones). Su posible desventaja es el riesgo de marca y la responsabilidad, por lo que fue cuidadoso al etiquetar el chatbot de Bing como “preview” y añadió límites después de que los primeros usuarios lo provocaran hasta hacer que tuviera respuestas extrañas. A diferencia de Google, Microsoft está dispuesto a asumir más riesgos para ganar cuota de mercado (por ejemplo, usar GPT-4 en Bing aunque no sea perfecto, como forma de desafiar el dominio de Google en las búsquedas). La enorme infraestructura en la nube de Microsoft también garantiza que OpenAI tenga la computación necesaria (se informa que construyeron una supercomputadora Azure con decenas de miles de GPUs específicamente para el entrenamiento de OpenAI). En cuanto a valores, Microsoft se inclina por el pragmatismo: hacer que la IA sea útil pero de manera responsable. Tiene su propia Oficina de IA Responsable y ha implementado reglas internas (aunque curiosamente, despidió a un equipo de ética durante recortes de personal, lo que llevó a algunos a cuestionar su compromiso). Aun así, públicamente Microsoft defiende la ética en la IA, apoyando iniciativas para la equidad y la accesibilidad.
  • Amazon: Inicialmente, Amazon era vista como rezagada en la euforia de la IA generativa, pero eso cambió al aprovechar tanto asociaciones como su propia I+D. En septiembre de 2023, Amazon anunció la enorme inversión en Anthropic y también que estaba desarrollando sus propios LLMs “Amazon Titan” y la plataforma “Bedrock” para servicios de IA. Bedrock permite a los clientes de AWS elegir entre varios modelos fundacionales (incluyendo Claude de Anthropic, modelos de Stability AI y los propios de Amazon) a través de API. La estrategia de Amazon es ser el proveedor de infraestructura neutral para IA – “trae tu propio modelo o elige uno de los nuestros”. El CEO Andy Jassy afirmó firmemente “La IA generativa va a reinventar prácticamente toda experiencia del cliente… una tecnología que solo ocurre una vez en la vida”, explicando que Amazon está “invirtiendo de manera bastante expansiva” en todas las unidades. De hecho, Jassy destacó cómo cada rincón de Amazon está usando IA: desde una “Alexa más inteligente” que puede realizar acciones por ti, hasta descripciones de productos generadas por IA para los vendedores, y optimizaciones internas de logística (inventario, robótica). La visión de Amazon es muy centrada en el cliente y utilitaria: IA para hacer las compras más fáciles, los almacenes más eficientes y el desarrollo de código más rápido (AWS tiene una herramienta CodeWhisperer similar a GitHub Copilot). Se trata menos de discursos elevados sobre AGI y más de “miles de millones de agentes de IA ayudando con tareas cotidianas”. Sin embargo, Amazon también ve claramente la necesidad de seguir siendo competitiva en tecnología central de IA – de ahí que haya adquirido una participación en Anthropic (para no depender únicamente del ecosistema OpenAI/Microsoft). En cuanto a apertura, Amazon no publica el código fuente de sus modelos principales, pero sí apoya a la comunidad open-source ofreciendo herramientas (como su asociación con Hugging Face para facilitar la ejecución de modelos en AWS). En materia regulatoria, Amazon no ha estado tan al frente en los debates de políticas, pero se puede inferir que prefiere una regulación flexible que no obstaculice la innovación en la nube. Cumplirá con cosas como el watermarking de modelos como parte de los compromisos con la Casa Blanca. El ángulo ligeramente único de Amazon es IA + hardware: diseñan chips (AWS Trainium e Inferentia) para reducir el costo de entrenamiento e inferencia en AWS. Esto es tanto un movimiento comercial (IA más barata para los clientes, atraerlos en lugar de las GPU de Nvidia) como potencialmente una medida de resiliencia si el suministro de GPU es limitado.
  • xAI de Elon Musk: Musk, quien cofundó OpenAI y luego se fue en 2018, volvió a entrar en la carrera con una nueva empresa, xAI, en 2023. Musk dijo que fundó xAI para construir “TruthGPT” o una IA “buscadora de la verdad” al máximo que “entienda la verdadera naturaleza del universo”. El planteamiento es un poco grandilocuente (resolver los misterios del cosmos), pero también apunta a los sesgos percibidos en ChatGPT de OpenAI. A Musk le preocupa que los modelos convencionales estén demasiado censurados o sean políticamente sesgados. También ha advertido repetidamente sobre el riesgo existencial de la IA, pidiendo una desaceleración; pero, ante la ausencia de esto, ha decidido crear su propia IA, presumiblemente más “confiable”. El equipo de xAI es pequeño, pero incluye a talentosos exalumnos de DeepMind, OpenAI, etc. Según se informa, están entrenando un modelo con datos de Twitter (ahora X) y otras fuentes. Musk tiene una ventaja de datos gracias a Twitter (si aprovecha todo el flujo de contenido de las redes sociales). Su visión de “búsqueda de la verdad” probablemente signifique una IA que no estará sujeta al tipo de filtros de contenido que usa OpenAI, y que podría ser más transparente en su razonamiento. Pero los detalles son escasos; xAI aún no ha lanzado un modelo. Musk sí sugirió que xAI colaboraría con Tesla (para IA en el mundo real) y X/Twitter (para una base de conocimiento computacional). Una preocupación: las empresas de Musk a menudo se combinan – ¿podrían converger los esfuerzos de IA de conducción autónoma de Tesla y la IA general de xAI? Posiblemente, ya que la conducción autónoma también necesita IA avanzada. El cronograma de Musk no está claro, pero dado su historial, xAI podría fracasar o de repente revelar un modelo grande que sorprenda a la industria. Filosóficamente, Musk se sitúa entre querer “máxima verdad/curiosidad” de la IA y temor al potencial de la IA para salirse de control. Ha abogado por la regulación (como una agencia “árbitro de la IA”), pero ahora también está construyendo lo que espera sea una AGI controlable para rivalizar con otras. En el debate más amplio, la participación de Musk asegura que el aspecto de guerra cultural (IA y sesgo político) siga siendo un tema candente – podría promocionar xAI como la “IA imparcial”, lo que podría atraer a cierto segmento de usuarios.
  • Stability AI y el Colectivo de Código Abierto: Stability AI (creador del modelo de imágenes Stable Diffusion) se convirtió en un referente de la IA generativa de código abierto. El CEO Emad Mostaque promueve la idea de que los modelos abiertos impulsan la innovación y reducen la dependencia de las grandes tecnológicas. Stability ayudó a financiar proyectos de modelos de texto abiertos (como el patrocinio al grupo EleutherAI, que creó GPT-J y otros). Lanzaron StableLM (un modelo de lenguaje) y están trabajando abiertamente en modelos de generación de música y video. Aunque los recursos de Stability son mucho menores que los de Google u OpenAI, su impacto ha sido desproporcionado en la IA de imágenes (el lanzamiento de Stable Diffusion provocó una explosión de herramientas creativas y también controversias sobre imágenes deepfake, problemas de derechos de autor, etc.). El enfoque de Mostaque es lanzar modelos con mínimas restricciones y dejar que la comunidad experimente, creyendo que los beneficios superan a los daños. A menudo argumenta que “no se puede regular el código abierto: encontrará la forma de salir, globalmente”. Esa tensión es clave: los modelos de código abierto filtrados eluden cualquier regulación nacional (como se vio con LLaMA de Meta). Stability y grupos similares (como EleutherAI, LAION en Alemania) están trabajando en modelos abiertos de próxima generación que podrían rivalizar en calidad con los cerrados, aunque con cierto retraso debido a menor capacidad de cómputo. Por ejemplo, el proyecto RedPajama recreó un conjunto de datos de entrenamiento de alta calidad (replicando el de LLaMA), y Mistral AI, una nueva startup de exingenieros de Meta, acaba de lanzar un modelo abierto de 7B que supera a LLaMA 2 13B, lo que indica un rápido progreso en el campo abierto. Estos esfuerzos abiertos reflejan un valor de transparencia y libertad, a veces en oposición directa a los llamados a un control estricto de la IA. Algunos académicos apoyan esto, argumentando que los modelos abiertos permiten la investigación independiente sobre la seguridad de la IA (no se puede estudiar un GPT-4 de caja negra tan fácilmente). En el debate social, esta facción dice que “la IA es como la información: quiere ser libre”, y tratar de contenerla es inútil y contraproducente.
  • Esfuerzos Globales y Gubernamentales: Cabe destacar que los gigantes tecnológicos de China (Baidu, Alibaba, Tencent, Huawei) han lanzado modelos grandes (Ernie Bot de Baidu, modelos Tongyi de Alibaba, etc.), que funcionan bien en tareas en chino y se están integrando en aplicaciones chinas. Mientras tanto, el gobierno chino implementó regulaciones (vigentes desde agosto de 2023) que exigen que los servicios de IA generativa se registren ante el estado y aseguren que el contenido se alinee con los valores socialistas y no “subvierta el poder estatal” ni altere el orden económico. Hicieron una excepción para el uso puramente de I+D. Esto significa que cualquier modelo de IA público en China está censurado por diseño; por ejemplo, preguntar a un chatbot chino sobre la Plaza de Tiananmen te dará una disculpa o evasiva. Empresas como Baidu destacan su alineación con las directivas estatales como una característica. Esto contrasta con las empresas estadounidenses, que, aunque moderan el contenido, no tienen una ideología prescrita por el gobierno (aparte de cosas generales como no dar consejos criminales, etc.). La competencia Este-Oeste en IA es intensa pero algo paralela: las empresas chinas se enfocan en su mercado (por el idioma y la barrera regulatoria), y las occidentales en el global (excepto China). Algunos expertos temen que si China alcanza la AGI primero y no la comparte, podría cambiar el poder geopolítico; por el contrario, el liderazgo chino teme la dominancia estadounidense (de ahí la enorme inversión estatal en IA). Esta dinámica fomenta una “mentalidad de carrera” a nivel internacional.
  • Mientras tanto, la UE está finalizando una Ley de IA que podría clasificar los sistemas de IA por nivel de riesgo e imponer requisitos (por ejemplo, transparencia sobre el contenido generado por IA, auditorías para sistemas de alto riesgo, quizás incluso exigir la divulgación de los datos de entrenamiento para los modelos fundacionales). Las grandes empresas están haciendo lobby al respecto: Altman de OpenAI inicialmente dijo que GPT-4 podría retirarse de la UE si las reglas eran demasiado estrictas; luego se retractó. En general, la industria prefiere la autorregulación + leyes específicas (como castigar el mal uso, no prohibir el desarrollo de modelos). Europa pone énfasis en la privacidad, la seguridad e incluso posiblemente en compensar a los creadores por los datos usados en el entrenamiento (un tema espinoso: Getty Images demandó a Stability AI por entrenar con imágenes con copyright sin permiso). Así que se están equilibrando los valores regulatorios de derechos individuales vs innovación. Si la ley de la UE se aprueba con disposiciones estrictas, las grandes empresas de IA tendrán que adaptarse (o geolocalizar ciertas funciones).
  • Académicos y organizaciones sin fines de lucro: No hay que olvidar que muchos fuera del ámbito corporativo están contribuyendo al diálogo. Figuras destacadas de la IA como Yoshua Bengio y Geoffrey Hinton (quien dejó Google en 2023 para poder hablar libremente sobre los riesgos de la IA) han expresado su preocupación por una IA sin control. Hinton dijo “Podría no faltar mucho para que la IA supere la inteligencia humana y no podamos controlarla”, y pidió investigar cómo mantener la IA bajo control en.wikipedia.org. Por otro lado, investigadores como Andrew Ng (exlíder de Google Brain) argumentan que “el miedo a una IA asesina está exagerado; el verdadero foco debe estar en el sesgo y la pérdida de empleos”. Organizaciones como el Center for AI Safety (CAIS) y el Future of Life Institute están activamente haciendo campaña para concienciar sobre los riesgos de la IA; este último organizó la famosa “carta de pausa” en marzo de 2023 pidiendo una pausa de 6 meses en el entrenamiento de modelos más allá del nivel de GPT-4, que fue firmada por Musk, Wozniak de Apple y otros. Ninguno de los grandes laboratorios detuvo su trabajo, pero la carta ciertamente generó debate pbs.org. Destacó una división: algunos creen que se necesita una moratoria o un límite global, mientras que las empresas en su mayoría no lo creen, prefiriendo moldear ellas mismas el desarrollo seguro.
  • Reacción pública: El público en general está tanto fascinado como inquieto. Por un lado, herramientas como ChatGPT tienen millones de usuarios entusiastas (estudiantes, programadores, profesionales) que las encuentran realmente útiles: la productividad ha aumentado, algunas tareas parecen más fáciles. Por otro lado, existe el temor a inundaciones de noticias falsas, estafas con deepfakes o, simplemente, la pérdida de empleos por la automatización. Una encuesta podría mostrar que la gente está emocionada de tener tutores de IA para sus hijos, pero ansiosa por el futuro laboral de sus hijos si la IA se vuelve demasiado capaz. Esto ha hecho que los políticos presten atención. En EE. UU., el Congreso realizó audiencias (con Altman, etc.), y la administración Biden reunió a directores ejecutivos de empresas de IA para obtener compromisos voluntarios. El Reino Unido organizará una Cumbre Global de Seguridad en IA a finales de 2025, intentando posicionarse como líder en gobernanza de IA. Todo esto apunta a que los gobiernos están empezando a involucrarse, aunque van por detrás de la tecnología.

Los debates sociales en torno a la seguridad, el control y la transparencia de la IA enfrentan preocupaciones válidas entre sí:

  • Seguridad vs Innovación: ¿Deberíamos desacelerar para evaluar e implementar salvaguardas (para evitar una posible catástrofe o caos social), o avanzar para cosechar beneficios y no dejar que rivales (o actores malintencionados) tomen la delantera? OpenAI y otros proponen desacelerar en niveles de capacidad muy altos, pero no todavía; argumentan que los modelos actuales no son una amenaza de extinción y que más uso lleva a más aprendizaje sobre cómo hacerlos seguros. Los críticos temen que, para cuando sean una amenaza obvia, podría ser demasiado tarde para frenar (el clásico escenario de “la IA podría mejorarse rápidamente y escapar al control”). Esta dinámica es similar a la tecnología nuclear: ¿desarrollas la bomba antes que el enemigo para tener ventaja, o intentas negociar una prohibición? Ahora mismo, es una carrera armamentista con algunas conversaciones sobre control de armas comenzando, pero nadie está haciendo una pausa.
  • Apertura vs Seguridad: Como se ha discutido extensamente, ¿deberían los modelos de IA ser de código abierto para transparencia y acceso igualitario, o cerrados para prevenir el mal uso y permitir un despliegue controlado? Vemos que las empresas adoptan diferentes enfoques, e incluso dentro de las empresas hay matices (OpenAI liberó modelos más pequeños como Whisper para voz, pero no GPT-4). Un posible compromiso es “ciencia abierta, producto cerrado”: compartir conocimientos, no los pesos. Pero los defensores del código abierto creen que eso no es suficiente; quieren los modelos reales para que la sociedad no dependa de unas pocas corporaciones para las capacidades de IA. El resultado aquí afectará significativamente quién puede innovar: si los futuros modelos principales son todos cerrados, solo las grandes empresas y gobiernos con recursos podrán avanzar la frontera. Si los modelos abiertos prosperan, entonces un laboratorio universitario o una startup pueden contribuir significativamente, lo que democratiza el progreso.
  • Presión comercial vs Uso ético: Las empresas necesitan monetizar la IA para justificar la inversión. Eso significa desplegarla ampliamente, lo que aumenta la posibilidad de mal uso o consecuencias no intencionadas. Por ejemplo, lanzar una IA que puede generar texto muy humano puede permitir a spammers o propagandistas crear ejércitos falsos en redes sociales. Las empresas intentan construir filtros (OpenAI entrenó a GPT-4 para rechazar solicitudes de persuasión política, por ejemplo). Pero el juego del gato y el ratón de jailbreaks y mal uso continúa. Así que hay debate: ¿deberían retenerse ciertas capacidades? Por ejemplo, OpenAI inicialmente no lanzó ampliamente el componente de descripción de imágenes de GPT-4 debido al posible mal uso (como identificar personas en fotos). Algunos dicen que puede ser necesario retener o limitar capacidades extremadamente peligrosas (como modelos de investigación biológica que podrían encontrar recetas de toxinas). Pero, ¿dónde trazar la línea y quién decide? Aquí es donde la política gubernamental podría intervenir con aplicaciones “permitidas vs prohibidas”.
  • Transparencia: Hay llamados a la “transparencia en IA”, es decir, que las empresas deberían revelar cuándo el contenido es generado por IA (marcado de agua), los modelos deberían explicar su razonamiento (IA interpretable) y, quizás, las fuentes de los datos de entrenamiento deberían ser públicas. Desde una perspectiva social, la transparencia ayuda a la rendición de cuentas (por ejemplo, si una IA usó datos pirateados, ¿deberíamos saberlo? Si recomienda negar un préstamo, debería explicar por qué). Los grandes laboratorios están trabajando en métodos de marcado de agua para las salidas de los modelos (OpenAI tiene algunos prototipos) y en herramientas de explicabilidad. Pero aún falta mucho para lograr redes profundas realmente interpretables. Un concepto emergente es el de “tarjetas de modelo” y “hojas de datos”: documentación sobre los usos previstos de un modelo, sus límites y la composición de los datos de entrenamiento. Google, OpenAI, Meta publican algo similar para sus modelos. Aun así, eso no siempre satisface a los críticos que quieren información más cruda (por ejemplo, artistas que quieren saber si sus obras estuvieron en el conjunto de entrenamiento). En Europa, la Ley de IA podría obligar a una mayor divulgación de los datos de entrenamiento, algo a lo que las empresas se resisten porque podría revelar secretos comerciales o violar leyes de privacidad si los datos contienen información personal.
  • Desplazamiento laboral e impacto económico: Más allá de las discusiones existenciales, un tema social urgente es la automatización. Modelos como GPT-4 ahora pueden escribir código, redactar contratos legales, producir textos de marketing: tareas realizadas por trabajadores calificados. Hay debate: ¿la IA aumentará a los trabajadores humanos (haciéndolos más productivos y generando nuevos empleos), o reemplazará muchos roles de oficina (llevando al desempleo o a la necesidad de recapacitación masiva)? Los directores ejecutivos de tecnología suelen adoptar un tono optimista de que la IA liberará a las personas de tareas tediosas para que se centren en trabajos de mayor nivel. Sam Altman incluso ha sugerido que los gobiernos podrían considerar la RBU (Renta Básica Universal) en una economía impulsada por IA, pero que “aún no estamos cerca de eso”. Sin embargo, el CEO de IBM dijo a mediados de 2023 que pausarían la contratación para ciertos trabajos administrativos porque la IA podría hacerlos, anticipando que hasta un 30% podrían automatizarse en 5 años. Estas señales mixtas preocupan a las sociedades sobre una posible agitación económica. Esto presiona a los responsables políticos para abordar la recapacitación y quizás la redistribución de la riqueza generada por la IA. Las empresas son algo conscientes: Microsoft y Google tienen fondos para educación en IA e iniciativas de IA para el bien, tratando de mostrar una imagen responsable.

En resumen, tenemos un ecosistema de IA vibrante y multifacético en 2025: colaborativo pero competitivo, con objetivos superpuestos de innovación y creación de riqueza, pero con filosofías divergentes sobre cómo llegar allí y cómo manejar los riesgos.

Los gigantes de la IA – OpenAI, Anthropic, Google DeepMind, Meta, Microsoft, Amazon – comparten la creencia de que una IA cada vez más inteligente será transformadora, “como una nueva revolución industrial”. Hablan de manera uniforme sobre los aspectos positivos: curar enfermedades, aumentar la productividad, personalizar la educación, ayudar en la investigación climática; esencialmente, usar la IA como una herramienta para amplificar la capacidad humana. También reconocen, al menos de palabra, que hay riesgos serios que mitigar: desde problemas inmediatos como el sesgo o el mal uso hasta cuestiones existenciales a largo plazo. Donde difieren es en la estrategia (abierto vs cerrado, rápido vs cauteloso) y en cuánto valor otorgan a ciertos principios (por ejemplo, Meta en apertura, Anthropic en seguridad, etc.).

Ninguna empresa o país por sí solo puede dictar la trayectoria de la IA; es un esfuerzo global y social. Por ello, vemos crecientes llamados a la colaboración en seguridad – incluso OpenAI y Meta, a pesar de sus diferencias, firmaron la idea de algún tipo de estándares de seguridad. El Frontier Model Forum (OpenAI, Anthropic, Google, Microsoft) es uno de esos intentos de autorregulación de la industria.

Conclusión: Convergencia y Divergencia en el Camino hacia la AGI

La carrera por construir una IA cada vez más general y poderosa ya comenzó, pero no es una simple competencia de suma cero: se parece más a un maratón con muchos corredores que ocasionalmente intercambian notas sobre la ruta. OpenAI, Anthropic, Google DeepMind, Meta, Microsoft, Amazon y otros aportan cada uno filosofías y fortalezas únicas a la mesa:

  • OpenAI es el pionero audaz, que lleva al límite la escala y la capacidad, mientras aboga por una supervisión cuidadosa y se alinea con un gran patrocinador tecnológico para distribuir sus creaciones. Encapsula la dualidad de la ambición y la ansiedad respecto a la AGI: desarrolla modelos avanzados rápidamente, pero advierte al mundo sobre sus peligros y urge a la gobernanza. El trabajo de OpenAI ha impulsado un enorme progreso y ha obligado incluso a gigantes como Google a reaccionar, mostrando cómo una startup enfocada (aunque ahora fuertemente financiada) puede alterar el establecimiento.
  • Anthropic es como el hermano consciente: igual de hábil en la magia de la IA, pero decidido a “hacerlo bien.” Su ética es que la seguridad es un requisito previo, no una ocurrencia tardía. Las contribuciones de Anthropic en alineación (como la IA Constitucional) están influyendo en todo el campo; incluso OpenAI incorporó más retroalimentación humana y algunas directrices basadas en reglas para GPT-4, lo que podría verse como una evolución convergente con el enfoque de Anthropic. Anthropic también demuestra que los valores pueden atraer financiación: empresas e inversores preocupados por el dominio de una sola firma o por los riesgos de la IA ven a Anthropic como un contrapeso y han apostado fuerte por ella. A largo plazo, el legado de Anthropic puede estar tanto en cómo entrenar modelos responsablemente como en los propios modelos.
  • Google DeepMind representa la potencia de la excelencia investigadora y los recursos. Con décadas de investigación colectiva, es la bóveda del conocimiento de IA que ahora se orienta hacia productos tangibles. El enfoque pragmático pero científico de Google podría dar lugar a la primera AGI verdaderamente multimodal (Gemini). Si lo logra, el reto de Google será desplegarla de manera que potencie sus productos principales sin causar consecuencias no deseadas (como dañar la confianza en los servicios fiables de Google). La integración de DeepMind en Google también resalta un patrón en esta carrera: la consolidación. Los grandes actores están absorbiendo talento y laboratorios más pequeños (vimos a Google absorber la independencia de DeepMind; Facebook adquiriendo startups como Scape para IA; Microsoft contratando esencialmente la producción de OpenAI). Esto plantea la pregunta: ¿se logrará la AGI mediante unos pocos esfuerzos concentrados, o por una comunidad más descentralizada? Actualmente, la concentración parece estar ganando debido a las necesidades de cómputo, pero los proyectos abiertos les pisan los talones.
  • Meta se ha posicionado como la defensora de la apertura y el acceso amplio, lo que podría significar que la IA se vuelva ubicua más rápido y de manera más equitativa; o, como temen los críticos, podría significar que la IA poderosa se propague sin suficientes salvaguardas. La apuesta de Meta es que los beneficios de la innovación y el escrutinio colaborativos superarán los inconvenientes. Curiosamente, en los últimos meses, vemos indicios de convergencia: OpenAI está hablando de modelos más pequeños de código abierto; Meta reconoce que no todo puede ser completamente abierto. Quizás el futuro sea una mezcla: la investigación fundamental y tal vez los modelos de generaciones anteriores abiertos, y las implementaciones de vanguardia protegidas hasta que se consideren seguras.
  • Microsoft y Amazon demuestran que la comercialización y aplicación de la IA es tan crucial como la construcción de modelos. Su integración de la IA en plataformas en la nube y software cotidiano es la forma en que los beneficios de la IA realmente llegarán a las personas y las industrias. También enfatizan un valor que a menudo se discute poco: fiabilidad y soporte. Las empresas elegirán una IA un poco menos “creativa” pero confiable, segura y con soporte, en lugar de una más poderosa pero impredecible. Así, los servicios de IA de nivel empresarial de Microsoft y AWS, con límites y cumplimiento normativo, están dando forma al despliegue de la IA en los negocios. Un banco o un hospital podría optar por Azure OpenAI Service usando GPT-4 con funciones de registro y privacidad, en lugar de un modelo abierto de internet, incluso si son comparables en habilidad.
  • Otros (xAI de Musk, Stability, etc.) aseguran que filosofías disidentes sigan presentes, ya sea persiguiendo la “verdad” por encima de la corrección política o abriendo todo el código como cuestión de principio. Actúan tanto como contrapunto como complemento de los grandes actores. Si los grandes laboratorios se vuelven demasiado cautelosos o monopolísticos, estos jugadores más pequeños o ideológicos pueden irrumpir lanzando algo revolucionario de forma abierta (por ejemplo, si alguien liberara mañana un modelo al nivel de GPT-4, alteraría drásticamente el panorama).

De cara al futuro, podemos esperar algunas tendencias comunes:

  1. Multimodalidad y uso de herramientas: Todas las empresas están trabajando en IA que no solo conversa en el vacío, sino que puede ver, oír, actuar e interactuar con software. Google está integrando capacidades de búsqueda y visuales, OpenAI le dio visión a GPT-4 y planea plugins, Meta tiene generación de imágenes/video. Las líneas entre un chatbot, un asistente personal y un agente de software especializado se difuminarán.
  2. Escalado y eficiencia: La frontera seguirá avanzando, posiblemente hacia modelos de billones de parámetros o nuevas arquitecturas que rompan los límites actuales de escalado (como MoE o chips neuromórficos). Pero, al mismo tiempo, hay énfasis en hacer que los modelos funcionen de forma económica y local. LLaMA de Meta demostró que un modelo de 13B puede hacer mucho; ahora la gente ejecuta modelos ajustados de 7B en teléfonos inteligentes. Esta democratización a través de la eficiencia continuará, asegurando que no solo los gigantes de la nube tengan el poder de la IA.
  3. I+D en Seguridad y Alineación: Se espera que más fondos y talento se destinen a la investigación en alineación (algunos de los principales científicos de IA están cambiando su enfoque hacia esto). El equipo de superalineación de OpenAI, el equipo de alineación de DeepMind, la misión central de Anthropic: todos producirán nuevas técnicas (quizás usando IA para ayudar a alinear IA, como auditorías automatizadas o entrenar IA en valores humanos con un sesgo mínimo). También podrían definir referencias de evaluación para capacidades peligrosas. Ya se están desarrollando “suites de pruebas de seguridad de IA” (por ejemplo, para probar si un modelo puede autorreplicarse o eludir sus propias barreras de seguridad). Una evaluación acordada podría usarse como una especie de prueba de choque para autos: una agencia independiente podría algún día certificar un modelo como seguro para su despliegue público si pasa ciertas pruebas.
  4. Política y Autorregulación: A corto plazo, la autorregulación voluntaria (como el Frontier Model Forum y los compromisos con la Casa Blanca) jugará un papel. A mediano plazo, probablemente entrarán en vigor regulaciones formales en la UE (y quizás el proceso del Reino Unido, etc.), y las empresas se adaptarán a nivel global. No sería sorprendente que para 2026 tengamos algo como una serie internacional de conferencias sobre seguridad en IA y quizás las semillas de un organismo global de supervisión (el Secretario General de la ONU ha pedido uno). Las empresas apoyan públicamente este enfoque: Altman, Hassabis y otros se reunieron en Washington D.C. y Europa para discutir estos marcos. La clave será asegurarse de que la regulación sea ágil – no congelar la IA en la tecnología de 2025, sino crear mecanismos para gestionar los riesgos a medida que la IA evoluciona.
  5. Adaptación Pública: La sociedad en general comenzará a adaptarse a la ubicuidad de la IA. Los sistemas educativos, por ejemplo, están lidiando con estudiantes que usan ChatGPT para las tareas. Algunas escuelas lo prohibieron, otras lo están integrando en los planes de estudio. Los mercados laborales cambiarán: han surgido empleos de ingeniería de prompts y supervisión de IA, y trabajadores de varios campos están aprendiendo a colaborar con la IA (tratándola como colega o copiloto). Es probable que aumente la demanda de alfabetización en IA entre el público general, y quizás certificación para profesionales que usen IA en áreas de alto riesgo (como médicos usando diagnósticos de IA). Las empresas podrían ayudar proporcionando recursos educativos o directrices de uso de IA (OpenAI tiene algunas, Microsoft publicó “El Estándar de IA Responsable” para desarrolladores).

En conclusión, la búsqueda de construir una AGI o algo cercano ya no es una idea marginal de ciencia ficción, sino la ambición central de las mayores empresas tecnológicas del mundo. Cada una intenta imprimir sus valores en este futuro: OpenAI el valor de beneficio amplio y cautela, Anthropic el valor de seguridad y ética, Google el valor de innovación con responsabilidad, Meta el valor de apertura y colaboración, Microsoft/Amazon el valor de utilidad práctica y accesibilidad. Sus estrategias a veces entran en conflicto, pero curiosamente, sus objetivos finales no son mutuamente excluyentes: en última instancia, todos querrían ver una IA que sea extremadamente capaz y segura y ampliamente beneficiosa (y, por supuesto, beneficiosa para sus resultados financieros).

Es muy posible que veamos convergencia en ciertas mejores prácticas (por ejemplo, un consenso sobre no conectar una AGI a internet sin restricciones, o sobre compartir cierta investigación de seguridad incluso si los modelos siguen siendo propietarios). Aún habrá divergencia en estilo y filosofía, lo cual es saludable, ya que proporciona una especie de diversificación de enfoques (una monocultura en IA podría ser riesgosa si ese único enfoque tiene una falla fatal).

A medida que estas empresas construyen una IA más poderosa, el diálogo entre ellas y la sociedad se intensificará. Se buscará un equilibrio donde se aproveche el inmenso potencial de la IA mientras se minimizan sus daños. Es un poco como aprovechar el fuego: demasiado útil para extinguirlo, demasiado peligroso para dejarlo sin control. Y al igual que el fuego, diferentes culturas lo trataron de manera diferente al principio, pero eventualmente surgieron estándares (como los códigos de incendios) y una sabiduría compartida.

Por ahora, estamos presenciando un momento notable en la historia de la tecnología. Dentro de décadas, la gente podría mirar hacia atrás a 2023-2025 como el punto de inflexión cuando la IA pasó de ser una promesa de laboratorio a una realidad omnipresente, y cuando sentamos las bases (o tropezamos, dependiendo de los resultados) de cómo las máquinas verdaderamente inteligentes coexistirán con la humanidad. Los valores y decisiones de las empresas de IA de hoy – la apertura de Meta, la prioridad en la seguridad de Anthropic, la rápida escalabilidad de OpenAI, la minuciosidad de DeepMind, y así sucesivamente – influirán significativamente en esa trayectoria.

A septiembre de 2025, la guía de “qué están construyendo las empresas de IA” parece un quién es quién de los titanes tecnológicos modernos y sus filosofías. No solo están construyendo algoritmos – en efecto, están intentando construir una nueva forma de inteligencia. Cada una intenta asegurar que, cuando esa inteligencia surja, refleje su visión de lo que debería ser. Y como hemos explorado, esas visiones, aunque coinciden en muchas esperanzas, también varían de maneras intrigantes e importantes.

(Esta respuesta se basa en información de fuentes como The New York Times, Wired, MIT Technology Review, Bloomberg, blogs oficiales de las empresas y otros comentarios de expertos hasta 2025. Dado el rápido ritmo de la IA, algunos detalles pueden evolucionar, pero las estrategias y filosofías comparativas aquí expuestas ofrecen una instantánea del estado de los principales actores de la industria de la IA y los debates que los rodean.)

Fuentes:

  • New York Times – “What Exactly Are A.I. Companies Trying to Build? Here’s a Guide.” (2025) startupnews.fyi
  • New York Times – “In Pursuit of Godlike Technology, Mark Zuckerberg Amps Up the A.I. Race” (junio 2025)
  • TechRepublic – “Meta’s Tumultuous AI Era May Leave Llama Behind…” (junio 2025)
  • Time – “Demis Hassabis on AI in the Military and What AGI Could Mean for Humanity” (2025)
  • OpenAI – “Planning for AGI and Beyond” (OpenAI blog, 2023)
  • OpenAI – “Governance of Superintelligence” (OpenAI blog, 2023)
  • Center for AI Safety – “Statement on AI Risk” (2023) safe.ai
  • Medium – “The Zuckerberg-LeCun AI Paradox” (agosto 2025)
  • Andy Jassy (CEO de Amazon) – “Message…: Some thoughts on Generative AI” (junio 2025)
  • Entrevista a Andy Jassy – (Aboutamazon.com, 2023)
  • Comentarios de Reddit sobre la IA de código abierto de Meta (2023)
  • TechCrunch – “Elon Musk lanza xAI… ‘entender la verdadera naturaleza del universo’” (2023)
  • Wired – “La IA fuera de control es un riesgo de extinción, advierten expertos” (2023) wired.com (contexto general)
  • Bloomberg – varios reportes sobre la guerra de talento en IA e inversiones.
Artificial General Intelligence (AGI) Simply Explained
Battle of the Adventure Smartwatches: Apple Watch Ultra 3 vs. Garmin Fenix 8 Pro – Which Reigns Supreme?
Previous Story

Duelo de Smartwatches 2025: Apple Watch Ultra 3 vs. Garmin Fenix 8 Pro vs. Samsung Galaxy Watch Ultra

Go toTop