El Camino Hacia la AGI

De ensoñaciones matemáticas a modelos con billones de parámetros — las ideas, invenciones y naciones que moldean la larga marcha hacia la Inteligencia Artificial General.

Bots Descontrolados Regulaciones de IA Avances de IA IA y Empleos Ciencia por IA Camino Hacia la AGI Noticias Semanales
Teoría
Ingeniería
País / Institución
Frontera / Adyacente a AGI

Fundamentos — 1936 – 1969

🇬🇧 1936 Teoría

Alan Turing Define la Computación

El matemático británico Alan Turing publicó "Sobre Números Computables", introduciendo el concepto de una máquina universal que podría simular cualquier computación. Este marco teórico sentó las bases matemáticas para cada computadora y cada sistema de IA que vendría después.

Estableció que una sola máquina podría, en principio, realizar cualquier computación — el antepasado filosófico de la idea de que una máquina podría pensar de forma general.

🇬🇧 1950 Teoría

Turing Propone el Juego de la Imitación

Turing publicó "Computing Machinery and Intelligence", planteando la pregunta "¿Pueden pensar las máquinas?" y proponiendo una prueba práctica (ahora llamada Prueba de Turing) para evaluar la inteligencia de las máquinas. Predijo que para el año 2000 las máquinas engañarían a los jueces humanos el 30% de las veces.

Le dio al mundo su primer benchmark concreto para la inteligencia de las máquinas y enmarcar el desafío de la AGI como una pregunta científica en lugar de una filosófica.

🇺🇸 1956 USA — Dartmouth

El Taller de Dartmouth — Nace la IA

John McCarthy, Marvin Minsky, Nathaniel Rochester y Claude Shannon organizaron el Proyecto de Investigación de Verano de Inteligencia Artificial de Dartmouth. El taller acuñó el término "inteligencia artificial" y estableció la IA como una disciplina académica distintiva. McCarthy luego fundó el Laboratorio de IA de Stanford.

Creó el marco institucional e intelectual para la investigación en IA, reuniendo a la generación fundadora cuyos estudiantes dominarían el campo durante décadas.

🇺🇸 1957 Ingeniería

Frank Rosenblatt Construye el Perceptrón

En Cornell, Frank Rosenblatt construyó el Perceptrón Mark I, la primera máquina que podría aprender de ejemplos. Financiada por la Marina de los EE.UU., era una red neuronal de hardware que aprendía a clasificar patrones visuales simples usando pesos adaptativos.

Probó que las máquinas podían aprender, no solo seguir reglas — la semilla de la que brotaría todo el aprendizaje profundo moderno.

🇺🇸 1958 Teoría

McCarthy Inventa LISP

John McCarthy en MIT creó LISP (List Processing), un lenguaje de programación construido sobre cálculo lambda con características como recursión, tipado dinámico y recolección de basura. Se convirtió en el lenguaje estándar para la investigación en IA durante los próximos tres décadas.

Dio a los investigadores de IA una herramienta lo suficientemente poderosa para expresar el razonamiento simbólico, permitiendo la primera ola de sistemas expertos e IA basada en conocimiento.

🇺🇸 1966 Ingeniería

ELIZA — El Primer Chatbot

Joseph Weizenbaum en MIT creó ELIZA, un simple programa de búsqueda de patrones que simulaba un psicoterapeuta. A pesar de no usar comprensión real, muchos usuarios se sintieron emocionalmente unidos a él, revelando la disposición de la humanidad a atribuir inteligencia a las máquinas.

Demostró el "efecto ELIZA" — la tendencia de los humanos a ver inteligencia profunda en sistemas simples — un fenómeno que sigue moldeando el diseño de productos de IA y la percepción pública hoy.

🇺🇸 1969 Teoría

Minsky & Papert Publican "Perceptrons"

Marvin Minsky y Seymour Papert publicaron "Perceptrons", un análisis matemático que probaba que los perceptrones de capa única no podían aprender ciertas funciones (como XOR). El libro fue ampliamente interpretado como un golpe fatal para la investigación de redes neuronales.

Desencadenó el primer "invierno de IA" para redes neuronales, empujando la financiación y la atención hacia la IA simbólica durante más de una década — pero las limitaciones que identificaron también apuntaban hacia la solución multicapa.

Sistemas de Conocimiento e Inviernos de IA — 1970 – 1992

🇬🇧 1973 UK — Informe Lighthill

El Informe Lighthill Desencadena el Primer Invierno de IA

El matemático británico James Lighthill publicó un devastador informe encargado por el gobierno que concluía que la IA había fracasado en cumplir sus promesas. El gobierno del Reino Unido cortó casi toda la financiación en IA, y el informe influyó en los financiadores en todo el mundo.

Probó que la evaluación de un solo país podría remodelar las prioridades de investigación global — la financiación de IA colapsó en Europa y se desaceleró en EE.UU. durante la mayor parte de los años 70.

🇺🇸 1980 Teoría

Argumento de la Habitación China de John Searle

El filósofo John Searle en UC Berkeley propuso el experimento mental de la Habitación China, argumentando que una computadora manipulando símbolos según reglas no "entiende" realmente nada. El argumento cuestionaba si la IA que procesa símbolos podría alguna vez lograr una inteligencia genuina.

Se convirtió en el argumento filosófico más debatido contra la IA fuerte, obligando a los investigadores a aclarar qué significan realmente "inteligencia" y "comprensión" — un debate que se intensifica con cada nuevo modelo de frontera.

🇯🇵 1982 Japan — Quinta Generación

Proyecto Japonés de Computadoras de Quinta Generación

El Ministerio de Comercio Internacional e Industria de Japón (MITI) lanzó el proyecto Quinta Generación de Sistemas Informáticos, una iniciativa nacional de $400 millones para construir computadoras inteligentes usando programación lógica y procesamiento paralelo. Tenía como objetivo lograr IA conversacional y razonamiento experto dentro de una década.

Desencadenó una carrera global por la IA — EE.UU. lanzó la Iniciativa de Computación Estratégica y el Reino Unido comenzó el Programa Alvey en respuesta directa. Aunque el proyecto no alcanzó sus objetivos, demostró cómo la ambición nacional podría movilizar la investigación en IA a escala.

🇺🇸 1986 Ingeniería

Retropropagación Revive las Redes Neuronales

David Rumelhart, Geoffrey Hinton y Ronald Williams publicaron un método claro y práctico para entrenar redes neuronales multicapa usando retropropagación de errores. Aunque el algoritmo había sido descubierto antes, este artículo demostró que podía aprender representaciones internas útiles.

Resolvió la limitación que Minsky y Papert habían identificado — las redes multicapa ahora podían aprender XOR y mucho más. Este único artículo reavivó la investigación en redes neuronales y estableció el escenario para el aprendizaje profundo.

🇺🇸 1988 Teoría

Paradoja de Hans Moravec

El robotista Hans Moravec en Carnegie Mellon articuló lo que se conocería como la Paradoja de Moravec: el razonamiento de alto nivel (ajedrez, lógica) es computacionalmente barato para las máquinas, pero las habilidades sensoriomotoras de bajo nivel (caminar, atrapar una pelota) son enormemente difíciles. "Es comparativamente fácil hacer que las computadoras muestren un desempeño a nivel de adulto en pruebas de inteligencia, y difícil darles las habilidades de un niño de un año".

Reveló que la AGI requeriría resolver la inteligencia encarnada, no solo el razonamiento abstracto — una lección que las comunidades de robótica e IA multimodal siguen procesando hoy.

🇺🇸 1989 Teoría

Redes Neuronales Convolucionales de Yann LeCun

Yann LeCun en Bell Labs demostró que las redes neuronales convolucionales (CNN) entrenadas con retropropagación podían reconocer dígitos escritos a mano con alta precisión. El sistema fue desplegado comercialmente para leer códigos ZIP en el correo de EE.UU.

Probó que las redes neuronales podían resolver problemas comerciales reales — y que la arquitectura correcta adaptada a los datos correctos podía superar las soluciones diseñadas manualmente.

🇺🇸 1991 Teoría

Hochreiter Identifica el Problema del Gradiente Desvaneciente

La tesis de diploma de Sepp Hochreiter (supervisada por Jürgen Schmidhuber en Munich) identificó formalmente el problema del gradiente desvaneciente — la razón matemática por la que las redes neuronales profundas estaban fracasando en aprender. Los gradientes se encogían exponencialmente a través de capas, haciendo el entrenamiento más allá de algunas capas impráctica.

Diagnosticar la enfermedad fue el primer paso para curarla. Este trabajo llevó directamente a redes LSTM y más tarde a las innovaciones arquitectónicas (conexiones residuales, normalización) que hicieron posible el aprendizaje profundo moderno.

Máquinas de Aprendizaje — 1997 – 2012

🇺🇸 1997 Ingeniería

Deep Blue Derrota a Garry Kasparov

Deep Blue de IBM derrotó al campeón mundial de ajedrez Garry Kasparov en un match de seis juegos. El sistema usó búsqueda de fuerza bruta evaluando 200 millones de posiciones por segundo, combinado con funciones de evaluación ajustadas manualmente y un libro de aperturas elaborado por grandes maestros.

Mostró al mundo que las máquinas podían superar a las mejores mentes humanas en tareas estratégicas complejas — pero también destacó que la computación bruta sin aprendizaje era un callejón sin salida para la inteligencia general.

🇩🇪 / 🇨🇭 1997 Teoría

Redes LSTM Resuelven Dependencias de Largo Alcance

Sepp Hochreiter y Jürgen Schmidhuber publicaron Long Short-Term Memory (LSTM), una arquitectura de red neuronal recurrente con celdas de memoria controladas que podían aprender a almacenar, recuperar y olvidar información en secuencias largas. Desarrollada entre Munich y Suiza.

Resolvió el problema del gradiente desvaneciente para secuencias, permitiendo avances en reconocimiento de voz, traducción automática y predicción de series temporales — la arquitectura de secuencias dominante hasta que llegaron los transformadores 20 años después.

🇨🇦 2004 Canada — CIFAR

Canadá Apuesta por Redes Neuronales Cuando Nadie Más Lo Haría

El Instituto Canadiense de Investigación Avanzada (CIFAR) lanzó su programa Computación Neuronal y Percepción Adaptativa, proporcionando financiación sostenida a Geoffrey Hinton, Yoshua Bengio y Yann LeCun cuando la investigación en redes neuronales era profundamente impopular. Esta "Mafia Canadiense" ganaría el Premio Turing 2018.

Demostró que la inversión paciente de un pequeño país en ciencia impopular podría remodelar un campo entero. Canadá se convirtió en el lugar de nacimiento del aprendizaje profundo moderno, y los tres investigadores que financió se convirtieron en los "padrinos de la IA".

🇨🇦 2006 Ingeniería

Hinton Resuelve el Aprendizaje Profundo con Preentrenamiento

Geoffrey Hinton en la Universidad de Toronto publicó un método revolucionario para entrenar redes neuronales profundas usando preentrenamiento no supervisado capa por capa seguido de ajuste fino. Por primera vez, las redes con muchas capas podían ser entrenadas de manera efectiva.

Lanzó la revolución del aprendizaje profundo. El título del artículo — "A Fast Learning Algorithm for Deep Belief Nets" — acuñó el término que definiría las próximas dos décadas de IA.

🇺🇸 2009 Ingeniería

Fei-Fei Li Crea ImageNet

La profesora de Stanford Fei-Fei Li y su equipo publicaron ImageNet, un conjunto de datos de 14 millones de imágenes etiquetadas manualmente en más de 20,000 categorías. La competencia anual asociada (ILSVRC) se convirtió en el benchmark que impulsó la visión por computadora hacia adelante.

Probó que los datos a escala eran tan importantes como los algoritmos — una lección que definiría toda la trayectoria hacia la AGI. Las competiciones de ImageNet se convirtieron en la arena donde el aprendizaje profundo se demostró a sí mismo.

🇺🇸 2011 USA — Silicon Valley

Se Funda Google Brain

Jeff Dean y Andrew Ng lanzaron Google Brain, un proyecto de investigación en aprendizaje profundo dentro de Google. Usando 16,000 núcleos de CPU en 1,000 máquinas, el equipo entrenó una red neuronal que aprendió a detectar gatos en videos de YouTube sin que le dijeran qué era un gato — aprendizaje de características no supervisadas a escala.

Marcó el momento en que la Gran Tecnología se dio cuenta de que el aprendizaje profundo no era curiosidad académica sino una tecnología central. Google, Facebook y otros comenzaron a construir enormes laboratorios de investigación en IA, desplazando el centro de gravedad de las universidades a las corporaciones.

🇨🇦 2012 Ingeniería

AlexNet Gana ImageNet — El "Big Bang" del Aprendizaje Profundo

Alex Krizhevsky, Ilya Sutskever y Geoffrey Hinton en la Universidad de Toronto entrenaron AlexNet, una red neuronal convolucional profunda, en GPUs. Ganó la competencia de ImageNet con una tasa de error top-5 del 15.3% — aplastando al segundo clasificado con un 26.2%. El margen de victoria fue sin precedentes.

El momento más importante en la IA moderna. Probó que redes profundas + GPUs + datos masivos podrían demoler los enfoques tradicionales. Cada empresa importante de IA rastrea su estrategia actual hasta este resultado.

La Explosión del Aprendizaje Profundo — 2013 – 2019

🇬🇧 2014 UK — DeepMind

Google Adquiere DeepMind por $500M

Google adquirió DeepMind Technologies con sede en Londres por aproximadamente $500 millones. Fundada por Demis Hassabis, Shane Legg y Mustafa Suleiman, la misión explícita de DeepMind era "resolver la inteligencia". La adquisición reunió la infraestructura de Google con la experiencia en aprendizaje por refuerzo de DeepMind.

Señaló que las empresas más valiosas del mundo ahora veían la AGI como un objetivo de ingeniería realista, no ciencia ficción. El laboratorio de Londres de DeepMind se convirtió en uno de los centros de investigación de IA más importantes del planeta.

🇨🇦 2014 Teoría

Goodfellow Inventa Redes Antagónicas Generativas

Ian Goodfellow en la Universidad de Montreal inventó las GANs — un marco donde dos redes neuronales compiten, una generando datos y otra juzgándola. Se dice que la idea le vino durante una conversación en un bar. Las GANs se convirtieron en el modelo generativo dominante durante media década.

Dio a las máquinas la capacidad de crear, no solo clasificar — una capacidad fundamental para cualquier sistema que aspire a inteligencia general.

🇬🇧 2016 Ingeniería

AlphaGo Derrota a Lee Sedol

AlphaGo de DeepMind derrotó al campeón mundial de Go Lee Sedol 4-1 en Seúl. Go tiene más posiciones posibles que átomos en el universo, haciendo imposible la búsqueda de fuerza bruta. AlphaGo combinó redes neuronales profundas con búsqueda de árbol Monte Carlo para desarrollar un juego intuitivo y similar al humano.

Probó que la IA podía dominar dominios que requieren intuición y creatividad, no solo cálculo. La jugada 37 en el Juego 2 — una jugada que ningún humano jugaría — demostró creatividad genuina de máquina.

🇺🇸 2017 Teoría

"La Atención Es Todo Lo Que Necesitas" — El Transformador

Ocho investigadores en Google (Vaswani, Shazeer, Parmar, Uszkoreit, Jones, Gomez, Kaiser y Polosukhin) publicaron la arquitectura del transformador, reemplazando completamente la recurrencia con mecanismos de autoatención. El título engañosamente simple del artículo ocultaba su impacto revolucionario.

Creó la base arquitectónica para GPT, BERT, PaLM, Claude, LLaMA y cada otro modelo de lenguaje grande. Sin este artículo, el camino actual hacia la AGI no existiría.

🇨🇳 2017 China — Estrategia Nacional

China Publica su "Plan de Desarrollo de IA de Nueva Generación"

El Consejo de Estado de China lanzó una estrategia nacional con el objetivo de hacer que China sea líder mundial en IA para 2030, con una industria de IA nacional valorada en $150 mil millones. El plan comprometía financiación masiva del gobierno, designaba campeones nacionales de IA (Baidu, Alibaba, Tencent, iFlytek, SenseTime) e integraba la IA en la educación en todos los niveles.

Convirtió el desarrollo de la IA en una carrera geopolítica explícita. La competencia EE.UU.-China en IA que define los años 2020 se remonta directamente a este documento.

🇬🇧 2017 Ingeniería

AlphaZero Aprende Ajedrez, Go y Shogi desde Cero

AlphaZero de DeepMind dominó el ajedrez, Go y shogi (ajedrez japonés) en horas, comenzando solo con las reglas — sin juegos humanos, sin conocimiento humano, sin libros de apertura. Derrotó a los programas especializados más fuertes del mundo en los tres juegos.

Demostró que un único algoritmo de aprendizaje general podría lograr un desempeño sobrehumano en múltiples dominios desde cero — posiblemente lo más cercano a inteligencia "general" demostrado en un sistema estrecho.

🇺🇸 2018 Ingeniería

BERT y GPT — Dos Caminos Hacia la Comprensión del Lenguaje

En 2018, Google lanzó BERT (preentrenamiento bidireccional) y OpenAI lanzó GPT-1 (preentrenamiento autorregresivo), dos enfoques competidores para hacer que los modelos de lenguaje comprendan el contexto. BERT dominó los benchmarks de NLP; el enfoque de GPT — simplemente predecir la siguiente palabra — resultaría ser más escalable.

Estableció que el preentrenamiento en datos de texto masivos crea representaciones poderosas del lenguaje — la idea central de que "la predicción de la siguiente palabra es todo lo que necesitas" para aprender sobre el mundo.

🇦🇪 2019 UAE — Falcon

El Instituto de Innovación Tecnológica de los EAU Lanza un Gran Impulso de IA

Los Emiratos Árabes Unidos establecieron el Instituto de Innovación Tecnológica (TII) y comenzaron a construir lo que se convertiría en la serie Falcon de modelos de lenguaje grande. Los EAU ya habían designado al primer Ministro de Estado para la Inteligencia Artificial del mundo en 2017, señalando la IA como una estrategia nacional central.

Mostró que la investigación relevante para AGI ya no estaba confinada a las potencias tecnológicas tradicionales. Las naciones más pequeñas con visión estratégica y financiación podían convertirse en jugadores serios en el desarrollo de IA de frontera.

🇺🇸 2019 Ingeniería

GPT-2 — "Demasiado Peligroso para Liberar"

OpenAI entrenó GPT-2, un modelo de lenguaje de 1.5 mil millones de parámetros que generaba texto notablemente coherente. Inicialmente retuvo el modelo completo, citando preocupaciones sobre el mal uso — el primer gran debate público sobre si las capacidades de IA deberían compartirse libremente.

Marcó el momento en que la seguridad de la IA pasó de ser una preocupación académica a noticia de primera página. La tensión entre la investigación abierta y el despliegue responsable que define el panorama actual de la IA se cristalizó alrededor de este lanzamiento.

La Era del Escalamiento — 2020 – 2023

🇺🇸 Junio 2020 Frontera

GPT-3 Demuestra Habilidades Emergentes

OpenAI lanzó GPT-3, un modelo de 175 mil millones de parámetros que podía realizar tareas para las que nunca fue entrenado explícitamente — traducción, generación de código, aritmética — simplemente desde algunos ejemplos en su prompt. La "hipótesis de escalamiento" — que los modelos más grandes desarrollan habilidades cualitativamente nuevas — ganó su evidencia más fuerte.

Convenció a gran parte de la comunidad de IA de que la escala en sí podría ser un camino hacia la inteligencia general. La carrera para construir modelos más grandes se aceleró dramáticamente.

🇬🇧 Diciembre 2020 Frontera

AlphaFold 2 Resuelve el Plegamiento de Proteínas

AlphaFold 2 de DeepMind resolvió el problema de plegamiento de proteínas de 50 años, prediciendo estructuras 3D de proteínas con precisión casi experimental. Más tarde predijo la estructura de casi todas las proteínas conocidas — más de 200 millones de estructuras — y contribuyó al Premio Nobel de Química 2024.

Mostró que la IA podía resolver problemas científicos fundamentales que habían derrotado a los investigadores humanos durante décadas. Si AGI significa "tan bueno como los mejores humanos en todo", AlphaFold fue la evidencia más fuerte hasta ahora.

🇮🇱 2021 Israel — AI21 Labs

Israel Emerge como un Denso Centro de IA

AI21 Labs lanzó Jurassic-1, un modelo de 178 mil millones de parámetros rivalizando con GPT-3, construido en Tel Aviv. Israel — con más startups de IA per cápita que cualquier otra nación — demostró un impacto desproporcionado: empresas como Mobileye (conducción autónoma), AI21 y Habana Labs (chips de IA, adquiridos por Intel) posicionaron al país como una superpotencia de IA per cápita.

Probó que el tamaño de la población importa menos que la densidad de talento, la canalización militar-técnica (Unidad 8200) y la cultura de startups en la carrera hacia la IA avanzada.

🇺🇸 2022 Teoría

Las Leyes de Escalamiento de Chinchilla Reescriben las Reglas

Los investigadores de DeepMind publicaron hallazgos mostrando que la mayoría de los modelos de lenguaje grande estaban significativamente infraentrenados. Su modelo "Chinchilla", con 70 mil millones de parámetros entrenados en 1.4 billones de tokens, superó a Gopher de 280 mil millones de parámetros. La idea clave: el tamaño del modelo y el tamaño de los datos deberían escalar juntos.

Desplazó el enfoque de toda la industria para el entrenamiento. En lugar de simplemente construir modelos más grandes, los laboratorios comenzaron a enfocarse en la calidad de datos, cantidad y el equilibrio óptimo entre parámetros y tokens de entrenamiento.

🇺🇸 Noviembre 2022 Frontera

ChatGPT Se Vuelve Viral — La IA Entra en la Conciencia Mainstream

OpenAI lanzó ChatGPT, una interfaz conversacional a GPT-3.5. Alcanzó 1 millón de usuarios en 5 días y 100 millones en 2 meses — la aplicación que crece más rápido en la historia. Por primera vez, cientos de millones de personas experimentaron una IA que podría mantener una conversación.

Transformó la AGI de una meta de investigación abstracta en una conversación cultural mainstream. El mundo entero comenzó a debatir si las máquinas estaban al borde del pensamiento, e inversiones multimillonarias siguieron.

🇺🇸 Marzo 2023 Frontera

GPT-4 — Multimodal, Desempeño Casi Experto

OpenAI lanzó GPT-4, un modelo multimodal que podía procesar texto e imágenes. Pasó el examen de abogado en el percentil 90, puntuó en los percentiles superiores en exámenes AP, y demostró habilidades de razonamiento que llevaron a algunos investigadores a publicar artículos sobre "chispas de AGI".

Hizo el debate sobre AGI urgente. Cuando un sistema puede pasar el examen de abogado y escribir software funcional, la pregunta "¿qué tan lejos estamos de la AGI?" se desplazó de décadas a años en las estimaciones de muchos investigadores.

🇫🇷 2023 France — Mistral

Mistral AI — El Laboratorio de Frontera de Europa

Tres antiguos investigadores de Google DeepMind y Meta fundaron Mistral AI en París. En cuestión de meses, lanzaron Mixtral 8x7B, un modelo de mezcla de expertos de código abierto que rivalizaba con GPT-3.5. La empresa recaudó €385 millones en su primer año, convirtiéndola en la startup de IA más valiosa de Europa.

Probó que Europa podía competir en la frontera de la investigación de IA, no solo regularla. La inversión de Francia en educación de matemáticas — produciendo ganadores de la Medalla Fields a una tasa desproporcionada — finalmente encontró su aplicación comercial en IA.

El Horizonte de la AGI — 2024 – Presente

🇨🇳 Enero 2025 Frontera

DeepSeek R1 — El Choque de Razonamiento de Código Abierto de China

El laboratorio chino DeepSeek lanzó R1, un modelo de razonamiento de código abierto que igualó los modelos de frontera propietarios a una fracción del costo de entrenamiento. El modelo demostró un fuerte razonamiento de cadena de pensamiento y fue lanzado con pesos completos, desafiando la suposición de que la IA de punta requería presupuestos a escala occidental.

Destrozó la narrativa de que solo los laboratorios estadounidenses bien financiados podían construir IA de frontera. Probó que la innovación algorítmica y la eficiencia podían compensar la computación bruta, intensificando la competencia global.

🇺🇸 Septiembre 2024 Frontera

OpenAI o1 — Razonamiento en Tiempo de Inferencia

OpenAI lanzó o1, un modelo que pasa más tiempo "pensando" antes de responder. Usando aprendizaje por refuerzo para desarrollar cadenas de razonamiento internas, o1 logró resultados de punta en matemáticas, codificación y benchmarks de razonamiento científico — en algunos casos igualando desempeño a nivel de doctorado.

Abrió un nuevo eje de escalamiento: en lugar de solo hacer modelos más grandes, hacerlos pensar más durante la inferencia. Este enfoque de "computación en tiempo de prueba" puede ser un ingrediente crítico para el razonamiento a nivel AGI.

🇺🇸 Octubre 2024 Ingeniería

Claude Obtiene Uso de Computadora — Llegan los Agentes de IA

Anthropic lanzó Claude 3.5 Sonnet con la capacidad de ver, entender y controlar una pantalla de computadora. Por primera vez, una IA podía navegar autónomamente software, completar formularios, escribir documentos y ejecutar flujos de trabajo de múltiples pasos en aplicaciones.

Movió la IA de responder preguntas a hacer trabajo. La IA de agentes — sistemas que actúan autónomamente en el mundo real — representa uno de los puentes finales entre la IA estrecha y la inteligencia de propósito general.

🇮🇳 2024 India — Fábrica de Talento en IA

India Se Convierte en el Mayor Conducto de Talento en IA del Mundo

India superó a EE.UU. y China en el número de ingenieros de IA y aprendizaje automático, con su sistema IIT y ecosistema tecnológico produciendo más profesionales de IA que cualquier otro país. Empresas como Krutrim (fundada por Bhavish Aggarwal de Ola) recaudaron $50 millones para construir modelos de fundación de primera India en múltiples idiomas indios.

Demostró que el camino hacia la AGI corre por el talento tanto como por la computación. El masivo conducto de ingeniería de India asegura que será una fuerza definitoria en el desarrollo de IA durante décadas.

🇺🇸 Marzo 2025 Frontera

Claude Opus 4 y Sonnet 4 — Razonamiento Sostenido a Escala

Anthropic lanzó Claude Opus 4 y Sonnet 4, modelos capaces de trabajo de agentes sostenido de múltiples horas — codificación, investigación y análisis en tareas complejas de múltiples pasos. Las capacidades de pensamiento extendido permitieron a los modelos razonar a través de problemas que requieren cientos de pasos.

Desplazó el benchmark de "¿puede responder una pregunta?" a "¿puede hacer un día de trabajo?" Los agentes autónomos de largo horizonte representan la frontera de lo que separa la IA actual de la AGI.

🇺🇸 Marzo 2026 Frontera

GPT-5.4 — Contexto de 1 Millón de Tokens, Capacidades Unificadas

OpenAI lanzó GPT-5.4 con una ventana de contexto de 1 millón de tokens, unificando capacidades previamente separadas de razonamiento, codificación y capacidades generales en un único modelo. El sistema demostró 33% menos errores factuales y finalización mejorada de flujos de trabajo de agentes.

La consolidación de capacidades en modelos únicos refleja cómo funciona la inteligencia general — no módulos separados, sino comprensión unificada. Cada generación cierra la brecha entre lo estrecho y lo general.

La Pregunta Que Permanece Teoría

¿Qué Sigue Faltando?

A pesar del progreso extraordinario, los investigadores continúan debatiendo qué sigue siendo necesario para la AGI. Los desafíos abiertos incluyen: razonamiento causal genuino (no solo coincidencia de patrones), memoria persistente y aprendizaje de la experiencia, inteligencia encarnada y comprensión del mundo físico, sentido común robusto, establecimiento de objetivos y motivación autónoma, y conciencia — si es que importa.

El camino hacia la AGI puede estar 90% recorrido u solo 10%. La respuesta honesta es que nadie sabe — pero el ritmo del progreso sugiere que lo descubriremos más pronto de lo que la mayoría esperaba.

Esta página documenta hitos reportados públicamente en el camino hacia la inteligencia artificial general, con propósitos informativos y educativos. Todas las descripciones se basan en investigación publicada, anuncios oficiales y reportajes de noticias. El orden refleja cuándo ocurrió cada desarrollo; no implica un único camino lineal hacia la AGI.

Parte del contenido de esta página fue creado con la asistencia de herramientas de IA.