Historia de la inteligencia artificial y evolución de GPT
Clase 2 de 4 • Curso de Fundamentos de LLMs
Resumen
La inteligencia artificial (IA) ha evolucionado significativamente desde sus raíces en la década de 1940, comenzando con teorías fundamentales que continúan influyendo en tecnologías actuales como GPT. Desde las teorías iniciales de Alan Turing hasta el lanzamiento de modelos transformacionales como GPT-4, explorar esta trayectoria nos ayuda a entender mejor el impacto y potencial de los modelos de lenguaje de hoy.
¿Cuál es el origen de la inteligencia artificial y cómo Alan Turing lo marcó?
Los primeros pasos para la IA los dio Alan Turing en la década de los 40, estableciendo que las máquinas podrían interpretar el conocimiento y la comunicación humana mediante ceros y unos. Además, formuló la famosa prueba de imitación, conocida hoy como la prueba de Turing, esencial para evaluar modelos actuales de inteligencia artificial.
Al mismo tiempo, los científicos McCollick y Pitts crearon la primera neurona artificial, elemento básico en la estructura de redes neuronales modernas.
¿Qué fue el "AI Winter" y cómo influyó en la IA?
Entre 1970 y 2000 se produjo una desaceleración significativa en el desarrollo de inteligencia artificial conocida como AI Winter. Esto sucedió principalmente porque diversos proyectos financiados por agencias gubernamentales, como DARPA, no alcanzaron las expectativas previstas, generando críticas a tecnologías como los perceptrones, fundamentales actualmente en IA avanzadas.
Este periodo representó un importante freno en la investigación y financiamiento en IA durante varias décadas.
¿Cuáles son los hitos recientes en inteligencia artificial relacionados a GPT?
Los avances clave incluyen:
- CNN de Yann LeCun (1989): Yann LeCun introdujo la primera red neuronal convolucional (CNN), herramienta esencial para los transformers, base arquitectónica de todos los modelos GPT.
- CUDA de NVIDIA (2007): Aplicación de software que habilitó cálculos avanzados utilizando tarjetas gráficas específicamente diseñadas para videojuegos, marcando un hito técnico importante.
- GPT de OpenAI (a partir de 2018): Lanzaron el primer modelo preentrenado de lenguaje (GPT-1). En tan solo pocos años, estos modelos evolucionaron desde 117 millones hasta 1.7 trillones de parámetros en GPT-4, apoyados en tecnologías como Reinforcement Learning with Human Feedback (RLHF).
- DeepSIC (2025): Compañía china conocida por sus notables avances en optimización de modelos, utilizando técnicas innovadoras de ingeniería al sortear limitantes de acceso al hardware avanzado.
¿Qué nos muestran los avances tecnológicos en IA actual?
Los recientes desarrollos implican crecimientos exponenciales en capacidades técnicas, planteando interrogantes sobre la cercanía a la inteligencia artificial general (artificial general intelligence, AGI).
Empresas destacadas como OpenAI han posibilitado mediante interfaces amigables la masificación de tecnologías avanzadas con impacto tangible en la interacción tecnológica cotidiana.
Esta evolución constante invita a reflexionar cómo compañías como Meta y Google ya están integrando estos modelos, aprovechando un historial tecnológico que conecta firmemente los inicios de la computación con el presente y futuro inmediato de la inteligencia artificial.