Desentrañando la IA

Un Viaje desde el Test de Turing hasta los Agentes Autónomos

Paulo Vélez

Lider IA

Lider de Ciencia de Datos

Hoy en día, la Inteligencia Artificial (IA) está en todas partes, ¿verdad? Desde ChatGPT redactando correos hasta generadores de imágenes asombrosos, la IA se ha convertido en un tema de conversación común. Pero ¿alguna vez te has preguntado cómo llegamos a este punto? En este artículo, haremos un recorrido por la fascinante historia de la IA, desde sus orígenes hasta lo que nos depara el futuro.

Los Primeros Pasos: Ideas Pioneras y Entusiasmo Inicial.

Aunque parezca una tecnología reciente, las raíces de la IA se hunden en los años 30, 40 e incluso 50. Una figura clave en este periodo fue Alan Turing, quien en 1950, en un famoso artículo, lanzó la pregunta fundamental: ¿Pueden pensar las máquinas? y propuso el Test de Turing, sentando así las bases conceptuales.

Después de la Segunda Guerra Mundial, con la aparición de las primeras computadoras, estas ideas comenzaron a materializarse. Fue en 1956 cuando John McCarthy le dio nombre a este campo, acuñando el término inteligencia artificial. Poco después, surgieron los primeros programas, como el Logic Theorist, capaz de resolver problemas lógicos simples, generando un considerable entusiasmo inicial.

La inspiración en el cerebro humano también marcó un hito temprano. En 1958, Frank Rosenblat desarrolló el Perceptrón, el primer intento de simular neuronas  para clasificar datos, una idea sencilla pero revolucionaria para su época.

Los “Inviernos de la IA”: Desilusión y Reorientación.

Sin embargo, el camino de la IA no fue un lecho de rosas. En 1969,  la crítica más fuerte llegó de la mano de Minsky y Papert, quienes publicaron un libro demostrando las limitaciones serias de modelos como el Perceptrón. Principalmente, no podían resolver problemas que no fueran linealmente separables, como la función XOR. Esta crítica tuvo consecuencias profundas: cortó la financiación y el interés en las redes neuronales se desplomó por años, dando lugar al primer “invierno de la IA”.

La investigación se desvió entonces hacia los sistemas expertos en los años 70 y 80. Programas como Mycin, utilizado para diagnósticos médicos, funcionaban basándose en reglas (“si pasa esto, haz aquello”) para tareas específicas. Aunque útiles, eran muy rígidos, costosos de mantener y no escalaban bien. Sus propios problemas llevaron a otro bajón, otro “invierno de la IA”, marcando un ciclo de altas expectativas y decepciones.

El Resurgimiento: Redes Neuronales, Deep Learning y la Era de las GPUs.

Afortunadamente, las redes neuronales hicieron un poderoso regreso. La clave fue el desarrollo del algoritmo de backpropagation (retropropagación), popularizado por Hinton, Rumelhart, Heart y Williams. Simplificando, este algoritmo permitió que las redes aprendieran de sus errores de manera eficiente, ajustando sus conexiones internas para entrenar redes más complejas. Las ideas de John Hopfield con sus redes que funcionaban como memorias también fueron fundamentales (de hecho, Hopfield y Hinton ganaron el Premio Nobel de Física en 2024 por estas bases del aprendizaje automático).

Pero el verdadero empuje provino de un lugar inesperado: los videojuegos. Las GPUs (tarjetas gráficas) resultaron ser perfectas para los cálculos masivos y paralelos que las redes neuronales profundas requerían. Esta combinación de más datos, algoritmos mejorados como el backpropagation y la potencia de las GPUs destapó la era del Deep Learning.

Un punto de inflexión clarísimo fue en 2012 con Alexnet, una red neuronal que ganó una competencia clave de reconocimiento de imágenes, demostrando que el Deep Learning iba muy en serio.

La Revolución Transformer y los Grandes Modelos de Lenguaje (LLMs)

El siguiente gran salto llegó en 2017 con la arquitectura Transformer de Google, presentada en el influyente paper “Attention Is All You Need”. Su innovación fue el mecanismo de atención, que permite al modelo entender qué palabras son más importantes en una frase larga, sin importar su distancia. Esto fue revolucionario para procesar texto y de aquí nacieron los LLMs (Grandes Modelos de Lenguaje), como la popular familia GPT.

Esto nos trae casi al presente. A finales de 2022, ChatGPT hizo que la IA conversacional fuera accesible para todo el mundo. Hoy, vemos conceptos como el Fine-tuning para especializar modelos, y RAG (Retrieval-Augmented Generation) para que busquen información actualizada y sean más precisos. Modelos como GPT-4 y Claude 3 manejan cantidades enormes de texto, mientras que DALL-E y Stable Diffusion generan imágenes alucinantes. Incluso, están surgiendo modelos razonadores como Deepsek, que no solo generan texto, sino que intentan resolver problemas complejos de forma más eficiente y consumiendo menos energía.

El Futuro Cercano: Los Agentes Autónomos

Mirando hacia el futuro, la próxima gran etapa parece ser la de los agentes autónomos. La idea es que la IA no solo genere contenido o respuestas, sino que pueda tomar decisiones, usar herramientas (software, APIs) y colaborar para cumplir objetivos complejos en el mundo real. Esto significa pasar de una IA que solo “dice cosas” a una IA que “hace cosas”.

Es una evolución impresionante, desde la pregunta de Turing y pasando por todos esos ciclos de entusiasmo y decepción, hasta llegar a estos modelos tan potentes y la idea de agentes autónomos. Este recorrido nos deja reflexionando: ¿qué significa realmente que una máquina pueda empezar a actuar por sí misma en el mundo? ¿Qué puertas abre y qué desafíos nos plantea para un futuro que ya está llegando?

Contáctanos

Bogotá
Calle 34 #5-50
Cali
Cra 5 #12-16 Of. 303–308
NIT
901764189-1
Teléfono
(+57) 324 506 0255
Horario
L–V, 8:00–12:00 / 2:00–5:00

Santiago de Cali

Bogotá D.C.