10 Conceptos de Inteligencia Artificial explicados de forma simple

Concepto 1: Aprendizaje automático o Machine Learning, ML

La Inteligencia Artificial no comenzó con ChatGPT.

Comenzó con una idea simple: ¿qué pasaría si, en lugar de escribir reglas para que una computadora las siguiera, dejáramos que la computadora descubriera las reglas por sí misma?

Eso es el aprendizaje automático.

La programación clásica funciona así:

Uno escribe reglas.

La computadora las ejecuta.

El aprendizaje automático funciona de otra manera:

Uno entrega ejemplos.

La computadora encuentra patrones.

Por ejemplo, se le muestran 10.000 fotos de gatos y 10.000 fotos de perros. A partir de esos ejemplos, el sistema empieza a identificar qué características hacen que un gato sea un gato y que un perro sea un perro.

No se escribió una regla específica que diga: “si tiene bigotes, orejas puntiagudas y cierto tipo de cara, entonces es un gato”.

El sistema aprende observando patrones.

Esa es la idea central del Machine Learning: aprender a partir de datos.


Concepto 2: Redes neuronales o Neural Networks

Entonces, ¿cómo hace una computadora para encontrar patrones?

Una forma muy importante es mediante redes neuronales.

Una red neuronal es un modelo computacional inspirado, de manera general, en el funcionamiento del cerebro humano.

Podemos pensarlo así: hay muchas pequeñas unidades de decisión, llamadas neuronas artificiales, organizadas en capas.

Los datos entran por un extremo.

Cada capa transforma un poco esos datos.

Al final, la red produce una respuesta.

Por ejemplo, si se le muestra una imagen, las primeras capas pueden detectar líneas o bordes. Otras capas pueden detectar formas más complejas. Finalmente, las últimas capas pueden decidir si la imagen corresponde a un perro, un gato, un automóvil o una persona.

La clave está en el entrenamiento.

Durante el entrenamiento, la red recibe millones de ejemplos. Luego compara su respuesta con la respuesta correcta. Si se equivoca, ajusta sus parámetros internos para hacerlo mejor la próxima vez.

Si ese proceso se repite muchas veces, la red mejora.

Y puede volverse extremadamente precisa para ciertas tareas.


Concepto 3: Modelos grandes de lenguaje o Large Language Models, LLM

Los LLM, o Large Language Models, son modelos grandes de lenguaje.

Esto es lo que son sistemas como ChatGPT, Claude o Gemini.

Un LLM es una red neuronal entrenada con enormes cantidades de texto.

¿Y qué aprende a hacer?

Aprende a predecir la próxima palabra, o más exactamente, el próximo fragmento de texto.

Por ejemplo:

“La capital de Francia es…”

El modelo predice:

“París”.

Esa es la idea básica.

Pero cuando un modelo se entrena con cantidades gigantescas de texto y repite esta tarea miles de millones de veces, ocurre algo muy interesante: empieza a reconocer patrones complejos del lenguaje.

Puede detectar contexto.

Puede responder preguntas.

Puede redactar textos.

Puede resumir.

Puede traducir.

Puede razonar en cierta medida.

Incluso puede escribir código.

No porque alguien haya programado manualmente cada una de esas habilidades, sino porque el modelo vio una enorme cantidad de ejemplos y aprendió patrones profundos presentes en el lenguaje.


Concepto 4: Tokens

Los modelos grandes de lenguaje no leen exactamente como leemos las personas.

No procesan palabras completas de la misma forma que nosotros.

Procesan tokens.

Un token es una unidad de texto. Puede ser una palabra completa, una parte de una palabra, un signo de puntuación o una combinación de caracteres.

Por ejemplo:

“DevOps” podría ser un solo token.

“Kubernetes” podría dividirse en más de un token.

¿Por qué importa esto?

Porque cada modelo tiene un límite de tokens que puede procesar al mismo tiempo.

Ese límite se llama ventana de contexto, o context window.

La ventana de contexto es la cantidad máxima de información que el modelo puede “ver” en una misma interacción.

Por eso, cuando se pega un documento muy largo en un sistema de Inteligencia Artificial, puede ocurrir que el modelo no recuerde bien lo que estaba al principio.

No necesariamente porque no quiera responder.

Simplemente, puede haber quedado fuera de su ventana de contexto.

Una forma sencilla de entenderlo es pensar la ventana de contexto como una memoria de corto plazo.

Lo que entra en esa ventana, el modelo puede usarlo.

Lo que queda afuera, el modelo ya no lo tiene disponible en ese momento.


Concepto 5: Embeddings o representaciones vectoriales

Este concepto es menos conocido, pero es fundamental.

Cuando la Inteligencia Artificial trabaja con texto, muchas veces convierte las palabras en números.

Más específicamente, convierte palabras, frases o documentos en listas de números llamadas vectores.

A esas representaciones numéricas se las llama embeddings.

Lo interesante es que las palabras con significados similares terminan ubicadas cerca unas de otras en ese espacio numérico.

Por ejemplo:

“Perro” y “cachorro” quedan cerca.

“Docker” y “contenedor” quedan cerca.

“Kubernetes” y “orquestación” quedan cerca.

Esto permite que la Inteligencia Artificial comprenda relaciones de significado, no solamente coincidencias exactas de palabras.

Por eso los buscadores modernos son cada vez más inteligentes.

Antes, muchas búsquedas dependían de encontrar exactamente la palabra escrita por el usuario.

Ahora, gracias a los embeddings, un sistema puede encontrar documentos que no usan la misma palabra, pero que tratan sobre el mismo tema.

Es decir, puede buscar por significado.


Concepto 6: Prompt

Un prompt es la entrada que una persona le da a un modelo de Inteligencia Artificial.

Cuando alguien escribe:

“Explícame Kubernetes como si tuviera cinco años”,

eso es un prompt.

Pero hay algo importante: la calidad de la respuesta depende mucho de la calidad de la instrucción.

Un prompt vago suele producir una respuesta vaga.

Un prompt específico, claro y bien estructurado suele producir una respuesta mucho más útil.

Por ejemplo:

“Arregla mi código”

es una instrucción demasiado general.

En cambio:

“Este es mi Dockerfile. La imagen se construye correctamente, pero el contenedor se cierra inmediatamente al ejecutarse. ¿Qué puede estar mal y por qué?”

es una instrucción mucho mejor.

El modelo recibe contexto.

Sabe cuál es el problema.

Sabe qué debe revisar.

Sabe qué tipo de respuesta se espera.

Por eso surgió la idea de prompt engineering, o ingeniería de prompts.

No se trata de magia.

Se trata de aprender a comunicarse claramente con un modelo de Inteligencia Artificial.

Implica saber qué contexto entregar, cómo formular la pregunta y qué formato de respuesta pedir.

En términos simples, es parecido a escribir una buena consigna o un buen ticket de soporte técnico.

Si la entrada es confusa, la salida probablemente también lo será.

Garbage in, garbage out.

En español: si entra basura, sale basura.


Concepto 7: RAG o generación aumentada por recuperación

RAG significa Retrieval-Augmented Generation.

En español puede traducirse como generación aumentada por recuperación.

Los modelos grandes de lenguaje saben mucho, pero tienen límites.

Saben aquello que aprendieron durante su entrenamiento.

Además, tienen una fecha de corte de conocimiento.

Eso significa que no conocen necesariamente documentos internos de una organización, manuales recientes, decisiones de arquitectura tomadas el último trimestre o procedimientos internos actualizados.

RAG busca resolver ese problema.

La idea es la siguiente: antes de que el modelo responda, el sistema busca información relevante en documentos propios o fuentes específicas. Luego incorpora esa información al prompt para que el modelo pueda responder con base en ella.

Por ejemplo, en lugar de preguntarle al modelo:

“¿Cómo es nuestro proceso de despliegue?”

el sistema hace algo más completo:

Busca automáticamente el manual interno de despliegue.

Extrae los fragmentos relevantes.

Los incorpora a la consulta.

Luego le pide al modelo que responda usando esa información.

El modelo no aprendió esos documentos durante su entrenamiento original.

Los lee en el momento.

Es parecido a entregar a un profesional el documento correcto justo antes de una reunión, para que pueda responder con información actualizada y específica.


Concepto 8: Fine-tuning o ajuste fino

El RAG le da contexto al modelo en el momento de responder.

El fine-tuning es diferente.

El fine-tuning, o ajuste fino, modifica el comportamiento del modelo mediante un entrenamiento adicional.

Imaginemos un modelo general de lenguaje.

Ese modelo sabe redactar, resumir, traducir y responder preguntas sobre muchos temas.

Ahora imaginemos que se lo entrena nuevamente con miles de ejemplos de un dominio específico.

Por ejemplo:

historias clínicas,

contratos jurídicos,

reportes de ciberseguridad,

documentación técnica,

textos contables,

normativa administrativa.

En ese caso, el modelo no solamente lee esos datos en el momento.

Aprende de ellos.

Ajusta sus parámetros internos.

Como resultado, empieza a responder de una manera más adecuada para ese campo específico.

Una comparación útil es esta:

RAG es como entregar un informe a un consultor antes de una reunión.

Fine-tuning es como contratar a alguien que trabajó durante años en esa industria.

Ambos enfoques son útiles.

Pero no resuelven el mismo problema.

RAG sirve mucho cuando se necesita usar información actualizada, cambiante o contenida en documentos específicos.

Fine-tuning sirve cuando se busca adaptar el estilo, el lenguaje, la estructura o el comportamiento general del modelo a un dominio determinado.


Concepto 9: Alucinación

Este concepto es fundamental, especialmente en contextos profesionales.

Los modelos de Inteligencia Artificial pueden decir cosas incorrectas con mucha seguridad.

A eso se lo suele llamar alucinación.

Una alucinación ocurre cuando el modelo genera una respuesta que parece plausible, pero que no es verdadera.

El problema no es solamente que el modelo “adivine”.

El problema es que el modelo está diseñado para producir la continuación más probable de un texto.

Y, a veces, lo plausible no coincide con lo correcto.

Por ejemplo, puede inventar un comando de Kubernetes que no existe.

Puede citar un artículo académico que nunca fue escrito.

Puede explicar un concepto con mucha seguridad, pero cometer un error importante.

Puede atribuir una norma, una frase o una idea a una fuente equivocada.

Esto no debe entenderse como un simple error menor que desaparecerá por completo con una actualización.

Es una característica relacionada con la forma en que estos modelos generan texto.

Por eso, quienes usan bien la Inteligencia Artificial no aceptan sus respuestas de manera automática.

Las revisan.

Las contrastan.

Las prueban.

Las verifican.

Una buena forma de pensarlo es esta: la salida de una Inteligencia Artificial debe tratarse como el trabajo inicial de un asistente junior.

Puede ser muy útil.

Puede ahorrar tiempo.

Puede dar una primera estructura.

Pero siempre debe ser revisada por una persona competente.

El problema aparece cuando alguien copia, pega y publica una respuesta generada por IA sin verificarla.


Concepto 10: Agentes de Inteligencia Artificial o AI Agents

Este concepto está cambiando la forma en que se piensa el software.

Un modelo grande de lenguaje, por sí solo, responde preguntas.

Un agente de Inteligencia Artificial puede hacer cosas.

La diferencia es importante.

Si se le pregunta a un modelo de lenguaje:

“¿Cómo puedo saber qué pods están fallando en mi clúster?”

el modelo probablemente responda con un comando de kubectl.

Pero si se le hace esa misma pregunta a un agente de Inteligencia Artificial, el agente podría hacer algo más.

Podría ejecutar el comando.

Leer la salida.

Detectar qué pods están fallando.

Analizar los registros.

Identificar la causa probable.

Y luego volver con una respuesta.

Un agente es un modelo de lenguaje al que se le dieron herramientas.

Por ejemplo:

buscar en la web,

ejecutar código,

consultar archivos,

llamar APIs,

leer bases de datos,

enviar mensajes,

interactuar con sistemas externos.

API significa Application Programming Interface.

En español: interfaz de programación de aplicaciones.

Es un mecanismo que permite que un sistema se comunique con otro.

La característica central de un agente es que puede decidir qué herramienta usar, en qué orden y para qué propósito, con el fin de completar una tarea.

Una comparación sencilla es esta:

Un LLM es como un consultor que da una recomendación.

Un agente es como un ingeniero que abre la computadora y realiza el trabajo.

Los agentes todavía están en una etapa temprana.

Pueden equivocarse.

Pueden quedarse atrapados en una tarea.

Pueden repetir acciones innecesarias.

Pueden desviarse del objetivo.

Pero la dirección general es clara: una parte importante del futuro de la Inteligencia Artificial está en sistemas que no solamente respondan, sino que también puedan actuar bajo supervisión humana.


Scroll to Top