En el nuevo mundo de los LLMs (ChatGPT y compañía) seguro que en más de una conversación has escuchado lo de “vamos a entrenarlo con nuestros datos”. Pero, ¿qué significa exactamente entrenar un modelo con tus datos, vs. usar un modelo existente con tus datos?
Cómo a veces nos referimos a los conceptos sin todo el detalle necesario hemos pensado que sería útil una Guía de Supervivencia de los Conceptos Esenciales de la Inteligencia Artificial.
Para ayudar a que todos hablemos con propiedad y tengamos claro lo que significa modelos fundacionales, aprendizaje automático, redes neuronales, pesos, entrenamiento, prompts…
Hemos tratado de hacer las definiciones más breves posibles: esto implica que necesariamente estamos simplificando, dejándonos fuera detalles técnicos importantes y excediéndonos con las metáforas. Disculpas adelantadas ;)
Breve introducción de alto nivel
Antes de entrar en detalle, imagina que la IA es como un robot que quiere ser tu mejor amigo, pero necesita aprender a entenderte. El aprendizaje automático (machine learning) es como enseñarle a ese robot a jugar a las cartas. Le mostramos miles de partidas y él aprende por sí solo a detectar patrones y mejorar su estrategia. Las redes neuronales son la forma en que ese robot organiza su cerebro para pensar. Miles de conexiones que se fortalecen con la práctica, como cuando tú aprendes a atarte los zapatos.
Y luego están los modelos fundacionales, que son como los cerebros genios que ya lo saben todo sobre el lenguaje. Están listos para que les demos una tarea específica, como un traductor que conoce todos los idiomas pero tú tienes que decirle qué texto quieres traducir. Los pesos son como la memoria del modelo: ajustan las conexiones en su cerebro para recordar lo que ha aprendido, como un estudiante que toma apuntes en clase.
Los conceptos clave sobre inteligencia artificial
Inteligencia artificial (IA)
La inteligencia artificial es el concepto general de crear sistemas que pueden realizar tareas que normalmente requieren inteligencia humana, como el aprendizaje, la resolución de problemas y la toma de decisiones.
No se trata de replicar la consciencia humana, sino de crear herramientas que puedan automatizar y mejorar procesos (aunque esto tiene millones de matices; esto de qué es la consciencia es uno de nuestros temas favoritos). En la práctica, la IA abarca una amplia gama de técnicas y enfoques, desde sistemas basados en reglas hasta algoritmos de aprendizaje automático más avanzados.
En resumen: Es como darle un cerebro digital a una máquina para que haga cosas "inteligentes".
Aprendizaje automático (Machine Learning)
El aprendizaje automático es una rama de la IA que se centra en desarrollar algoritmos que permiten a las máquinas aprender de los datos sin ser programadas explícitamente. En lugar de darles instrucciones paso a paso, les proporcionamos ejemplos y los algoritmos identifican patrones y relaciones.
Hay distintos tipos de aprendizaje automático: supervisado (con etiquetas), no supervisado (sin etiquetas) y por refuerzo (a través de prueba y error).
En resumen: Es cómo enseñarle a una máquina a aprender por sí misma, como un niño que aprende jugando.
Redes neuronales
Las redes neuronales son un tipo específico de algoritmo de aprendizaje automático que imitan parte de la estructura del cerebro humano. Están compuestas por nodos interconectados (neuronas) que procesan información y la transmiten entre capas.
Cada conexión tiene un peso que se ajusta durante el entrenamiento, determinando la fuerza de la señal. Existen diferentes tipos de redes neuronales, como las redes convolucionales (para imágenes) y las recurrentes (para texto).
En resumen: Es como el "cerebro" de la IA, una red de conexiones que aprende de los datos.
Modelos fundacionales (Foundation Models)
Los modelos fundacionales son modelos de aprendizaje automático masivos, entrenados en enormes conjuntos de datos para adquirir conocimientos generales (¿un LLM sabe algo realmente? Tratamos de contestar esta pregunta en nuestra guía Inteligencia artificial generativa: Introducción a los LLMs).
Estos modelos pueden ser utilizados para diversas tareas con un mínimo ajuste, y son la base de toda la inteligencia artificial generativa. Ejemplos de modelos fundacionales son los LLMs como GPT, Llama, Deep Seek…
En resumen: Son cerebros pre-entrenados que saben mucho sobre el mundo y el lenguaje. Puedes profundizar más en nuestro artículo
Pesos (Weights)
Los pesos son parámetros internos de una red neuronal que se ajustan durante el entrenamiento. Determinan la fuerza de la conexión entre las neuronas, afectando cómo la información se propaga a través de la red.
Los pesos son como los recuerdos del modelo: guardan lo que ha aprendido. El proceso de entrenamiento busca los pesos óptimos para minimizar los errores.
En resumen: Son los ajustes internos del modelo que le permiten recordar y aprender, como un disco duro que se actualiza.
Modelo abierto (Open Source Model)
Un modelo de código abierto es aquel cuyo código fuente y pesos son accesibles al público bajo una licencia específica. Esto permite la transparencia, la colaboración y la modificación del modelo por la comunidad. Los modelos abiertos promueven la innovación y la democratización de la IA. Hay distintos niveles de apertura, algunos pueden permitir modificaciones y otros, solo uso.
En resumen: Es como tener la receta de un pastel a disposición de todos, para que cualquiera pueda usarla y mejorarla.
Modelo cerrado (Closed Source Model)
Un modelo cerrado es aquel cuyo código fuente y/o pesos no son accesibles al público, ya que son propiedad de una empresa o institución. El modelo y sus capacidades se usan como servicio, generalmente a cambio de pago. Esto puede limitar la transparencia y la capacidad de la comunidad para mejorar o auditar el modelo.
Existe un gran debate ético y legal respecto a los modelos fundacionales comerciales o cerrados, ya que se asume que se han entrenado con materiales cuyo copyright no ha sido respetado (aunque algunos países comienzan a decir que entrenar con cualquier contenido un LLM es aceptable). En el caso de los abiertos se asume que se entrenan con contenidos cuyo copyright es respetado.
En resumen: Es como tener una receta de un pastel que solo el chef puede hacer y nadie más la puede ver.
Entrenamiento (Training)
El entrenamiento es el proceso de ajustar los pesos de un modelo de aprendizaje automático para que realice una tarea específica. Se lleva a cabo alimentando el modelo con grandes cantidades de datos y usando algoritmos de optimización para minimizar el error. El entrenamiento requiere poder de cómputo y tiempo, y la calidad de los datos influye mucho en la calidad del modelo.
En resumen: Es como meter al modelo en un intensivo para que se haga un experto en algo.
Ajuste fino (Fine-tuning)
El ajuste fino es un tipo de entrenamiento donde se toma un modelo pre-entrenado (como un modelo fundacional) y se adapta a una tarea específica con un conjunto de datos más reducido y concreto. Esto ahorra tiempo y recursos en comparación con entrenar un modelo desde cero. Es como si al intensivo le añadimos una especialización.
En resumen: Es como después del intensivo, el modelo se especializa para una tarea concreta.
Prompt
Un prompt es la instrucción o pregunta que se le da a un modelo de lenguaje para que genere una respuesta. La calidad del prompt afecta mucho a la calidad de la respuesta.
Un prompt puede ser un texto sencillo, una pregunta, un ejemplo, o incluso una combinación de todo esto.
En resumen: Es la pregunta que le haces al modelo, como si hablaras con un genio de la lámpara.
Ingeniería de prompts (Prompt Engineering)
La ingeniería de prompts es el arte de diseñar y optimizar las instrucciones o preguntas que se le dan a un modelo de lenguaje para obtener los resultados deseados.
Implica entender cómo funciona el modelo y cómo afecta el lenguaje que le damos. La ingeniería de prompts es fundamental para obtener el máximo potencial de los modelos de lenguaje.
En resumen: Es como aprender a hablar con el genio de la lámpara para que te conceda el deseo que quieres.
Hallucination (Alucinación)
La alucinación en un modelo de IA ocurre cuando el modelo genera información que no es correcta o que no se basa en los datos con los que fue entrenado.
Esto se debe a que los modelos generan texto que parece coherente y fluido, incluso si no tiene relación con la realidad o no está en sus datos. Las alucinaciones pueden ser un problema cuando la IA se usa para generar información sensible.
En resumen: Es cuando el modelo se inventa cosas, como si el genio te vendiera una historia que no existe.
Token
Un token es la unidad básica de texto que procesa un modelo de lenguaje. Puede ser una palabra, una parte de una palabra, un signo de puntuación, o incluso un espacio en blanco.
Los modelos dividen el texto en tokens antes de procesarlo. La tokenización es un paso crucial en el procesamiento de lenguaje natural.
En resumen: Es como una pieza de Lego con la que el modelo construye las frases.
GPT (Generative Pre-trained Transformer)
GPT es una familia de modelos de lenguaje de gran escala desarrollados por OpenAI (probablemente la empresa más famosa en el mundo de la IA, creadores de ChatGPT).
Estos modelos se basan en la arquitectura Transformer y han sido entrenados con grandes cantidades de texto para generar texto coherente y natural. Los modelos GPT se utilizan en una variedad de aplicaciones, desde la generación de texto creativo hasta la respuesta a preguntas y la traducción de idiomas. Es uno de los ejemplos más populares de modelos fundacionales.
Si bien los GPT los desarrolló OpenAI, se basan en tecnologías pre-existentes a OpenAI: el pre-entrenamiento generativo, y los transformers, una arquitectura inventada por ocho científicos trabajando en Google en 2017.
En resumen: Es un "cerebro" de IA que sabe mucho sobre el lenguaje y puede escribir como un humano. Y más que un simple producto comercial de una empresa (ChatGPT) es una tecnología usada por otros modelos comerciales y abiertos.
Cómo se relacionan
- La IA es el paraguas que engloba todo.
- El Aprendizaje Automático es una de las formas de hacer IA.
- Las Redes Neuronales son una de las formas de hacer Aprendizaje Automático.
- Los Modelos Fundacionales son redes neuronales preentrenadas.
- Los Pesos son lo que el modelo aprende durante el entrenamiento.
- Los modelos pueden ser abiertos o cerrados.
- El Entrenamiento y el Ajuste Fino hacen que el modelo aprenda.
- Los Prompts son la forma en la que interactuamos con el modelo.
- La Ingeniería de Prompts nos ayuda a mejorar los prompts.
- Las Hallucinations son uno de los retos de la tecnología.
- Los Tokens son la base de como funciona la IA.
Para completar esta guía estamos preparando nuestro particular apartado de Confusiones Frecuentes. Más recursos:
- Inteligencia artificial generativa: Introducción a los LLMs
- Reglamento de Inteligencia Artificial: Obligaciones que entran en vigor el 2 de febrero de 2025
- Inteligencia artificial aplicada a contratación pública: para que la estamos utilizando -de verdad- en Gobierto