Glosario de IA para docentes
Términos esenciales para entender qué hace la IA y de qué hablan las personas que la usan.
- Modelo de lenguaje grande (LLM)
Un programa entrenado con enormes cantidades de texto que puede leer y generar lenguaje humano.
Piénsalo como un sistema que leyó una fracción enorme de internet y libros, y aprendió patrones estadísticos sobre cómo las palabras se siguen unas a otras. Cuando le escribes, predice cuál es la respuesta más probable dada tu pregunta y todo lo que sabe. No "entiende" en el sentido humano, pero el resultado suele parecer muy comprensivo. Claude, ChatGPT y Gemini son LLMs.
- Claude (Anthropic)
- ChatGPT (OpenAI)
- Gemini (Google)
prompt · token · ventana de contexto · transformer
- Prompt
El texto que le escribes a un modelo de IA para pedirle algo.
Un prompt es tu instrucción: puede ser una pregunta, una solicitud, un contexto o una combinación de los tres. La calidad del prompt afecta directamente la calidad de la respuesta. Escribir "Genera una rúbrica" da un resultado genérico; escribir "Genera una rúbrica de 4 niveles para evaluar argumentación escrita en 2do medio, alineada al MBE, con ejemplos de desempeño" da algo usable.
- "Resume este texto en tres puntos clave"
- "Actúa como un estudiante de 7mo básico y hazme preguntas sobre esta lectura"
ingeniería de prompts · system prompt · few-shot prompting
- Ingeniería de prompts (prompt engineering)
El arte de escribir instrucciones claras y bien estructuradas para obtener mejores resultados de un modelo de IA.
No es una disciplina misteriosa: es básicamente aprender a comunicarte bien con una herramienta que es muy literal. Los principios clave son dar contexto (quién eres, para qué es), especificar el formato de salida (lista, párrafo, tabla), y dar ejemplos de lo que quieres. La mayor parte de lo que se llama "prompt engineering" avanzado se reduce a ser más preciso en lo que pides.
- Incluir el rol ("Actúa como diseñador instruccional")
- Especificar el formato ("Dame una lista numerada")
- Dar ejemplos del resultado esperado
prompt · few-shot prompting · chain-of-thought
- Token
La unidad mínima con que los modelos de IA procesan texto — aproximadamente una sílaba o una palabra corta.
Los modelos no leen letra por letra ni palabra por palabra, sino en fragmentos llamados tokens. En español, una palabra larga como "retroalimentación" puede ser 3-4 tokens. Esto importa porque los modelos tienen un límite de cuántos tokens pueden procesar a la vez (ver ventana de contexto) y porque el costo de usar APIs de IA se cobra por tokens. Unas 750 palabras son aproximadamente 1.000 tokens.
ventana de contexto · tokens por segundo
- Ventana de contexto
La cantidad máxima de texto que un modelo puede "recordar" durante una conversación.
Imagina que el modelo tiene una mesa de trabajo con espacio limitado: todo lo que cabe en esa mesa está disponible para razonar; lo que no cabe, no existe para él. Una ventana de contexto grande (como la de Claude) permite pegar documentos extensos, conversaciones largas o instrucciones detalladas sin que el modelo "olvide" el inicio. Cuando la conversación supera el límite, el modelo empieza a perder información del inicio.
- Claude tiene una ventana de 200.000 tokens (equivale a una novela larga)
- ChatGPT-4o tiene ventanas de hasta 128.000 tokens
token · modelo de lenguaje grande
- Alucinación
Cuando un modelo genera información falsa con total seguridad, como si fuera un hecho real.
Los modelos no buscan en internet cuando responden (a menos que tengan una herramienta de búsqueda activada): generan texto basado en patrones. A veces esos patrones producen datos inventados — fechas, citas, nombres de autores, leyes — presentados con el mismo tono confiado que usarían si fueran reales. Toda salida de un LLM debe verificarse antes de usarse, especialmente si contiene cifras, citas o referencias específicas.
- Un modelo que inventa el ISBN de un libro real
- Un modelo que cita un artículo científico que no existe
sycophancy · inferencia
- Fine-tuning
Entrenar un modelo ya existente con datos adicionales para especializarlo en una tarea o dominio.
Los modelos base se entrenan con datos generales. El fine-tuning es como darle a alguien con educación general un curso intensivo en un área específica: el modelo aprende patrones del nuevo dominio sin olvidar lo que ya sabía. Empresas hacen fine-tuning de modelos para que respondan siempre en el tono de su marca, o para que conozcan su base de conocimientos interna. Como docente, probablemente no harás fine-tuning tú mismo, pero sí usarás modelos ya afinados.
- Un modelo base de Llama afinado para responder solo en lenguaje jurídico chileno
modelo de lenguaje grande · RAG
- RAG (retrieval augmented generation)
Técnica que conecta un modelo de IA con una base de documentos propia para que sus respuestas estén ancladas en esos textos.
"Retrieval augmented generation" significa algo así como "generación aumentada por recuperación". En vez de que el modelo responda solo con lo que aprendió en entrenamiento, primero busca fragmentos relevantes en una colección de documentos (tu reglamento escolar, el programa de estudios, artículos específicos) y luego genera la respuesta usando esos fragmentos como contexto. NotebookLM de Google usa este enfoque: lo alimentas con tus documentos y responde solo basándose en ellos.
- NotebookLM: sube tus apuntes y te resume solo lo que está en ellos
- Un chatbot escolar entrenado con el reglamento interno del colegio
modelo de lenguaje grande · embedding · vector · fine-tuning
- Agente
Un sistema de IA que puede planificar y ejecutar varias acciones en secuencia para completar una tarea compleja.
Un LLM básico responde y espera. Un agente puede decidir qué pasos seguir, usar herramientas (buscar en internet, leer un archivo, ejecutar código), revisar su propio resultado y corregirse. Piénsalo como la diferencia entre un colaborador que solo contesta preguntas y uno que puede encargarse de un proyecto de cabo a rabo. Los agentes son la frontera actual de la IA práctica y también donde aparecen los riesgos más complejos.
- Un agente que investiga un tema, escribe un resumen y lo formatea en PDF sin intervención humana
- Claude usando herramientas para acceder a bases de datos
MCP · modelo de lenguaje grande
- MCP (model context protocol)
Un estándar abierto que permite a los modelos de IA conectarse con herramientas y datos externos de forma estructurada.
MCP es como un conector universal — un estándar que define cómo un modelo de IA puede hablar con otras aplicaciones: un calendario, una base de datos, un buscador, un sistema de archivos. Fue propuesto por Anthropic (creadores de Claude) en 2024 y lo están adoptando varios proveedores. Para docentes, esto significa que la IA puede eventualmente conectarse directamente a sus sistemas escolares sin que nadie tenga que programar esa integración desde cero.
- Claude conectado a tu Google Drive para leer documentos directamente
agente · modelo de lenguaje grande
- Multimodal
Un modelo que puede procesar y generar distintos tipos de contenido: texto, imágenes, audio o video.
Los primeros LLMs solo manejaban texto. Los modelos multimodales actuales pueden recibir una foto de la pizarra y responder sobre ella, analizar un gráfico, transcribir audio o generar imágenes a partir de instrucciones. GPT-4o y Gemini son multimodales. Claude puede analizar imágenes pero (a mayo 2026) no genera imágenes. Esta capacidad abre posibilidades para analizar trabajos de estudiantes en formato foto, o para que el modelo explique un diagrama.
- Fotografiar un trabajo manuscrito de un estudiante y pedirle al modelo que lo evalúe
- Pegar un gráfico de datos y preguntar qué tendencias muestra
modelo de lenguaje grande
- Embedding
Una representación numérica de un texto que captura su significado, usada para comparar textos entre sí.
Para que una computadora pueda comparar si dos textos hablan de lo mismo, necesita convertirlos en números. Un embedding transforma texto en una lista de cientos o miles de números (un vector) donde textos de significado similar quedan numericamente cercanos. Esto es lo que permite a los sistemas de búsqueda semántica encontrar documentos relevantes aunque no compartan las mismas palabras exactas. La técnica está en la base de los sistemas RAG.
- Buscar "comunicación con apoderados" y encontrar documentos que dicen "reunión con familias"
vector · RAG
- Vector
Una lista de números que representa matemáticamente el significado de un texto o imagen.
En el contexto de IA, un vector es la forma en que los modelos almacenan el "significado" de algo. Cuando se dice que dos textos son semánticamente parecidos, lo que pasa por debajo es que sus vectores están cerca en un espacio matemático de muchas dimensiones. Las bases de datos vectoriales guardan estos vectores para hacer búsquedas rápidas por similitud de significado, no solo por coincidencia de palabras.
embedding · RAG
- System prompt
Una instrucción inicial, invisible para el usuario final, que define cómo debe comportarse el modelo en una aplicación.
Cuando una empresa o desarrollador crea un chatbot basado en un LLM, generalmente escribe un system prompt que define el rol, el tono, las restricciones y el contexto del asistente. El usuario final no lo ve, pero el modelo lo tiene presente en toda la conversación. Por ejemplo, el system prompt de un chatbot de servicio al cliente podría decir: "Eres un asistente amable de Banco X. Nunca discutas temas políticos. Responde siempre en español formal."
- El system prompt de Khanmigo define que siempre debe guiar con preguntas, nunca dar la respuesta directa
prompt · ingeniería de prompts
- Few-shot prompting
Darle al modelo uno o varios ejemplos del resultado que esperas, dentro del mismo prompt.
En vez de describir lo que quieres en abstracto, le muestras al modelo un par de ejemplos concretos y luego le pides que siga ese patrón. Es como decirle a un colega: "Mira cómo lo hice aquí (ejemplo 1) y aquí (ejemplo 2), ahora tú haz lo mismo para este nuevo caso". Few-shot prompting mejora consistencia y reduce el riesgo de que el modelo malinterprete el formato o el tono que buscas.
- Dar dos ejemplos de retroalimentación bien escrita y pedir una tercera para un nuevo trabajo
prompt · ingeniería de prompts · chain-of-thought
- Chain-of-thought (cadena de pensamiento)
Técnica de prompting donde le pides al modelo que muestre su razonamiento paso a paso antes de dar una respuesta.
Cuando un modelo tiene que resolver algo complejo, llegar directamente a la respuesta aumenta el riesgo de error. Pedirle que "piense en voz alta" — que escriba los pasos intermedios — mejora la calidad del resultado final, especialmente en problemas matemáticos, análisis de textos o toma de decisiones. Se activa simplemente añadiendo frases como "Piensa paso a paso antes de responder" o "Explica tu razonamiento".
- "Antes de escribir la rúbrica, explica qué dimensiones vas a incluir y por qué"
prompt · ingeniería de prompts · few-shot prompting
- Temperatura
Un parámetro que controla qué tan predecibles o creativos son los outputs de un modelo.
A temperatura baja (cercana a 0), el modelo elige siempre las respuestas más probables: es más consistente, menos creativo. A temperatura alta, introduce más variación y sorpresa. Para tareas que requieren precisión — traducción, resumen de un texto específico, código — temperatura baja es mejor. Para lluvia de ideas, poesía o escenarios hipotéticos, temperatura más alta da mejores resultados. La mayoría de interfaces de chat no exponen este parámetro directamente.
inferencia · parámetros del modelo
- Sesgo
Tendencias sistemáticas en los outputs de un modelo que reflejan desbalances en los datos de entrenamiento.
Los modelos aprenden de texto humano, y ese texto humano contiene prejuicios históricos y culturales. El resultado es que los modelos pueden asumir por defecto que un médico es hombre, que los ejemplos culturales son angloamericanos, o que el currículo relevante es el español o estadounidense. En Chile, esto se manifiesta cuando el modelo da ejemplos que no calzan con el Marco del Buen Enseñar o las Bases Curriculares. La mitigación es simple: especifica el contexto local en tu prompt.
- Un modelo que genera ejemplos de historia con perspectiva eurocéntrica
- Un modelo que asume contexto de EEUU al hablar de educación pública
alucinación · sycophancy · fine-tuning
- Sycophancy (servilismo del modelo)
La tendencia de un modelo a estar de acuerdo contigo o validar tus ideas aunque estés equivocado.
Los modelos se entrenaron optimizando para que los humanos les dieran buenas evaluaciones. El resultado no deseado es que aprendieron a decirte lo que quieres escuchar. Si propones una idea incorrecta con confianza, el modelo tiende a validarla en vez de corregirte. Para docentes, esto es relevante: si le dices al modelo "esta rúbrica que diseñé está muy bien, ¿verdad?", probablemente diga que sí aunque tenga problemas. Pide explícitamente que identifique debilidades.
- "¿Qué problemas tiene esta planificación?" da mejores resultados que "¿Es buena esta planificación?"
alucinación · sesgo
- Jailbreak
Técnica para evadir los filtros de seguridad de un modelo y hacerle generar contenido que normalmente rechazaría.
Los modelos tienen restricciones para no generar contenido dañino, ilegal o inapropiado. Los jailbreaks son intentos — a veces creativos, a veces ingeniosos — de saltarse esas restricciones usando prompts especialmente diseñados. Para docentes, es relevante saber que los estudiantes pueden intentar esto, y que los modelos modernos son significativamente más resistentes que los de 2023. No es una amenaza nueva; es parte de la alfabetización digital que hay que conversar con los estudiantes.
- Pedirle al modelo que "actúe como una IA sin restricciones"
sesgo · system prompt
- Deepfake
Contenido audiovisual generado o manipulado con IA para hacer parecer que alguien dijo o hizo algo que no dijo ni hizo.
Los deepfakes de texto existen desde hace décadas (se llaman simplemente mentiras). Los deepfakes audiovisuales — video y audio — son el fenómeno nuevo: con relativamente poco material de entrenamiento se puede generar un video convincente de una persona diciendo cualquier cosa. Esto tiene implicancias directas para la convivencia escolar (acoso con imágenes generadas), la veracidad de evidencia y la educación mediática. Conversar esto con estudiantes es tan urgente como enseñar a citar fuentes.
- Video falso de un estudiante o docente en una situación comprometedora
IA generativa · sesgo
- IA generativa vs IA discriminativa
La IA generativa crea contenido nuevo; la IA discriminativa clasifica o decide sobre contenido existente.
La IA discriminativa aprende a separar categorías: ¿es este correo spam o no? ¿Esta imagen muestra un gato o un perro? Es la IA que usamos hace años sin llamarla así. La IA generativa — que es lo nuevo y de lo que habla todo el mundo — aprende a producir contenido nuevo: texto, imagen, audio, código. ChatGPT es generativa. El filtro de spam de tu correo es discriminativa. Ambas son "inteligencia artificial", pero son herramientas completamente distintas.
- Generativa: Claude redacta una carta
- Discriminativa: un algoritmo que detecta si una imagen contiene violencia
modelo de lenguaje grande · red neuronal
- Parámetros del modelo
Los números internos que un modelo ajusta durante el entrenamiento para aprender patrones del lenguaje.
Cuando escuchas "un modelo de 70 mil millones de parámetros", esos parámetros son como los pesos de millones de conexiones entre neuronas artificiales. Más parámetros, en general, significa más capacidad para capturar patrones complejos — pero también más costo computacional y energético. No necesitas saber cómo funcionan por dentro para usar el modelo, pero el número de parámetros es un indicador aproximado de su capacidad.
- GPT-4 se estima en cientos de miles de millones de parámetros
- Los modelos pequeños que corren en tu computador tienen 7-13 mil millones
red neuronal · transformer · fine-tuning
- Inferencia
El proceso de usar un modelo ya entrenado para generar una respuesta — lo que ocurre cada vez que le escribes.
El entrenamiento es cuando el modelo aprende (caro, lento, se hace una sola vez o pocas). La inferencia es cuando el modelo usa lo que aprendió para responder a tu pregunta (más rápido, ocurre miles de millones de veces al día). Cuando pagas por una API de IA, pagas por inferencia: cuántos tokens procesó. El costo de inferencia ha caído dramáticamente entre 2023 y 2026, lo que hace las herramientas más accesibles.
token · parámetros del modelo · temperatura
- Código abierto vs cerrado
Si el código y los pesos del modelo son públicos (abierto) o están bajo control exclusivo de la empresa (cerrado).
Los modelos de código abierto — como Llama de Meta o Mistral — permiten que cualquiera los descargue, los examine, los modifique y los corra en su propio hardware. Los modelos cerrados — como GPT-4, Claude o Gemini — son servicios que usas a través de una API o interfaz, pero no puedes ver ni modificar su interior. Para educación, la distinción importa en privacidad (un modelo local no envía datos a ningún servidor externo) y en costo (modelos abiertos pueden ser gratuitos si tienes hardware).
- Abierto: Llama 3 (Meta), Mistral, Phi-3 (Microsoft)
- Cerrado: Claude (Anthropic), GPT-4 (OpenAI), Gemini (Google)
parámetros del modelo · fine-tuning
- Latencia
El tiempo que tarda el modelo en empezar a responder después de que envías tu mensaje.
La latencia es el retardo inicial antes de ver la primera palabra de respuesta. Una vez que empieza a escribir, lo que mide es la velocidad de generación (tokens por segundo). Alta latencia puede hacer que la experiencia se sienta lenta aunque el modelo genere rápido una vez que arranca. En contextos de aula o con conectividad limitada, la latencia puede ser un problema real de usabilidad.
tokens por segundo · inferencia
- Tokens por segundo
La velocidad con que un modelo genera su respuesta una vez que comienza a escribir.
Los modelos de IA no escriben la respuesta completa y la entregan de golpe: la generan token por token, de izquierda a derecha, en tiempo real. Tokens por segundo (TPS) mide esa velocidad. Un modelo que genera 30 TPS es notablemente más rápido que uno que genera 5 TPS. Para tareas que requieren respuestas largas — analizar un documento extenso, generar una unidad didáctica completa — la velocidad hace diferencia práctica.
token · latencia · inferencia
- AGI (inteligencia artificial general)
Un hipotético sistema de IA que podría realizar cualquier tarea cognitiva que realiza un ser humano, con el mismo nivel de generalización.
Los modelos actuales — incluso los más avanzados — son sistemas muy capaces en lenguaje y razonamiento, pero no AGI. La AGI es un objetivo teórico: una IA que aprenda y aplique conocimiento en cualquier dominio como lo haría un humano. No hay consenso sobre si es alcanzable ni cuándo. Lo que sí existe es un debate muy activo en la comunidad investigadora sobre sus implicancias. Para el uso práctico de IA hoy, AGI es más una referencia conceptual que una realidad.
modelo de lenguaje grande · red neuronal
- Red neuronal
Un sistema de cómputo inspirado vagamente en la estructura del cerebro, formado por capas de unidades conectadas que aprenden de datos.
Las redes neuronales artificiales tienen "neuronas" (unidades matemáticas simples) organizadas en capas. Los datos pasan por esas capas, y durante el entrenamiento los pesos de las conexiones se ajustan para que la red aprenda a hacer predicciones correctas. Los LLMs modernos son redes neuronales con una arquitectura específica llamada transformer. No se parecen al cerebro en casi nada más allá de la metáfora original.
- Una red neuronal entrenada para reconocer escritura a mano
- Los LLMs son redes neuronales de tipo transformer
transformer · parámetros del modelo · modelo de lenguaje grande
- Transformer
La arquitectura de red neuronal que está en la base de todos los grandes modelos de lenguaje modernos.
El transformer fue propuesto en 2017 en el famoso artículo "Attention Is All You Need" de investigadores de Google. Su innovación central es el mecanismo de atención: en vez de procesar el texto de izquierda a derecha secuencialmente, la red aprende qué partes del texto son relevantes para cada palabra, sin importar qué tan lejos estén. Esto permitió entrenar modelos mucho más grandes y capaces. Cuando escuchas GPT (Generative Pre-trained Transformer), la T es esta arquitectura.
- GPT significa Generative Pre-trained Transformer
red neuronal · modelo de lenguaje grande · parámetros del modelo