
Giovanna Caneva
Creative Copywriter Sr. en Coderhouse
Inteligencia Artificial
Términos clave de Prompt Engineering para entender LLMs
Publicado el
17 de dezembro de 2025
El Prompt Engineering es la disciplina de diseñar y optimizar las entradas (prompts) para obtener las mejores respuestas de los Modelos de Lenguaje Grandes (LLMs). Comprender su terminología es fundamental para cualquier persona que desee dominar la interacción con la inteligencia artificial y desbloquear su máximo potencial. Este artículo te guiará a través de los conceptos más importantes para que puedas empezar a construir prompts efectivos y entender cómo funcionan estos poderosos sistemas.
¿Qué es Prompt Engineering?
El Prompt Engineering es el arte y la ciencia de comunicarse con los LLMs. Se trata de cómo formulamos nuestras preguntas, instrucciones o peticiones para guiar al modelo a generar respuestas precisas, relevantes y útiles. No es solo escribir texto, sino estructurar ese texto de una manera que el modelo pueda interpretar de la forma más eficiente posible. Una buena ingeniería de prompts puede transformar un LLM de una herramienta básica a un asistente increíblemente potente, capaz de realizar tareas complejas desde la generación de código hasta la creación de contenido creativo.
Términos Fundamentales de Prompt Engineering
Prompt
El prompt es la entrada de texto que le das a un LLM. Puede ser una pregunta, una instrucción, un fragmento de texto para completar, o una combinación de estos. Es el punto de partida para cualquier interacción con el modelo.
Large Language Models (LLMs)
Los Large Language Models (LLMs) son modelos de inteligencia artificial entrenados en vastas cantidades de datos textuales para comprender, generar y responder a preguntas en lenguaje natural. Son la base de herramientas como ChatGPT, Gemini y Llama. Su capacidad para procesar y generar texto los convierte en el centro de la revolución de la IA generativa. Puedes aprender más sobre la tecnología detrás de estos modelos en la documentación de investigación de OpenAI.
Tokens
Los tokens son las unidades básicas de texto que los LLMs procesan. Pueden ser palabras completas, partes de palabras, o incluso caracteres individuales y espacios. Cuando ingresas un prompt, el LLM lo descompone en tokens para su procesamiento. Entender los tokens es crucial para gestionar la longitud de tus prompts y las respuestas generadas, ya que la mayoría de los LLMs tienen límites en la cantidad de tokens que pueden procesar por interacción. Google AI ofrece una buena definición de tokenización en el contexto del Machine Learning.
Context Window
La context window (ventana de contexto) se refiere a la cantidad máxima de tokens (tanto de entrada como de salida) que un LLM puede 'recordar' y procesar en una sola interacción. Si tu prompt y la respuesta superan este límite, el modelo puede 'olvidar' partes anteriores de la conversación o truncar la respuesta.
Temperatura (Temperature)
La temperatura es un parámetro que puedes ajustar en los LLMs para controlar la aleatoriedad o creatividad de sus respuestas. Un valor de temperatura bajo (ej. 0.2) hará que el modelo sea más determinista y predecible, mientras que un valor alto (ej. 0.8) lo hará más creativo y propenso a generar resultados diversos e inesperados.
Top-k y Top-p Sampling
Estos son métodos de muestreo utilizados para generar texto. Top-k restringe la selección de la siguiente palabra a las 'k' palabras más probables, mientras que Top-p (o nucleus sampling) selecciona un conjunto de palabras cuya probabilidad acumulada alcanza el valor 'p'. Ambos buscan equilibrar la coherencia con la diversidad en las respuestas del modelo.
Few-shot Learning / Zero-shot Learning
Zero-shot Learning: El LLM responde a una tarea sin haber visto ningún ejemplo explícito de esa tarea en el prompt. Se basa en su conocimiento pre-entrenado.
Few-shot Learning: Le proporcionas al LLM algunos ejemplos de la tarea que quieres que realice dentro del mismo prompt. Esto ayuda al modelo a entender mejor el formato o el tipo de respuesta esperada.
Role-playing / Persona Prompts
Esta técnica consiste en instruir al LLM para que asuma un rol o una persona específica (ej. 'Actúa como un experto en marketing digital', 'Eres un profesor de historia'). Esto ayuda a moldear el tono, el estilo y el contenido de sus respuestas para que se ajusten a ese perfil.
Chain-of-Thought (CoT) Prompting
Chain-of-Thought (CoT) Prompting es una técnica avanzada que instruye al LLM a 'pensar en voz alta' y mostrar los pasos intermedios de su razonamiento antes de dar una respuesta final. Esto es particularmente útil para problemas complejos que requieren múltiples pasos lógicos, mejorando la precisión y la explicabilidad de las soluciones del modelo. Un estudio clave sobre CoT puede encontrarse en artículos de investigación como los publicados en arXiv.
Guardrails
Los guardrails son mecanismos o instrucciones adicionales que se implementan para asegurar que un LLM se comporte de manera segura, ética y dentro de los límites deseados. Pueden ser reglas para evitar respuestas tóxicas, sesgadas, irrelevantes o que generen información falsa (alucinaciones).
FAQ sobre Prompt Engineering y LLMs
¿Por qué es importante el Prompt Engineering? Es crucial para obtener respuestas precisas y relevantes de los LLMs, maximizando su utilidad y eficiencia en diversas tareas.
¿Qué es una 'alucinación' en un LLM? Es cuando un LLM genera información falsa, inventada o sin base en los datos de entrenamiento o el prompt, presentándola como un hecho.
¿Puedo usar Prompt Engineering sin ser programador? ¡Absolutamente! El Prompt Engineering es una habilidad de comunicación textual accesible para todos, aunque los programadores pueden integrarlo en aplicaciones.
¿Cómo puedo mejorar mis prompts? Sé específico, proporciona contexto, usa ejemplos (few-shot), define el rol del LLM y experimenta con la temperatura.
Lleva tu Carrera al Próximo Nivel
Dominar el Prompt Engineering y la interacción con LLMs es una habilidad indispensable en el mercado laboral actual. En Coderhouse, te ofrecemos los cursos y carreras que necesitas para convertirte en un experto en inteligencia artificial.

Sobre el autor
¡Hola! Me dicen Gio 👋🏽 Soy Licenciada en Publicidad con una sólida trayectoria en marketing digital y gestión de contenidos UGC, influencers, paid media & owned media. Colaboré con industrias del mundo Tech, Beauty, Moda y Finanzas, cada una de las cuales aportó valor a mi perfil profesional desde un lugar diferente. 📲 Soy heavy user de redes sociales, lo cual me mantiene actualizada constantemente acerca de tendencias, vocabulario y buenas prácticas de las distintas plataformas. Para saber más sobre mi formación, ¡te invito a revisar mi perfil de LinkedIn!
