Cuando un grupo de investigadores decidió comprobar si el «pensamiento positivo» aumentaba la precisión de los chatbots de inteligencia artificial (IA), obtuvieron resultados sorprendentes.
Al formular preguntas a varios chatbots, intentaron llamarlos «inteligentes», los animaron a pensar con cuidado e incluso terminaron sus preguntas con comentarios como: «¡Esto será divertido!».
Nada de esto tuvo un impacto significativo, pero hubo una técnica que se destacó. Cuando hicieron que una IA fingiera estar en la saga Star Trek, mejoró en matemáticas básicas.
La gente tiene todo tipo de estrategias extrañas para obtener mejores respuestas de los grandes modelos de lenguaje (LLM), la tecnología de IA que sustenta herramientas como ChatGPT.
Algunos juran que la IA funciona mejor si se la amenaza, otros creen que los chatbots son más cooperativos si se es educado y hay quienes piden a los robots que se hagan pasar por expertos en el tema que estén abordando.
La lista continúa. Forma parte de la mitología en torno a la «ingeniería de indicaciones» o la «ingeniería de contexto», diferentes formas de construir instrucciones para que la IA ofrezca mejores resultados.
La cuestión es la siguiente: los expertos me dicen que muchos de los conocimientos generalizados al respecto simplemente no funcionan. En algunos casos, incluso podrían ser peligrosos. Pero la forma en que se le habla a una IA sí importa y algunas técnicas realmente marcan la diferencia.
«Mucha gente cree que existe un conjunto mágico de palabras que permiten a los LLM resolver un problema», afirma Jules White, profesor de informática que estudia IA generativa en la Universidad de Vanderbilt (EE.UU.). «Pero no se trata de la elección de palabras, sino de cómo se expresa fundamentalmente lo que se intenta hacer».
¿Cuidar los modales?
El año pasado un usuario de la red social X publicó un tuit que decía: «Me pregunto cuánto dinero ha perdido OpenAI en electricidad por los mensajes de ‘por favor’ y ‘gracias’ de los usuarios».
Sam Altman, director ejecutivo de OpenAI, empresa creadora de ChatGPT, respondió: «Decenas de millones de dólares bien gastados», dijo. «Nunca se sabe».
La mayoría de la gente interpreta la última línea como una referencia descarada a la idea de un posible apocalipsis de la IA, aunque es difícil saber con qué seriedad tomar esa cifra de «decenas de millones de dólares». Pero la cortesía también es una cuestión práctica.
Fuente de la imagen,Getty Images
Los chatbots LLM funcionan dividiendo tus palabras en pequeños fragmentos llamados «tokens», antes de analizarlos mediante estadísticas para generar una respuesta adecuada.
Esto significa que cada cosa que dices, desde la elección de palabras hasta una coma de más, afectará la respuesta de la IA. El problema es que es extremadamente difícil de predecir.
Se han realizado numerosas investigaciones buscando patrones en pequeños cambios en las indicaciones de la IA, pero gran parte de la evidencia es contradictoria y no concluyente.
Por ejemplo, un estudio de 2024 descubrió que los chatbots LLM daban respuestas mejores y más precisas cuando se preguntaba con cortesía en lugar de simplemente dar órdenes.
Aún más extraño, existían diferencias culturales. En comparación con el chino y el inglés, los chatbots que hablaban japonés obtuvieron un rendimiento ligeramente inferior al excederse en la cortesía.
Pero, en general, no se ha investigado lo suficiente sobre este tema para llegar a conclusiones sólidas. Además, las empresas de IA actualizan constantemente sus chatbots, lo que significa que las investigaciones pueden quedar obsoletas.
Los expertos afirman que los modelos de IA han mejorado drásticamente en tan solo unos años, lo que ha convertido técnicas como la adulación, la cortesía, los insultos o las amenazas en una pérdida de tiempo si el objetivo es que la IA sea más precisa.
Fuente de la imagen,Getty Images
Según expertos, los modelos de IA más recientes que se encuentran en cualquier producto convencional, como ChatGPT, Gemini o Claude, son mejores a la hora de captar las partes más importantes de la instrucción.
Probablemente no se dejarán influir por estos pequeños cambios en el lenguaje, al menos no de una forma consistente que se pueda aprovechar.
Esto es inquietante a su manera. Las empresas suelen diseñar IA para que se comporten como personas, por lo que es lógico que a veces parezcan tener estados de ánimo o personalidades que se pueden controlar.
Pero no te dejes engañar. Las herramientas de IA son imitadores, no seres vivos. Simplemente simulan el comportamiento humano.
Si quieres mejores respuestas, deja de tratar a la IA como a una persona y empieza a tratarla como una herramienta.
Cómo hablar con tu chatbot
La IA presenta problemas muy reales, desde cuestiones éticas hasta su impacto ambiental. Algunas personas se niegan a interactuar con ella por completo.
Pero si vas a usar un LLM, aprender a obtener lo que quieres de forma más rápida y eficiente será mejor para ti y, probablemente, para la energía que consumes en el proceso.
Estos seis consejos te ayudarán a empezar.
Fuente de la imagen,Getty Images
1. Solicita múltiples opciones
«Lo primero que les digo a las personas es que no pidan una sola respuesta, sino tres o cinco», dice White.
Si necesitas ayuda con un texto, por ejemplo, dile a la IA que te dé múltiples opciones que varíen de forma significativa. «Esto obliga al ser humano a reflexionar y a pensar en lo que le gusta y por qué», explica.
2. Da ejemplos
Proporciona a la IA una muestra siempre que sea posible. «Por ejemplo, veo gente que le pide a un LLM que escriba un correo electrónico y luego se frustra porque piensa: ‘Eso no me suena para nada'», dice White.
El impulso natural es responder con una lista de instrucciones, como «haz esto» y «no hagas aquello». White afirma que es mucho más efectivo decir: «Aquí tienes 10 correos electrónicos que he enviado antes. Usa mi estilo de escritura».
3. Solicita una entrevista
«Supongamos que quieres generar una descripción de puesto. Dile a la IA: ‘Quiero que me hagas preguntas, una a una, hasta que hayas recopilado suficiente información para escribir una oferta de trabajo convincente'», explica White.
«Al hacerlo pregunta por pregunta, puede adaptarse a tus respuestas».
Fuente de la imagen,Getty Images
4. Cuidado con los juegos de rol
«Se solía pensar que si le decías a la IA que era profesor de matemáticas, por ejemplo, tendría mayor precisión al responder preguntas de matemáticas», afirma Sander Schulhoff, emprendedor e investigador que ayudó a popularizar la idea de la ingeniería rápida.
Sin embargo, cuando se busca información o se hacen preguntas con una sola respuesta correcta, Schulhoff y otros afirman que los juegos de rol pueden reducir la precisión de los modelos de IA.
«Eso realmente puede ser peligroso», dice Rick Battle, ingeniero de aprendizaje automático aplicado en Broadcom y coautor del estudio de «Viaje a las estrellas».
«En realidad, estás fomentando la alucinación porque le estás diciendo que es un experto y que debería confiar en su conocimiento paramétrico interno».
En esencia, esto puede hacer que la IA actúe con demasiada confianza.
Pero para tareas muy abiertas sin una respuesta única, el juego de roles es efectivo. Piensa en consejos, lluvia de ideas y resolución creativa o exploratoria de problemas.
O si te ponen nervioso las entrevistas de trabajo, pedirle a un chatbot que imite a un gerente de contratación podría ser una buena práctica.
Fuente de la imagen,Getty Images
5. Mantente neutral
«No guíes al testigo», dice Battle. Si intentas decidir entre dos autos, no digas que te inclinas por el Toyota. «De lo contrario, esa es la respuesta que probablemente obtendrás».
6. Por favor y gracias
Según una encuesta del Pew Research Center de 2019, más de la mitad de los estadounidenses dicen «por favor» cuando hablan con sus asistentes inteligentes.
Parece que esta tendencia continúa. Una encuesta realizada en 2025 por la editorial Future reveló que el 70% de las personas son educadas con la IA cuando la usan. La mayoría afirmó hacerlo porque es lo correcto, aunque el 12% sostuvo que era para protegerse en caso de rebeliones de robots.
La cortesía puede no protegerte de robots enfadados ni hacer que los LLM sean más precisos, pero hay otras razones para seguir haciéndolo.
«Para mí, lo más importante es que decir ‘por favor’ y ‘gracias’ puede hacerte sentir más cómodo interactuando con la IA», afirma Schulhoff. «No mejora el rendimiento del modelo, pero si te ayuda a usarlo más porque te sientes más cómodo, entonces es útil».
También hay que considerar la sensibilidad de tu propia naturaleza humana. El filósofo Immanuel Kant argumentó que una razón por la que no se debe ser cruel con los animales es que también es perjudicial para uno mismo.
En esencia, ser hostil con cualquier cosa te convierte en una persona más cruel. No puedes herir los sentimientos de una IA porque no los tiene, pero quizá deberías ser amable de todos modos. Es un hábito que podría beneficiar otros aspectos de tu vida.





