Por: Alex Cabrera Espejo, CEO Prevsis | secretario general del CGRICT | AI Advocacy | Labour Risk Management | Occupational Safety Health Well-Being | Sustainability | EHS | Vision Zero
Muchas personas me preguntan si debemos ser amables con la inteligencia artificial. Si decir “por favor” y “gracias” cuesta más dinero o si esto mejora la precisión. Además, últimamente apareció otra idea todavía más provocadora, que los modelos responden mejor cuando uno es rudo, exigente, incluso agresivo.
La pregunta es interesante, pero la discusión está mal enfocada.
Seguimos proyectando comportamiento humano sobre sistemas que no son humanos. Como si la máquina pudiera sentirse presionada, reaccionar emocionalmente o necesitar motivación. Es una trampa cognitiva muy comprensible, porque llevamos décadas consumiendo ciencia ficción que humaniza a las máquinas, como Terminator o Los Supersónicos, y porque los modelos actuales conversan con una fluidez que hace difícil recordar lo que realmente son, sistemas estadísticos, no interlocutores conscientes.
Los modelos de lenguaje no sienten nada. No se intimidan. No se esfuerzan más porque alguien les escriba con dureza. Son sistemas probabilísticos entrenados sobre enormes volúmenes de texto humano. Si un tono directo obtiene mejores resultados que uno excesivamente educado, la explicación no es psicológica. Es estructural.
Cuando llenamos la indicación, o en inglés el prompt, con cortesías y amabilidades, estamos agregando palabras que no aportan información operativa. Estamos diluyendo la señal. Cada palabra extra consume contexto sin mejorar la tarea. El modelo no entiende la intención detrás del “¿podrías, por favor, si no es mucha molestia…?”, simplemente procesa partes del lenguaje que no orientan hacia ningún resultado o instrucción concreta. En cambio, cuando escribimos de forma directa y precisa, concentramos significado. No es la rudeza lo que mejora el resultado, es principalmente ir al grano y ser taxativo.
Y aquí es donde la conversación se vuelve realmente relevante para quienes trabajamos con IA en procesos productivos complejos, en temas de seguridad y salud en el trabajo, donde las respuestas deben ser exactas. No se trata de realizar peticiones triviales. Se trata de análisis que afectan decisiones técnicas, regulatorias o estratégicas. En esos contextos, la calidad de la indicación es un factor crítico. Una instrucción bien construida puede ser la diferencia entre un resultado utilizable y uno que requiere reescribirse desde cero. Más aún cuando nos encontramos en entornos donde reportar un accidente implica que el tiempo, la precisión y la trazabilidad importan. Es allí donde estos temas marcan la diferencia y tienen consecuencias reales.
Y hay algo más profundo.
En el lenguaje humano, la exigencia suele ir de la mano con responsabilidad. Cuando alguien dice que algo debe ser perfecto, el contexto implícito es alta precisión, márgenes de error mínimos o nulos y consecuencias muy desfavorables si algo falla. Los modelos han aprendido esos patrones. No porque comprendan el riesgo, sino porque estadísticamente ese lenguaje coexiste con mayor rigor técnico. Han visto millones de documentos donde cierto tipo de formalidad y exigencia está acompañado de precisión.
Entonces, cuando escribimos que algo es crítico, que no hay margen de error, que el análisis será revisado por especialistas, no estamos intimidando al modelo. Estamos invocando un patrón de formalidad técnica que activa una distribución de respuesta más cuidadosa. Es ingeniería del lenguaje, no psicología aplicada.
Y ahora vamos a ponernos un poco incómodos. Si un modelo solo mejora cuando lo insultas, el problema no es el modelo. Es la falta de claridad en lo que escribes. La agresividad puede estar funcionando como un indicador accidental de urgencia o especificidad, pero no es el mecanismo activo. No es agresividad lo que necesitamos. Es estructura con propósito técnico y contexto bien definido. Una indicación hostil escrita de manera vaga seguirá produciendo resultados mediocres. Una indicación clara, acotada, con contexto suficiente y criterios explícitos de éxito, producirá resultados sólidos independientemente de si fue escrita con amabilidad o frialdad.
Si el resultado es inconsistente, faltó delimitar el alcance. Si divaga, no hubo marco de referencia. Siempre hay una causa estructural en la instrucción antes de culpar al modelo.
Esto tiene una implicancia que pocas veces se nombra explícitamente. La IA se está convirtiendo en un espejo de nuestra capacidad de pensar con claridad y de dedicarle el tiempo que merece a escribir y definir lo que realmente queremos lograr. No nos juzga, no nos presiona, no nos exige nada. Pero amplifica exactamente lo que le entregamos. Si el pensamiento es impreciso, la respuesta lo refleja. Si la pregunta está bien construida, el resultado lo demuestra.
La IA nos obliga a pensar mejor. Nos exige disciplina y especificidad. Esa es una de las competencias estratégicas que necesitamos desarrollar, la capacidad de comunicar con precisión lo que realmente necesitamos.




