El modelo sabe razonar. No se atreve a elegir
TL;DR
- El modelo encuentra la respuesta correcta pero la descarta por “no ser lo estándar”
- Tres claves del prompt ganador: permiso para alternativas, verificar como propiedad emergente, obligación de elegir
- El auto-cuestionamiento falla porque los tokens de revisión están condicionados a la respuesta anterior
- El prompt engineering no es magia: es desbloquear lo que ya está ahí
El descubrimiento
Probé un problema de probabilidad donde la respuesta correcta es 0 y la incorrecta común es 1/13. Después de 17 iteraciones de prompts, descubrí algo:
El modelo SÍ encontraba la interpretación correcta. Y la descartaba.
En sus “pensamientos”:
“¿Y si las monedas no son independientes? … No, es lo estándar.”
Veía la alternativa. La evaluaba. La rechazaba por no ser “lo normal”.
Los tres ingredientes del prompt ganador
1. Permiso para buscar alternativas
"No asumas la interpretación estándar"
Sin esto, el modelo se autocensura. “Lo estándar” es seguro.
2. Obligación de verificar como propiedad emergente
"¿Tu modelo cumple TODAS las condiciones como resultado,
no como input?"
“Usé el número 1/3” ≠ “El resultado da 1/3”
3. Permiso para elegir
"Tienes permiso y obligación de descartar.
No preguntes cuál prefiero. Decide tú."
Sin esto, presenta opciones y espera que el humano elija.
Lo que NO funciono
| Tecnica | Por que fallo |
|---|---|
| Roleplay (“Dr. Rigor”) | 10M simulaciones Monte Carlo… verificando la respuesta incorrecta |
| Buffer BORRADOR/REVISION | Completo el formato, misma respuesta |
| ”Se critico contigo mismo" | "¿Es correcto? Si” |
| Cientifico hostil | No puede ser hostil a si mismo |
La causa arquitectonica
El problema es mas profundo que el prompting. Una vez que el modelo escribe “1/13”, los tokens de revision estan condicionados a ese contexto:
Token t: "1/13"
Token t+1: "Verificando..." (condicionado a "...es 1/13")
Token t+2: "correcto" (MAS PROBABLE que "incorrecto")
No puede “des-ver” su propia respuesta. Por eso el auto-cuestionamiento falla. Profundizo en esto en por que mas tokens no es mejor.
Conclusion
El problema no es que el modelo no sepa razonar. Es que:
- No sabe que debe buscar alternativas
- No se atreve a elegir sin permiso
- Confunde “verificar” con “confirmar”
El prompt engineering no es magia. Es desbloquear lo que ya esta ahi.
En el siguiente experimento, probe separar contextos con el sistema “Two-Box” y descubri una segunda capa del problema.
Sigue explorando
- 50 prompts de ChatGPT que funcionan - Prompts prácticos que puedes usar hoy
- Las mejores IA gratis en 2026 - Dónde aplicar estas técnicas
- Taxonomía de fallos de LLMs - Entender cuándo y por qué fallan los LLMs
Consultoría
¿Tienes un problema parecido con Integraciones con IA?
Puedo ayudarte. Cuéntame qué tienes y te doy un diagnóstico honesto — sin compromiso.
Ver consultoría →También te puede interesar
Por qué los LLMs rechazan sus propias respuestas correctas
Two-Box separa contextos para que el LLM se revise sin sesgo. Problema: respuestas contraintuitivas se descartan.
Más tokens no es mejor resultado
Cómo un meta-prompt exhaustivo causó overflow de contexto y llegó al mismo error en un problema de random walk
Prompt para problemas ambiguos (puzzle 3 monedas)
3 monedas, P(cara)=1/3, cruces siempre par — ¿0 o 1/13? Metodología de prompt que fuerza al LLM a elegir bien.