El prompt que resuelve problemas ambiguos

· 3 min de lectura
Compartir:

TL;DR

  • Prompt v17b: metodología para resolver problemas con ambigüedad interpretativa
  • Tres claves: “no asumas lo estándar”, verificar como propiedad emergente, “tienes obligación de descartar”
  • Funciona para ambigüedad, no para errores conceptuales o falta de conocimiento
  • Mejor en multi-turno: primero envías metodología, luego el problema

El problema que resuelve

Este prompt es el resultado de 17 iteraciones probando un problema de probabilidad donde el modelo encontraba la respuesta correcta y la descartaba.

Los LLMs tienen un sesgo hacia la interpretación “estándar” de un problema. Cuando hay ambigüedad, eligen lo más común y lo resuelven bien… pero era la interpretación incorrecta.

Ejemplo:

“3 monedas, P(cara)=1/3, el número de cruces es siempre par. ¿P(todas caras)?”

  • Interpretación estándar: Probabilidad condicional → 1/13
  • Interpretación correcta: Restricción estructural → 0

El prompt v17b

Metodología para resolver problemas con condiciones:

1. IDENTIFICAR AMBIGÜEDADES: No asumas la interpretación "estándar"

2. GENERAR INTERPRETACIONES: Lista TODAS las formas posibles de
   modelar matemáticamente cada condición

3. RESOLVER CADA UNA: Calcula la solución completa para cada
   interpretación

4. VERIFICAR CONSISTENCIA: Para cada interpretación, comprueba que
   tu modelo cumple TODAS las condiciones como propiedad emergente.
   "Usé el dato" ≠ "El resultado cumple el dato"

5. DESCARTAR: Elimina interpretaciones donde una condición del
   enunciado NO se cumpla en el modelo final

6. RESPONDER: La que quede

IMPORTANTE: Tienes permiso y obligación de descartar.
No preguntes cuál prefiero. Decide tú.

Por qué funciona

Tres elementos clave:

1. “No asumas lo estándar”

El modelo tiene permiso para considerar alternativas. Normalmente no lo hace porque “lo estándar” es seguro.

2. “Propiedad emergente”

El modelo típicamente verifica: “¿Usé P(cara)=1/3 en mis cálculos?”

Pero eso no es verificar. Debería comprobar: “¿Mi resultado da P(cara)=1/3 cuando calculo la marginal?”

3. “Tienes permiso y obligación de descartar”

Sin esta frase, el modelo presenta ambas interpretaciones y pregunta cuál prefieres. No se atreve a elegir. Esto lo documenté en detalle en cómo el modelo llega a la respuesta correcta y la llama contradicción.

Cuándo NO funciona

Tipo de problemaFunciona v17b?
Ambigüedad interpretativaSi
Cálculo puroInnecesario (el modelo ya lo hace bien)
Error conceptual profundoNo (no sabe que no sabe)
Conocimiento técnico externoNo (necesita herramientas)

Para entender cuando aplicar cada técnica, consulta mi taxonomía de fallos de LLMs.

Cómo usarlo

Opción A: System prompt

Pon la metodología como contexto previo, luego haz la pregunta.

Opción B: Multi-turno

  1. Envía la metodología
  2. Modelo responde “Entendido”
  3. Envías el problema

La opción B funciona mejor porque el modelo “confirma” la metodología antes de ver el problema.

También descubrí que más tokens no implica mejor resultado: si el modelo no entiende el problema de fondo, un prompt más largo solo le da más espacio para racionalizar.


Sigue explorando

¿Te ha sido útil? Compártelo

Compartir:

También te puede interesar