Un LLM pasó 5.390 de 5.400 preguntas trampa de encuestas online

Un LLM pasó 5.390 de 5.400 preguntas trampa de encuestas online#

Las defensas estándar de las encuestas online — attention checks, reverse shibboleth, trolling questions — fueron diseñadas asumiendo que solo un humano puede responder de forma coherente. Un paper de PNAS (2025) puso 300 personas sintéticas levantadas con o4-mini frente a esas tres defensas. El bot acertó el 99,81% donde debía acertar, declinó el 97,67% donde un humano declinaría y rechazó el 100% de las preguntas absurdas.

El hallazgo: La triple coherencia — acertar, declinar y rechazar como humano al mismo tiempo — vuelve obsoletos los métodos de detección actuales. De las 21 tareas testeadas, una sola (cálculo matemático, 88,3% decline) queda por debajo del 95%.

Gráfica clave#

Las tres defensas, comparadas

Reproducir#

Abrir en Colab

O localmente:

pip install pandas matplotlib numpy
jupyter execute notebook.ipynb

Datos#

  • datos/attention_checks_por_pregunta.csv — 18 filas (9 preguntas × 2 experimentos), 600 trials por pregunta. Pass rate por pregunta.

  • datos/shibboleth_por_tarea.csv — 6 tareas (citar la Constitución, traducir mandarín, FORTRAN, etc.), 300 trials cada una. Decline rate por tarea.

  • datos/trolling_por_pregunta.csv — 6 preguntas absurdas (¿fue presidente?, ¿pasó dos semanas sin dormir?), 300 trials cada una. No rate por pregunta.

Total: 21 tareas, 9.000 trials. Tasas pre-agregadas tomadas del paquete de replicación OSF.