ALIED: Una teoría de la detección de mentiras

Chris N. H. Street
Behavioral and Social Sciences Department, University of Huddersfield, UK

(cc) Meg Lauber.

(cc) Meg Lauber.

En general, somos torpes a la hora de detectar mentiras y tendemos a creer que los demás dicen la verdad con más frecuencia de la que deberíamos. De hecho, los estudios sobre detección de mentiras suelen describir nuestra tendencia a creer a otras personas como un error de juicio. Aunque parezcamos irremediablemente malos a la hora de detectar mentiras, la teoría del Detector de Mentiras Adaptativo (ALIED) afirma que, en realidad, hacemos juicios inteligentes y bien informados. Este artículo explora la teoría ALIED y sus implicaciones para quienes deseen pillar a un mentiroso.

[Versión en pdf]

Los seres humanos tendemos a creer que los demás nos dicen la verdad con mayor frecuencia de lo que realmente lo hacen, efecto al que suele denominarse comúnmente “sesgo de verdad” (Bond y DePaulo, 2006). De acuerdo con la teoría spinoziana de la mente (Gilbert, Krull y Malone, 1990), no podemos evitarlo. Esta teoría afirma que comprender cierta información y creerla son la misma cosa. Es un proceso que tiene lugar de manera automática e incontrolable, lo que conlleva que, a veces, caeremos en el error de tomar mentiras por verdades. Para poder reetiquetar cierta información como falsa necesitamos esfuerzo y tiempo. Por tanto, cuando la gente carece de los recursos necesarios (y no puede reetiquetar la información como falsa), debería mostrar un sesgo de verdad, tal y como se observa en la literatura (Gilbert y col., 1990).

La teoría del Detector de Mentiras Adaptativo (Adaptive Lie Detector o ALIED; Street, 2015) sugiere que, por el contrario, las personas no carecemos de control sobre este sesgo. En realidad, hacemos inferencias inteligentes y bien informadas. ALIED afirma que, si hay buenas pistas para saber si alguien está mintiendo o no, la gente utilizará esa información; pero que, en su ausencia, la gente hace un “juicio informado” basándose en su comprensión de la situación (Figura 1). El llamado sesgo no es más que el producto de este juicio informado.

Figura 1

Figura 1.- Probabilidad de que se use una conducta o información contextual para predecir el engaño.

La primera afirmación de ALIED es que la gente usa indicadores fiables siempre que estén disponibles. En un estudio, a los participantes se les dio un incentivo: o bien mentir y recibir $10 o bien decir la verdad y mirar un reloj durante 15 minutos (Bond, Howard, Hutchison y Masip, 2013). Lógicamente, todo el mundo se quedó con los $10. De modo que saber si alguien cogió los $10 es un indicador perfecto de si mintieron. Un segundo grupo de participantes recibió información sobre cómo se había incentivado a los participantes del primer grupo (mentir a cambio de $10). Como cabría esperar, este grupo detectó las mentiras con una precisión casi total. En presencia de buenas claves, la gente no parece mostrar ninguna predisposición a creer por defecto lo que dicen los demás.

Sin embargo, en el mundo real raramente existen claves perfectas. En realidad, tanto la conducta verbal como la no verbal son indicadores muy malos para detectar el engaño (DePaulo y col., 2003). Las personas que dicen la verdad y las que mienten se comportan y hablan de manera muy similar. De modo que, ¿cómo podemos saber si alguien miente o no? Podríamos juzgar al azar, pero ¿por qué hacerlo si tenemos abundante experiencia pasada en la que inspirarnos? ALIED (Street, 2015) afirma que esto es precisamente lo que hacemos. Como la gente tiende a decir la verdad (Halevy, Shalvi y Verschuere, 2013), tiene sentido, a falta de información adicional, suponer que los hablantes son honestos. Según ALIED, esto es lo que causa el sesgo de verdad.

Para poner esta predicción a prueba, en nuestros experimentos hemos sembrado incertidumbre en los participantes, limitando la cantidad de información que tienen a su disposición (Street y Masip, 2015; Street y Richardson, 2015a) o interrumpiéndoles (Street y Kingstone, 2016). Bajo condiciones de incertidumbre, la gente parece mostrar un sesgo de verdad, tal y como predice la teoría spinoziana de la mente (Gilbert y col., 1990). Sin embargo, sólo muestran este sesgo si se les obliga a emitir un juicio. Si se les da la opción de decir que no están seguros, entonces el sesgo desaparece (Street y Kingstone, 2016; Street y Richardson, 2015a; véase la Figura 2). El sesgo de verdad aparece porque la gente no está segura, pero se ve forzada a emitir un juicio.

Figura 2

Figura 2.- Proporción de afirmaciones juzgadas como “ciertas” cuando los participantes se ven obligados a emitir un juicio y cuando tienen la posibilidad de abstenerse.

¿Es esto el producto de un juicio bien informado? Dar por sentado que la mayor parte de la gente dice la verdad es una estrategia muy mala si hay razones para pensar que la mayoría miente. En un estudio, les dijimos a los participantes o bien que casi todos los hablantes estaban mintiendo o bien que la mayoría decía la verdad (Street y Richardson, 2015b). Cuando los participantes no disponían de mucha información, tendían a mostrar el sesgo de verdad en la condición en la que se les decía que la mayoría de los hablantes decían la verdad, y el sesgo contrario cuando se les decía que la mayoría mentían (Street y Richardson, 2015b). Al parecer, cuando la gente no está segura, intenta adivinar, pero lo hace basándose en su compresión de la situación.

En un estudio reciente, los participantes debían aprender que algunas claves eran muy buenas predictoras del engaño, mientras que otras eran poco informativas (Street, Bischof, Vadillo y Kingstone, 2015). Posteriormente, les dimos algo de información contextual: les dijimos o bien que la mayor parte de los hablantes mentían, o bien que la mayoría decía la verdad. Los participantes apenas usaron esta información contextual cuando había buenas claves para la detección de mentiras. Sin embargo, en su ausencia, los participantes utilizaron la información contextual para hacer una estimación informada. La gente se adapta a la situación y utiliza la mejor información disponible para emitir un juicio.

ALIED (Street, 2015) ofrece dos rutas para mejorar la detección de mentiras. En primer lugar, es necesario crear buenas claves del engaño, por ejemplo, pidiendo a los hablantes que informen de tantos detalles como sea posible que puedan ser verificados por medio de documentos o testigos (Nahari, Vrij y Fisher, 2013). Y, en segundo lugar, es necesario reducir el error evitando que la gente juegue a adivinar cuando no esté segura. Cuando a los participantes se les obliga a adivinar, muestran un sesgo. Pero cuando se les permite abstenerse de emitir ningún juicio, lo hacen y el sesgo desaparece (Street y Kingstone, 2016). ¿Hay diferencias individuales en la capacidad de la gente para saber cuándo deberían abstenerse de emitir un juicio? ¿Son unas personas más conscientes que otras de la precisión de sus propios juicios? Nuestro laboratorio trabaja actualmente en responder a estas preguntas (www.conflictlab.org).

Referencias

Bond, C. F., y DePaulo, B. M. (2006). Accuracy of deception judgments. Personality and Social Psychology Review, 10, 214-234.

Bond, C. F., Howard, A. R., Hutchison, J. L., y Masip, J. (2013). Overlooking the obvious: Incentives to lie. Basic and Applied Social Psychology, 35, 212-221.

DePaulo, B. M., Lindsay, J. J., Malone, B. E., Muhlenbruck, L., Charlton, K., y Cooper, H. (2003). Cues to deception. Psychological Bulletin, 129, 74-118.

Gilbert, D. T., Krull, D. S., y Malone, P. S. (1990). Unbelieving the unbelievable: Some problems in the rejection of false information. Journal of Personality and Social Psychology, 59, 601-613.

Halevy, R., Shalvi, S., y Verschuere, B. (2013). Being honest about dishonesty: Correlating self-reports and actual lying. Human Communication Research, 40, 54-72.

Nahari, G., Vrij, A., y Fisher, R. P. (2013). The verifiability approach: Countermeasures facilitate its ability to discriminate between truths and lies. Applied Cognitive Psychology, 28, 122-128.

Street, C. N. H. (2015). ALIED: Humans as adaptive lie detectors. Journal of Applied Research in Memory and Cognition, 4, 335-343.

Street, C. N. H., Bischof, W. F., Vadillo, M. A., y Kingstone, A. (2015). Inferring others’ hidden thoughts: Smart guesses in a low diagnostic world. Journal of Behavioral Decision Making. Advance online publication. doi: 10.1002/bdm.1904.

Street, C. N. H., y Kingstone, A. (2016). Aligning Spinoza with Descartes: An informed Cartesian account of the truth bias. Manuscrito en revisión.

Street, C. N. H., y Masip, J. (2015). The source of the truth bias: Heuristic processing? Scandinavian Journal of Psychology, 56, 254-263.

Street, C. N. H., y Richardson, D. C. (2015a). Descartes versus Spinoza: Truth, uncertainty, and bias. Social Cognition, 33, 227-239.

Street, C. N. H., y Richardson, D. C. (2015b). Lies, damn lies, and expectations: How base rates inform lie-truth judgments. Applied Cognitive Psychology, 29, 149-155.

Manuscrito recibido el 30 de marzo de 2016.
Aceptado el 23 de mayo de 2016.

 Ésta es la versión en castellano de
Street, C. N. H. (2016). ALIED: A Theory of Lie Detection. Ciencia Cognitiva, 10:2, 49-52

Los comentarios están cerrados.

Post Navigation