SCIO: Revista de Filosofía

Buscador

TRES GRANDES ENIGMAS DE LOS SESGOS COGNITIVOS

THREE PUZZLES ABOUT COGNITIVE BIASES

Jonatan García-Campos1, Saúl Sarabia-López2 y Paola Hernández-Chávez3

Resumen: En este trabajo ofrecemos un panorama al estudio de los sesgos. El creciente interés en ellos durante las últimas décadas radica en que estudiarlos implica hablar de cómo los seres humanos razonamos y emitimos juicios, e igualmente sobre los mecanismos y procesos que subyacen a tales capacidades. Esto incluye entender cuándo y por qué frecuentemente nos equivocamos, como lo indica buena parte de la literatura en psicología cognitiva del razonamiento.

Dada la existencia de los sesgos, han surgido posturas pesimistas que sostienen que los sesgos muestran que los humanos somos irracionales. Frente a estas, la literatura reciente ofrece visiones más optimistas, y aduce que los sesgos pueden “desaparecer” si se tienen en consideración diferentes aspectos de tipo evolutivo. Otra postura es aquella que sostienen que la supervivencia humana no yace en la inteligencia individual sino en la colectiva. Es decir, que podemos dejar de confiar exclusivamente en el contenido de nuestra mente y en su lugar resolver los problemas colectivamente, gracias a la división de las tareas cognitivas.

Para organizar la exposición dividimos el trabajo en tres enigmas de los sesgos cognitivos. El primero consiste en una discusión sobre el origen de los sesgos. El segundo concierne a su clasificación e inventarios. El tercer enigma versa sobre la unidad de análisis de la cognición humana, a saber, inteligencia individual versus inteligencia colectiva. Con estos enigmas queremos poner de manifiesto el abanico de discusiones que giran alrededor de los sesgos, sus problemas, así como la creciente fascinación por entenderlos. Estudiar los sesgos abona a la comprensión de cómo razonamos o pensamos, lo cual nos ayuda a mejorar nuestro pensamiento crítico.

Palabras clave: Racionalidad, errores cognitivos, clasificación de sesgos, inteligencia colectiva, pensamiento crítico.

Abstract: In this paper, we offer an overview of the study of biases. Investigating biases not only tell us a lot about how we reason and make judgments, but also refers to the mechanisms and processes that underlie such capacities. This includes understanding when and why we frequently make mistakes.

Given the existence of biases, pessimistic views have emerged. They claim that biases show that humans are irrational. Against this, recent literature offers more optimistic views arguing that biases can "disappear" if evolutionary considerations are taken into consideration. Another position maintains that human survival was possible not because of the individual, but due to collective intelligence. Therefore, we can stop relying exclusively on the content of our mind and instead solve problems collectively, thanks to the division of cognitive tasks.

We present three enigmas of cognitive biases. The first one consists of a discussion on the origin of biases. The second concerns the available classifications and inventories. The third puzzle deals with the unit of analysis of human cognition, namely, individual intelligence versus collective intelligence. With these enigmas, we want to highlight the range of discussions that revolve around biases, their problems, as well as the growing fascination for understanding them. Unraveling cognitive biases contributes to understanding how we reason, which helps to improve critical thinking.

Keywords: Rationality, Cognitive errors, Classifications of biases, Collective intelligence, Critical thinking.

1. INTRODUCCIÓN

Hablar de sesgos, errores o predisposiciones cognitivas refiere a todas aquellas ocasiones en que los humanos realizan procesamientos mentales imprecisos, distorsionados, o desinformados, al intentar interpretar la realidad, realizar juicios4, o simplemente aprehender el mundo. Como veremos a continuación, tales fenómenos son comportamientos humanos mayormente involuntarios que suelen deberse a: desinformación, cálculos apresurados, confusión durante la interpretación del contexto en que se opera (Gilovich, 1993), desaciertos en el uso de la lógica, o plena ignorancia que en su momento no se es capaz de admitir (Sloman & Fernbach, 2017). Otras veces los errores se reconocen, pero a pesar de ello persisten; razón por la cual también se les conoce como ilusiones cognitivas (Kahneman y Tversky, 1982).

Se les llama ilusiones cognitivas en alusión a las ilusiones ópticas. Una de las más conocidas es la ilusión de Müller-Lyer. Esta ilusión es representada por una figura donde dos segmentos de igual tamaño parecen más grandes o más pequeños dependiendo de si las puntas o las colas de las flechas apuntan hacia adentro o hacia afuera. Aunque sepamos que ambas líneas horizontales miden exactamente lo mismo, por alguna razón seguimos viendo más grande una de las flechas, i.e., la que tiene los extremos de la flecha hacia afuera. En otras palabras, hay algo en nosotros que persiste en creer que una de las líneas es más larga aun cuando hayamos comprobado que ambas líneas miden lo mismo. Sabemos que ambas líneas miden lo mismo, pero las vemos distintas.

Según Pohl (2017), algunas de las características de las ilusiones cognitivas son que: a) llevan a una percepción, juicio o memoria que difiere de la realidad, b) se desvían del estándar normativo de manera sistemática y no solamente aleatoria, c) son involuntarias, y, d) son difíciles de evitar. De dichas características hablaremos en las siguientes secciones.

El interés en el estudio de los sesgos yace en que tales conductas psicológicas condicionan la manera en que percibimos nuestro entorno, y de ahí las precauciones que debemos procurar respecto a los sesgos con que vivimos. Desde una perspectiva más teórica, estudiar los sesgos implica hablar de cómo los seres humanos razonamos, tomamos decisiones, cómo y por qué nos equivocamos.

A este respecto, abunda la literatura que parte del hecho de que los humanos somos propensos al error, predeciblemente irracionales, las más de las veces ignorantes; además de que somos víctimas de la ilusión de la comprensión. No es hasta que nos preguntan cómo funciona un baño, una bicicleta, un cierre, etc., que nos percatamos de que sabemos muchísimo menos de lo que creíamos; lo que también se conoce como la ilusión de profundidad explicativa. Frecuentemente tenemos una sensación de comprensión que no podemos desarrollar, de forma tal que una porción significativa de nuestro conocimiento se reduce a un sinnúmero de asociaciones e ideas que realmente no podemos explicar (Sloman & Fernbach 2017, p. 12).

Tal literatura tiene como misión dar respuesta a cómo, a pesar de las patentes limitaciones en la cantidad de información que podemos procesar –compárese con una computadora–, nos hemos hecho expertos en sobrevivir. Para algunos, la clave de este éxito está en la inteligencia colectiva, en que podemos dejar de confiar exclusivamente en lo que hay en nuestra cabeza y en su lugar resolver encrucijadas colectivamente, i.e., colaborar con otros y dividir las tareas cognitivas. El foco de este tipo de ideas desplaza la tajante división que solía haber entre lo que hay dentro de nuestra mente y lo que hay fuera de ella, a saber, las mentes de los otros. De forma tal que el conocimiento no se encuentra alojado en nuestra cabeza sino en las comunidades, los grupos, los equipos, etc. (Sloman & Fernbach 2017, p. 16).

Rasgos que hacen patente el carácter público del conocimiento y la inteligencia es la capacidad humana de la abstracción, el hecho de que somos máquinas que fabricamos inferencias incluso de lo que no podemos ver, que cotidianamente elaboramos razonamientos causales hacia adelante para predecir, ideamos simulaciones, e igualmente inferimos causalmente hacia atrás, es decir, razonando de efectos a causas para, por ejemplo, hacer diagnósticos. El problema con este tipo de procesos es que frecuentemente obviamos alternativas y sobresimplificamos (Sloman & Fernbach 2017, p. 55).

Así, los sesgos existen porque aprender lleva tiempo, corregir requiere esfuerzo, el mundo es demasiado complejo si lo pensamos con una sola mente, y sobre todo porque la finalidad del pensamiento no es la verdad ni la perfección en el conocimiento, sino únicamente orientar pragmáticamente nuestras acciones en el mundo.

Es importante adentrarnos en el estudio de los sesgos, conocer cómo razona el ser humano, porque eso ayuda a mejorar el pensamiento crítico, entendido como “el pensamiento cuidadoso dirigido hacia un objetivo” (Hitchcock 2020), o bien como “el pensamiento reflexivo razonado a la hora de decidir qué hacer o creer” (Ennis 2005, p. 48). Los pensadores críticos requieren conocer a cabalidad aquellas disposiciones y habilidades del pensamiento que puedan evitar los errores sistemáticos del pensamiento o los sesgos cognitivos. Así, estudiar los sesgos es importante porque nos ayuda a conocer cómo razonamos y saber cómo razonamos favorece al pensamiento crítico.

Diferentes propuestas teóricas se han ofrecido para estudiar los sesgos, sin embargo, no todas coinciden en cómo deben ser abordados, o qué rasgos son los más relevantes. La literatura en torno a los sesgos cognitivos es muy amplia y variada.5 No obstante, en el presente trabajo presentamos solamente una revisión panorámica con el fin de introducir las diferentes maneras en que los sesgos se han estudiado en programas de investigación recientes. Para organizar la exposición y lograr ofrecer dicha visión panorámica, hemos dividido el trabajo en forma de enigmas de los sesgos cognitivos. El primero de los enigmas consiste en una discusión sobre el origen de los sesgos. El segundo enigma concierne a la clasificación de los sesgos, i.e., en la elaboración de una lista de estos en distintas áreas de conocimiento, lo cual implica que el énfasis en las características y los rasgos de los sesgos comparten una matriz disciplinar, así como un marco teórico. El tercer enigma respecta al enfoque individualista o unidad de análisis en el estudio de los sesgos. Con estos enigmas queremos hacer patente que existe un abanico de discusiones que giran alrededor del estudio de los sesgos.

2. EL ENIGMA DEL ORIGEN DE LOS SESGOS COGNITIVOS

La psicología cognitiva del razonamiento de los últimos cincuenta años ha sido testigo de una riqueza de propuestas que tratan de explicar cómo es que los seres humanos razonamos y tomamos decisiones. Dentro de estas se encuentra la denominada tradición de heurística y sesgo, liderada por Daniel Kahneman y Amos Tversky (Kahneman, Slovic y Tversky, 1982, Gilovich y Griffin, 2002). En sus primeros trabajos, estos autores se abocaron al estudio del razonamiento inductivo o probabilístico, i.e., aquel donde no se tiene una conclusión que se derive lógicamente de las premisas. La probabilidad de que mañana llueva, de que una persona de 60 años padezca diabetes, o de que un sujeto sea abogado o ingeniero a partir de un conjunto de descripciones, son el tipo de juicios que exploraron Kahneman y Tversky. Según estos psicólogos, a partir de unas cuantas heurísticas, los seres humanos elaboramos juicios, los cuales fácilmente nos conducen a errores sistemáticos y predecibles. Esto es lo que ellos denominan como sesgos.

Una de las heurísticas postuladas por Kahneman y Tversky es la representatividad. En ella, un sujeto juzga la probabilidad de que A pertenezca a B dependiendo de qué tan representativo es A de B (Kahneman y Tversky, 1982). En el ejemplo más clásico, a un grupo de participantes se les presenta la descripción de una mujer (de nombre Linda, que estudió filosofía y que estuvo interesada en problemas sociales), y después se les ofrece un conjunto de enunciados tras los cuales deben seleccionar cuál es la profesión que tiene actualmente dicha mujer. Los participantes consideran que la probabilidad de la profesión depende de la descripción y no de lo que indicaría la teoría de la probabilidad (que un evento compuesto –que Linda sea cajera y feminista– es menos probable que un evento simple –que Linda sea únicamente cajera). En este caso el sesgo, que no es otra cosa que cometer la falacia de la conjunción, se debe a que la descripción simple es menos representativa que la conjunción “cajera y feminista”.

Esta famosa tarea de razonamiento puede ayudarnos a apreciar varios aspectos de cómo Kahneman y Tversky entendieron los sesgos. Entre ellos, que un sesgo puede consistir en un error respecto a un estándar normativo de la lógica o la matemática. Para la tradición de heurística y sesgo, “Linda es cajera y es feminista” constituye un error porque no satisface el principio de probabilidad en tanto que un evento compuesto no puede ser mayor que un evento simple. Así, en la tradición de heurística y sesgo, la idea de sesgo como error depende de asumir una visión de racionalidad “estándar” (Stein, 1996), esto es, que razonar correctamente depende de seguir los principios de la lógica o la matemática.6

Por otra parte, según la tradición de heurística y sesgo, los errores no son una irracionalidad motivada, por ejemplo, por un deseo reprimido, como en otras explicaciones psicológicas. Se puede decir que los sesgos son errores observables, mientras que las heurísticas explican tales sesgos. Es importante destacar que no se pueden reducir o eliminar los sesgos ofreciendo incentivos, por petición explícita a que los sujetos presten mayor atención, o a que hagan uso de todos sus recursos cognitivos.7 Kahneman y Tversky (1982) señalan que los sesgos son sistemáticos y no cambian con la educación, es decir, incluso las personas entrenadas en el razonamiento matemático podrían cometer dichos errores.8

La tradición de heurística y sesgo no ofrece como tal una lista de sesgos, más bien considera que a cada heurística le corresponde un diferente número –a veces grande– de sesgos. De hecho, debido al énfasis que este proyecto psicológico hizo en los errores, se asoció a un pesimismo en donde los seres humanos son básicamente irracionales.9 Frente al pesimismo se ofrecieron propuestas que plantearon que muchos de los sesgos podían desaparecer si se tomaban en cuenta aspectos evolutivos. Uno de los proyectos que los incluyó y que explícitamente consideró que se podía llegar a conclusiones diferentes fue la Psicología Evolucionista (PE).10

La PE es, como sus propios defensores la definen (Cosmides y Tooby, 1997), un acercamiento a la psicología en donde consideraciones de tipo evolutivo se utilizan para explicar diferentes tópicos psicológicos (desde los celos hasta el razonamiento). Los defensores de la PE defienden una visión particular de la arquitectura de la mente y un acercamiento metodológico específico (Carruthers, 2006). En cuanto a la estructura de la mente, distan de la modularidad postulada por Jerry Fodor (1983), la cual indicaba que solo una pequeña fracción de la mente es modular –la periferia de ésta. Para Fodor (1983) los sistemas cognitivos modulares son mecanismos computacionales con las siguientes características: cableados (“hardwired”); pueden estar asociados a una arquitectura neural fija (vs. no cualquier parte del cerebro), posiblemente están predeterminados genéticamente; son específicos de dominio; tienen un rango de operación que se limita a los insumos elementales, esto es, sólo a los dominios de información relevantes para su capacidad de procesamiento particular; son rápidos, autónomos (no tienen interacción informacional con otros módulos) y son obligatorios; automáticos, detonados por estímulos, e insensibles a información del procesador central. Finalmente, el aspecto mas importante de un módulo, según expresa Fodor (1983), es que está encapsulado informacionalmente, lo que significa que es insensible e inaccesible a información de otras partes de la mente, las cuales sólo pueden conocer la acción resultante (output) del módulo (Hernández-Chávez 2016).

En contraste, tenemos la tesis de la modularidad masiva, según la cual la mente está compuesta toda o casi en su totalidad por mecanismos computacionales que son producto de la selección natural. En otras palabras, cada mecanismo cognitivo, si es modular, es porque fue modelado a lo largo de la historia adaptativa de la especie humana y, por ese motivo, es eficiente en el medio evolutivo. Entre los mecanismos modulares se encuentra la capacidad para identificar rostros, para atribuir estados mentales, para detectar tramposos, para seleccionar pareja, para desarrollar un lenguaje, y un largo etcétera. Según la PE, al ser producto de la evolución, dichos mecanismos son universales, se desarrollan de manera natural y tenderán a cumplir su función de manera adecuada.

En cuanto al acercamiento metodológico de la PE, lo que comúnmente hace es inferir a qué tipo de problemas pudieron enfrentarse nuestros ancestros cazadores recolectores, para con ello postular el tipo de mecanismo que debió haber surgido para solucionarlo. Una vez que se postula un mecanismo, se llega de regreso hasta los humanos modernos para comprobar si dicho mecanismo es el caso. Es así que se replican los mismos experimentos producidos por la tradición de heurística y sesgo para demostrar que los sesgos desaparecen cuando los aspectos evolutivos son tomados en consideración.

Un caso de módulo propuesto por la PE es el módulo frecuentista (Cosmides y Tooby, 1996). Según este, los ancestros cazadores recolectores solamente tuvieron acceso a frecuencias del tipo “una de cada cuatro veces que se cazó en el lago se tuvo éxito”. Dado que buena parte de la historia de la especie del ser humano se tuvo estos insumos –piensan los defensores de la PE– tal mecanismo fue moldeado para procesar ese tipo de información, viz., el módulo frecuentista. Con dicho módulo, los psicólogos evolucionistas regresan a tareas como la de “Linda, la cajera feminista” y otros ejemplos, para mostrar cómo si esa misma tarea es presentada en forma de frecuencias, entonces los errores desaparecen.11

Una lección que podría tomarse de este tipo de reformulaciones es que los resultados de los experimentos pueden modificarse a partir del tipo de información que se presenta a los sujetos. Los psicólogos evolucionistas pensarían que los sesgos desaparecen, aunque los defensores de la tradición de heurística y sesgo dudan de la eficacia de ello (Gilovich y Griffin, 2002). Por otra parte, como los módulos son universales, la PE sostendría que todos los seres humanos de manera natural tenderían a responder correctamente a diferentes tareas de razonamiento si reciben los insumos adecuados, como lo es la información en términos de frecuencias del ejemplo anterior. En ese sentido, los sesgos pueden ocurrir no porque los seres humanos carezcan de los mecanismos cognitivos adecuados, sino porque para que esos mecanismos ofrezcan resultados normativamente aceptables requieren de los insumos adecuados.12

Este punto es relevante debido a que se pone énfasis en las diferentes maneras en que se originan los sesgos, viz., en Kahneman y Tversky se debe a que el ser humano no cuenta con el repertorio adecuado de procesos cognitivos (en lugar de ello se cuenta con heurísticas), mientras que en Cosmides y Tooby el error se debe principalmente no a que el mecanismo sea inadecuado sino a que la información no activa el mecanismo, como cuando la información por porcentajes no activa el módulo que trabaja con frecuencias. Así, el origen de los errores en las tareas de razonamiento es una diferencia importante entre la tradición de heurística y sesgo y la PE.

Las diferencias entre las propuestas no terminan ahí. Una que puede ser relevante concierne a cuáles son las normas adecuadas de buen razonamiento. En principio los dos proyectos aceptan la visión estándar de la racionalidad, pero difieren en cómo se debe interpretar. En varios trabajos los defensores de la PE consideran que existe un debate dentro de la teoría de la probabilidad (probabilidad objetiva versus probabilidad subjetiva) y que los sujetos pueden cumplir una sin satisfacer la otra. “No hay un único “cálculo de probabilidad”, sino muchos, el hecho que los sujetos no sigan uno de ellos no excluye la posibilidad de que sigan otro” (Cosmides y Tooby, 1996, p. 2).13

Debido a que los sesgos parecen desaparecer según la PE, se ha identificado a esta como una visión optimista sobre cómo razonamos los seres humanos. De hecho, la PE se asocia con una visión panglosiana en donde cada uno de los módulos hace su trabajo de manera adecuada y para bien, como defendería el Dr. Pangloss en la novela Cándido de Voltaire.

Una manera de lidiar entre el pesimismo de la tradición de heurística y sesgo y el optimismo de la PE es con la teoría dual de sistemas. Explícitamente, esta teoría ha tratado de explicar en qué sentido los seres humanos son racionales a pesar de los descubrimientos hechos en el laboratorio en donde parece que son irracionales (Evans y Over, 1996, Stanovich, 2021). Si bien no existe una única manera de entender la teoría dual, en términos generales sostienen que existen dos sistemas de razonamiento o dos tipos de razonamiento distinto (Evans, 2009). Los procesos de razonamiento Tipo 1 son rápidos, universales, trabajan en paralelo, normalmente el sujeto no es consciente de su funcionamiento –sólo de los resultados–, son evolutivamente antiguos y compartidos con otros animales. Por su parte, los procesos de razonamiento Tipo 2 son lentos, moldeados por la cultura y la capacidad de memoria de los individuos, trabajan de manera secuencial, el individuo es consciente de dicho funcionamiento, son evolutivamente modernos y distintivamente humanos.

Existen diferentes maneras en que se relacionan los dos tipos de razonamiento. La propuesta más común, según Evans y Stanovich (2013), es que los procesos Tipo 1 al ser rápidos ofrecen una respuesta que es tomada por los procesos Tipo 2. Algunas veces los procesos Tipo 2 pueden corregir la respuesta de los insumos que recibe de los procesos Tipo 1. Sin embargo, en la mayoría de las ocasiones los procesos Tipo 2, por decirlo de algún modo, convencen al sujeto de la decisión tomada por los procesos Tipo 1. Es decir, racionalizan la decisión tomada por los procesos Tipo 1. Esta manera de relacionar a los dos tipos de procesos es relevante para entender cómo los defensores de la teoría dual explican la aparición de los sesgos o errores de razonamiento. Veamos.

Los errores de razonamiento surgen, según la teoría dual, cuando información que no es relevante, o que no es la adecuada para producir respuestas normativamente adecuadas, es preseleccionada por los procesos Tipo 1 (Evans y Over, 1996). Una vez que dichas respuestas son generadas, los procesos Tipo 2 las toman como insumos, de modo que no ofrecen una respuesta correcta debido a los insumos con los que trabajan.

Si esta explicación es el caso, entonces el origen de los sesgos surge en gran medida de la interacción de los dos tipos de procesos. Los defensores de la teoría dual comparten con la tradición de heurística y sesgo la idea de que algunos procesos –por su naturaleza, por ejemplo, por ser rápidos– no ofrecen respuestas normativamente adecuadas. Sin embargo, los defensores de la teoría dual comparten con la PE la idea de que los seres humanos sí cuentan con procesos que pueden ser normativamente adecuados, esto es, los procesos Tipo 2, pero estos pueden ofrecer respuestas incorrectas debido a los insumos que reciben. Como señalamos anteriormente, los procesos Tipo 2 pueden ser relativamente diferentes en cada sujeto y estar influenciados por la cultura y la capacidad de memoria, motivo por el cual, en algunas ocasiones, revisan los resultados de los procesos Tipo 1 y, literalmente, corrigen dichos resultados. En estos casos, a pesar del funcionamiento rápido de los procesos Tipo 1, los sujetos pueden ofrecer una respuesta correcta según los criterios de la visión estándar de la racionalidad.14Stanovich y West (2000) precisamente han defendido que comúnmente los sujetos con una inteligencia mayor –medida por pruebas como la SAT–15 tienden a ofrecer mejores respuestas en tareas de razonamiento en los laboratorios psicológicos, esto es, que estos sujetos resuelven correctamente pruebas como la de “Linda, la cajera feminista”. En ese sentido, a diferencia de la tradición de heurística y sesgo, Stanovich y West (2000) sí defienden que los resultados de razonamiento pueden ser modificados parcialmente por la inteligencia y la educación del sujeto. Cabría preguntarse aquí si los sesgos para la teoría dual resultan involuntarios, como sucede con la tradición de heurística y sesgo. No existe una respuesta fácil a la anterior pregunta; por un lado, al ser producto de los procesos Tipo 1 –que son rápidos y relativamente inconscientes– parece que los sesgos son involuntarios. Sin embargo, al contar los seres humanos con procesos Tipo 2, que algunas veces pueden corregir los resultados de los procesos Tipo 1, parece que en algunas ocasiones el sujeto es responsable y puede controlar su competencia de razonamiento.

En suma, en esta sección hemos revisado tres teorías psicológicas que ofrecen explicaciones de cómo surgen los sesgos de razonamiento. Estas teorías parecen compartir la idea de que los sesgos son sistemáticos y que dependen de ciertos estándares de qué se entiende por razonar correctamente. No obstante, guardan diferencias. Para nosotros una de las más relevantes es el cómo explican el surgimiento de los sesgos de razonamiento. La tradición de heurística y sesgo parece defender que estos surgen por la carencia de procesos cognitivos normativamente adecuados; la PE sostiene que en la mayoría de los casos los sesgos surgen debido a que la información no logra activar el módulo cognitivo, o no lo hace de manera adecuada. Por su parte, los defensores de la teoría dual sostienen que los sesgos surgen de la tensión entre dos tipos de razonamiento, en especial, cuando la respuesta ofrecida por los procesos Tipo 1 son normativamente problemáticos y son tomados como insumo en los procesos Tipo 2. No obstante su origen, los tres enfoques coinciden en que los sesgos no pueden modificarse, o que solo lo pueden hacer a partir de la información recibida, o bien que dependen de la inteligencia y memoria del sujeto. Cada propuesta revisada aquí concibe a los sesgos como errores relacionados con estándares normativos, aunque ninguna de ellas se compromete con elaborar una lista de tales errores16, o con desarrollar estrategias para evitarlos. Dada esta inminente necesidad, en la siguiente sección presentamos algunas propuestas de clasificación de los sesgos en disciplinas particulares.

3. EL ENIGMA SOBRE LOS TIPOS Y CLASIFICACIONES DE LOS SESGOS

La literatura que circunda a la tipificación de los sesgos es masiva y diversa (véase Kahneman 2011). Este interés y masividad obedece a diversas motivaciones, comenzando por el hecho de que tal literatura confronta la monolítica imagen que por milenios se ha tenido sobre la racionalidad y la inteligencia humanas. Tal imagen se ha puesto en duda con evidencia de laboratorio –la misma que vimos en la anterior sección– según la cual los seres humanos no son racionales de manera sistemática y predecible (Kahneman y Tversky, 1982). Similarmente, el interés por estudiar los sesgos radica en que juegan un papel determinante incluso en los diseños experimentales, la ciencia, y sus resultados en distintas áreas de conocimiento.

La literatura es vasta y no pretendemos presentar todas las listas de sesgos. Enseguida enumeramos algunas de las clasificaciones, así como sus principales focos de interés con la única finalidad de hacer patente que ofrecer un inventario de sesgos puede promover estrategias para evitarlos. Veamos.

Entre los distintos catálogos de sesgos disponibles se encuentra la iniciativa colaborativa del Centro de Medicina Basada en Evidencia de la Universidad de Oxford, impulsada por Dave Sackett desde 1995. Esta se centra en los sesgos que operan en la clínica práctica cotidiana de los sistemas de salud, con la intención de abonar al saneamiento de la medicina basada en evidencias. Entre los sesgos más comunes que reportan en su sitio web https://catalogofbias.org, se encuentran los siguientes:

El sesgo de tasa de admisión, también conocido como sesgo de Berkson. Este ocurre cuando la cantidad de sujetos hospitalizados comienza a afectar las variables de un experimento debido al sesgo de correlacionar la exposición y la enfermedad que se está estudiando. Un ejemplo claro podemos verlo en el contexto pandémico actual donde, de manera controvertida, se correlaciona la cantidad de sujetos hospitalizados y el riesgo de exposición a la enfermedad, afectando al total de las variables (Spencer et al., 2018).

El sesgo de distribución o atribución acontece frecuentemente en los ensayos clínicos cuando un investigador es capaz de predecir el tipo de prueba que se le asignará a un participante. Así, se asume la existencia de un contraste agudo y sistemático entre participantes y grupos de control. Las consecuencias se evidencian en la selección de participantes y de grupos. El peligro con este tipo de casos es que ocurra un sesgo en la elección de uno u otro grupo, así como los riesgos acarreados en términos de los pronósticos (Spencer et al., 2017).

El sesgo de aprehensividad es latente cuando los participantes de un estudio se sienten observados y con base en ello actúan de forma poco natural, en contraste a cuando no son observados. Nótese que estos cambios pueden ser inconscientes y no intencionales, no obstante, traen como consecuencia un margen de error muy alto en la medición de los resultados del análisis, comenzando por los fisiológicos. Por ejemplo, cuando se mide la presión arterial. Este cambio conductual de los sujetos es similar a lo que se conoce como el efecto Hawthorne, a saber, cuando los individuos al saberse observados cambian sus respuestas (Landsberger 1958; Levitt & List 2011; Brassey et. al., 2019).

El sesgo de sumisión o adherencia versa sobre la diferencia entre los pacientes que se comprometen con un tratamiento, terapia, o intervención y aquellos que no se adhieren. Este contraste juega un rol importante a la hora de elegir pacientes, como bien observó Sackett (1979), y afecta de modo crucial la medición de efectividad de la intervención bajo escrutinio. En concreto, el sesgo de sumisión –o no sumisión– puede llevar a confusión y errores catastróficos. Por ejemplo, medir la eficacia de un medicamento en pacientes con riesgo de enfermedad coronaria y no saber exactamente cuál fue el nivel de adherencia de los pacientes ha afectado a enormes proyectos de investigación (como al Coronary Drug Project Research Group, 1980). En estos casos, se puede estar leyendo la efectividad como adherencia y a la inversa, afectando inclusive los datos concernientes a las tasas de mortalidad tras una prescripción o tratamiento. Lo más dramático sobre este tipo de sesgos es que no se cuenta con estudios suficientes que puedan discriminar con precisión el nivel de adherencia potencial entre pacientes (véase Van Boven et al., 2014).

La lista de sesgos que aquí presentamos por supuesto no es exhaustiva, sirva únicamente como muestra de cómo se utilizan y con qué propósitos en áreas particulares de estudio, como la medicina basada en evidencias, que presenta su extenso catálogo de sesgos –de los cuales nosotros únicamente mencionamos cuatro– para poder diseñar estrategias para evitarlos.

A diferencia del enigma presentado en la sección anterior, los listados de sesgos no se ocupan de entender qué es lo que los origina, sino que se limitan a señalarlos para fines prácticos o de eficacia, por ejemplo, para alcanzar un diagnóstico médico correcto.

En la siguiente sección revisaremos otra postura de los sesgos, esto es, aquella perspectiva que consideran que un enfoque no individualista de la cognición hace que los sesgos “desaparezcan”.

4. EL ENIGMA SOBRE LA UNIDAD DE ANÁLISIS EN EL ESTUDIO DE LOS SESGOS

Recientemente se ha defendido que la función del pensamiento y del razonamiento es social y no individual (Mercier y Sperber 2017, Norman 2016, Sloman y Fernbach 2017). Esta corriente defiende que el éxito cognitivo de los humanos no reside en nuestras capacidades mentales individuales sino en nuestras interacciones sociales (véase Henrich 2016; Hutchins 1985). Pensar rara vez se queda en una actividad solitaria que se lleva a cabo en la cabeza de la gente. Por el contrario, pensar es algo que se realiza en colaboración (Kuhn 2005, p. 13). Esto explica por qué cuando el foco de interés es el individuo se hace patente que el pensamiento individual es el que está plagado de sesgos, lo cual resulta menos catastrófico cuando lo contextualizamos al colectivo.

Más detenidamente, esta visión social del razonamiento parte de que la historia moderna del pensamiento ha asumido que la unidad de análisis es el individuo y sus procesamientos mentales internos.17 De modo que los sesgos o errores del pensamiento lucen como demasiado graves debido al fuerte énfasis en la autonomía cognitiva de las personas. No obstante, cuando se sitúa al individuo en el contexto de interacciones sociales, los sesgos disminuyen o desaparecen. En otras palabras, los sesgos son vistos como errores del pensamiento solo si se analizan en términos individualistas. Sin embargo, cuando se adquiere una perspectiva social y de colaboración dichos sesgos serán vistos como simples características del pensamiento individual.18

A este respecto, el enfoque social sostiene que los estudios clásicos que promueven el pensamiento crítico no han logrado su objetivo debido al fuerte énfasis en la autonomía cognitiva. En esta forma, los mensajes individualistas del pensamiento reflexivo autónomo solo sirven para afianzar los sesgos cognitivos. Por el contrario, si se toma una perspectiva social, el pensamiento crítico puede desarrollarse de mejor manera debido a que un contexto grupal de colaboración permite que los individuos participen en la comunidad de pensamiento que evalúa de manera crítica todas las opiniones individuales frecuentemente sesgadas.

Por ejemplo, se han analizado los mismos experimentos que presentamos en la primera sección de este trabajo, pero ahora en el contexto grupal y no individual, teniendo que los resultados se invierten. Cuando los participantes resuelven las mismas tareas, pero en grupos, logran hasta un 80% de respuestas correctas. El contexto grupal en debate permite que los participantes resuelvan de manera correcta las tareas en cuestión. Esto ha sido denominado el efecto adicional del montaje, en el cual la actuación del grupo es mejor que la de su mejor miembro (Mercier y Sperber 2011).

Según el enfoque social, los sujetos deben ser analizados en contextos grupales que permitan el intercambio de argumentos. Esto hace que exista una división de labor cognitiva donde los sesgos incluso pueden ser considerados como actitudes beneficiosas en términos grupales. Según Mercier y Sperber, los contextos argumentativos activan el razonamiento y por lo tanto hacen que los sesgos desaparezcan: “En condiciones grupales, los sesgos del razonamiento pueden convertirse en una fuerza positiva y contribuir a una buena división de la labor cognitiva” (Mercier y Sperber 2011, p. 73). Este buen desempeño ofrece un fuerte contraste con los pobres resultados obtenidos en tareas abstractas e individuales.19

El llamado sesgo de confirmación podría ilustrar bien este enfoque social o grupal. El sesgo de confirmación es usado en la literatura psicológica para hacer referencia a la búsqueda o interpretación de evidencia que confirme creencias, expectativas e hipótesis ya existentes (Nickerson 1998, p. 175). Este sesgo quizá sea la noción de error inferencial mejor conocida y más ampliamente aceptada en la literatura del razonamiento humano (Evans 1989, p. 41). La teoría interaccionista de Mercier y Sperber (2011, 2017) sostiene que este sesgo no debe verse en términos individualistas. Más bien, nos dicen estos autores, el sesgo de confirmación debe abordarse desde una perspectiva social e interaccionista en contextos argumentativos. Bajo la perspectiva de un grupo que intercambia razones, dicho sesgo de confirmación puede ser beneficioso en términos del individuo y el grupo.

El sesgo de confirmación nos hace prestar atención solo a la información que se acopla a lo que pensamos que es verdadero. La investigación empírica de este sesgo parece mostrar que una vez que la persona ha tomado una posición sobre un asunto o tema, su propósito primario es confirmar, defender, o justificar esa postura (Nickerson 1998, p. 177). “Nuestra tendencia natural parece buscar evidencia que apoye directamente las hipótesis que favorecemos” (p. 211). Por ello, este sesgo es el responsable de “una fracción significativa de disputas, altercados y malentendidos que ocurren entre individuos, grupos, y naciones” (p. 175).

Las personas que operan bajo este sesgo pasan por alto la información que no apoya a sus creencias preexistentes. Por eso es común encontrar personas que por más argumentos o evidencia que tengan en contra de su postura, no cambian de opinión. Al contrario, la información que debería hacerles abandonar su postura les sirve como evidencia a favor de ésta. Hay estudios que muestran cómo las personas persisten en mantener sus antiguas creencias aun cuando tienen evidencia de que dichas creencias son falsas (véase Gorman y Gorman 2017). Lo interesante de este sesgo es que, como defendería la tradición de heurística y sesgo, nadie está exento de presentar estas actitudes, sin importar el grado de educación que se tenga.

Consideramos que no hace falta traer más ejemplos y experimentos de este sesgo porque una vez que se entiende se puede ver en todos lados. El sesgo de confirmación es “fuerte” y “dominante” (Nickerson 1998, p. 211), no importa qué tan inteligente sea la persona o si está consciente del mismo. Como ha sido afirmado, “Sin duda alguna, incluso las mentes más sobresalientes pueden razonar de maneras muy sesgadas” (Mercier y Sperber 2017, p. 207). Todos podemos identificar situaciones en que hemos sido víctimas de este sesgo, en la manera en que juzgamos a algunas personas, o cuando decidimos comprar algo o rentar un departamento en particular. Siempre es fácil justificar nuestras decisiones para aducir que fue la mejor decisión que pudimos haber tomado, aunque a veces sea evidente que no es el caso. Por ejemplo, si una persona nos genera mala impresión en el primer encuentro, será fácil encontrar razones de por qué no nos agrada y así justificar nuestra actitud. Lo mismo pasa con personas que nos agradan en la primera impresión.

El sesgo de confirmación está presente no solamente en la mente de los individuos sino también en grupos o instituciones. Hay una gran cantidad de evidencia de que incluso en la práctica científica se opera bajo el sesgo de confirmación. A veces los científicos observan patrones de datos que confirman su hipótesis, aunque dichos patrones no existan realmente (Gorman & Gorman 2017, p. 114).

Los resultados sugieren que incluso adultos inteligentes no adoptan una actitud crítica cuando se enfrentan a un problema nuevo. Más bien “se adhieren a su propia explicación con una tenacidad extraordinaria capaz de producir evidencia que la confirme” (Mercier y Sperber 2017, p. 212). En ese mismo sentido, Thomas Kuhn (1962/2013) ya nos decía que el trabajo de los científicos estaba mayormente dedicado a confirmar el paradigma dentro del cual están formados. Esa es una de las razones de por qué los científicos viejos están menos dispuestos a aceptar teorías novedosas que sus colegas más jóvenes. La imagen del científico que piensa solo a la luz de la razón, de una manera neutral y objetiva, y dejando todo prejuicio atrás, ha sido exagerada. De hecho, ni siquiera pensadores tan importantes como Newton, Einstein, Boyle, Schrödinger y Bohr estuvieron exentos de estos sesgos cognitivos (véase Mercier y Sperber 2017, cap. 18; Gorman y Gorman 2017, pp. 114-119).20

La misma evidencia empírica parece mostrar que ser inteligente, enfocado, motivado, o de mente abierta, no es ninguna protección contra el sesgo de confirmación (Stanovich y West 2008).21 Por supuesto, todo lo anterior no significa que siempre operemos bajo el sesgo de confirmación y que no cambiemos de opinión o de creencias gracias a la evidencia y al encuentro de nueva información. No obstante, esto último es la excepción porque es muy poco probable que individualmente seamos completamente objetivos y neutrales ante la evidencia.

El enfoque social considera que algunos “sesgos grupales” representan más un enfoque individualista que uno propiamente social. Por ejemplo, el sesgo de pensamiento grupal, que consiste en pensar, emitir juicios, razonar e interpretar la realidad bajo las presiones de un grupo determinado, se presenta porque las personas no están en un contexto de colaboración. Cada individuo que conforma un grupo piensa de la misma manera que los demás y eso hace que no se cuestionen las decisiones o acciones del grupo en general. Según Mercier y Sperber, los errores de razonamiento se cometen cuando no se está en un contexto argumentativo (esto es, cuando no se busca resolver desacuerdos por medio de una discusión). Cuando uno está solo o con personas que sostienen las mismas creencias, el argumento no será evaluado críticamente. Es en estos contextos donde el sesgo de confirmación lleva a resultados desfavorables. No obstante, cuando el razonamiento se utiliza en un contexto de argumentos contra personas que no están de acuerdo pero que tienen un interés común en la verdad, el sesgo de confirmación contribuye a dividir la labor cognitiva de forma eficiente (Mercier y Sperber 2011, p. 65).

En suma, el sesgo de confirmación es un caso ejemplar de cómo una perspectiva social logra reinterpretar los supuestos errores del pensamiento como características del pensamiento. El trabajo de la teoría interaccionista de Mercier y Sperber ha avanzado su investigación de los sesgos cognitivos a la luz de contextos grupales y sostienen que estos desaparecen en dichos contextos (Mercier y Sperber, 2011).

De esta manera, se podría sostener que el estudio de los sesgos cognitivos y su consideración como tales depende del enfoque de investigación desde el que se aborden.22

Notemos que desde el enfoque social no se pone atención a cómo surgen los sesgos, como en la primera sección de este trabajo, ni tampoco se interesa por ofrecer una lista de sesgos con fines prácticos, como también revisamos, estas preocupaciones yacen en los enfoques individualistas de la cognición y desaparecen cuando se toma un enfoque social.

5. CONSIDERACIONES FINALES

Como el lector podrá notar, hemos utilizado los términos pensamiento/juicios/razonamiento como sinónimos. También hicimos ver que no existe una única pregunta o problema en torno a los sesgos cognitivos. Algunos trabajos se enfocan en explicar cómo es que surgen los sesgos, otros están dedicados a ofrecer un catálogo que pueda ser de utilidad para eliminarlos en áreas particulares como la medicina basada en evidencias. Por otro lado, hay propuestas actuales que sostienen que los sesgos pueden desaparecer si se toma un enfoque social y no individualista. Cada uno de estos estudios se realiza de manera relativamente independiente. Dada la amplitud del tema en torno a la literatura sobre sesgos cognitivos, en este trabajo solamente presentamos una revisión panorámica dividida en tres diferentes enigmas: el primero fue una discusión sobre el origen de los sesgos; el segundo abordó la clasificación de los sesgos; y el tercer enigma abordó el tema de la unidad de análisis en el estudio de los sesgos.

Es necesario un trabajo posterior para explicar y responder cómo se relacionan los tres enigmas, en qué medida los sesgos son producto de módulos cognitivos, cómo ha aumentado o disminuido el catálogo de sesgos en distintas áreas, hasta qué punto una teoría interaccionista del razonamiento puede ser usada para explicar la totalidad de los sesgos reportados, así como muchas otras cuestiones relacionadas.

Existe un grupo grande de fenómenos a que nos referimos al hablar de sesgos. Es claro que su clasificación depende de un marco teórico y que su naturaleza es particular, así como el hecho de que es sumamente complicado distinguir entre un sesgo y un error. Estos bemoles asemejan más bien a una constelación de problemas inherentes a distintos campos, muchos de los cuales sería fascinante explorar.

REFERENCIAS BIBLIOGRÁFICAS

_____________________________________

Bishop, Michael A.; Trout, J. D. (2004). Epistemology and the Psychology of Human Judgment. New York. Oxford University Press.

Brassey, J., Mahtani, K.R., Spencer, E.A. (2019). Apprehension bias. In: Catalogue of bias collaboration. https://catalogofbias.org/biases/apprehension-bias/ (Enero 20, 2021).

Carruthers, P. (2006). The architecture of the mind: Massive modularity and the flexibility of thought. Oxford. Oxford University Press. https://doi.org/10.1093/acprof:oso/9780199207077.001.0001

Coronary Drug Project Research Group (1980). Influence of adherence to treatment and response of cholesterol on mortality in the coronary drug project. The New England Journal of Medicine. 30 (303). Pp. 1038-41. Doi: 10.1056/NEJM198010303031804.

Cosmides, L., Tooby, J. (1996). “Are humans good intuitive statisticians after all? Rethinking some conclusions from the literature on judgment under uncertainty”, Cognition 58, 1-73.

Cosmides, L., Tooby, J. (1997). “Evolutionary Psychology: A Primer”. http://www.psych.ucsb.edu/research/cep/primer.htm/.

Catalog of Bias (2022): https://catalogofbias.org. (Visitado el 18 de enero de 2022).

Dutilh Novaes, C. (2012). Formal Languages in Logic: A Philosophical and Cognitive Analysis. United Kingdom: Cambridge University Press.

Ennis, R. (2005). “Pensamiento crítico: un punto de vista racional”, Revista de Psicología y Educación, Vol. 1, no. 1. 47-64.

Evans, J. B. T. (1989). Bias in Human Reasoning: Causes and Consequences, Hillsdale, NJ. Erlbaum.

Evans, J. (2009). “How many dual-process theories do we need? One, two, or many?”. En J. Evans, K. Frankish (eds.). In two minds: Dual process and beyond, pp. 33-54. Oxford. Oxford University Press.

Evans, J., Over, D. (1996). Rationality and Reasoning, East Sussex. Psychology Press.

Evans, J., Stanovich, K. (2013). “Dual-Process Theories of Higher Cognition: Advancing the Debate”, Perspectives on Psychological Science, 8 (3). 223-241.

Fischhoff, B. (1982). “Debiasing”. En D. Kahneman, A. Tversky, y P. Slovic (eds.), Judgement under Uncertainty: Heuristics and Biases. Cambridge University Press, 422-444.

Fodor, J. A (1983). The Modularity of Mind: An Essay on Faculty Psychology. Cambridge, MA: MIT Press.

García, J. (2012). “Convergencias y divergencias en las teorías duales de sistemas”, Andamios. Revista de Investigación Social, 9 (19). 283-308.

Gigerenzer, G., (1996). “On Narrow Norms and Vague Heuristics: A Reply to Kahneman and Tversky”, Psychological Review, 103 (3). 592–598.

Gilovich, T., Griffin, D. (2002). “Heuristics and Biases: Then and Now”. In Gilovich, T., Griffin, D., Kahneman, (Eds.). Heuristics and Biases. The Psychology of Intuitive Judgment. New York NY. Cambridge University Press.

Gilovich, T. (1993). How We Know What Isn't So: The Fallibility of Human Reason in Everyday Life. New York: The Free Press.

Goldman, A. (1999). Knowledge in a Social World. Oxford: Oxford University Press.

Goldman, A. (2004). “Group Knowledge versus Group Rationality: Two Approaches to Social Epistemology”, Episteme, A Journal of Social Epistemology, 1(1), 11-22.

Gorman, Sara E. y Gorman, Jack M. (2017). Denying to the Grave: Why We Ignore the Facts That Will Save Us, Nueva York: Oxford University Press.

Hernández Chávez, P. (2016). Modularidad cognitiva y especialización cerebral. CEFPSVLT.

Hsee, Christopher K.; Zhang, Jiao (2004). Distinction bias: Misprediction and mischoice due to joint evaluation. Journal of Personality and Social Psychology 86 (5): 680-695. Doi:10.1037/0022-3514.86.5.680.

Hitchcock, David. (2020). "Critical Thinking", The Stanford Encyclopedia of Philosophy (Fall 2020 Edition), Edward N. Zalta (ed.), URL = <https://plato.stanford.edu/archives/fall2020/entries/critical-thinking/>.

Hutchins, E. (1985). Cognition in the Wild. Cambridge Mass: The MIT Press.

Keysar, Boaz; Hayakawa, Sayuri L (2012). The Foreign-Language Effect: Thinking in a Foreign Tongue Reduces Decision Biases. Psychological Science. Doi:10.1177/0956797611432178.

Kahneman, D. (2011). Thinking, Fast and Slow, New York. Farrar, Straus and Giroux.

Kahneman, D.; Tversky, A. (1972), «Subjective probability: A judgment of representativeness», Cognitive Psychology 3: 430-454. Doi:10.1016/0010-0285(72)90016-3.

Kahneman, D., Tversky, A. (1982). Kahneman, D., Tversky, A. (1982). Judgment under Uncertainty: Heuristics and Biases. Cambridge: Cambridge University Press.

Kahneman, D. y A. Tversky (1996). “On the Reality of Cognitive Illusions”, Psychological Review, 103 (1). 582–591.

Kitcher, P. (1993). The Advancement of Science: Science Without Legend, Objectivity Without Illusions. Oxford University Press.

Kuhn, Thomas. (1962/2013). La estructura de las revoluciones científicas, Ciudad de México: Fondo de Cultura Económica.

Kuhn, D. (2005). Education for Thinking. Cambridge, MA: Harvard University Press.

Landsberger, H. A. (1958). Hawthorne Revisited: A plea for an open city. New York. Cornell University. https://www.worldcat.org/title/hawthorne-revisited-a-plea-for-an-open-city/oclc/61637839.

Larrick, R.P. (2004). “Debiasing”. En D. Koelher y N. Harvey (Eds.), Blackwell Handbook of Judgement and Decisión Making. Oxford University Press. 316-337.

Lee Ross, L. D. (1977). The intuitive psychologist and his shortcomings: Distortions in the attribution process. En L. Berkowitz (ed.) Advances in Experimental Social Psychology. Nueva York: Random House. 10. 173-220.

Levitt, S. D. & List, J. A. (2011). "Was there really a Hawthorne effect at the Hawthorne plant? An analysis of the original illumination experiments". American Economic Journal: Applied Economics. Vol. 3. No. 1. 224–238. Doi:10.1257/app.3.1.224.

Matlin, M. (2017). “Pollyanna principle”. En Pohl, R. F. (2017). Cognitive Illusions. Intriguing phenomena in thinking, judgement and memory. (2da Ed.). New York: Routledge.

Mercier, H., Sperber, D. (2011). “Why do humans reason? Arguments for an argumentative theory”. Behavioral and Brain Sciences, 34(2), pp. 57-74.

Mercier, H., Sperber, D. (2017). The Enigma of Reason. Harvard University Press. Cambridge.

Nickerson, R. S. (1998). Confirmation Bias: A Ubiquitous Phenomenon in Many Guises. Review of General Psychology 2 (2): 175-220.

Plous, S. (1993). The Psychology of Judgment and Decision Making. New York: McGraw-Hill.

Pohl, R. (2017). “Cognitive illusions”. En Pohl, R. (Ed.). Cognitive Illusions. Intriguing phenomena in thinking, judgement and memory. (2da Ed.), pp. 3-22. New York: Routledge.

Sackett, D. L. (1979). Bias in analytic research. Journal of Chronic Diseases. Vol. 32. Pp. 51-63. https://www.jameslindlibrary.org/wp-data/uploads/2014/06/Sackett-1979-whole-article.pdf

Samuels, R., Stich, S., Faucher, L. (2004). “Reason and rationality”, Matti Sintonen, et al., Handbook of Epistemology, Dordrecht: Kluwer, pp. 131-179.

Sloman, S. & Fernbach, P. (2017). The knowledge illusion. Why we never think alone. Riverhead Books. New York.

Spence, C., Piqueras-Fiszman, B. (2012). The influence of the color of the cup on consumers’ perception of a hot beverage. Journal of Sensory Studies.10.1111/j.1745-459X.2012.00397.x.

Spencer, E.A., Aronson, J.K., Nunan. D., Heneghan, C. (2018). Berkson’s bias. En Catalogue Of Bias Collaboration: www.catalogueofbiases.org/biases/admission-rate-berkson-bias. (Enero 20, 2021).

Spencer. E.A., Heneghan, C., Nunan, D (2017). Allocation bias. In: Catalogue of bias collaboration. https://catalogofbias.org/biases/allocation-bias/. (Enero 20, 2021).

Stanovich, K. (2009). “Distinguishing the reflective, algorithmic, and autonomous minds: Is it the time for a tri-process theory?” (55-88). En J. Evans, K. Frankish (eds.). In two minds: Dual process and beyond, pp.. Oxford: Oxford University Press.

Stanovich, K. (2021). Why humans are cognitive misers and what it means for the great rationality debate. En R. Viale (ed.). Routledge Handbook of Bounded Rationality, pp. 196-206. London: Routledge.

Stanovich, K., West, R. (2000). “Individual differences in reasoning: Implications for the rationality debate?”, Behavioral and Brain Sciences (23). 645-726.

Stanovich, K. E. y West, R. F. (2008). “On the failure of cognitive ability to predict myside and one-sided thinking biases” Thinking and Reasoning (14). 129–167.

Stein, E. (1996). Without good reason. The rationality debate in Philosophy and Cognitive Science. Oxford: Clarendon Press.

Van Boven, J.F., Chavannes, N.H., Van der Molen, T., Rutten-van Mölken, M.P., Postma, M.J., Vegter, S. (2014). Clinical and economic impact of non-adherence in COPD: a systematic review. Respiratory Medicine. Vol. 108, Issue 1. 103-113. https://doi.org/10.1016/j.rmed.2013.08.044.

1,2,3 Filiación: Instituto de Ciencias Sociales, Universidad Juárez del Estado de Durango (Durango, México).

Dirección postal: Torre de Institutos: Av. Veterinaria No. 501, esquina con Blvd. del Guadiana. Circuito Universitario. 34120 Durango (México).

Correos electrónicos: jonatangarcia@ujed.mx, saulsarabia24@gmail.com, hcpaola@gmail.com.

4 Dado que la memoria es una capacidad involucrada en el procesamiento de información, muchos estudios han abordado exclusivamente los sesgos de la memoria, tales como las ilusiones de la memoria asociativa y la inducción de falsos recuerdos (véase Pohl 2017, parte III). En este trabajo nos centraremos en los sesgos comúnmente asociados al razonamiento y la toma de decisiones. Esto es debido a que los programas de investigación más representativos son aquellos provenientes de la psicología cognitiva del razonamiento (véase la sección 1: “El enigma del origen de los sesgos cognitivos”).

5 Hay también trabajos importantes que discuten si podemos deshacernos de los sesgos a través de entrenamiento especializado o si estos están tan arraigados en nuestra cognición que no existe estrategia efectiva para contrarrestarlos. Véase por ejemplo Dutilh Novaes (2012), Larrick (2004) y Fischhoff (1982).

6 De manera complementaria a los estándares normativos, otras visiones analizan los sesgos en términos funcionales. Por ejemplo, los sesgos pueden interpretarse como errores por disfunción, o como subproductos defectuosos de procesos funcionales (véase Pohl, 2017, pp. 13 y ss.).

7 “Después de revisar 74 estudios, Camerer y Hogarth (1999) concluyeron que… “ninguna replicación del estudio ha logrado hacer desaparecer las violaciones a la racionalidad meramente aumentando los incentivos” (p. 7)”. Gilovich y Griffin (2002, 4).

8Samuels, Stich y Faucher (2004) señalan que alrededor de 89% de sujetos universitarios sin entrenamiento en probabilidad y estadística cometen la falacia de la conjunción, mientras que los sujetos los sujetos entrenados la cometen en alrededor de 85% de casos. Esto sugiere que recibir entrenamiento matemático no representa una diferencia en los resultados.

9 Lo anterior dio pie a lo que se conoce como las guerras de la racionalidad (Samuels, Sitch y Faucher, 2004, Stanovich, 2009, Stanovich, 2021).

10 Algunos trabajos han señalado similitudes entre la PE y la tradición de heurística y sesgo (Gilovich y Griffin, 2002) incluso en el área de las guerras de la racionalidad.

11 Anteriormente habíamos señalado que alrededor del 89% de sujetos se equivocan en la versión estándar de “Linda, la cajera feminista”, cuando el problema es presentado en frecuencias alrededor del mismo porcentaje ofrece una respuesta correcta (Samuels, Stich y Faucher, 2004).

12 Cosmides y Tooby (1996) ofrecen una metáfora muy interesante sobre la mente humana y una calculadora, a saber, la calculadora no puede procesar información de otro tipo, por ejemplo, en números romanos o con base en 2. En ese sentido, la calculadora contaría con los algoritmos adecuados pero, no puede procesar información con insumos que no sean números decimales.

13 El debate acerca de cuáles deben ser los criterios de racionalidad adecuados es filosóficamente relevante y ha generado una acalorada discusión que es central en las guerras de la racionalidad. Parte de ese debate se encuentra en la discusión entre Kahneman y Tversky (1996) y Gigerenzer (1996) en la revista Psychological Review.

14 No existe una única manera de conectar a la teoría dual con las visiones de la racionalidad (Stanovich, 2009, García, 2012). No obstante, los defensores de la teoría dual se comprometen con dos visiones distintas de la racionalidad (Evans y Over, 1996). Una de ellas es la racionalidad instrumental, en donde algo es racional si es eficaz para la obtención de un fin o meta (este es precisamente el tipo de modelos de racionalidad que defendía Philip Kitcher (1993) en filosofía de la ciencia). La otra, con la visión estándar de la racionalidad en donde razonar correctamente es seguir los principios de la lógica y la matemática. Evans y Over (1996) consideran que comúnmente los procesos Tipo 1 generan respuestas racionales en un sentido instrumental, mientras que los procesos Tipo 2 producen respuestas racionales según la visión estándar.

15 La SAT (siglas de “Scholastic Assessment Test”) es una prueba usada en los Estados Unidos para ingresar a sus universidades. Comúnmente también se utiliza como una manera de evaluar la inteligencia en general.

16 El único autor de los proyectos aquí mencionados que ha ofrecido una taxonomía de categorías para clasificar a los sesgos a partir de la teoría dual es Stanovich (2009, pp. 73 y ss.) quien, por ejemplo, distingue entre algunos sesgos producidos por la avaricia cognitiva (esto es, hacer uso del menor esfuerzo mental necesario para resolver un problema), de otros que se deben a que los procesos Tipo 2 no corrigen la respuesta ofrecida por los procesos Tipo 1.

17 Ejemplo de un enfoque social es el proyecto de epistemología social de Alvin Goldman (1999). Este proyecto, según su autor, reemplaza el acostumbrado énfasis de la epistemología tradicional en el individuo como fuente de conocimiento y en su lugar hace énfasis en las instituciones sociales y prácticas interpersonales.

18 El trabajo de Hutchins (1985) es un ejemplo de cómo se debe estudiar los individuos y la racionalidad en general en el contexto de las actividades culturales (fuera del laboratorio) que son elementos constitutivos de la cognición. En este sentido, la cognición va más allá de lo que sucede en la cabeza de los individuos.

19 Algunas consideraciones epistemológicas importantes para los proyectos sociales se encuentran en Goldman (2004).

20 Por supuesto que el sesgo de confirmación a veces es beneficioso tanto a nivel individual como grupal. Necesitamos la experiencia pasada para guiar nuestras decisiones presentes y futuras. Por ejemplo, si compramos un producto defectuoso es muy beneficioso que lo recordemos para una futura compra, aunque haya muchas razones que expliquen por qué el primer producto salió defectuoso, sin que esto implique que todos los productos de la marca serán defectuosos por igual. Otras veces es bueno que los científicos estén motivados en comprobar una hipótesis en particular porque esto permite que la ciencia avance más rápidamente. Lo mismo aplica para científicos cuyo propósito es comprobar que algunas teorías son falsas, pues en ocasiones así avanza nuestro conocimiento.

21 En la primera sección de este trabajo señalamos que la teoría dual de sistemas considera que la inteligencia de los sujetos –medida por instrumentos como la SAT– puede hacer un cambio en relación con el número de sesgos. No obstante, la inteligencia puede tener límites y precisamente el sesgo de confirmación es uno que es “sorprendentemente independiente” de la inteligencia (Stanovich y West, 2008).

22 Sostener que los sesgos pueden tener un beneficio a nivel social es diferente de algunas pocas propuestas que consideran que algunos sesgos –no necesariamente de razonamiento– pueden ofrecer ventajas a los seres humanos. Hay trabajos que señalan que, por ejemplo, recuerdos falsos pero positivos puede influir a la evaluación que los sujetos tienen de sí mismos (Pohl, 2017), a algunos de estos fenómenos se les denomina “ilusiones positivas” puesto que aun cuando lógicamente se trata de errores, “parecen proporcionar mecanismos de adaptación para hacer frente a la tragedia, mejorar la motivación y facilitar las interacciones sociales” (Matlin, 2017, p. 320).