Capítulo 2 investigación psicológica sobre el razonamiento probabilístico introduccióN



Descargar 318,21 Kb.
Página5/6
Fecha de conversión07.02.2017
Tamaño318,21 Kb.
1   2   3   4   5   6

La decisión principal en el problema 1 es el rechazo, la aversión al riesgo y en el problema 2 es la atracción por el riesgo cuando ocurre que los programas alternativos tienen igual valor esperado y los dos problemas son matemáticamente equivalentes.


Teorías de la conducta de los sujetos
El enfoque descriptivo tiene muy en cuenta la idea de sujeto que establece la Psicología Cognitiva, emergente en los años 60 y 70: " el sujeto de la psicología cognitiva se ha hecho menos lógico, más difícil de formalizar, quizá más impredecible y divertido también" (Riviére, 1987, p.28). Por tanto, el decisor deja de ser el hombre económico, sometido a los dictados de la lógica formal, para transformarse en un sujeto activo, adaptativo y con capacidad limitada de procesamiento de la información. El cambio conceptual de racionalidad lógica por el de racionalidad limitada (Newell y Simon, 1972; Simon, 1981) es fundamental en el enfoque descriptivo.
De todas las características propias del decisor que propone este enfoque, la que ha suscitado un mayor volumen de investigación es la relacionada con la aplicación de heurísticos y sus sesgos correspondientes. Acabamos de describir algunas de las tareas típicas que han utilizado Tversky y Kahneman (1981) para mostrar cómo cambios aparentemente superficiales en la formulación de problemas de decisión causan la inversión de las preferencias de opciones por parte de los decisores. Por lo general, los decisores cuando se encuentran ante una situación donde las elecciones implican ganancias se comportan de una manera aversa al riesgo. Por el contrario, cuando las elecciones implican pérdidas los decisores manifiestan atracción por el riesgo.
Los autores proponen que las inconsistencias observadas en relación al modelo de la utilidad subjetiva esperada tienen su origen en dos conjuntos de factores: variaciones en la estructuración de opciones, contingencias y resultados y las características de no linealidad de las funciones de valores y de pesos de decisión. Las inconsistencias son sistemáticas y se presentan tanto en problemas de dinero como en aquellos que tienen que ver con vidas humanas; no están restringidas a cuestiones planteadas hipotéticamente y no son eliminadas por incentivos monetarios a los decisores. Además, el origen de las desviaciones de la teoría de la utilidad esperada no tiene por qué estar en la racionalidad limitada de los sujetos (según la noción de Simon) ya que los problemas no son complicados en términos de las demandas que plantean de habilidad de procesamiento de la información.
Desde el enfoque descriptivo se admite que la teoría de la utilidad esperada proporciona algún punto de referencia útil para analizar el modo en que las personas toman decisiones bajo incertidumbre; por ejemplo, las personas son sensibles tanto a las probabilidades de los sucesos como a los resultados contingentes con esos sucesos. Donde difiere la teoría de la utilidad esperada de la conducta de decisión humana real es en cómo se evalúan y combinan los resultados y las probabilidades para valorar la atracción relativa de las diferentes alternativas de acción. Dentro del enfoque descriptivo se han desarrollado diversas teorías que pretenden explicar cómo las personas toman cotidianamente decisiones bajo incertidumbre: por ejemplo, la teoría prospectiva (Kahneman y Tversky, 1979), el modelo de los dos factores (León y Lopes, 1988; Lopes, 1987) y el reciente enfoque de Payne y colaboradores (Payne, Bettman y Johnson, 1993), basado en la naturaleza constructiva de la conducta de decisión, que tendremos ocasión de analizar en el próximo capítulo.
Calibración de probabilidades
Ya hemos analizado sesgos básicos en el procesamiento de la información de tareas probabilísticas (representatividad, accesibilidad y anclaje y ajuste) y sesgos propios de la toma de decisiones (aversión al riesgo, por ejemplo). Lo que ahora nos interesa señalar es que la existencia y persistencia de tales sesgos suele ir acompañada de confianza exagerada por parte de los sujetos sobre la corrección de decisiones y juicios que pueden estar afectados por tales heurísticos. Este exceso de confianza se refleja en distintos fenómenos y produce, a su vez, distintos sesgos: el sesgo retrospectivo (hindsight bias) descrito por Fischhoff (1975), la ilusión de validez estudiado, entre otros, por Einhorn y Hogarth (1978) y el sesgo de mala calibración que es el que vamos a analizar a continuación ya que el paradigma experimental de la calibración permite la utilización de un patrón objetivo y preciso con el que comparar las estimaciones de probabilidad subjetiva que realizan las personas (Anderson, 1986).
Los trabajos de calibración han despertado un interés especial dentro de la teoría de la Decisión Conductual. A la importancia de los estudios de calibración desde un enfoque descriptivo se añade su relevancia desde una perspectiva prescriptiva, tal como indica Gambara (1991). El análisis de decisión tiene como finalidad analizar los objetivos de la decisión, estructurar el problema y aplicar alguna regla normativa que refleje la alternativa óptima; para aplicar tal regla, las preferencias y las incertidumbres de los decisores deben traducirse a utilidades y probabilidades subjetivas numéricas que serán tanto más válidas cuanto mejor calibradas estén.
Las tareas
El paradigma de calibración permite hacer estudios de probabilidad subjetiva, a partir de cuestionarios amplios en donde los sujetos deben realizar dos trabajos en cada tarea: primero, responder la pregunta y segundo, asignar una probabilidad subjetiva que mida la confianza que tienen en la exactitud de su respuesta. Por ejemplo:
 Qué ciudad está más al norte? a) Nueva York b) Roma

Probabilidad subjetiva (confianza) 50--60--70--80--90--100%


Este es un ítem típico de dos alternativas de rango-medio: la probabilidad subjetiva no puede ser inferior a 0.5 (50%) porque en ese caso el sujeto debería elegir la otra alternativa. Se han utilizado también tareas sin alternativas, con una alternativa, con dos alternativas de rango-entero y con tres o más alternativas. El contenido de los ítemes presentados puede referirse a eventos presentes, pasados o futuros y se han realizado estudios de calibración con ítemes de conocimiento general y de conocimiento más especializado.
Usando, por ejemplo, el método de la mitad del rango de probabilidades (de 50 a 100%) tal como se ve en el problema que acabamos de enunciar, el investigador compara las probabilidades subjetivas que dan los sujetos con los porcentajes de respuesta correcta, en el conjunto de los ítemes. Se dice que el juicio de un sujeto está bien calibrado si acierta el x% de las preguntas a las que atribuyó una probabilidad subjetiva del x%; el concepto en un escenario sanitario significa que un médico será un buen calibrador si en una serie de ocasiones establece una probabilidad de 0.7 sobre el éxito de determinada operación, y dicha operación tiene éxito el 70% de las veces.

Conducta del sujeto


Lichtenstein, Fischhoff y Phillips (1982) señalan que el hallazgo más importante en este tipo de investigaciones es que las personas caen en el sesgo de sobreconfianza al contestar ítemes de conocimiento general de moderada o extrema dificultad; en ocasiones se encuentra infraconfianza para las estimaciones de probabilidad baja sobre todo cuando disminuye la dificultad de la tarea. La sobreconfianza se incrementa en el extremo superior del continuum de probabilidad: el dato más frecuente en las investigaciones es que los sujetos sólo responden correctamente alrededor del 85% de los ítemes a los que le dan una confianza del 100%.
Este sesgo es independiente del contenido de la tarea, del formato de respuesta (estimación de probabilidad, apuestas, etc.) y de la amplitud del rango ( de 0 a 100% vs de 50 a 100%). En algunos estudios de calibración en contextos profesionales se encontraron mejores resultados; por ejemplo, en pronósticos de tiempo por expertos metereólogos, se hallaron desviaciones medias de la calibración perfecta de sólo 0.028.
Las curvas de calibración constituyen el modo más extendido de representar la calibración de los sujetos. La siguiente figura, tomada de Gambara (1991), presenta curvas típicas de calibración, donde se ha representado en abcisas las probabilidades subjetivas y en ordenadas los porcentajes de respuestas correctas. La diagonal representa la calibración perfecta, los círculos la sobreconfianza y los triángulos la infraconfianza. Además se suelen utilizar medidas numéricas de calibración, tales como los índices de confianza y de calibración.

2


Teorías de la conducta del sujeto


Gambara (1991) resume en dos categorías la variedad de explicaciones que se han dado para el fenómeno de sobreconfianza y las conecta con los procedimientos que se han propuesto para mejorar la calibración de los sujetos. La primera hipótesis explicativa se centra en la traducción de los sentimientos de incertidumbre a probabilidades subjetivas o a alguna escala similar, es decir el problema de la sobreconfianza es un problema de artefacto de escala de respuesta. La segunda enfatiza los procesos cognitivos, aludiendo a las limitaciones del procesamiento de información de los sujetos y al carácter reconstructivo de la memoria sobre los procesos inferenciales; por ejemplo, Pitz (1974) argumentó que en una serie de inferencias, la incertidumbre generada en las primeras etapas no se puede eliminar en las ultimas. Otros autores creen en problemas derivados de la utilización de estrategias de razonamiento que son "atajos inferenciales". Un ejemplo de esto último es la hipótesis de Koriat, Lichtenstein y Fischhoff (1980) quienes, apoyándose en el sesgo de verificación (Wason y Jonhson-Laird, 1972), afirman que las personas caen en el sesgo de sobreconfianza porque buscan en su memoria sólo datos que confirmen su hipótesis mientras descartan datos que la contradicen.
Todas estas explicaciones fueron criticadas por May (1986) quién construyó un modelo cognitivo específico para cada ítem, separándose de la investigación tradicional en el campo que analizaba a los ítemes en su conjunto. Esta investigadora concluye que la idea normativa de calibración y la interpretación de la sobreconfianza como un sesgo cognitivo general hay que ponerlas en cuestión, en cuanto que la confianza basada en conocimiento equivocado es sobreconfianza por definición. A la luz de este enfoque explica la casi perfecta calibración de los metereólogos americanos que llevan haciendo predicciones de tiempo desde al menos 1965. Se puede asumir que a través de su experiencia han eliminado el conocimiento equivocado y por tanto su conocimiento base no está distorsionado sino bien ajustado para realizar sus juicios.
Desde una perspectiva metacognitiva y analizando las repercusiones negativas del sesgo, Evans (1989) señala que la sobreconfianza, al reflejar el hecho de que la gente no es consciente de sus propias limitaciones (ya que considera que su conocimiento es adecuado), induce a no aprender y a no solicitar ayuda de expertos. También desde una perspectiva metacognitiva, Fischbein (1987) señala que la sobreconfianza acompaña de manera natural a la autoconfianza, de tal manera que cualquier estrategia de eliminación de la sobreconfianza puede provocar también la destrucción de la autoconfianza, factor psicológico absolutamente necesario para abordar la resolución de cualquier problema.
C. El enfoque prescriptivo
Este enfoque es el más reciente dentro de la Teoría de la Decisión Conductual y su principal objetivo es el de ayudar a los decisores a tomar la mejor decisión, la óptima, pero teniendo en cuenta las características y limitaciones del decisor. Por decisión óptima se entiende aquella que maximiza alguna regla lógica, por ejemplo, las que se derivan de la perspectiva normativa, como la utilidad esperada, la utilidad subjetiva esperada o la utilidad multiatributiva (MAU) (Keeney y Raiffa, 1976).
Las tareas
Suelen ser tareas complejas con varias alternativas, cada una de ellas caracterizada por diferentes atributos. A diferencia de los enfoques normativo y descriptivo en que se estudian tareas cuya estructura está definida de antemano por el investigador (alternativas, probabilidades, atributos, etc.), bajo el enfoque prescriptivo el investigador desconoce a priori la estructura del problema ya que es el decisor quien va a presentar la tarea.
La conducta del sujeto
La investigación desarrollada dentro del enfoque prescriptivo se puede agrupar en dos categorías. La primera, de carácter experimental, tiene como principal objetivo estudiar si el análisis de decisión minimiza algunas de las limitaciones propias del decisor, por ejemplo, ciertos sesgos. Para ello, se suele comparar la toma de decisiones con y sin ayuda, sea ésta computarizada o no. Como ejemplo de este tipo de investigación se puede citar el trabajo de Gambara y León (1988) sobre toma de decisiones con alternativas multiatributo. La segunda categoría tiene una finalidad más bien descriptiva y presenta el desarrollo de análisis de decisión sobre tareas de distinto contenido, por ejemplo, en el diagnóstico médico.
Teorías de la conducta de los sujetos
La perspectiva prescriptiva comparte con el enfoque descriptivo una concepción del decisor como un sujeto activo, de racionalidad limitada y que utiliza heurísticos inferenciales que muchas veces determinan sesgos y separaciones de la decisión normativa. Así como desde el enfoque normativo se puede concebir una tarea de decisión sin decisor, en el enfoque prescriptivo, igual que en el descriptivo, se toma en consideración de forma esencial la interacción entre el decisor, la estructura de la tarea y el contexto concreto en que ésta se realiza. A su vez, el enfoque prescriptivo comparte con el normativo un método de investigación que se basa en un análisis formal-matemático de la toma de decisiones pero pretende, como objetivo esencial, prescribir un método de análisis de decisiones que ayude a tomar la mejor decisión.
En León (1994) se puede encontrar una revisión de las técnicas de Análisis de Decisiones. Siguiendo a este autor, se puede descomponer el análisis de decisión en una serie de fases: 1) definición de objetivos, 2) definición de las alternativas a elegir, 3) estructuración de la tarea, normalmente a través de una matriz o un árbol de decisión, 4) valoración de la incertidumbre o del riesgo, habitualmente mediante una probabilidad subjetiva, 5) valoración de las consecuencias derivadas de la opción de cada alternativa y 6) elección de la alternativa óptima, según algún algoritmo formal.
En la matriz de decisión, las filas corresponden a acciones alternativas que el decisor puede seleccionar y las columnas corresponden a posibles estados de la naturaleza. Las celdas de la matriz describen las consecuencias contingentes a la ocurrencia conjunta de una decisión y un estado de la naturaleza. Por ejemplo, la matriz de un problema de decisión tan simple (y tan difícil!, a la vez) como es el que tiene que resolver el Príncipe de Marruecos (primer azar de esta tesis) podría ser:


¡Error! Marcador no definido.
AlternativasEl Príncipe de Marruecos elige:

Estados de la naturaleza:

el retrato de Portia está en el:









cofre de oro

cofre de plata

cofre de plomo




cofre de oro

felicidad

infelicidad

infelicidad




cofre de plata

infelicidad

felicidad

infelicidad




cofre de plomo

infelicidad

infelicidad

felicidad
1   2   3   4   5   6


La base de datos está protegida por derechos de autor ©absta.info 2016
enviar mensaje

    Página principal