iBet uBet web content aggregator. Adding the entire web to your favor.
iBet uBet web content aggregator. Adding the entire web to your favor.



Link to original content: https://es.wikipedia.org/wiki/Razonamiento_moral
Razonamiento moral - Wikipedia, la enciclopedia libre Ir al contenido

Razonamiento moral

De Wikipedia, la enciclopedia libre
Escultura de los diez mandamientos
Representación decorativa de los diez mandamientos, el primer código moral conocido, en la sinagoga de Dobruška

El razonamiento moral es el proceso de pensar sobre lo que está bien y lo que está mal, el estudio de este proceso, y también el estudio de cómo las personas adquieren y aplican reglas morales. Es una subdisciplina de la psicología moral que se solapa con la Ética (también denominada filosofía moral), y es el fundamento de la ética descriptiva.

Descripción

[editar]

Desde temprana edad, las personas pueden tomar decisiones moralesː determinar si una acción en un contexto y momento determinados es buena o mala. El razonamiento moral ocurre tanto dentro del individuo (la persona piensa en silencio) como entre individuos (varias personas pueden argumentar si una determinada acción ya hecha es buena o mala, o cuál es la acción hipotética más conveniente moralmente).[1]​ Entre los pensadores prominentes que han contribuido a esta teoría pueden citarse a Lawrence Kohlberg o Elliot Turiel.

A veces se utiliza la expresión "razonamiento moral" en un sentido diferente: razonamiento bajo condiciones de incertidumbre, como las que generalmente se dan en un tribunal de justicia (hay unos hechos probados, pero otros, generalmente, no están claros, y sin embargo se debe tomar una decisión). En este sentido se acuñó la expresión «con certidumbre moral»[2]​ (to a moral certainty). En todo caso, raramente se utiliza ahora esta idea en los encargos a jurados.[3]

El razonamiento moral es un proceso importante, y a menudo diario, que las personas utilizan cuando intentan obrar correctamente. Por ejemplo, frecuentemente las personas se enfrentan al dilema de mentir o decir la verdad sobre algo. Las personas toman la decisión correspondiente sopesando las obligaciones morales y las consecuencias de cada posible acción.

Una elección moral puede provenir de una reflexión personal, de la aplicación de un código moral específico (por ejemplo, el código moral católico) o de la existencia de relaciones morales (vínculos de confianza muy fuertes, como entre una madre y su hijo). El razonamiento moral, una rama de la psicología, se ocupa de cómo las personas normales perciben estos asuntos, y es el fundamento de la ética descriptiva (distinta de la ética aplicada; recuérdese que, estrictamente, la Ética es la rama de la filosofía que estudia la conducta humana respecto a lo bueno y lo malo, mientras que el lenguaje coloquial tiende a emplear indistintamente "ética" y "moral").

Hay muchas formas diferentes de razonamiento moral, a menudo dictadas por la cultura. Pueden observarse diferencias culturales en los niveles altos de la función cognitiva asociada con el razonamiento moral a través de la asociación de redes cerebrales de personas de diferentes culturas y las decisiones morales que toman. Estas diferencias culturales demuestran la base neuronal que las influencias culturales pueden tener en el razonamiento moral de un individuo y las decisiones morales que tome.[4]

Las distinciones entre las teorías de razonamiento moral pueden ser razonadas evaluando las inferencias (que tienden a ser deductivas o inductivas) basadas en un conjunto de premisas dadas.[5]​ La inferencia deductiva llega a la conclusión que algo es cierto basándose en que un conjunto de premisas que preceden a la conclusión también son ciertas, mientras que la inferencia inductiva va más allá de la información dada en un conjunto de premisas para basar la conclusión en una reflexión expresa.[5]

En filosofía

[editar]

El filósofo David Hume sostiene que la moral (sustantivo, en el sentido 5 que le da la RAEː «doctrina del obrar humano que pretende regular el comportamiento individual y colectivo en relación con el bien y el mal»)[2]​ se basa más en percepciones que en razonamiento lógico.[5]​ Esto significa que la moral de las personas (el mecanismo interno que les dice si algo es bueno o malo) se basa más en sus emociones y sentimientos que en un análisis lógico de la situación. Hume considera la moral enlazada a la pasión, el amor, la felicidad y otras emociones, y por tanto no basada en la razón.[5]​ Cuando en esta página se emplee la palabra "moral" como adjetivo, se hará solo en el sentido 1 que le da la RAEː «relativo a las acciones de las personas, desde el punto de vista de su obrar en relación con el bien o el mal»[2]​, y no, por ejemplo, en el sentido 2 «conforme con las normas que una persona tiene del bien y del mal». No se describirá entonces un acto como "moral", sino como "bueno". Tampoco se empleará "moralidad", puesto que no se considera que la definición de la RAE «conformidad de una acción o doctrina con los preceptos de la moral» sea la que percibe una parte de los hispanohablantes (en la Wikipedia Moralidad redirige a Moral)

Jonathan Haidt está de acuerdo con Hume y argumenta en su modelo del intuicionismo social que el razonamiento respecto de una situación o idea morales sigue una intuición inicial.[6]​ La postura fundamental de Haidt sobre el razonamiento moral es que «las intuiciones morales (incluidas las emociones morales, como la culpa o la vergüenza) vienen primero, y causan directamente los juicios morales». Haidt define la intuición moral como «la aparición repentina en la consciencia de un juicio moral, incluyendo una valencia afectiva (bueno-malo, gusto-aversión), sin ninguna consciencia previa de haber pasado por las etapas de investigar, sopesar las pruebas o inferir una conclusión».[5]

Immanuel Kant tenía una visión radicalmente diferente de la moral. Opinaba que hay leyes morales universales que la persona nunca debería quebrantar por más que sus emociones la impulsaran a ello.[5]​ Propuso un sistema de 4 pasos, basado en la lógica y la razón, para determinar si una acción dada era buena o mala. El primer paso de este método implica formular «una máxima [en su sentido de "regla, principio"] que contenga la razón para una acción».[5]​ En el segundo paso, un «marco como principio universal para todos los agentes racionales».[5]​ El tercer paso evalúa «si un mundo basado en este principio universal es concebible».[5]​ Si lo es, entonces el cuarto paso consiste en preguntarse «si se desea que la máxima rija en ese mundo».[5]​ En breveː una acción es buena si la máxima por la que se justifica podría universalizarse.

[7]

«Obra solo según una máxima tal que puedas querer al mismo tiempo que se torne ley universal»

Por ejemplo cuando una persona está decidiendo si miente en beneficio propio, o dice una verdad perjudicial, puede imaginar cómo sería un mundo donde todos mintieran. En tal mundo no tendría ningún sentido mentir, porque nadie esperaría que le dijeran la verdad, haciendo absurda la máxima universal de "miente cuando te beneficie". Así, Kant sostiene que en ninguna circunstancia se debe mentir.

Otro ejemplo sería la decisión sobre si el suicidio es bueno o maloː imaginemos que todas las personas se suicidaran. Eso no sería bueno, por lo que el suicidio individual es malo. Eso sí, el marco moral de Kant opera bajo la máxima general de que cada persona debe ser tratada como un fin en sí mismo, no como un medio para un fin. Debe considerarse esta máxima cuando se aplican los 4 pasos antedichos.[5]

Una forma de razonamiento moral se basa en la analogía. Cuando se utiliza, el juicio moral sobre una situación puede aplicarse a otra si la situación es relevantemente similar, es decir, lo bastante parecida para que pueda aplicarse el mismo razonamiento moral. Un razonamiento análogo se emplea en el Derecho anglosajón (common law) cuando la argumentación se basa en un precedente. [9]

En el consecuencialismo (a menudo distinguido de la deontología), las acciones son buenas o malas según sus consecuencias, en vez de por propiedades intrínsecas de dichas acciones.

En psicología del desarrollo

[editar]

El razonamiento moral atrajo primero una amplia atención de los psicólogos del desarrollo de la persona desde mediados del siglo XX hasta sus finales. Su principal teorización dilucidó las etapas de desarrollo de la capacidad de razonamiento moral. Generalmente se considera que la socialización con empatía durante la infancia y adolescencia es el factor más influyente en los niños a la hora de interiorizar las normas sociales que ayudan a distinguir el bien del mal.[10]

Jean Piaget

[editar]

Jean Piaget consideró que el desarrollo moral de la persona se realizaba en 2 fases, una común entre los niños y la otra, entre los adultos. Denominó a la primera "fase heterónoma".[11]​ Esta fase, más común entre niños, se caracteriza por la idea de que las reglas provienen de figuras de autoridad en su vida, como padres, profesores, y Dios.[11]​ También implica la idea de que las reglas son permanentes pase lo que pase.[11]​ En tercer lugar, esta fase incluye la creencia de que el comportamiento "travieso" siempre debe castigarse, y de que el castigo será proporcional.[11]

A la segunda fase Piaget la denominó "fase autónoma". Es más común cuando la persona ha madurado. En esta fase los individuos empiezan a ver las intenciones que hay detrás de las acciones como más importantes que sus consecuencias.[11]​ Por ejemplo, si un conductor da un volantazo para no atropellar a un perro, y entonces derriba una señal de tráfico, los adultos probablemente se enfadarán menos con el conductor que si hubiera derribado expresamente la señal solo para divertirse. Aunque el resultado es igual, las personas son más proclives a perdonar debido a la buena intención de salvar al perro.

Esta segunda fase también incluye la idea de que diferentes personas pueden tener distintos códigos morales, y que no necesariamente existe una moral universal.[11]​ Las personas en la fase autónoma también creen que las reglas pueden incumplirse bajo ciertas circunstancias.[11]​ Por ejemplo, Rosa Parks (de raza negra) vulneró la norma (vigente entonces, pero ya abolida) al negarse a dejar su asiento en una zona del autobús reservada para blancos (ver Discriminación racial). Obró contra la norma, pero muchas personas consideran que no contra la moral. En esta fase las personas también dejan de creer en una justicia inmanente[11]​ (los niños creen que las cosas pueden hacer justicia por sí mismas, por ejemplo que el jarrón te castigará por haberlo roto).[12]

Lawrence Kohlberg

[editar]

Inspirado por Piaget, Lawrence Kohlberg contribuyó significativamente al campo de razonamiento moral al crear una teoría del desarrollo moral.[13]​ Su ampliamente aceptada teoría «proporciona la base para la evidencia empírica de la influencia de la toma de decisiones humana en el comportamiento moral».[14]​ Kohlberg opina que el desarrollo moral consiste en el crecimiento de modos de razonar más imparciales y menos egocéntricos sobre asuntos más complicados.

Creía que el objetivo de la educación moral es impulsar a los niños para que pasen a una etapa superior. El dilema era, según Kohlberg, una herramienta fundamental para este impulso.[15]​ De acuerdo con su teoría, las personas pasan por 3 etapas principales de desarrollo moral desde la niñez a la adultezː moral preconvencional, moral convencional y moral postconvencional.[13]​ Cada una de ellas se subdivide a su vez en 2 niveles.[13]

Al primer nivel de la etapa de moral preconvencional Kohlberg lo denominó "de obediencia y castigo"ː las personitas evitan ciertos comportamientos solo por miedo al castigo, no porque los consideren incorrectos.[13]​ Kohlberg bautizó el segundo nivel de esta primera etapa como "de individualismo e intercambio": los niños toman las decisiones morales según lo que mejor sirve a sus necesidades.[13]

Al primer nivel de la segunda etapa Kohlberg le puso el nombre de "relaciones interpersonales"ː el individuo en formación intenta ceñirse al código moral de la sociedad en la que vive, con el objetivo de ser considerado una buena persona.[13]​ Al segundo nivel de esta etapa de moral convencional, Kohlberg lo nombró "mantener el orden social". En este nivel la sociedad se ve como un todo, y se siguen sus leyes y reglas.[13]

El primer nivel de la etapa de moral postconvencional recibió la denominación "contrato social y derechos individuales"ː las personas empiezan a darse cuenta de que su código moral puede ser distinto del de otros individuos, y piensan que los miembros de la sociedad deben acordar unas leyes.[13]​ El nivel final del desarrollo moral de la persona que postula Kohlberg se conoce como "principios universales"ː las personas empiezan a desarrollar sus ideas sobre principios morales universales y considerarán que señalan la acción buena a despecho de lo que puedan decir las leyes de la sociedad.[13]

James Rest

[editar]

En 1983, James Rest desarrolló un modelo de moral de 4 componentes, que recoge las formas en que ocurre la motivación y el comportamiento morales.[16]​ El primer componente es la sensibilidad moral, definida como «la capacidad de ver un dilema moral, incluyendo cómo nuestras acciones afectarán otros».

El segundo es el raciocinio moralː «la capacidad de razonar correctamente sobre qué debería hacerse en una situación concreta».[17]​ Esto también se denomina "juicio moral", pero en esta página, para evitar confusiones, no se utilizará esta expresión con ese sentido, porque en ella "juicio" no se emplea en el sentido 3 de la RAE, «acción y efecto de juzgar»,[18]​ sino en los sentidos 1 y 2, «facultad del ser humano para distinguir, estado de sana razón». Las 2 palabras juicio moral no significan lo mismo en la expresión tener juicio moral (una virtud permanente de la persona) que en hacer un juicio moral (una acción aislada, por ejemplo decir que mentir es malo).

El tercer componente es la motivación moralː «comprometerse a obrar bien y aceptar la responsabilidad del resultado».[17]​ El cuarto y último componente del modelo de Rest es el carácter moralː «persistir valientemente en obrar bien a pesar de la fatiga o las tentaciones».[17]

En cognición social

[editar]

Basándose en resultados empíricos de estudios conductistas y neurocientíficos, los psicólogos sociales y cognitivos intentaron desarrollar una teoría del razonamiento moral más precisamente descriptiva que normativa (es decir, que cuente lo que realmente ocurre en el cerebro de la persona que razona moralmente en vez de lo que el filósofo piense que debería ocurrir). La investigación se centra en cómo los individuos, en su vida real, realizan inferencias morales y toman decisiones morales, en vez de en lo que debería considerarse bueno.

Teoría del proceso dual e intuicionismo social

[editar]

Las teorías del desarrollo del razonamiento moral recibieron críticas por priorizar la maduración del aspecto cognitivo del razonamiento moral.[19]​ Desde la perspectiva de Kohlberg, se considera a una persona tanto más adelantada en razonamiento moral cuanto más eficaz es en utilizar razonamiento deductivo y principios morales abstractos para hacer juicios morales sobre casos particulares.[19][20]​ Por ejemplo, un razonador avanzado puede razonar silogísticamente (mediante silogismos) con el principio kantiano de "tratar a los individuos como fines y nunca meramente como medios" y una situación donde unos secuestradores están reclamando un rescate por un rehén, para concluir que los secuestradores han violado un principio moral, y deberían ser condenados. En este proceso se parte de los supuestos de que el razonador es racional y controla conscientemente cómo toma sus decisiones.[19]

Sin embargo, en contraste con esta visión, Joshua Greene y sus colegas sostuvieron que los juicios morales de los legos (personas sin experiencia en una disciplina) están influidos significativamente, si no conformados, por la intuición y la emoción, en vez de por la aplicación racional de reglas. En sus estudios con imágenes de resonancia magnética funcional (fMRI por sus siglas en inglés, que muestran las áreas del cerebro que más se activan cuando la persona realiza tareas específicas) poco después del año 2000, se mostraron a los participantes 3 tipos de escenarios de decisión:

  • dilemas morales que propiciaban la reacción emocional (condición moral-personal),
  • dilemas morales que no propiciaban la reacción emocional (condición moral-impersonal),
  • situaciones sin contenido moral (condición no moral).[21][22]

Regiones cerebrales como el giro cingulado posterior (aquí "giro" no tiene ninguno de los significados habituales recogidos por la RAE,[23]​ sino que quiere decir "circunvolución"; ver Giros cerebrales) o el giro angular, que se activan cuando la persona se emociona, mostraron activaciones en la condición moral-personal, pero no en la condición moral-impersonal.

Por otra parte, las regiones relacionadas con la memoria de trabajo, incluyendo el giro derecho medio frontal y el lóbulo parietal bilateral, eran menos activas en la condición moral-personal que en la moral-impersonal. Además la actividad neuronal de las personas participantes en la condición moral-impersonal era similar a la medida en las situaciones sin contenido moral.

Dibujo de un tranvía y una posible desviación
Problema moral del tranvíaː ¿debe dejarse que siga su curso y mate a 5 personas, o desviarlo con el cambio de agujas mostrado en el dibujo, y que solo atropelle a una?

Otro estudio utilizó variantes del problema del tranvía que diferían en la dimensión personal/impersonal e investigó el juicio de permisibilidad de las personas participantes (escenarios 1 y 2).[20]​ A los participantes se les presentaron varias posibilidades de sacrificar a una persona para salvar a otras 5. En algunos casos se preguntaba a un participante si empujaría (condición personal) a una persona desde un puente para que la matara el tranvía descontrolado, y así salvar a otras 5 personas. En otro caso se le preguntaba si apretaría un botón (condición impersonal) para que el tranvía, en vez de pasar por un tramo donde mataría a 5 personas, pasara por otro donde solo atropellaría a una. Solo el 11 % de los participantes consideró moralmente admisible empujar, mientras que el 89 % aceptaba darle al botón. Esta diferencia se atribuyó a la reacción emocional del participante al pensar en poner sus manos sobre la hipotética víctima, en vez de simplemente apretar un interruptor. A los participantes que decían estar dispuestos a darle al botón, pero no a empujar a una persona, se les pidió que justificaran su postura. La mayoría no lo consiguió.[20]

Basándose en estos resultados, los psicólogos sociales propusieron la teoría del proceso dual de moralidad. Sugirieron que nuestra intuición y nuestro razonamiento no sólo tienen ambos la capacidad de distinguir un acto bueno de uno malo, sino que también compiten al tomar decisiones morales, y no siempre la decisión de la intuición coincide con la del razonamiento.

La emoción hace un juicio moral automático, inconsciente, y nuestra respuesta inmediata está guiada por nuestra intuición en primer lugar. Después el razonamiento formal, más cuidadoso y deliberado, da una respuesta que puede ser coherente o incoherente con la respuesta proporcionada por la intuición. Esto sería un caso particular de la teoría general del pensamiento como proceso dual (inconsciente + consciente).[19][6][24]

Ello supuso un cambio importanteː antes se veía el razonamiento moral como un proceso de raciocinio, pero las imágenes cerebrales llevaron a proponer la dominancia del proceso emocional sobre el racional.[6][24]​ Haidt destacó que el código moral (las reglas que dicen a cada persona qué está bien y qué mal) no es directamente accesible por nuestra búsqueda consciente en memoria, por nuestro sopesar de las evidencias, o por las inferencias que hacemos. Describe por tanto el juicio moral como análogo al juicio estético, en el que la simple percepción desencadena una reacción instantánea de aprobación o desaprobación (al ver por primera vez un cuadro, nuestro cerebro nos dice si nos gusta o no).[6]​ En consecuencia, una vez que se ha producido la decisión moral intuitiva, puede no ser fácilmente cambiada por la consideración racional que sigue.

La teoría explicó que, en muchos casos, las personas resuelven las incongruencias que se dan entre los procesos intuitivos y los racionales utilizando los segundos como una justificación post-hoc de los primeros. Haidt, utilizando la metáfora «el perro emocional y su cola racional», aplicó tal naturaleza de nuestro razonamiento a los contextos que van desde la percepción de las personas hasta la política.[6]

Una notable ilustración de la influencia de la intuición implica al sentimiento de asco. Según la teoría de los fundamentos morales de Haidt, las personas de izquierdas (progresistas) evalúan 2 dimensiones (cuidado/daño y justicia/reciprocidad) para hacer sus juicios morales, pero las de derechas (conservadoras) utilizan 3 dimensiones adicionales (pertenencia al grupo/lealtad, autoridad/respeto y pureza/santidad).[24][25]​ Entre las personas conservadoras, los estudios han revelado el vínculo entre las evaluaciones morales que hace una persona basándose en la dimensión de pureza/santidad y la experiencia que esa persona tiene del asco.

Esto es, los individuos con mayor sensibilidad al asco tenían mayores probabilidades de ser conservadores en asuntos como el matrimonio homosexual o el aborto.[26]​ Además, cuándo los investigadores pidieron a grupos de participantes en dichos estudios que mantuvieran limpio el laboratorio lavando sus manos con antisépticos (primando así la dimensión de pureza/santidad), las actitudes de los participantes eran más conservadoras que las de otros grupos a quienes no se lo pedían.[27]

Otros estudios críticaron las interpretaciones que hizo Haidt de sus datos.[28][29]​ Augusto Blasi rebate las teorías de Jonathan Haidt sobre razonamiento e intuición morales. Está de acuerdo con Haidt en que la intuición moral desempeña un papel significativo en la forma de operar de los humanos. Sin embargo, Blasi sugiere que las personas utilizan el razonamiento moral más que lo que Haidt y otros científicos cognitivos sostienen. Blasi defiende el razonamiento y la reflexión morales como el fundamento del funcionamiento moral. El razonamiento y la reflexión (pensamiento atento y detenido sobre algo) desempeñan un papel clave en el crecimiento de un individuo y el progreso de las sociedades.[30]

Se han propuesto alternativas a estos modelos intuicionistas de proceso dual. Según ellas el juicio moral y el razonamiento moral implican procesos cognitivos generales, p. ej., modelos mentales,[31]​ aprendizaje social[32][33][34]​ o procesos de categorización.[35]

Razonamiento motivado

[editar]

Una teoría del razonamiento moral similar a la teoría del proceso dual fue propuesta resaltando la necesidad psicológica de llegar a conclusiones (sean ciertas o no; por ejemplo en el pasado se atribuían las plagas a la cólera divina).[36]​ Ditto y otros investigadores en esa onda consideraron a los razonadores morales en situaciones diarias más abogados que juecesː las personas no razonan en el sentido valoración de la evidencia -> conclusión moral (de abajo a arriba), sino de una conclusión moral preferida a la valoración de la evidencia (de arriba abajo).[37]​ El sentido de abajo a arriba se parece al proceso de pensamiento de un juez, motivado para ser preciso e imparcial en sus decisiones. El sentido de arriba abajo es similar al de un abogado, cuyo objetivo es ganar el pleito, y que utiliza argumentos parciales y selectivos.[24][37]

Kunda propuso el razonamiento motivado como el marco general para comprender el razonamiento humano.[36]​ Resaltó la amplia influencia de la activación fisiológica, del afecto y de la preferencia (que constituyen la esencia de la motivación y las creencias acendradas) en nuestros procesos cognitivos generales. Estos procesos incluyen buscar en nuestra memoria y construir creencias (por ejemplo, recordamos mejor lo que nos ha infligido un intenso dolor).

Es importante resaltar que los sesgos en esta búsqueda, en la formación de hipótesis y en su evaluación resultan en un sesgo de confirmación (se da preferencia a la información que confirma la hipótesis intuida) que dificulta a los razonadores la evaluación crítica de sus creencias y conclusiones.

Las creencias no son necesariamente solo las trascendentales (creencia en Dios, en el alma), sino también simplemente aquello que se cree. Por ejemplo, dicen en el informativo que la probabilidad de que llueva mañana es alta. Entonces "lloverá mañana" se convierte en una creencia nuestra, y desistimos de proponer un partido de fútbol a las amistades.

Los individuos y grupos manipularán y tratarán de confundir los razonamientos que llevan a las creencias según la carencia de autocontrol sobre el sesgo de confirmación. Esta táctica la utilizan medios de comunicación, empresas, administraciones públicas, extremistas, religiones organizadas, etc. Los que controlen la información pueden atenuar determinados aspectos y resaltar otros para conseguir una opinión pública contraria a una interpretación razonable de los hechos disponibles (ejemploː los antivacunas).[36]

Aplicada al ámbito moral, nuestra fuerte tendencia psicológica a favorecer a las personas que nos gustan nos lleva a interpretar hechos y formar creencias de maneras favorables para ellas. En un estudio (1) de Alicke (1992), los participantes juzgaban la responsabilidad de un conductor que sobrepasaba el límite de velocidad y causaba un accidente.[38]​ Cuando el motivo para sobrepasarlo se describía como moralmente aceptable (esconder un regalo para el aniversario de sus padres), los participantes asignaron menos responsabilidad al conductor que en otro caso (esconder un vial de cocaína). Incluso aunque la atribución causal del accidente puede realizarse mediante una evaluación objetiva de los hechos, la responsabilidad que los participantes atribuyeron al conductor se vio significativamente afectada por las intenciones que les contaron que tenía este.

Otro artículo, de Simon, Stenstrom y Read (2015, estudios 3 y 4) utilizó un paradigma más amplio que medía varios aspectos de la interpretación de un suceso moral por parte de los sujetos experimentales. Estos aspectos incluían inferencias factuales, actitud emocional hacia los agentes (las personas que actúan en el suceso, como el conductor del estudio 1), y motivaciones hacia el resultado de la decisión.[39]​ Los participantes leyeron sobre un caso de mala conducta académica admitida y se les pidió, en un juego de rol en el que hacían de agente judicial, que proporcionaran un veredicto.

Estudiantes durante un examen
Estudiantes examinándose en la Universidad de Lyon

El caso era el siguienteː la universitaria Debbie había sido acusada de copiar en un examen. Pero la situación global del suceso se mantuvo ambigua para que los participantes razonaran en una dirección deseada. Entonces, los investigadores intentaron manipular la motivación de los participantes para apoyar, ya a la universidad, ya a la estudiante.

En el primer caso les dijeron que, debido a anteriores incidentes de copia, los esfuerzos del alumnado honrado no se habían visto compensados y la reputación de la universidad se había deteriorado (estudio 4, a favor de la universidad). En el segundo caso les contaron que el hermano de Debbie había muerto meses atrás en un trágico accidente (estudio 3, a favor de la estudiante).

Los resultados de comportamiento y de una simulación por ordenador mostraron un cambio global en el razonamiento, la inferencia factual, la actitud emocional y la decisión moral según la motivación manipulada. En estos procesos de razonamiento, la ambigüedad situacional se demostró crítica para que los participantes tomaran su decisión en el sentido en que los habían manipulado.[36][39][40]

Desde una perspectiva más amplia, Holyoak y Powell interpretaron la motivación en el ámbito moral como un patrón especial de razonamiento predicho por el marco de razonamiento basado en la coherencia.[41]​ Este marco, cuya teoría inicial se debe al filósofo Paul R. Thagard, sostiene que muchas funciones cognitivas complejas se hacen posibles mediante la evaluación de la coherencia entre conceptos, creencias o emociones.[42]​ Dicho marco establece vínculos simétricos entre cosas que ocurren a la vez y cosas que no ocurren a la vez. Luego emplea estos vínculos como restricciones (los leones no vuelan, así que el león no se ha podido escapar volando). Este marco proporciona así una manera de representar conflictos entre motivaciones, observaciones, comportamientos, creencias y actitudes irreconcilables, así como entre obligaciones morales.[39][41]

Resulta importante destacar que el marco de Thagard era muy amplio porque proporcionaba una base computacional para modelar procesos de razonamiento que utilizaba hechos y creencias morales y no morales, así como variables relacionadas con cogniciones en caliente y en frío.[41][42][43]​ Por ejemplo, un conductor que ha estado a punto de chocar con otro puede formarse en caliente la cognición de que el otro habría sido el culpable si llega a haber un accidente, pero luego, más calmado, —en frío— contempla un video de la trayectoria de ambos vehículos, y cambia esta cognición.

Causalidad e intencionalidad

[editar]

Las teorías clásicas de la percepción social habían sido expuestas por psicólogos como Fritz Heider (modelo de la acción intencionada)[44]​ o Harold Kelley (teoría de la atribución).[45]​ Estas teorías destacaban cómo los legos (la gente corriente) entienden la acción de una persona basándose en el conocimiento causal que ellos tienen de los factores internos de esa persona (intención y capacidad) y externos a ella.

La gente asume una relación causal entre el estado interno de la persona (personalidad, intención, deseos, creencias, capacidades), el entorno (causa externa) y la acción resultante (efecto). En estudios posteriores, los psicólogos descubrieron que el juicio moral que la gente hace de una acción se vincula muy fuertemente con esta comprensión causal y este conocimiento sobre el estado mental de la persona.

Bertram Malle y Joshua Knobe llevaron a cabo encuestas para investigar cómo la gente comprendía y utilizaba el concepto de "intencionalidad" y su relación con la acción.[46]​ Sus datos sugieren que las personas piensan sobre la intencionalidad de una acción en términos de varios componentes psicológicos: deseo del resultado, creencia sobre el resultado esperado, intención de actuar (combinación de deseo y creencia), habilidad para producir el resultado, y consciencia de la acción mientras se está ejecutando.

Los estudios hallaron efectos significativos de la intención, deseos y creencias del agente en varios tipos de juicios morales. Estos efectos resultaron compatibles con esta visión de componentes, así como con nuestras intuiciones morales (por ejemplo, es más grave un acto malo hecho con intención).

Utilizando un diseño factorial de su experimento para determinar la influencia de cada factor investigado, Cushman mostró que la creencia y el deseo del agente respecto a una acción mala influían significativamente en los juicios sobre su maldad, permisibilidad, castigo y culpa que hacían los participantes en el experimento. Sin embargo, el que la acción tuviera o no consecuencias negativas solo afectaba a los juicios de culpa y castigo, pero no a los de maldad y permisibilidad.[47][48]​ Otro estudio también proporciona evidencia neurocientífica de la interacción entre la capacidad de atribuir pensamientos e intenciones a otras personas (denominada teoría de mente) y el juicio moral.[49]

A través de otro conjunto de estudios, Knobe demostró un efecto significativo en el sentido opuesto: las evaluaciones morales del agente y de la acción afectan significativamente a los juicios de intencionalidad.[50][51]​ Esto, en principio, es paradójico, porque si a un participante en el experimento le muestran un video del agente realizando una acción sin proporcionarle datos sobre su intencionalidad, el participante puede calificar moralmente esa acción, pero no tiene base para evaluar la intencionalidad.

En uno de los experimentos de Knobe se dice a los participantes que un empresario (el agente) adopta un nuevo programa diseñado para aumentar los beneficios. Este programa tiene efectos secundarios, ante los cuales la actitud del empresario esː «No me preocupo». Si también se les dice que un efecto secundario es beneficiar al medio ambiente, mayoritariamente los participantes juzgan que no es intencional por parte del empresario. Pero si se les cuenta que un efecto secundario es dañar el medio ambiente, el patrón de respuesta se invierte y la mayoría de los participantes considera que el empresario tiene la intención de provocar ese daño.

Muchos estudios sobre razonamiento moral utilizan situaciones ficticias que implican a desconocidos anónimos (p. ej., Dilema del tranvía), con el objeto de descartar los factores externos no relevantes para la hipótesis del investigador. Sin embargo se ha criticado la validez externa de los experimentos donde los razonadores (participantes) y el agente (cuya acción es juzgada moralmente por ellos) no se asocian de ninguna manera.[52][53]

Pizarro y Tannenbaum, en oposición al énfasis puesto en juzgar actos, se centran en nuestra motivación inherente para evaluar el carácter moral del agente (si es una buena o mala persona), citando la aristotélica ética de las virtudes (según la cual el código moral surge de rasgos internos de la persona). De acuerdo con Pizarro y Tannenbaum, para los primates y los humanos aprender el carácter moral de los agentes a su alrededor tiene que haber sido una preocupación fundamental desde sus primeras etapas evolutivas, porque la capacidad de decidir correctamente con quién cooperar en un grupo era esencial para la supervivencia.[52][54]​ Además Pizarro y Tannenbaum observaron que los actos ya no se interpretan separadamente del contexto, porque se ve a los razonadores realizar 2 tareas simultáneas: evaluación del carácter moral del agente y evaluación de su acto. Este planteamiento —centrado en la persona— del juicio moral parece ser compatible con los resultados de algunos estudios anteriores que implicaban un juicio implícito del carácter moral del agente. Por ejemplo, en el estudio de Alicke (1992) citado más arriba, los participantes pueden haber juzgado inmediatamente de manera negativa el carácter moral del conductor que, en ruta hacia su casa, superó el límite de velocidad para esconder un vial de cocaína, y tal inferencia llevó a los participantes a evaluar la causalidad que rodeaba el accidente de manera sesgada.[38][54]

Para tener en cuenta cómo la gente comprende y usa las relaciones causales entre variables psicológicas, Sloman, Fernbach y Ewing propusieron un modelo causal de juicio de intencionalidad basado en una red bayesiana.[55]​ Su modelo postula formalmente queː

  • el carácter moral del agente es una causa de que el agente desee el resultado de su acción
  • este carácter también es una causa de su creencia de que la acción resultará en una determinada consecuencia
  • el deseo y la creencia son causas de la intención de actuar
  • la acción del agente está causada por la intención y por la habilidad para producir la consecuencia

Combinando el modelado computacional con las ideas que ha proporcionado la investigación sobre la capacidad de atribuir pensamientos e intenciones a otras personas (capacidad que, recordemos, recibe el nombre de teoría de la mente), este modelo de Sloman, Fernbach y Ewing puede predecir inferencias tanto en el sentido de abajo a arriba (de acción a intencionalidad, deseo y carácter) como en el opuesto (de carácter, deseo e intencionalidad a acción).

Diferencia de género

[editar]

Anteriormente los psicólogos creían que hombres y mujeres tenían diferentes valores y razonamiento morales. Se basaban en la idea de que hombres y mujeres a menudo piensan de manera diferente y reaccionan a dilemas morales de maneras distintas. Algunos investigadores hipotetizaban (verbo admitido por la RAE)[56]​ que las mujeres tendían más en cuenta el cuidado de otras personas, la necesidad y el sacrificio, mientras que los hombres se inclinarían más por la justicia y los derechos (lo que se conoce como razonamiento de justicia).[57]

Sin embargo otros investigadores sabían también que los dilemas morales que hombres y mujeres afrontan diariamente son distintos.[57]​ Para encontrar el motivo de las diferencias observadas en los razonamientos morales de hombres y mujeres, los investigadores decidieron que sus experimentos se basaran en dilemas morales a los que ambos sexos se ven sometidos regularmente. Para reducir las diferencias situacionales y discernir cómo varones y mujeres utilizan la razón en sus juicios morales, los experimentos tenían que ver con la crianza de niños, actividad que realizan ambos.[57]​ La investigación demostró que mujeres y hombres utilizan la misma forma de razonamiento moral y la diferencia en los resultados se debe a los distintos dilemas morales que deben resolver diariamente.[57]​ A menudo varones y mujeres escogieron la misma solución.

Trastornos del razonamiento moral

[editar]

Existen personas psicológicamente incapaces de un razonamiento moral correcto, sin sentido moral[10]​ o sin "raciocinio moral", como se ha definido más arribaː son incapaces de distinguir el bien del mal. Ello puede deberse a algún tipo de psicopatía (hay muchos tipos, todavía insuficientemente estudiados), a daños cerebrales o a discapacidad intelectual. Jurídicamente esta característica se denomina inimputabilidad, porque estas personas, tras haber cometido un delito, no pueden legalmente ser sometidas a juicio, y son recluidas —temporal o definitivamente, según los casos— en hospitales psiquiátricos. La dificultad que no llega a incapacidad se conoce como "debilidad moral".[10]

Véase también

[editar]

Referencias

[editar]
  1. Raine, A. & Yang, Y. (2006). Neural foundations of moral reasoning and antisocial behavior. Social Cognitive and Affective Neuroscience 1(3), 203-213. doi 10.1093/scan/nsl033
  2. a b c Real Academia Española. «moral». Diccionario de la lengua española (23.ª edición). 
  3. Victor v. Nebraska (92-8894), 511 U.S. 1(1994), from the syllabus, holding (c) and throughout, available in the Cornell Law School Supreme Court Collection
  4. Sachdeva, S., Singh, P., & Medin, D. (2011). Culture and the quest for universal principals in moral reasoning. International Journal of Psychology, 46(3), 161-176. doi 10.1080/00207594.2011.568486
  5. a b c d e f g h i j k Bucciarelli, Monica (February 2008). «The psychology of moral reasoning». Judgment and Decision Making, Vol. 3, No. 2. Consultado el 20 de julio de 2011. 
  6. a b c d e Haidt, Jonathan (2001). «The emotional dog and its rational tail: A social intuitionist approach to moral judgment.». Psychological Review 108 (4): 814-834. ISSN 0033-295X. PMID 11699120. doi:10.1037//0033-295x.108.4.814. 
  7. Óscar Castillero Mimenza. «El imperativo categórico de Immanuel Kant: ¿qué es?». 
  8. David R. Morrow (June 2017). Moral Reasoning: A Text and Reader on Ethics and Contemporary Moral Issues. Oxford University Press. ISBN 978-0-19-023585-7. 
  9. See for example the section "Reasoning by analogy" in.[8]
  10. a b c Gil, Iván (26 de junio de 2021). «La falta de distinción entre bien y mal es la causa de la delincuencia juvenil». Alma, Corazón y Vida. Consultado el 31 de mayo de 2022. 
  11. a b c d e f g h Walsh, Keiron. «Piaget's Theory of Moral Development». Development of Moral Understanding. Consultado el 11 de octubre de 2014. 
  12. Karniol, Rachel (Marzo de 1980). «A Conceptual Analysis of Immanent Justice Responses in Children». Child Development 51 (1): 118-130. 
  13. a b c d e f g h i Cherry, Kendra. «Kohlberg's Theory of Moral Development». about.com psychology. Archivado desde el original el 11 de abril de 2016. Consultado el 20 de julio de 2011. 
  14. Tsui, Judy; Carolyn Windsor (May 2001). «Some Cross-Cultural Evidence on Ethical Reasoning». Journal of Business Ethics 31 (2): 143-150. doi:10.1023/A:1010727320265. 
  15. Musschenga, Albert W. (2009). «Moral Intuitions, Moral Expertise and Moral Reasoning». Journal of Philosophy of Education 43 (4): 597-613. doi:10.1111/j.1467-9752.2009.00707.x. Consultado el 19 de diciembre de 2012. 
  16. Lincoln, S. H. & Holmes, E. K. (2011). Ethical decision making: a process influenced by moral intensity. Journal of Healthcare, Science and the Humanities, 1(1), 55-69. doi 10.1111/j.1559-2011.tb02661.x
  17. a b c Lynn E. Swaner, "Ethical and Moral Reasoning," Educating for Personal and Social Responsibility, Position Paper, American Council of Colleges and Universities, September 13, 2004 (pdf), citando a James Rest, "Morality", en Cognitive Development, ed. John H. Flavell and Ellen M. Markman, Handbook of Child Psychology volume 3, 4th ed. New York: Wiley, 1983, ISBN 978-0-471-09064-9, pp. 556–629.
  18. Real Academia Española. «juicio». Diccionario de la lengua española (23.ª edición). 
  19. a b c d Cushman, Fiery; Young, Liane; Greene, Joshua D. (2010), «Multi-system Moral Psychology», The Moral Psychology Handbook (Oxford University Press): 47-71, ISBN 978-0-19-958214-3, doi:10.1093/acprof:oso/9780199582143.003.0003 .
  20. a b c Hauser, Marc; Cushman, Fiery; Young, Liane; Kang-Xing Jin, R.; Mikhail, John (2007). «A Dissociation Between Moral Judgments and Justifications». Mind & Language 22 (1): 1-21. ISSN 0268-1064. doi:10.1111/j.1468-0017.2006.00297.x. 
  21. Greene, J. D., Sommerville, R. B., Nystrom, L. E., Darley, J. M., & Cohen, J. D. (2001). An fMRI investigation of emotional engagement in moral judgment. Science, 293(5537), 2105-2108.
  22. Greene, Joshua; Haidt, Jonathan (2002). «How (and where) does moral judgment work?». Trends in Cognitive Sciences 6 (12): 517-523. ISSN 1364-6613. PMID 12475712. doi:10.1016/s1364-6613(02)02011-9. 
  23. Real Academia Española. «giro». Diccionario de la lengua española (23.ª edición). 
  24. a b c d Haidt, J. (2012). The righteous mind: Why good people are divided by politics and religion. New York, NY: Paragon.
  25. Graham, Jesse; Haidt, Jonathan; Nosek, Brian A. (2009). «Liberals and conservatives rely on different sets of moral foundations.». Journal of Personality and Social Psychology 96 (5): 1029-1046. ISSN 1939-1315. PMID 19379034. doi:10.1037/a0015141. 
  26. Inbar, Yoel; Pizarro, David A.; Bloom, Paul (2009). «Conservatives are more easily disgusted than liberals». Cognition & Emotion 23 (4): 714-725. ISSN 0269-9931. doi:10.1080/02699930802110007. 
  27. Helzer, Erik G.; Pizarro, David A. (18 de marzo de 2011). «Dirty Liberals!: Reminders of Physical Cleanliness Influence Moral and Political Attitudes». Psychological Science 22 (4): 517-522. ISSN 0956-7976. PMID 21421934. doi:10.1177/0956797611402514. 
  28. Guglielmo, Steve (January 2018). «Unfounded dumbfounding: How harm and purity undermine evidence for moral dumbfounding». Cognition 170: 334-337. PMID 28803616. doi:10.1016/j.cognition.2017.08.002. 
  29. Royzman, Edward B; Kim, Kwanwoo; Leeman, Robert F. «The curious tale of Julie and Mark: Unraveling the moral dumbfounding effect». Judgment and Decision Making (en inglés) 10 (4): 296–313. 
  30. Blasi, Augusto (2009), «The Moral Functioning of Mature Adults and the Possibility of Fair Moral Reasoning», en Narvaez, Darcia; Lapsley, Daniel K, eds., Personality, Identity, and Character, Cambridge University Press, pp. 396-440, ISBN 978-0-511-62712-5, doi:10.1017/cbo9780511627125.019 .
  31. Bucciarelli, Monica; Khemlani, Sangeet; Johnson-Laird, Philip N. (2008). «The psychology of moral reasoning». Judgment and Decision Making 3: 121-139. 
  32. Railton, Peter (2017). «Moral Learning: Conceptual foundations and normative relevance». Cognition 167: 172-190. PMID 27601269. doi:10.1016/j.cognition.2016.08.015. 
  33. Magid, Rachel W.; Schulz, Laura E. (October 2017). «Moral alchemy: How love changes norms». Cognition 167: 135-150. doi:10.1016/j.cognition.2017.03.003. 
  34. Kleiman-Weiner, Max; Saxe, Rebecca; Tenenbaum, Joshua B. (October 2017). «Learning a commonsense moral theory». Cognition 167: 107-123. doi:10.1016/j.cognition.2017.03.005. 
  35. McHugh, Cillian; McGann, Marek; Igou, Eric Raymond; Kinsella, Elaine Louise (2021). «Moral Judgment as Categorization (MJAC)». Perspectives on Psychological Science. PMID 34264152. doi:10.1177/1745691621990636. 
  36. a b c d Kunda, Ziva (1990). «The case for motivated reasoning.». Psychological Bulletin 108 (3): 480-498. ISSN 0033-2909. PMID 2270237. doi:10.1037//0033-2909.108.3.480. 
  37. a b Ditto, P. H., Pizarro, D. A., & Tannenbaum, D. (2009). Motivated moral reasoning. In B. H. Ross (Series Ed.) & D. M. Bartels, C. W. Bauman, L. J. Skitka, & D. L. Medin (Eds.), Psychology of learning and motivation, Vol. 50: Moral judgment and decision making (pp. 307-338). San Diego, CA: Academic Press
  38. a b Alicke, Mark D. (1992). «Culpable causation.». Journal of Personality and Social Psychology 63 (3): 368-378. ISSN 0022-3514. doi:10.1037/0022-3514.63.3.368. 
  39. a b c Simon, Dan; Stenstrom, Douglas M.; Read, Stephen J. (2015). «The coherence effect: Blending cold and hot cognitions.». Journal of Personality and Social Psychology 109 (3): 369-394. ISSN 1939-1315. PMID 26167800. doi:10.1037/pspa0000029. 
  40. Holyoak, Keith J.; Simon, Dan (1999). «Bidirectional reasoning in decision making by constraint satisfaction.». Journal of Experimental Psychology: General 128 (1): 3-31. ISSN 1939-2222. doi:10.1037/0096-3445.128.1.3. 
  41. a b c Holyoak, Keith J.; Powell, Derek (2016). «Deontological coherence: A framework for commonsense moral reasoning.». Psychological Bulletin 142 (11): 1179-1203. ISSN 1939-1455. PMID 27709981. doi:10.1037/bul0000075. 
  42. a b Thagard, Paul (1989). «Explanatory coherence». Behavioral and Brain Sciences 12 (3): 435-467. ISSN 0140-525X. doi:10.1017/s0140525x00057046. 
  43. Thagard, Paul (2006). Hot thought: Mechanisms and applications of emotional cognition. Cambridge, MA: MIT Press. 
  44. Heider, F. (1958). The psychology of interpersonal relations. New York: Wiley.
  45. Kelley, Harold H. (1973). «The processes of causal attribution.». American Psychologist 28 (2): 107-128. ISSN 0003-066X. doi:10.1037/h0034225. 
  46. Malle, Bertram F.; Knobe, Joshua (1997). «The Folk Concept of Intentionality». Journal of Experimental Social Psychology 33 (2): 101-121. ISSN 0022-1031. doi:10.1006/jesp.1996.1314. 
  47. Cushman, Fiery (2008). «Crime and punishment: Distinguishing the roles of causal and intentional analyses in moral judgment». Cognition 108 (2): 353-380. ISSN 0010-0277. PMID 18439575. doi:10.1016/j.cognition.2008.03.006. 
  48. Malle, Bertram F.; Guglielmo, Steve; Monroe, Andrew E. (3 de abril de 2014). «A Theory of Blame». Psychological Inquiry 25 (2): 147-186. ISSN 1047-840X. doi:10.1080/1047840x.2014.877340. 
  49. Young, L.; Cushman, F.; Hauser, M.; Saxe, R. (7 de mayo de 2007). «The neural basis of the interaction between theory of mind and moral judgment». Proceedings of the National Academy of Sciences 104 (20): 8235-8240. Bibcode:2007PNAS..104.8235Y. ISSN 0027-8424. PMC 1895935. PMID 17485679. doi:10.1073/pnas.0701408104. 
  50. Knobe, J. (2003). «Intentional action and side effects in ordinary language». Analysis 63 (3): 190-194. ISSN 0003-2638. doi:10.1093/analys/63.3.190. 
  51. Knobe, Joshua (2003). «Intentional action in folk psychology: An experimental investigation». Philosophical Psychology 16 (2): 309-324. ISSN 0951-5089. doi:10.1080/09515080307771. 
  52. a b Pizarro, D.A. & Tannenbaum, D. (2011). Bringing character back: How the motivation to evaluate character influences judgments of moral blame. In M. Mikulincer & Shaver, P. (Eds) The Social psychology of morality: Exploring the causes of good and evil. APA Press.
  53. Bloom, Paul (2011). «Family, community, trolley problems, and the crisis in moral psychology». The Yale Review 99 (2): 26-43. ISSN 0044-0124. doi:10.1111/j.1467-9736.2011.00701.x. 
  54. a b Uhlmann, Eric Luis; Pizarro, David A.; Diermeier, Daniel (2015). «A Person-Centered Approach to Moral Judgment». Perspectives on Psychological Science 10 (1): 72-81. ISSN 1745-6916. PMID 25910382. doi:10.1177/1745691614556679. 
  55. SLOMAN, STEVEN A.; FERNBACH, PHILIP M.; EWING, SCOTT (26 de marzo de 2012). «A Causal Model of Intentionality Judgment». Mind & Language 27 (2): 154-180. ISSN 0268-1064. doi:10.1111/j.1468-0017.2012.01439.x. 
  56. Real Academia Española. «hipotetizar». Diccionario de la lengua española (23.ª edición). 
  57. a b c d Clopton, Nancy A.; Sorell, Gwendolyn T. (March 1993). «Gender Differences in Moral Reasoning: Stable or Situational?». Psychology of Women Quarterly 17 (1): 85-101. doi:10.1111/j.1471-6402.1993.tb00678.x.