Podríamos considerar la moral como el conjunto de valoraciones que hacemos los humanos sobre lo que es “bueno” y lo que es “malo”. Simplificando abarcaría el conjunto de nuestras valoraciones y elecciones, pues todas implican un "bueno" y un "malo", aunque fuera encerrados en los grises "mejor" y "peor".
Pero no todo el mundo estaría dispuesto a atribuir carácter moral a la decisión entre un café y un té en la sobremesa. Parecería frívolo. Por ello se suele circunscribir la moral al conjunto de valoraciones y elecciones en términos de bien y mal (que lleven aparejadas la etiqueta “bueno” y “malo”) en el ámbito de las relaciones y comportamientos sociales, y con un horizonte temporal amplio (al menos para las consecuencias de los actos).
Así, decisiones de vida o muerte, salud y enfermedad, colaboración y explotación, ayuda, indiferencia o perjuicio, fidelidad o traición...etc etc...son morales en sentido estricto.
Algunos aspectos de nuestra moralidad son indudablemente universales. La moral misma, como tal, lo es. Como animales valorativos, con trayectorias vitales, con “historias” personales que se imbrican e implican en las historias grupales, se ordenan de acuerdo con ellas y se proyectan en el futuro, no podemos escapar de la comparación permanente y de la jerarquización de nuestros actos, creencias e intenciones (y los de los demás) en una escala moral.
Pueden existir, y de hecho existen, diferencias en dicha escala entre culturas, igual que la hay entre individuos o para un mismo individuo a lo largo del tiempo. Pero todas esas diferencias son sólo una cáscara sobre un núcleo duro de valoraciones morales que compartimos todos los humanos como especie (con la excepción de casos considerados patológicos, los llamados psicópatas).
Estas valoraciones se hallan codificadas de alguna forma en nuestras mentes y en la sustancia biológica de la que esta surge, evolucionada por selección natural: nuestro cerebro.
Es a la supervivencia y a la descendencia a las que, al fin y a la postre, sirve la moral. Lo que es “bueno” y “malo” para el ser humano como individuo miembro de un grupo y para el propio grupo que lo alberga y sin el cual no puede prosperar, es moral.
¿Qué peso tienen las emociones, los sentimientos y la razón en nuestras valoraciones morales? ¿Qué actos son biológicamente tabú para todos (o casi todos) nosotros y a cuáles nos sentimos obligados? ¿Qué hay de universal y que sesgos introduce lo cultural en la moral? Estas y otras preguntas más sutiles en relación de la moral trata de responderlas el neurocientífico y filósofo Joshua Greene, Profesor en la Universidad de Harvard.
En su investigación ha sometido a algunos voluntarios a variados dilemas morales, observando su reacción (o la de su cerebro), a través de la toma de neuroimágenes. Pero su aproximación al problema de la moral requiere de otros experimentos y observaciones de corte más psicológico, así como de deducciones y síntesis filosóficas.
Joshua Greene ha tenido la amabilidad de respondernos unas preguntas. Marzo revisó las preguntas en inglés y tradujo las respuestas.
En inglés:
1. Could you describe the field of neurophilosophy for us?
I don't see "neurophilosophy" as a coherent field. Rather, I see many places where psychology and philosophy intersect, and I see neuroscientfic data as simply one among many types of useful psychological data. But even here--at the intersection of psychology and philosophy--I don't see a single, coherent field. For a long time, the main intersection between philosophy and psychology was in the philosophy of mind, with a focus on consciousness. I find the questions in this area fascinating, but it's not clear to me that much progress has been made. More recently, I and others have taken an interest in empirical moral psychology as a way to get at traditional questions in ethics and meta-ethics. I am certainly biased, but I think this has been a very fruitful enterprise, with philosophers and psychologists working together in such a way that an outside observer would have a hard time telling who is who. Some of this interdisciplinary work has been neuroscientific, but that is, to a large extent, incidental. We welcome any kind of data that sheds light on how the moral mind works.
2. Where in the brain is the seat of moral reasoning?
If there is one clear lesson that has come out of neuroscientific research on moral judgment, it's that there is no single place in the brain where moral judgments get made. Normal moral judgment emerges from the interaction of several dissociable cognitive/neural systems, where these systems need not be specifially dedicated to making moral judgments.
3. What is the respective weight of culture and biology in our moral feelings and thinking?
Great question, but there is no single answer because it depends on which moral issues one is talking about and how one weights them in importance. The moral issues that are most salient to us are the one over which people disagree. And when it comes to those issues--things like abortion and drawing cartoons of Mohamed--culture is obviously extremely important. But there is a lot of cross-cultural agreement that we tend to take for granted. In no culture is it acceptable for ordinary people to kill other people simply because they are having a bad day and want to "blow off steam." I have no doubt that this universal feature of morality is part of our biological inheritance. And there may be some other universal features of morality that are less obvious, and therefore more interesting.
This comes out of research that I and others have done on "trolley dilemmas," which were first discussed by philosophers. People say that it's morally acceptable to turn a runaway trolley away from five people and onto one person, saving the lives of the five but killing the one. People say that it's not morally acceptable push someone in front of a runaway trolley, killing that person, in order to stop the trolley from killing five people. In every culture that's been examined, people are more willing to redirect the trolley than to push someone in front of the trolley, even though both involving killing one person to save five. Some more recent work that I've done shows that this is not simply due to the fact that people think that pushing someone in front of a trolley is unlikely to work in the real world. Rather, it seems to have to do with the physical act of intentionally pushing someon. People are much more likely to approve of dropping someone in front of a trolley using a switch-operated trap door, as compared to pushing someone with one's hands or with a pole. My guess is that this aversion to violence through the use of what I call "personal force" is a biologically based human universal. But we don't yet know this for sure.
4. Moral philosophers usually follow either a Kantian (rational) or a Humean (emotional) tradition, but our natural moral might perhaps be better reflected by Nietzschean immoralism.Everything looks to be a fight for power, sometimes hard and explicit, some other times softer and subtler. Are our moral declarations and behaviors the result of a fight inside our brain between different tendences, rational and emotional?
I wholeheartedly agree that moral judgments are shaped by competing emotional and rational processes in the brain. This is the essence of the psychological theory that I've been developing for the last 10 years. But I wouldn't describe this state of affairs as one reflecting "immoralism." I see it as two different ways of moral thinking, one (the emotional) which privileges cognitive efficiency over flexibility and the other (the rational) which privileges cognitive flexibility over efficiency.
5. In everyday life people make a lot of moral decisions. Most of them are far away from the moral dilemmas about which phylosophers think. Are not these too much artificial?
Time will tell. I view these dilemmas as being like fruit flies. They a little creatures that we can take into the lab and study in a controlled way. My belief is that we have a lot to learn about real world moral thinking form studying these little creatures, just as geneticists have learned a lot about human genetics by studying fruit flies. I think that certain moral dilemmas are interesting because they pull apart different circuits in the brain that influence real world moral judgment. But it remains to be seen whether we can go from these fruit flies to real world moral problems. I believe that we can, but others are entitled to disagree.
6. What do you think about the research on morals by your colleagues Hauser and Haidt?
I think they have both made important contributions. My own thinking is much closer to Haidt's, and Haidt in particular has been a major influence on my thinking. I believe that emotions are the dominant force in everyday moral judgment, but I also believe that there is great potential for more rational moral judgment to improve the world. Marc Hauser follows John Mikhail in promoting the "Universal Moral Grammar" view. I think this is a very intriguing idea, but I don't think it's well supported by the data. As noted above, I think it's already clear that moral judgments are influenced by distinct and (sometimes) competing cognitive systems, at least some of which are not specifically devoted to moral thinking. Of course, it all depends on what you mean by "moral grammar," but I've not seen a definition of "moral grammar" that is both restrictive enough to be useful and consistent with what we know about how moral judgments are made.
7. What are you now working on now? What is your highest intellectual challenge? What is the mystery you would dream to unveil?
I'm trying to attack the problem of moral judgment at multiple levels, building on and branching out from the work I've done on moral dilemmas. On a cognitive level, I'm trying to document and understand how moral reasoning works. I'm also trying to understand the cognitive processes that trigger moral-emotional responses. On a neuroscientific level, I'm trying to better understand the contribution of different brain regions to moral judgment. I'm trying to look at more realistic moral decisions, but I will also continue to work with my fruit flies. I'm studying different human populations (e.g. psychopaths) and using new methods (e.g. transcranial magnetic stimulation to influence brain function during moral judgment). This keeps me and my students pretty busy.
My ultimate goal is to be able to take any real world moral issue and dissect it in terms of the competing psychological and neural processes that make us disagree. I want to use our scientific understanding to evaluate different kinds of moral thinking. Science won't tell us what's right and wrong by itself, but I think that scientific information will make some moral ideas look surprisingly bad and others look surprisingly good. My ultimate goal, then is to bring us closer to a scientifically informed, universally acceptable moral philosophy.
En castellano:
1. ¿Podría describirnos el campo de la neurofilosofía?
No veo la "neurofilosofía" como un campo coherente. Más bien veo muchos lugares de intersección ente psicología y filosofía, y veo los datos neurocientíficos simplemente como uno entre muchos tipos de datos psicológicos útiles. Pero incluso aquí, en la intersección de psicología y filosofía, no veo un campo único, coherente. Durante mucho tiempo la intersección principal entre filosofía y psicología estaba en la filosofía de la mente, con un foco en la consciencia. Encuentro fascinantes las cuestiones en esta área, pero no me resulta claro que se haya progresado mucho. Más recientemente, algunos nos hemos interesado en la psicología moral empírica como un modo de plantear cuestiones éticas y metaéticas tradicionales Ciertamente estoy sesgado, pero pienso que ha sido una empresa muy fructífera, con filósofos y psicólogos trabajando juntos de tal manera que un observador externo tendría difícil distinguir a unos de otros. Parte de este trabajo interdisciplinar ha sido neurocientífico, pero esto es, en gran medida, incidental. Damos la bienvenida a cualquier clase de datos que arrojen luz sobre cómo funciona la mente moral.
2. ¿En qué parte del cerebro está la sede del razonamiento moral?
Si alguna lección clara se ha obtenido de la investigación neurocientífica sobre el juicio moral, es que no hay un lugar único en el cerebro donde se hagan los juicios morales. El juicio moral normal emerge de la interacción entre varios sistemas cognitivos/neurales disociables, sistemas que no necesitan estar específicamente dedicados a hacer juicios morales.
3. ¿Cuáles el peso respectivo de cultura y biología en nuestros sentimientos y pensamientos morales?
Gran pregunta, pero no hay una respuesta única porque depende de las cuestiones morales de las que se esté hablando y de cómo se pondera su importancia. Las cuestiones morales que nos son más prominentes son aquellas en las que la gente está en desacuerdo. Y cuando se trata de esas cuestiones —cosas como el aborto y dibujar caricaturas de Mahoma— la cultura es, obviamente, en extremo importante. Pero hay mucho acuerdo intercultural que tendemos a dar por supuesto. En ninguna cultura es aceptable que personas ordinarias maten a otras personas simplemente porque tienen una mal día y quieren "soltar vapor". No me cabe duda de que este rasgo universal de la moralidad es parte de nuestra herencia biológica. Y puede haber otros rasgos universales de la moralidad que sean menos obvios, y por tanto más interesantes.
Esto procede de investigaciones mías y de otros sobre "dilemas del tranvía", que fueron discutidos primero por filósofos. Las personas dicen que es moralmente aceptable desviar un tranvía fuera de control de un grupo de cinco personas y en dirección a otra, salvando las vidas de las cinco pero matando a la otra. Y dicen que no es moralmente aceptable empujar a alguien ante un tranvía descontrolado, matando a esa persona, para impedir que el tranvía mate a cinco. En todas las culturas que se han examinado, las personas están más dispuestan a desviar el tranvía que a empujar a alguien ante el tranvía, aunque ambas acciones suponen matar a una persona para salvar a cinco. Un trabajo mío más reciente muestra que esto no se debe simplemente a que se piense que empujar a alguien ante un tranvía es poco probable que funcione en el mundo real. Más bien, parece que tiene que ver con el acto físico de empujar intencionadamente a alguien. Es mucho más probable que se apruebe dejar caer a alguien ante un tranvía usando una trampilla accionada con un interruptor, comparado con empujarle con las manos o con un palo. Yo supongo que esta aversión a la violencia mediante el uso de lo que llamo "fuerza personal" es un universal humano de base biológica. Pero aún no lo sabemos con seguridad.
4. Los filósofos morales sigen en general bien una tradición kantiana (racional) o una humeana (emocional), pero nuestra moral natural podría tal vez reflejarse mejor en un inmoralismo nietzscheano. Todo parece ser una lucha por el poder, a veces dura y explícita, otras veces más suave y más sutil. ¿Son nuestras declaraciones y conductas morales resultado de una lucha en nuestro cerebro ente diferentes tendencias, racionales y emocionales?
Estoy por completo de acuerdo en que los juicios morales son informados por procesos emocionales y racionales en competencia en el cerebro. Esta es la esencia de la teoría psicológica que he estado desarrollando durante los últimos diez años. Pero yo no describiría este estado de cosas como algo que refleje "inmoralismo". Lo veo como dos modos diferentes de pensamiento moral, uno (el emocional) que privilegia la eficiencia cognitiva sobre la flexibilidad y otro (el racional) que privilegia la flexibilidad cognitiva sobre la eficiencia.
5. En la vida diaria las personas toman muchas decisiones morales. La mayor parte están muy lejos de los dilemas morales sobre los que piensan los filósofos. ¿No son éstos demasiado artificiales?
El tiempo lo dirá. Considero a estos dilemas parecidos a las moscas del vinagre. Son pequeñas criaturas que podemos llevar al laboratorio y estudiar de manera controlada. Yo creo que tenemos mucho que aprender sobre el pensamiento moral del mundo real estudiando estas pequeñas criaturas, tal como los genetistas han aprendido mucho sobre genética humana estudiando las moscas del vinagre. Pienso que ciertos dilemas morales son interesantes porque separan diferentes circuitos cerebrales que influyen en los juicios morales del mundo real. Pero queda por ver si podemos pasar de estas moscas del vinagre a problemas morales del mundo real. Yo creo que sí podemos, pero otros tienen derecho a estar en desacuerdo.
6. ¿Qué piensa de las investigaciones sobre moral de sus colegas Hauser y Haidt?
Pienso que ambos han hecho contribuciones importantes. Mis ideas están mucho mas cerca de las de Haidt, y el propio Haidt ha tenido una gran influencia en mi modo de pensar. Creo que las emociones son la fuerza dominante en el juicio moral cotidiano, pero creo también que hay un gran potencial para que un juicio moral más racional mejore el mundo. Marc Hauser sigue a John Mikhail en la promoción del punto de vista de la "Gramática Moral Universal". Pienso que es una idea muy atractiva, pero no pienso que los datos la apoyen muy bien. Como he notado más arriba, pienso que está ya claro que en los juicios morales influyen distintos sistemas cognitivos que (a veces) compiten entre sí, de los cuales al menos algunos no están dedicados específicamente al pensamiento moral. Por supuesto, todo depende de qué se quiera decir con "gramática moral", pero no he visto ninguna definición de "gramática moral" que sea lo bastante restrictiva para ser útil y, a la vez, consistente con lo que sabemos sobre cómo se hacen los juicios morales.
7. ¿En qué trabaja ahora? ¿Cuál es su máximo reto intelectual? ¿Cuál el misterio que soñaría con desvelar?
Estoy intentando atacar el problema del juicio moral en múltiples niveles construyendo sobre, y ramificando a partir de, mi trabajo sobre los dilemas morales. En el nivel cognitivo, estoy intentando documentar y entender cómo funciona el razonamiento moral. Estoy también intentando entender los procesos cognitivos que desencadenan respuestas morales-emocionales. En el nivel neurocientífico, estoy intentando entender mejor las contribuciones de diferentes regiones cerebrales al juicio moral. Estoy intentado examinar decisiones morales más realistas, pero también seguiré trabajando con mis moscas del vinagre. Estoy estudiando diferentes poblaciones humanas (por ejemplo, psicópatas) y usando nuevo métodos (por ejemplo estimulación magnética transcraneal para influir en la función cerebral durante el juicio moral). Esto nos mantiene a mis estudiantes y a mí bastante ocupados.
Mi objetivo último es ser capaz de tomar cualquier cuestión moral del mundo real y disecarla en términos de los procesos psicológicos y neurológicos en competencia que nos hacen estar en desacuerdo. Quiero usar nuestro conocimiento científico para evaluar diferentes clases de pensamiento moral. La ciencia no nos dirá por sí sola qué está bien y qué está mal, pero pienso que la información científica hará que algunas ideas morales parezcan sorprendentemente malas y otras sorprendentemente buenas. Mi objetivo último, pues, es acercarnos a una filosofía moral científicamente informada y universalmente aceptable.
Pero no todo el mundo estaría dispuesto a atribuir carácter moral a la decisión entre un café y un té en la sobremesa. Parecería frívolo. Por ello se suele circunscribir la moral al conjunto de valoraciones y elecciones en términos de bien y mal (que lleven aparejadas la etiqueta “bueno” y “malo”) en el ámbito de las relaciones y comportamientos sociales, y con un horizonte temporal amplio (al menos para las consecuencias de los actos).
Así, decisiones de vida o muerte, salud y enfermedad, colaboración y explotación, ayuda, indiferencia o perjuicio, fidelidad o traición...etc etc...son morales en sentido estricto.
Algunos aspectos de nuestra moralidad son indudablemente universales. La moral misma, como tal, lo es. Como animales valorativos, con trayectorias vitales, con “historias” personales que se imbrican e implican en las historias grupales, se ordenan de acuerdo con ellas y se proyectan en el futuro, no podemos escapar de la comparación permanente y de la jerarquización de nuestros actos, creencias e intenciones (y los de los demás) en una escala moral.
Pueden existir, y de hecho existen, diferencias en dicha escala entre culturas, igual que la hay entre individuos o para un mismo individuo a lo largo del tiempo. Pero todas esas diferencias son sólo una cáscara sobre un núcleo duro de valoraciones morales que compartimos todos los humanos como especie (con la excepción de casos considerados patológicos, los llamados psicópatas).
Estas valoraciones se hallan codificadas de alguna forma en nuestras mentes y en la sustancia biológica de la que esta surge, evolucionada por selección natural: nuestro cerebro.
Es a la supervivencia y a la descendencia a las que, al fin y a la postre, sirve la moral. Lo que es “bueno” y “malo” para el ser humano como individuo miembro de un grupo y para el propio grupo que lo alberga y sin el cual no puede prosperar, es moral.
¿Qué peso tienen las emociones, los sentimientos y la razón en nuestras valoraciones morales? ¿Qué actos son biológicamente tabú para todos (o casi todos) nosotros y a cuáles nos sentimos obligados? ¿Qué hay de universal y que sesgos introduce lo cultural en la moral? Estas y otras preguntas más sutiles en relación de la moral trata de responderlas el neurocientífico y filósofo Joshua Greene, Profesor en la Universidad de Harvard.
En su investigación ha sometido a algunos voluntarios a variados dilemas morales, observando su reacción (o la de su cerebro), a través de la toma de neuroimágenes. Pero su aproximación al problema de la moral requiere de otros experimentos y observaciones de corte más psicológico, así como de deducciones y síntesis filosóficas.
Joshua Greene ha tenido la amabilidad de respondernos unas preguntas. Marzo revisó las preguntas en inglés y tradujo las respuestas.
En inglés:
1. Could you describe the field of neurophilosophy for us?
I don't see "neurophilosophy" as a coherent field. Rather, I see many places where psychology and philosophy intersect, and I see neuroscientfic data as simply one among many types of useful psychological data. But even here--at the intersection of psychology and philosophy--I don't see a single, coherent field. For a long time, the main intersection between philosophy and psychology was in the philosophy of mind, with a focus on consciousness. I find the questions in this area fascinating, but it's not clear to me that much progress has been made. More recently, I and others have taken an interest in empirical moral psychology as a way to get at traditional questions in ethics and meta-ethics. I am certainly biased, but I think this has been a very fruitful enterprise, with philosophers and psychologists working together in such a way that an outside observer would have a hard time telling who is who. Some of this interdisciplinary work has been neuroscientific, but that is, to a large extent, incidental. We welcome any kind of data that sheds light on how the moral mind works.
2. Where in the brain is the seat of moral reasoning?
If there is one clear lesson that has come out of neuroscientific research on moral judgment, it's that there is no single place in the brain where moral judgments get made. Normal moral judgment emerges from the interaction of several dissociable cognitive/neural systems, where these systems need not be specifially dedicated to making moral judgments.
3. What is the respective weight of culture and biology in our moral feelings and thinking?
Great question, but there is no single answer because it depends on which moral issues one is talking about and how one weights them in importance. The moral issues that are most salient to us are the one over which people disagree. And when it comes to those issues--things like abortion and drawing cartoons of Mohamed--culture is obviously extremely important. But there is a lot of cross-cultural agreement that we tend to take for granted. In no culture is it acceptable for ordinary people to kill other people simply because they are having a bad day and want to "blow off steam." I have no doubt that this universal feature of morality is part of our biological inheritance. And there may be some other universal features of morality that are less obvious, and therefore more interesting.
This comes out of research that I and others have done on "trolley dilemmas," which were first discussed by philosophers. People say that it's morally acceptable to turn a runaway trolley away from five people and onto one person, saving the lives of the five but killing the one. People say that it's not morally acceptable push someone in front of a runaway trolley, killing that person, in order to stop the trolley from killing five people. In every culture that's been examined, people are more willing to redirect the trolley than to push someone in front of the trolley, even though both involving killing one person to save five. Some more recent work that I've done shows that this is not simply due to the fact that people think that pushing someone in front of a trolley is unlikely to work in the real world. Rather, it seems to have to do with the physical act of intentionally pushing someon. People are much more likely to approve of dropping someone in front of a trolley using a switch-operated trap door, as compared to pushing someone with one's hands or with a pole. My guess is that this aversion to violence through the use of what I call "personal force" is a biologically based human universal. But we don't yet know this for sure.
4. Moral philosophers usually follow either a Kantian (rational) or a Humean (emotional) tradition, but our natural moral might perhaps be better reflected by Nietzschean immoralism.Everything looks to be a fight for power, sometimes hard and explicit, some other times softer and subtler. Are our moral declarations and behaviors the result of a fight inside our brain between different tendences, rational and emotional?
I wholeheartedly agree that moral judgments are shaped by competing emotional and rational processes in the brain. This is the essence of the psychological theory that I've been developing for the last 10 years. But I wouldn't describe this state of affairs as one reflecting "immoralism." I see it as two different ways of moral thinking, one (the emotional) which privileges cognitive efficiency over flexibility and the other (the rational) which privileges cognitive flexibility over efficiency.
5. In everyday life people make a lot of moral decisions. Most of them are far away from the moral dilemmas about which phylosophers think. Are not these too much artificial?
Time will tell. I view these dilemmas as being like fruit flies. They a little creatures that we can take into the lab and study in a controlled way. My belief is that we have a lot to learn about real world moral thinking form studying these little creatures, just as geneticists have learned a lot about human genetics by studying fruit flies. I think that certain moral dilemmas are interesting because they pull apart different circuits in the brain that influence real world moral judgment. But it remains to be seen whether we can go from these fruit flies to real world moral problems. I believe that we can, but others are entitled to disagree.
6. What do you think about the research on morals by your colleagues Hauser and Haidt?
I think they have both made important contributions. My own thinking is much closer to Haidt's, and Haidt in particular has been a major influence on my thinking. I believe that emotions are the dominant force in everyday moral judgment, but I also believe that there is great potential for more rational moral judgment to improve the world. Marc Hauser follows John Mikhail in promoting the "Universal Moral Grammar" view. I think this is a very intriguing idea, but I don't think it's well supported by the data. As noted above, I think it's already clear that moral judgments are influenced by distinct and (sometimes) competing cognitive systems, at least some of which are not specifically devoted to moral thinking. Of course, it all depends on what you mean by "moral grammar," but I've not seen a definition of "moral grammar" that is both restrictive enough to be useful and consistent with what we know about how moral judgments are made.
7. What are you now working on now? What is your highest intellectual challenge? What is the mystery you would dream to unveil?
I'm trying to attack the problem of moral judgment at multiple levels, building on and branching out from the work I've done on moral dilemmas. On a cognitive level, I'm trying to document and understand how moral reasoning works. I'm also trying to understand the cognitive processes that trigger moral-emotional responses. On a neuroscientific level, I'm trying to better understand the contribution of different brain regions to moral judgment. I'm trying to look at more realistic moral decisions, but I will also continue to work with my fruit flies. I'm studying different human populations (e.g. psychopaths) and using new methods (e.g. transcranial magnetic stimulation to influence brain function during moral judgment). This keeps me and my students pretty busy.
My ultimate goal is to be able to take any real world moral issue and dissect it in terms of the competing psychological and neural processes that make us disagree. I want to use our scientific understanding to evaluate different kinds of moral thinking. Science won't tell us what's right and wrong by itself, but I think that scientific information will make some moral ideas look surprisingly bad and others look surprisingly good. My ultimate goal, then is to bring us closer to a scientifically informed, universally acceptable moral philosophy.
En castellano:
1. ¿Podría describirnos el campo de la neurofilosofía?
No veo la "neurofilosofía" como un campo coherente. Más bien veo muchos lugares de intersección ente psicología y filosofía, y veo los datos neurocientíficos simplemente como uno entre muchos tipos de datos psicológicos útiles. Pero incluso aquí, en la intersección de psicología y filosofía, no veo un campo único, coherente. Durante mucho tiempo la intersección principal entre filosofía y psicología estaba en la filosofía de la mente, con un foco en la consciencia. Encuentro fascinantes las cuestiones en esta área, pero no me resulta claro que se haya progresado mucho. Más recientemente, algunos nos hemos interesado en la psicología moral empírica como un modo de plantear cuestiones éticas y metaéticas tradicionales Ciertamente estoy sesgado, pero pienso que ha sido una empresa muy fructífera, con filósofos y psicólogos trabajando juntos de tal manera que un observador externo tendría difícil distinguir a unos de otros. Parte de este trabajo interdisciplinar ha sido neurocientífico, pero esto es, en gran medida, incidental. Damos la bienvenida a cualquier clase de datos que arrojen luz sobre cómo funciona la mente moral.
2. ¿En qué parte del cerebro está la sede del razonamiento moral?
Si alguna lección clara se ha obtenido de la investigación neurocientífica sobre el juicio moral, es que no hay un lugar único en el cerebro donde se hagan los juicios morales. El juicio moral normal emerge de la interacción entre varios sistemas cognitivos/neurales disociables, sistemas que no necesitan estar específicamente dedicados a hacer juicios morales.
3. ¿Cuáles el peso respectivo de cultura y biología en nuestros sentimientos y pensamientos morales?
Gran pregunta, pero no hay una respuesta única porque depende de las cuestiones morales de las que se esté hablando y de cómo se pondera su importancia. Las cuestiones morales que nos son más prominentes son aquellas en las que la gente está en desacuerdo. Y cuando se trata de esas cuestiones —cosas como el aborto y dibujar caricaturas de Mahoma— la cultura es, obviamente, en extremo importante. Pero hay mucho acuerdo intercultural que tendemos a dar por supuesto. En ninguna cultura es aceptable que personas ordinarias maten a otras personas simplemente porque tienen una mal día y quieren "soltar vapor". No me cabe duda de que este rasgo universal de la moralidad es parte de nuestra herencia biológica. Y puede haber otros rasgos universales de la moralidad que sean menos obvios, y por tanto más interesantes.
Esto procede de investigaciones mías y de otros sobre "dilemas del tranvía", que fueron discutidos primero por filósofos. Las personas dicen que es moralmente aceptable desviar un tranvía fuera de control de un grupo de cinco personas y en dirección a otra, salvando las vidas de las cinco pero matando a la otra. Y dicen que no es moralmente aceptable empujar a alguien ante un tranvía descontrolado, matando a esa persona, para impedir que el tranvía mate a cinco. En todas las culturas que se han examinado, las personas están más dispuestan a desviar el tranvía que a empujar a alguien ante el tranvía, aunque ambas acciones suponen matar a una persona para salvar a cinco. Un trabajo mío más reciente muestra que esto no se debe simplemente a que se piense que empujar a alguien ante un tranvía es poco probable que funcione en el mundo real. Más bien, parece que tiene que ver con el acto físico de empujar intencionadamente a alguien. Es mucho más probable que se apruebe dejar caer a alguien ante un tranvía usando una trampilla accionada con un interruptor, comparado con empujarle con las manos o con un palo. Yo supongo que esta aversión a la violencia mediante el uso de lo que llamo "fuerza personal" es un universal humano de base biológica. Pero aún no lo sabemos con seguridad.
4. Los filósofos morales sigen en general bien una tradición kantiana (racional) o una humeana (emocional), pero nuestra moral natural podría tal vez reflejarse mejor en un inmoralismo nietzscheano. Todo parece ser una lucha por el poder, a veces dura y explícita, otras veces más suave y más sutil. ¿Son nuestras declaraciones y conductas morales resultado de una lucha en nuestro cerebro ente diferentes tendencias, racionales y emocionales?
Estoy por completo de acuerdo en que los juicios morales son informados por procesos emocionales y racionales en competencia en el cerebro. Esta es la esencia de la teoría psicológica que he estado desarrollando durante los últimos diez años. Pero yo no describiría este estado de cosas como algo que refleje "inmoralismo". Lo veo como dos modos diferentes de pensamiento moral, uno (el emocional) que privilegia la eficiencia cognitiva sobre la flexibilidad y otro (el racional) que privilegia la flexibilidad cognitiva sobre la eficiencia.
5. En la vida diaria las personas toman muchas decisiones morales. La mayor parte están muy lejos de los dilemas morales sobre los que piensan los filósofos. ¿No son éstos demasiado artificiales?
El tiempo lo dirá. Considero a estos dilemas parecidos a las moscas del vinagre. Son pequeñas criaturas que podemos llevar al laboratorio y estudiar de manera controlada. Yo creo que tenemos mucho que aprender sobre el pensamiento moral del mundo real estudiando estas pequeñas criaturas, tal como los genetistas han aprendido mucho sobre genética humana estudiando las moscas del vinagre. Pienso que ciertos dilemas morales son interesantes porque separan diferentes circuitos cerebrales que influyen en los juicios morales del mundo real. Pero queda por ver si podemos pasar de estas moscas del vinagre a problemas morales del mundo real. Yo creo que sí podemos, pero otros tienen derecho a estar en desacuerdo.
6. ¿Qué piensa de las investigaciones sobre moral de sus colegas Hauser y Haidt?
Pienso que ambos han hecho contribuciones importantes. Mis ideas están mucho mas cerca de las de Haidt, y el propio Haidt ha tenido una gran influencia en mi modo de pensar. Creo que las emociones son la fuerza dominante en el juicio moral cotidiano, pero creo también que hay un gran potencial para que un juicio moral más racional mejore el mundo. Marc Hauser sigue a John Mikhail en la promoción del punto de vista de la "Gramática Moral Universal". Pienso que es una idea muy atractiva, pero no pienso que los datos la apoyen muy bien. Como he notado más arriba, pienso que está ya claro que en los juicios morales influyen distintos sistemas cognitivos que (a veces) compiten entre sí, de los cuales al menos algunos no están dedicados específicamente al pensamiento moral. Por supuesto, todo depende de qué se quiera decir con "gramática moral", pero no he visto ninguna definición de "gramática moral" que sea lo bastante restrictiva para ser útil y, a la vez, consistente con lo que sabemos sobre cómo se hacen los juicios morales.
7. ¿En qué trabaja ahora? ¿Cuál es su máximo reto intelectual? ¿Cuál el misterio que soñaría con desvelar?
Estoy intentando atacar el problema del juicio moral en múltiples niveles construyendo sobre, y ramificando a partir de, mi trabajo sobre los dilemas morales. En el nivel cognitivo, estoy intentando documentar y entender cómo funciona el razonamiento moral. Estoy también intentando entender los procesos cognitivos que desencadenan respuestas morales-emocionales. En el nivel neurocientífico, estoy intentando entender mejor las contribuciones de diferentes regiones cerebrales al juicio moral. Estoy intentado examinar decisiones morales más realistas, pero también seguiré trabajando con mis moscas del vinagre. Estoy estudiando diferentes poblaciones humanas (por ejemplo, psicópatas) y usando nuevo métodos (por ejemplo estimulación magnética transcraneal para influir en la función cerebral durante el juicio moral). Esto nos mantiene a mis estudiantes y a mí bastante ocupados.
Mi objetivo último es ser capaz de tomar cualquier cuestión moral del mundo real y disecarla en términos de los procesos psicológicos y neurológicos en competencia que nos hacen estar en desacuerdo. Quiero usar nuestro conocimiento científico para evaluar diferentes clases de pensamiento moral. La ciencia no nos dirá por sí sola qué está bien y qué está mal, pero pienso que la información científica hará que algunas ideas morales parezcan sorprendentemente malas y otras sorprendentemente buenas. Mi objetivo último, pues, es acercarnos a una filosofía moral científicamente informada y universalmente aceptable.
No hay comentarios:
Publicar un comentario