sábado, febrero 21, 2015

Amor romántico y Evolución

Voy a comentar en esta entrada un artículo de Fletcher y cols. que plantea que el amor romántico es una adaptación, un “dispositivo de compromiso”, para motivar el vínculo de pareja. Este vínculo facilitó la historia vital diferente de los homininos y ayudó a que se produjera la inversión masiva que se requiere para criar a los hijos. Por último, plantean que el manejo de estos vínculos de pareja (junto con las relaciones familiares) facilitó la evolución de la inteligencia social y de la capacidad de cooperación. La revisión de Fletcher y cols. sugiere que el amor romántico es universal, suprime mecanismos de búsqueda de pareja, tiene unas firmas hormonales, conductuales y neuropsicológicas propias y está unido a una mejor salud y supervivencia. Su conclusión es que el amor romántico y el vínculo de pareja, junto con la crianza cooperativa, jugaron un papel crítico en la evolución del Homo sapiens. 

Vínculo de pareja se refiere a un patrón de emparejamiento en el que los machos y las hembras viven juntos de una manera relativamente permanente. Este vínculo puede ocurrir en el contexto de una poliginia (un macho, varias hembras) o poliandria (una hembra, varios machos). En la monogamia, sin embargo, este vinculo se asocia a una mantenida, y más o menos exclusiva, relación de emparejamiento. Distintos autores han propuesto  que el amor romántico se compone de tres componentes: pasión (atracción sexual), vínculo emocional (intimidad, apego) y compromiso (cuidados). Este modelo tripartito está de acuerdo con los datos de la Psicología y de la neurociencia.

Con respecto a la realidad de la existencia de este vínculo, está demostrado que la frecuencia de relaciones sexuales declina a lo largo de la relación de pareja y hay evidencia de que la excitación sexual disminuye con el tiempo. Pero esto no significa, según los autores, que el amor romántico se acabe en los primeros años de la relación. El 50% de las parejas casadas con edades entre 65 y 74 años todavía mantienen relaciones sexuales en los Estados Unidos, aunque con una baja frecuencia; y según una encuesta reciente, el 40% de las mujeres y el 35% de los hombres casados por más de 30 años decían seguir “intensamente enamorados”. 

Con respecto a la  universalidad del amor tenemos poemas de civilizaciones antiguas como China, Grecia, Roma y Egipto, de hace 5.000 a 2.000 años, donde se aprecia sin ninguna duda y también hay estudios transculturales en los cinco continentes donde se evidencia el amor y el dolor del rechazo por la persona amada. En resumen, que hay pruebas de que encontrar una pareja y establecer una relación amorosa es central en la vida de las personas de todas las culturas y que el fenómeno es universal.

La presencia de otras potenciales parejas supone una amenaza para el vínculo amoroso, pero aquí aparece una de las características del amor: que nos focaliza en una persona. En diversos estudios se ha visto que la persona enamorada encuentra menos atractivas a otras personas y atiende menos a otras personas atractivas. Será un engaño y una ilusión pero la persona enamorada ve a su amado/a más atractivo de lo que realmente es y, además, cree que su relación es diferente y mejor a la de los demás. Cuando a una persona enamorada se le dice que las parejas se separan siempre piensa que eso les pasa a otros.

Como he mencionado, el amor romántico tiene unas características hormonales, conductuales y neuropsicológicas típicas. Curiosamente, los componentes del amor romántico son muy similares a los del amor materno-filial y, en general, a los del amor entre padres e hijos. Seaver, Hazan y Bradshaw han identificado 17 semejanzas entre ambos tipos de amor. Por ejemplo, los amantes utilizan el “habla de niño” entre ellos, usan apodos cariñosos, adoptan cadencias musicales al hablar y tienen un fuerte deseo de estar juntos y cuidar y besar al otro. También están fascinados con la apariencia física del otro y se pasan el día mirándose y también juegan juntos. Finalmente, en ambos tipos de amor, si hay una separación prolongada se produce un sufrimiento, y también son muy sensibles los amantes a los motivos y necesidades del otro. 

Esta asombrosa semejanza entre las manifestaciones conductuales del amor romántico y el materno-filial sugiere que la evolución tomó prestados los mecanismos más antiguos existentes para el vínculo materno-filial (que evolucionó originalmente en mamíferos para unir el niño a la madre y viceversa) y los aplicó a los hombres y mujeres en el contexto de la relación romántica. Así que podemos decir que el amor romántico es amor materno-filial tuneado por la evolución.

La neurobiología del amor confirma lo que estamos diciendo porque la implicación de las hormonas (oxitocina, prolactina…) y las áreas cerebrales implicadas, según estudios de neuroimagen, son muy similares, con algunas diferencias. Por ejemplo, en el amor materno no hay activación del hipotálamo, pero el resto de estructuras son prácticamente las mismas, en especial el Area ventral tegmental (circuito de recompensa). También en ambos tipos de amor hay una desconexión de la corteza prefrontal, es decir que el área del juicio y el razonamiento se va de vacaciones cuando estamos enamorados, con lo que no se pueda decir que veamos la realidad como es (la realidad que afecta al amado/a, porque en otras esferas el razonamiento lógico no se altera). 

Bien, hemos comentado que el amor romántico es universal, tiene una biología determinada, nos centra en la persona amada y también hay datos de que las personas en una relación estable tienen mejor salud. Pero le podemos poner algunas pegas a esta idea de que el amor es una adaptación, hay cuatro desafíos que sugieren que el amor no es tan fuerte como para promover una relación monógama a largo plazo. Estos desafíos son los siguientes: 1) los matrimonios concertados 2) la prevalencia de la poliginia, 3) Divorcio 4) Infidelidad. Pero Fletcher y cols. tratan cada uno de estos problemas:

Matrimonios concertados. Los matrimonios concertados son comunes en muchas culturas actuales y lo son también en sociedades de cazadores-recolectores. Pero, ¿hasta qué punto los novios tienen algo que decir en ellos? ¿las personas infelices casadas por sus padres buscan otros compañeros? ¿hasta qué punto coinciden los criterios de los padres con los de los hijos? Para empezar, los novios tienen bastante que decir en muchas culturas. Por ejemplo en Sri Lanka cuando dos novios se gustan informan a sus padres por vías indirectas. También ocurre que si la persona es infeliz se separa. En cazadores recolectores la mayoría de los divorcios ocurren en los 5 primeros años de matrimonio y el segundo matrimonio lo escoge la mujer la mayoría de las veces. Pero lo más llamativo es que la concordancia entre los criterios de los padres y los de los novios es muy alta, de 0.82 y 0.83 en algunos estudios. Así que este primer obstáculo al amor romántico no parece muy firme.

Poligamia. El 84% de las culturas permiten la poligamia. Sin embargo, sólo el 5-10% de los hombres de las culturas que permiten la poligamia tienen más de una mujer. Además, el amor es una fuente de problemas en los regímenes poligámicos. Las mujeres suelen sufrir por celos y hay más conflictos y violencia que en las parejas monogámicas. Las primeras esposas sienten “miedo, ira, tristeza y sentimiento de pérdida” cuando una segunda mujer entra en la familia y la más potente causa de conflicto es la restricción al sexo y a la intimidad emocional con el marido. También en el caso de la poliandria de los pueblos del Himalaya es frecuente que los hombres tengan relaciones fuera de esa unión y que , si pueden, establezcan una relación de monogamia. Según Fletcher y cols., el arreglo más frecuente es la monogamia lo que apoya su punto de vista de que el amor evolucionó para facilitar el vínculo de pareja y que, cuando las uniones se arreglan de otra manera, el amor está por medio creando problemas.

Divorcio. Es famoso el argumento de Helen Fisher de que el amor dura hasta que el niño tiene 4 años de edad, momento en que se produce el pico de divorcios en todos los lugares del mundo. Según Fisher, el amor serviría para mantener unida a la pareja por lo menos el tiempo suficiente para que el niño pueda ser lo bastante mayor para ser atendido por la madre y el resto de familiares y la tribu. Pero Fletcher y cols. argumentan que esta hipótesis tiene el problema de que muchos matrimonios duran más de esos 4 años, incluso toda la vida. Aunque se dice que la probabilidad de que un matrimonio acabe en divorcio, en Occidente, es del 50%, la verdad es que el dato más fiable es que el 35% de los primeros matrimonios acaban en divorcio en los países occidentales. En sociedades de cazadores-recolectores las tasas de divorcio para los !Kung son del 37% en los primeros 5 años de matrimonio, y del 39% entre los Hazda. En USA esas tasas a los 5 años actualmente son del 17%. En países occidentales es muy común ahora que la pareja conviva antes de casarse (66% en USA y 90% en Suecia). Las tasas de separación al de 5 años de estas parejas son 46% en USA y 37% en el Reino Unido. De todos estos datos Fletcher y cols. concluyen que aunque hay una tasa de disolución de matrimonios y parejas, esta tasa disminuye con el tiempo y en general apoya su hipótesis de que el amor es un mecanismo para formar vínculos estables (personalmente creo que en este punto Fletcher y cols deciden ver la botella medio llena en vez de medio vacía, pero bueno).

Infidelidad. En USA entre el 20-25% de los hombres y el 10-15% de la mujeres reconoce relaciones extramatrimoniales, aunque las cifras de infidelidad varían mucho según el lugar (y no son del todo fiables). En Guinea Bissau son de 38% en hombres y 19% en mujeres y en Hong Kong del 8% en hombres y 1% en mujeres. En estudios de ADN la media del porcentaje de hijos que no son hijos de su padre biológico es del 3,3%. Realmente es una media baja, en pájaros monógamos este mismo porcentaje de hijos que no lo son del compañero de nido es del 11,1%. Pero no hay que olvidar que los pájaros no usan anticonceptivos así que en humanos el porcentaje de infidelidad tiene que ser mucho más alto que ese porcentaje de embarazos por un hombre que no es la pareja habitual. Por cierto, que Fletcher y cols. dan el dato de que la probabilidad de embarazo de cualquier acto de relación sexual es del 3%, como curiosidad. En resumen, Fletcher y cols, vuelven a ver la botella medio llena y concluyen que la tasa de infidelidad no  pone en peligro su hipótesis de que los humanos son primordialmente monógamos.

Como decía más arriba, los autores plantean una relación entre monogamia y desarrollo de una mayor inteligencia social, de capacidad de leer la mente de los demás, etc. y citan estudios donde se ve una relación entre monogamia y mayor tamaño cerebral en diferentes especies. Pero voy a concluir con las fechas hipotéticas de aparición de la monogamia, según estos autores. Fletcher y cols. plantean que los humanos modernos (hace 150.000 años) ya eran monógamos pero van incluso más atrás. La monogamia está muy relacionada con el cuidado parental pero el cuidado parental, según Opie y otros, sigue a la monogamia, y no al revés. El caso es que estos autores dicen que ya Homo erectus (hace unos 2 millones de años ) era monógamo puesto que habría sido muy difícil que sobreviviera en su ambiente sin un sistema de vida sustentado en bandas basadas en la familia. Los australopitecos anteriores al Homo erectus habrían vivido en un régimen poligínico.

En resumen, el amor romántico es una adaptación, un dispositivo para el compromiso, que facilita la existencia de vínculos de pareja a largo plazo y , junto con la crianza cooperativa, ayudó al avance de nuestra inteligencia social. Ambas cosas, monogamia y crianza cooperativa existieron antes de la evolución de los humanos modernos en Africa. También, el intercambio de parejas entre bandas promovió la cooperación entre comunidades más amplias (Chapais).

@pitiklinov

Referencia:






lunes, febrero 16, 2015

Ciencia y sentido común (interdisciplina)

El desarrollo de la Ciencia es un proceso arduo, complejo y exhaustivo para aquellos que intentan avanzar en cada una de las parcelas la integran. Si durante el Renacimiento parecía posible que algunos estudiosos pudieran abarcar gran parte de sus disciplinas, en la actualidad es un hecho prácticamente imposible, o por lo menos con una muy limitada realización. La propia evolución de la Ciencia en estos últimos siglos nos muestra que la parcelación de la misma ha sido necesaria para el adecuado desarrollo doctrinal de cada una de las diversas parcelas académicas que se han ido creando a lo largo del tiempo.

Sin embargo, si en un principio se partió de un conocimiento general más o menos integrado, con posterioridad se pasó al otro extremo. Se perdió en gran parte la integración científica en aras de mayores desarrollos doctrinales, pero con importantes ausencias de comunicación entre ellos. Es decir, la Ciencia avanzó en gran medida, pero con grande dosis de individualidad metodológica que hicieron perder la noción del “bosque” que debería de ser la reunión de los diversos “árboles” que constituyen todas las disciplinas académicas.

Pero la necesidad e interés de avanzar en todos los campos obligaba a realizar diversas intromisiones en otras ciencias que también trataban sobre tales problemas, aunque fuera con otro punto de vista o solo de una forma aparentemente tangencial. Los estudios multidisciplinares siempre ha tenido cierto desarrollo, pero muchas veces se ha realizado como “para salir del paso” o fundamentar problemas concretos y limitados. Es decir, se utilizaba cierta teoría u orientación metodológica de otras ciencias para reafirmar nuestro trabajo, muchas veces sin conocer a fondo el nivel de incertidumbre que tal teoría podía contener o su fundamento teórico. Si ha habido una parcela científica que más ha sufrido estas circunstancias, sin duda ha sido las llamadas ciencias sociales, entre otras cosas por la gran dificultad que su desarrollo conllevan.

Por otro lado, los científicos solo pueden utilizar los conocimientos propios de su época y que mayoritariamente utiliza la disciplina en la que se han formado. En este contexto, aparece lo que se llama “deformación profesional”, proceso socio-académico que afecta a la mayoría de los componentes de cualquier disciplina. Así, se ven los problemas a tratar desde un punto muy semejante, tanto en la exposición de los problemas como en la forma de poder estudiarlos. Muchos avances teóricos han surgido de gente que ha querido romper estas tendencias y ha elaborado nuevos caminos, lo que ni es fácil ni está al alcance de todos.
He resaltado dos hechos que muchas veces van juntos: la necesidad de una interdisciplina teórica que supere la simple multidisciplina; y cierta tendencia a romper los moldes académicos establecidos

La interdisciplina o la observación y aceptación de los que dicen otras ciencias o científicos es un proceso que muchos teóricos han resaltado desde hace muchos años. Un ejemplo lo tenemos en las palabras del Dr. Gregorio Marañón escritas en el prologo de un libro ya en 1952:

Dr. Gregorio Marañón
Los hallazgos definitivos no han surgido de una verdad nueva, sino de una ordenación racional de una serie de verdades conocidas y dispersas: racional o causal, porque en este juego de estructuración de datos no sistematizados ocurre como en la solución de los rompecabezas, que unas veces surge del ingenio y otras del puro azar. Lo que no puede faltar nunca es la atención. La atención es en la Ciencia lo que la luz en el cuarto oscuro, que de repente se ilumina y parece que crea lo que, sin embargo, estaba allí y no alcanzábamos a ver.

La cita del Dr. Marañón expresa una realidad que muchas veces no es tenida en cuenta con su verdadera trascendencia. Si seguimos su consejo, tras haber leído numerosa información relativa a diversas ciencias que estudian al ser humano desde puntos de vista diferentes, es el momento de prestar la atención debida a cada una de ellas, con el propósito de analizar su interconexión e intentar agruparlos en un proyecto común. Es decir de elaborar síntesis interdisciplinarias en todos los aspectos que conciernen a su estudio. Por mucho que sean diferentes en sus respectivos enfoques, debe existir un común punto de encuentro, pues no hay que olvidar todas ellas tienen como fin principal al ser humano y a sus manifestaciones socioculturales. Un mismo fin, aunque visto desde parcelas teóricas diferentes. Si en esta confluencia de intereses se apreciasen importantes contradicciones, habría que pensar que alguna determinada teoría, de las disciplinas usadas en estos asuntos, pudiera no ser correcta, pues en la explicación de la realidad humana no pueden coexistir conceptos claramente antagónicos. Tal vez el problema radica en la falta de puntos de enlace, que puedan articular tal disparidad de información.

Charles Darwin (1809-1882)
Articulación de datos y coordinación de todas las ciencias que traten del problema, es fácil de decir y muy complejo de resolver. Quizás este sea el verdadero éxito de Darwin cuando realizó su teoría de la evolución. El inicio de tal andadura científica tuvo sus raíces en diversos autores del siglo XVIII, aunque el arranque definitivo se logró con la publicación de El origen de las especies en 1859 por Charles Darwin (1809-1882), donde pudo explicar su teoría sobre el origen de las diferentes especies que conocemos. En el ambiente cultural de su época ya existían ideas semejantes que intentaban explicar el origen y diversificación de las especies de seres vivos, por medios diferentes a los que la religión hegemónicamente había mantenido durante siglos. Tal es el caso del conde de Bufón, Georges Louis Leclerc (1707-1788); del propio abuelo de Darwin, el médico Erasmus Darwin (1731-1802), y del caballero de Lamarck, Jean-Baptiste-Pierre-Antoine de Monet (1744-1829). Estos autores, junto con otros menos conocidos, crearon una atmósfera científica que favorecía el conocimiento y el desarrollo de estas nuevas vías explicativas sobre la realidad viviente.

La teoría de la evolución rompió el estancamiento científico que presidía su entorno, siendo el comienzo de una nueva y mejor forma de comprender la propia existencia biológica, que de otra manera sería imposible conocer. Las elocuentes ideas de Darwin estaban en su origen limitadas por el precario desarrollo científico de su tiempo, pues todas sus conclusiones debían adecuarse a los datos que en ese momento tenía a su alcance. La escasez de conocimientos sobre genética y desarrollo embrionario, tenían que limitar forzosamente sus deducciones sobre la forma de producción del cambio morfológico, presentando a la selección natural como la principal guía de los cambios anatómicos que se fueran produciendo. Con estas circunstancias desarrolló su axioma más característico o que más fama ha tenido: “La supervivencia del mejor adaptado o menos malo”. No obstante, admite que existen otros factores en la modificación de las especies (Darwin, 1988: 55), los cuales pueden dar lugar a cambios poco adaptativos. Estos conceptos antagónicos los complementa mediante la idea de que los seres vivos se consideren como sistemas integrales, por lo que una modificación adaptativa puede producir otra no adaptativa por sí sola, pero compensada por la adaptabilidad global del ser vivo. Igualmente, un órgano seleccionado para una función determinada, puede realizar otras funciones para las que no fue seleccionado. Tal proceso, fundamental en la evolución humana, es conocido con el nombre de exaptación.

Sin duda, su trabajo tuvo un amplio carácter interdisciplinario (Biología, Geografía, Demografía, Geología, etc.) como no podía ser de otra manera, aunque limitado por las condiciones teóricas de la ciencia en su época. Supo coordinar todos los datos que se conocían, aunar su propia experiencia del largo viaje en el HMS Beagle, y realizar una teoría coherente con toda la información (interdisciplinaria) que superaba todas las conocidas hasta entonces.

Otros autores, son aún más críticos ante la situación de analizar un problema sin conocer a fondo todos los conocimientos que la ciencia en general posea. En este sentido, Francis Harry Crick (1916-2004), premio Nobel de Fisiología y Medicina en 1962 por su contribución al descubrimiento de la estructura del ADN, expone que la razón no es suficiente para entender nuestra realidad neurológica, teniendo una gran capacidad de autoengañarnos acerca del funcionamiento cerebral en relación con el mundo en el que vivimos y consigo mismo, pues lo que conocemos del cerebro es sólo una pequeña parte de su compleja dimensión. Por tanto, la Filosofía ha sido en gran parte estéril durante más de 2000 años, y probablemente seguirá siéndolo hasta que los filósofos aprendan a entender el lenguaje del proceso de la información (Crick, 1987: 220-228). Aunque el planteamiento de Crick parece exagerado, no le falta razón, pues estudiar la conducta humana sin conocer el origen y fundamento funcional de nuestro cerebro (Neurología, Psicología, Lingüística, Genética y Biología evolutiva) parece en efecto que es dar golpes de ciego.

Actualmente, el seguir trabajando en cualquier ciencia sin métodos interdisciplinarios es un procedimiento que, por lo menos, va en contra del sentido común que tanto ha caracterizado a los prohombres de ciencia. Insistir en proseguir trabajos mediante métodos académicos que encuentran una fuerte contradicción con los recientes avances de otras disciplinas. Igualmente, parece necesario romper algunas tradiciones académicas en aras de una mayor amplitud científica, que nos pueda ofrecer a nuestras hipótesis fundamentos teóricos mejor elaborados y más fiables. En un blog sobre la evolución parece obligado que pongamos algunos ejemplos relacionados con esta disciplina, así pues expondré brevemente dos temas ya tratados aquí. Me refiero al concepto de evolución, y a la Psicologíaevolutiva.

- Del primero, podemos mantenernos totalmente fieles a las idas evolutivas creadas con en Neodarwinismo de principios del siglo pasado. Muchas otras ciencias relacionadas con los procesos evolutivos (Genética, Biología del desarrollo, Epigenética, Paleontología, etc.) han desarrollado muchos criterios evolutivos que ofrecen un punto de vista diferente al elaborado en sus orígenes. La evolución es un complejo proceso biológico de carácter multifactorial y heterogéneo en su producción, el cual solo puede entenderse, dentro de la limitación del conocimiento científico actual, con la utilización de los recientes avances teóricos de todas las ciencias que pueden relacionarse con ella.

- Del segundo, parece aún más obvia su parcelada utilización multidisciplinaria. La utilización de formas evolutivas clásicas como fundamento del desarrollo cognitivo humano, pudo tener visos de coherencia en el siglo pasado, pero actualmente su falta de ajuste teórico con otras ciencias le quitan mucha credibilidad. Cierto que algunos autores, como Robert Kurzban (2010), han tratado de adecuar el clásico modelo de los “módulos cerebrales” de la Psicología evolucionista a conceptos más de acorde con la Neurología actual. Así, un módulo funcional no sería una zona aislada del cerebro, sino un mecanismo neurológico de procesamiento de información que nos permite resolver un problema concreto. Se habla más de función que de estructura neurológica. Hay que evitar pensar en el módulo como algo localizado en un lugar del cerebro, es decir, un nódulo de células en una región del cerebro. Un módulo puede ser algo muy extendido por el cerebro, un circuito extenso que realice una función.

El problema sería conocer el carácter evolutivo, que confiere al cerebro ciertas características, de la creación de este nuevo concepto de módulo. Sabemos por la Neurología que muchas funciones cognitivas tienen en su funcionamiento áreas comunes de activación, y que la definitiva estructuración funcional del cerebro (mielinización, periodo crítico, plasticidad neurológica, asimetrías cerebrales, etc.) tiene un claro fundamento genético altamente influenciable por las características del medio ambiente en el que nace (inmaduro durante años), destacando en importancia al lenguaje. Es difícil de creer que cada uno de los aspectos cognitivos humanos haya evolucionado por separado, de forma independiente y creando unos circuitos cerebrales que, al proporcionar una ventaja selectiva (Darwin apuntaba que la selección es del individuo, no de un carácter en particular) se propagaba y quedaba impreso genéticamente.

Ejemplo de interdisciplinariedad aplicada en Arqueología
Mi sentido común, puede que el de otros sea diferente, me aconseja estudiar la evolución (clave de todo estudio humano de cualquier signo) con los criterios de un proceso multifactorial (aún no del todo conocido), y a la conducta humana dentro de una amplia interdisciplinariedad. Si para eso tengo que romper moldes académicos, pues los romperé, de hecho ya lo he intentado, evidentemente con poca fortuna.

* CRICK, F. H. (1987): Reflexiones en torno al cerebro. En El cerebro. Libros de Investigación y Ciencia, Ciencia Científica, Barcelona.
* DARWIN, CH. (1988): El origen de las especies. Espasa-Calpe. Austral. Madrid.
* KURZBAN, R. (2010): Why everyone (else) is a hypocrite. Evolution and the Modular Mind. Princeton University Press.
* MARAÑÓN, G. (1952): Prólogo del libro de E. Muñoz y A. Mundo: El bazo y sus funciones. Universidad de Granada.


sábado, febrero 14, 2015

¿Por qué no tenemos más pelo en la cara?

Bueno, algunos hombres tienen una buena cantidad de barba en la cara, pero aún así enseñan bastante piel de la cara y, comparados con nuestros primos primates, nuestras caras tienen más bien poco pelo. ¿Por qué es esto así?

Las razones para la pérdida de nuestro pelo corporal en general todavía se debaten. Algunos investigadores dicen que perdimos la piel para librarnos de parásitos, como los piojos. Esto nos podría haber hecho más atractivos para el otro sexo: la piel limpia era una buena autopublicidad de la ausencia de parásitos. Otros dicen que perdimos la mayor parte del pelo para favorecer el enfriamiento a medida que nos desplazamos de los bosques sombríos a las cálidas sabanas. Otros dicen que la desnudez capilar es un rasgo juvenil (un rasgo neoténico) que los humanos han conservado en la edad adulta. A veces se nos considera unos monos infantilizados que maduran más lentamente y viven más que nuestros primos simios.

Pero Mark Changizi tiene una explicación alternativa para el hecho de que tengamos menos pelo en la cara que tiene que ver con un objeto que estuvo de moda en los años 70: los “anillos del humor” (mood rings). Se trata de anillos que cambian de color según la temperatura de la persona que los lleva puestos y se supone que indican su estado emocional. En realidad estos anillos no son más que termómetros diseñados para cambiar de color según la temperatura corporal y no indican ningún estado emocional, por supuesto. Pero la idea de que el color revela el estado emocional no está muy desencaminada. 

Esta relación entre color y emoción está muy extendida en la cultura humana. Nos ponemos “verdes de envidia” “rojos de ira o de vergüenza” y a la tristeza la llamamos “blues” (azul). El caso es que Changizi propone que las caras se fueron haciendo menos peludas para permitir que otros miembros de nuestra especie pudieran leer nuestras  emociones. De hecho, las caras de los primates, y también sus genitales, cambian de color debido a la fisiología de la piel y señalan estados como la receptividad sexual muy importantes de identificar y diferenciar. 

La mayoría de los mamíferos, como perros, caballos u osos, sólo pueden ver dos colores, son dicrómatas y pueden ver solamente amarillos, azules y los grises resultantes de la mezcla de amarillo y azul. Esto es así porque sólo tienen dos tipos de conos sensibles a las longitudes de onda cortas o largas de la luz. Pero los humanos y otros primates somos tricrómatas y tenemos un tercer tipo de cono sensible a las longitudes de onda medias. Por ello, también podemos detectar el continuo rojo-verde (algunas pocas personas son tetracrómatas).

Pero ocurre que estos tres tipos de conos no están distribuidos de una manera uniforme y esto permite percibir las propiedades de la sangre que circula por debajo de la piel: cómo está de saturada de hemoglobina y cómo está de concentrada la hemoglobina. Debido a ello, la piel humana puede tener una sorprendente variedad de colores, aunque pensamos que es blanca, negra o marrón. Eso son solamente los colores básicos. Las caras muy oscuras también se ponen rojas (algo que observó Darwin). Las caras se ponen rojas si la hemoglobina se va oxigenando cada vez más. Si la saturación se reduce, el color de la piel se vuelve verde, que es el color de las venas que llevan la sangre sin oxígeno de vuelta al corazón. Si se acumula mucha sangre en un lugar se pone azul, como en los moratones. Y una reducción en la concentración de sangre hace que la piel aparezca amarilla, que es como describimos a alguien cuando no tiene un aspecto muy saludable.

Los animales dicrómatas, como hemos comentado, sólo pueden percibir cambios en la dimensión azul-amarillo lo que sólo les permite detectar cambios en la concentración de sangre. Esto ya es útil ya que es probablemente mejor evitar a alguien que está muy amarillo porque puede estar infectado o a punto de vomitar. Y alguien con moratones puede ser alguien herido y más fácil de derrotar en la lucha por la comida.

Pero si la cara lampiña evolucionó para señalar colores, entonces otros animales tricrómatas deberían tener una piel visible también. Por eso, para comprobar su hipótesis, Changizi estudió 97 especies de primates y comprobó que los que son monocrómatas y dicrómatas tienen piel gruesa, mientras que los que son tricrómatas, como nosotros, muestra zonas más amplias de cara. Changizi plantea que incluso aunque la piel lampiña fuera seleccionada para algo diferente a señalar el color, es muy probable que luego ambas cosas se entrelazaran.

¿Y cuando perdimos el pelo? Alan Rogers ha estudiado el gen MC1R que especifica una proteína que sirve como interruptor entre la eumelanina, que protege de los rayos ultravioleta del sol y es marrón-negra, y la feomelanina, que no protege y es roja-amarilla. Su argumento es que tan pronto como los humanos perdieran el pelo su piel tuvo que tomar un color oscuro (fijaos que la piel de los chimpancés por debajo del pellejo es de color claro, como el caso de Cinder, un chimpancé con alopecia universalis). Estudiando las mutaciones silentes de este gen que sirven de reloj molecular, Rogers calcula que perdimos el pelo hace 1,2 millones de años, cuando la población humana, además, consistía en unos 14.000 individuos reproductores.

Otra fecha interesante es la de cuándo empezamos a usar ropa. Para saber esto, el Dr. Stoneking tuvo la curiosa idea de estudiar el piojo corporal que es una variante de piojo que sólo puede vivir en la ropa (las otras variantes son las de la cabeza y la del vello púbico). Se le ocurrió la idea cuando sus hijos le trajeron del colegio una nota donde decía que los piojos  sólo pueden vivir unas pocas horas fuera del cuerpo humano. Así que se puso a estudiar el ADN de los piojos de todo el mundo (así como los de chimpancés) para datar la aparición del piojo corporal. Sus cálculos dan una fecha entre hace 72.000 y 42.000 años, aunque admiten que la horquilla podría ir desde hace 114.000 años a hace 30.000. No es una fecha muy precisa, pero algo es algo. Lo que sí podemos deducir de ella es que, dado que los neandertales y los sapiens divergieron hace unos 250.000 años, el ancestro común a ambos todavía no usaba ropas y los neandertales probablemente tampoco. 

@pitiklinov

Referencia:


domingo, febrero 08, 2015

Las matemáticas de nuestra conducta

Colaboración de Samuel Graván



"Empiezas con un grupo de átomos al azar, y si los iluminas durante un tiempo suficiente, no sería ninguna sorpresa que obtengas una planta." 
Jeremy England (2014), entrevista con Natalie Wolchover


Jeremy England
Dr. Jeremy England, físico del MIT(Massachusetts Institute of Technology)

















Si las ideas del equipo liderado por Jeremy England en el MIT se confirman, traerá serias implicaciones en terrenos más allá del origen y desarrollo de la vida. En este artículo, voy a hablar de una de tales implicaciones secundarias: el hecho de que toda la conducta animal, incluida la conducta humana, estarían subordinadas a la tarea de disipar energía.

En otras entradas previas, ya he explicado a fondo mediante un amplio desarrollo matemático y con bastantes ejemplos prácticos, todo lo que este equipo propone. Para entender en condiciones el contenido de esta entrada es requisito previo, al menos, tener una idea de lo que estos autores hablan; por lo que voy a comenzar haciendo un repaso de toda la base teórica propuesta para pasar, posteriormente, a detallar nuevas consecuencias que se pueden deducir de este supuesto:

Resumen esquemático del trabajo de Jeremy England:

Dado un supuesto sistema, el cual cumple con la condición de ser:

1) Un gran sistema lejos del equilibrio térmico con abundante y variada cantidad de materia (como por ejemplo, la Tierra).
2) Que posee una fuente constante de energía externa entrando en dicho sistema (como es el caso del Sol).
3) Y que posee también un gran baño térmico donde disipar calor (como es el caso de la atmósfera o el océano en la Tierra).

La teoría matemática dice que, en un sistema tal, se producirá,  inmediata y espontáneamente, una tendencia a aumentar la entropía mediante tres alternativas diferentes:

1) Siguiendo la tendencia natural que hace que la evolución de un sistema tienda hacia aquellos estados más desordenados, debido a que existen muchas más posibilidades de estados desordenados que ordenados. 

El ejemplo típico, es el supuesto de lanzar 40 monedas al aire y ver cuántas salen caras y cuántas cruz. El sistema de las 40 monedas en el suelo sigue una combinación de caras o cruces y, si se estudia la distribución de combinaciones, se puede comprobar como las posibilidades donde las 40 monedas estén ordenadas de modo que sean en su mayoría cara o cruz, son mucho menores que las probabilidades donde exista un completo desorden de monedas.

Sólo hay, por ejemplo, dos configuraciones donde al caer las 40 monedas se produce un patrón donde una moneda sea cara y la siguiente cruz, y que luego continué ese patrón cara-cruz. Y sólo hay una configuración posible con todas las monedas caras o todas cruz. El sistema tiende, pues, espontáneamente, a seguir la evolución con más caminos favorables; y este es el caso de la distribución más numerosa que engloba al mayoritario conjunto de estados con las monedas distribuidas azarosamente en caras y cruces sin seguir ningún patrón ordenado. Se tiende, por lo tanto, a evolucionar espontáneamente hacia el desorden y contra la aparición de patrones.

Esta es la explicación típica que ofrece la segunda ley de la termodinámica clásica, la cual sólo aplica en sistemas en equilibrio térmico. Sin embargo, en sistemas lejos del equilibrio (como el que estamos estudiando, y del cual la Tierra es un ejemplo), hay otros dos modos en que un aumento de entropía puede ocurrir en el sistema:

2) Siguiendo la tendencia natural que hace que la evolución de un sistema tienda hacia aquellos estados más reversibles. Es decir; siguiendo aquellos trayectos más reversibles, que son los caminos más accesibles a un estado inicial determinado.



Un ejemplo imaginario muy sencillo de entender es el siguiente:


Imaginemos que partimos de Cádiz, y que hay 50 carreteras distintas que nos llevan a Madrid, pero que sólo hay 1 carretera que parte de Cádiz y nos lleva a Valencia. Como la elección de una carretera determinada es azarosa (azar que es de aplicar en el sentido de que el movimiento molecular es caótico), es más fácil que terminemos en Madrid que en Valencia, puesto que Madrid es más accesible. Hay más formas de llegar a Madrid que a Valencia.

Es decir; que Jeremy England afirma que, en un sistema lejos del equilibrio térmico, la evolución del sistema se producirá hacia sistemas más accesibles y reversibles. De nuevo, se evitan los patrones o los sistemas ordenados con esta tendencia natural, puesto que un estado  muy reversible o muy accesible, requiere de gran cantidad de posibilidades de ser alcanzado, mientras que un estado ordenado o con un patrón establecido, debe seguir un camino (o unos pocos caminos) muy concretos para ser alcanzado; lo que va en contra de la probabilidad dentro del caos que conforma la evolución molecular de estos sistemas. Se evoluciona espontáneamente, pues, hacia la accesibilidad y la reversibilidad, lo que supone un aumento probable del desorden (aumento de entropía).

3) Siguiendo la tendencia natural que hace que la evolución de un sistema tienda hacia aquellos estados que más y mejor disipan calor. Las matemática así lo dicen: cuanto más calor disipa un estado determinado, más aumenta la entropía del sistema (lejos del equilibrio), por lo que será un estado con buenas probabilidades de ser alcanzado. 



Ya lo vimos en el ejemplo de mi entrada anterior sobre este tema. Si se fijan las condiciones, de modo que los puntos 1) y 2) que hemos estudiado antes, queden fijos de manera que no puedan influir en la evolución del sistema, el que determinará la evolución será este punto 3). Es decir; que fijados 1) y 2), el sistema va a tender espontáneamente hacia estados donde se disipe cada vez más calor.


Imaginemos que partimos de Cádiz, y sólo hay dos carreteras, una que lleva a Madrid y otra que lleva a Valencia. En este caso, la condición 1) es irrelevante: sería el equivalente a lanzar 1 única moneda al aire, o sale cara o sale cruz ( ln 1 = 0). La condición 2) también es irrelevante, ya que ambas ciudades son igual de accesibles (una única carretera para cada estado).



La cuestión es que, según la regla 3), si para ir a Madrid se necesita consumir 100 J de energía, y para ir a Valencia, solo 50 J; el sistema va a tender espontáneamente a realizar el trabajo necesario para conseguir evolucionar hacia el estado final en el que sea necesario disipar el mayor calor posible. El sistema va a tender siempre a alcanzar el estado que requiera un mayor consumo de energía.


Si imaginamos, ahora, que hay 3 estados de destino posibles, los cuales necesitan respectivamente de 100 J, 50 J, y 10 J, para ser alcanzados, el sistema automáticamente evolucionaría de modo que cada vez pueda alcanzar objetivos más disipativos. ¡Y es precisamente esta tendencia natural el origen de todo proceso evolutivo en el universo (incluida la evolución biológica)! Todo proceso evolutivo estaría guiado por esta natural propensión de los sistemas lejos del equilibrio térmico hacia la optimización en su capacidad para disipar calor (es decir; en su eficiencia consumiendo cada vez más energía y realizando más trabajo con ella). Evidentemente, cuanto más calor se disipe, más desorden se genera, lo que implica nuevamente un aumento de entropía.

¿Cuál es la explicación de que esta tercera regla 3) ocurra?

Los dos puntos anteriores 1) y 2), son fácilmente entendibles de un modo meramente intuitivo y lógico (utilizando sencillos ejemplos como los que yo he propuesto, que son bastante visuales), sin embargo, este tercer punto requiere de un estudio más complejo para comprender su causa. El paper original contiene una explicación muy formal, que yo intenté desarrollar un poco más en una entrada de mi blog; pero, en mi opinión, es un ejemplo poco claro visualmente. Voy a intentar explicar a continuación este punto con un ejemplo, menos formal, pero más intuitivo:

La probabilidad pasar de un microestado a otro por parte de una partícula, está determinado en parte, por una barrera de activación, que viene a ser algo así como la energía necesaria para alcanzar un estado determinado. Entre cada par de microestados i, j; la barrera de activación va a tener un valor independiente entre ellos, pero dependiente en ciertos casos, del valor de la fuerza externa en un momento dado t. Es decir; que la probabilidad de pasar de i a j, viene determinada por la cantidad de energía necesaria para poder alcanzar j: a mayor barrera, menor probabilidad.

Si el valor o altura de estas barreras fuesen constantes en el tiempo, no tendría sentido la propuesta 3), ya que el efecto sería justo el contrario, habría una tendencia hacia estados fáciles de alcanzar (que requiriesen poca energía para ser alcanzados), sin embargo, las matemáticas del trabajo dicen lo contrario, y esto se debe a que los estados energéticos, y las barreras de activación para ser alcanzados, varían con el tiempo y de un modo dependiente a la fuente de energía externa: la barrera de activación puede, pues, variar en función del tiempo (Bij(t)).

La probabilidad entre cada par de estados i,j, va a ir variando, por lo tanto, en el tiempo; según sea la cantidad, el tipo, y el modo en que se reciba la fuerza procedente de la energía externa en cada momento determinado. Esta variación en el tiempo, va a depender de varios detalles descritos por la física de partícula y la mecánica estadística; pero nos vale con la idea de que se puede producir una variación en la probabilidad con el tiempo, y de que dicha variación va a estar determinada, entre otras cosas, por el modo en que el microsistema i se vea o no ayudado o impulsado, en un momento determinado, para superar la barrera:

Es decir; que la variación de la barrera en el tiempo (la variación de Bij(t)), puede dar lugar, en ciertos instantes, a una bajada en la altura de la barrera de activación, de modo que la probabilidad de alcanzar j sea mayor que la de otras trayectorias alternativas.

Hasta aquí perfecto. Ahora bien; ¿si se baja la barrera de activación, cómo es que se disipa más calor? La respuesta es la siguiente:

Los estados energéticos i,j también pueden variar con el tiempo (Ei(t)), lo cual influye en el calor disipado, que no es más que el incremente de calor producido al pasar de i a j (Calor generado = Ej - Ei). Y la cuestión es que; la cantidad, tipo, y modo de la fuerza presente que consigue bajar al máximo la barrera de activación, puede al mismo tiempo, llevar al mínimo el estado energético destino j, lo cual lleva a que la diferencia entre Ej (destino) y Ei (origen) sea máxima, lo que representa una gran disipación de calor en el proceso de cambio.

Es decir, que bajo ciertas circunstancias, puede producirse una especie de acoplamiento entre una alta probabilidad de alcanzar un estado, que sea de bajo potencial energético. Y la teoría dice que un microsistema capaz de presentar este acoplamiento; es decir; un microsistema cuyas propiedades internas favorezcan la aparición de este tipo acoplamiento relacionado con una fuente de energía externa particular, se verá favorecido por la termodinámica, puesto que será un eficiente productor de entropía (será un buen disipador de calor, es decir; un buen generador de desorden).

Todo esto sigue sin ser muy visual. Vamos a intentar poner un símil que lo deje más claro:

Imaginemos que partimos de la ciudad de Cádiz, y que tenemos un presupuesto para viajar a otra ciudad, y volver luego de nuevo a Cadíz (con ese dinero, hay que pagar gasolina, peajes, pensiones, averías, etc.). La clave, es que nos imponen, además, la tendencia a que nos sobre el máximo dinero posible una vez terminemos el recorrido.

Como destino, tenemos a nuestro alcance muchas ciudades; cada una con un coste distinto para ser alcanzada: algunas tienen peaje en el camino, otras tienen pensiones más caras, otras están más lejos y requieren más gasto en gasolina, etc. Es decir; que cada ciudad requiere de un gasto fijo determinado para su acceso desde Cádiz (el coste del camino de ida y de vuelta es el mismo).

Si este gasto es un valor fijo para cada ciudad, y pretendemos que nos sobre el máximo dinero posible, nos moveremos sin duda hacia la ciudad que estimemos más accesible (más barata de alcanzar). Si colocamos, ahora, a muchas personas en Cádiz, y repetimos este ejemplo un gran número de veces; observaremos que comienza a aparecer un patrón (o distribución) donde el conjunto de ciudades más baratas de alcanzar, son mucho más frecuentemente elegidas que aquellas ciudades más caras; las cuales serán tanto menos seleccionadas cuanto más caras sean de alcanzar (puesto que cuanto más cara sea, más evidente será que no son viables como candidatas para maximizar el ahorro, y menos personas lo intentarán con ellas).

Por lo tanto, si el coste de acceso de cada ciudad es constante en el tiempo, la probabilidad de que cierta persona elija un destino concreto, viene determinado por esta distribución de probabilidad que acabamos de describir. Si además catalogamos ciertos subconjuntos de ciudades según alguna propiedad que tengan en común, podremos afirmar cosas como, por ejemplo, que el conjunto de ciudades costeras suele ser más barato de alcanzar de media que las ciudades de montaña. Si este fuera el caso; la probabilidad de cierta ciudad, podría ser determinada simplemente sabiendo si es una ciudad de costa o de montaña. La probabilidad de que alguien pretenda ahorrar visitando un remoto pueblo perdido entre montañas es pues, casi nula; por lo que será un fenómeno imposible de observar en la práctica.

Pues este ejemplo, que parece tan evidente, no es ni más ni menos, que la descripción de los dos puntos primeros que hemos estudiado 1) y 2). Y, si no hubiera ninguna fuente de energía externa dirigiendo el comportamiento del sistema, estos dos puntos serían los únicos que determinarían el modo en que el sistema iría cambiando en el tiempo.

Sin embargo, estamos estudiando sistemas lejos del equilibrio térmico y dirigidos por una fuente de energía externa (como el Sol en el caso de la Tierra), lo cual, en el ejemplo visual que estamos contemplando, significa lo siguiente:

Hasta este momento, en nuestro ejemplo hemos tomado el coste de llegar a cada ciudad como algo constante (gasto de gasolina, longitud de la carretera, coste del peaje si lo hay, etc.) pero, en sistemas dirigidos, esto no es siempre así. Podemos imaginar este caso suponiendo que en determinados momentos, algunas ciudades hacen descuentos especiales a los turistas, o, lo que es lo mismo, que en determinadas épocas, algunas ciudades (las costeras, por ejemplo) ven encarecidos sus costes debido, por ejemplo, a la temporada turística (en verano). Esto supone una posible oscilación con el tiempo respecto del coste de viajar a una determinada ciudad.

Cuando el Sol aprieta, las ciudades costeras suben precios, lo que altera su accesibilidad; mientras que las ciudades de montaña hacen por el contrario descuentos en esta época del año. De este modo, la energía externa (el Sol) va a dirigir el sistema, en el sentido de que consigue variar, con el tiempo, la accesibilidad de las distintas ciudades.

Si colocamos ahora muchos coches que partan desde Cádiz, la distribución en la probabilidad de que una ciudad concreta sea visitada (de modo que se ahorre el máximo), ya no depende sólo de lo lejos que esté o del número de peajes, sino que también va a depender de la época del año en que estemos. En primavera y otoño, este factor temporal será menos determinante (predominando los 2 primeros factores), mientras que en invierno y verano habrá que tener muy en cuenta este factor externo.

Pues bien, las matemáticas nos dicen que, un sistema dirigido de esta forma descrita por una fuente de energía externa, va a tender a alcanzar los estados que más calor disipen; es decir; aquellos estados cuyo potencial energético final sea el menor posible respecto del inicial, ya que esto supone una gran diferencia energética que se habrá disipado en forma de calor en el proceso. Y esto es así, porque de este modo se consigue un gran aumento de entropía, que es lo que el Universo requiere por ley.

En nuestro ejemplo de las ciudades, este máxima disipación, se produce en aquellas ciudades que, no sólo se vuelven más accesibles abaratando el coste del viaje (peaje gratis en ciertas épocas, y descuento en gasolina), sino que, además, también premian al viajero por ejemplo con un cheque regalo a su llegada (o con precios baratos en sus servicios). Algunas ciudades sólo abaratarán el viaje, y otras sólo darán un incentivo con un regalo, pero; serán aquellas ciudades que presenten un acoplamiento de ambas circunstancias (que abaraten el viaje y que regalen un cheque al turista o que bajen los precios de sus servicios al mismo tiempo) las que consigan la mejor probabilidad para ser visitadas de entre sus rivales, ya que son las mejores candidatas para que el viajante ahorre lo máximo posible.

Lo más importante de todo esto, es comprender que, por motivos temporales, y gracias a un eficiente acoplamiento entre una fuente de energía externa y las propiedades de un microestado determinado, es posible que, estados poco accesibles, ordenados y complejos, sean alcanzados con una probabilidad mucho mayor, que la que tendrían sin ese acoplamiento.

Esto no significa que la complejidad y el orden sea algo fácil de acontecer (y observar), sino que su probabilidad puede mejorar muchísimo si se consigue el acoplamiento adecuado. Es decir; que este acoplamiento no significa, siguiendo con nuestro ejemplo, que sea fácil conseguir que los viajeros tomen el pueblo perdido en la montaña del que ya hablamos como un destino viable para lograr el mayor ahorro posible, pero sí significa que, si el acoplamiento es lo suficientemente atractivo (eficiente), la probabilidad puede pasar de imposible en la práctica, a tener cierto peso si se espera el tiempo suficiente.

El mérito del trabajo:



El mérito real detrás de todo el trabajo del equipo de Jeremy England, consiste en haber conseguido formalizar matemáticamente, y exclusivamente deduciendo a partir de una base física ya establecida (termodinámica y mecánica estadística) todo lo que acabamos de hablar. Todo este asunto (en sistemas lejos del equilibrio térmico) ya había sido tratado anteriormente, de un modo exclusivamente intuitivo y muy vago por diversos autores; pero ya no se trata de meras especulaciones, sino que ahora disponemos de una firme teoría física detrás de esta argumentación. Si la teoría se confirma experimentalmente (están en ello), no habrá más remedio que aceptar todas sus consecuencias (de las que hablaremos a continuación), o renegar literalmente de los preceptos físicos usados de base (lo que complicado, dado el nivel de corroboración ya conseguido).




La competición entre las 3 alternativas descritas:




El Universo requiere de un aumento de entropía constante. Y hemos visto que, en los sistemas lejos del equilibrio térmico como la Tierra, hay tres modos en que este aumento puede ocurrir, lo cual determina, al mismo tiempo, la distribución en la probabilidad de observar un determinado fenómeno macroscópico. Y esto es así, porque la teoría matemática que estudiamos nos dice que la probabilidad de ocurrencia de cualquier estado macroscópico, será mayor, cuanto mayor sea el valor de los 3 términos que hemos examinado.


Sin embargo, puede ocurrir, dada la oportunidad material y energética, que alguno de los términos domine sobre los otros dos en la ocurrencia de un fenómeno determinado, lo cual lleva, si el que domina es el tercer término, a que acontezcan fenómenos que pueden parecer paradójicos desde el punto de vista termodinámico clásico (en sistemas en equilibrio), pero que son lógicamente explicados en esta nueva teoría para sistemas lejos del equilibrio (como el que acontece aquí en la Tierra). Las matemáticas de esta nueva teoría termodinámica, la cual ha sido derivada completamente de teorías previas establecidas y aceptadas en el campo de la termodinámicas y la mecánica estadística, afirman que, dada la oportunidad material y energética, es sólo cuestión de tiempo que en sistemas de este tipo, surjan estructuras materiales macroscópicas altamente ordenadas y poco accesibles (lo que implica un primer y segundo término muy bajo), pero cuya alta eficiencia en su capacidad para disipar calor mediante la realización de trabajo, hacen que el tercer término sea lo suficientemente grande como para sobreponerse al bajo valor de los dos primeros; de este modo, dicha estructura compleja pero eficiente disipadora, tendrá una probabilidad aceptable de ocurrir en un espacio de tiempo abordable (cientos de millones de años). Pero hay que tener en cuenta que, sin esta eficiente capacidad disipativa, una estructura material tan ordenada sería tan improbable, que no habría literalmente la posibilidad de observar tal fenómeno macroscópico en cientos de miles de millones de años. Es decir, que lo que una alta eficiencia para disipar calor (o, lo que es lo mismo, un buen rendimiento en el uso de la energía disponible para realizar trabajo mecánico) hace, es simplemente aumentar la probabilidad de observar macroscópicamente una alta organización estructural de baja accesibilidad, pasando de cientos de miles de millones de años, a "sólo" algunos millones.

Es un hecho que las propiedades materiales (cantidad y tipo de átomos y moléculas) de algunos sistemas lejos del equilibrio termodinámico (como lo son la Tierra, Marte, etc.), les confieren una diferencia en su capacidad para poder utilizar la energía externa que reciben (del Sol, en nuestro caso) para realizar trabajo; por lo que algunos sistemas tendrán un potencial mayor que otros para albergar estructuras materiales muy organizadas y eficientes en menor cantidad de tiempo. Esto quiere decir que, aunque existan muchos planetas que cumplan las premisas de ser sistemas lejos del equilibrio con una fuente de energía externa y un baño térmico donde disipar, las características de los materiales (la cantidad y tipo de átomos y moléculas que constituyan ese planeta), harán que la oportunidad de que el tercer término consiga sobreponerse a un bajo valor en los dos primeros sea diferente. A mayor potencial, mayor oportunidad y probabilidad, lo que implica un menor tiempo de espera hasta que un fenómeno tal acontezca.

La estructura de los copos de nieve, las dunas de arena, los huracanes,
los remolinos en los fluidos, etc., podrían ser todos ejemplos de
adaptación espontánea dirigida hacia una eficiente disipación de calor.
También hay que tener en cuenta los diferentes modos en que este tercer término puede dominar. Un tornado, es un fenómeno altamente ordenado del tipo que estamos estudiando; y su probabilidad de ocurrencia es mucho mayor que la de la formación del ADN (que es otra estructura altamente ordenada y con eficiencia disipativa). Ambas disipan calor de modo eficiente, pero el ADN requiere más complejidad (un menor valor para los primeros dos términos) para suceder.

Por ese modo, es algo común ver estructuras muy ordenadas en muchos planetas del tipo de tornados, dunas de arena, remolinos en fluidos, etc; pero, hasta ahora, no hemos observado estructuras mucho más complejas y ordenadas, como es el caso de las estructuras biológicas que vemos aquí en la Tierra. En algunos casos, este fenómeno tan sumamente complejo será sólo cuestión de tiempo que ocurra, y en otros; el potencial material del planeta será tan poco favorable que haría falta esperar un periodo de tiempo astronómico e inabordable (en la práctica se podría hablar de imposibilidad).

Evolución biológica.

En la Tierra se cumple, desde hace miles de millones de años, las condiciones de ser un sistema lejos del equilibrio térmico, con una fuente continua de energía externa entrando en el sistema(el Sol), y con una fuente o baño térmico hacia donde disipar calor (el océano y la atmósfera). Además, el potencial del material disponible (la cantidad y tipo de átomos y moléculas disponibles) es favorable para alcanzar una altísima eficiencia disipativa mediante el uso de la energía del Sol para realizar trabajo. Y es este alto potencial disipativo, el que hizo posible que, en unos pocos cientos de millones de años, apareciese espontáneamente estructuras muy complejas y autorreplicantes.

La autorreplicación aparece, dado el momento y la oportunidad, debido al modo en que matemáticamente está constituido el tercer término del que hemos hablado 3). Este término se divide en dos: la suma del calor disipado de media entre todos los caminos posibles que llevan a un estado destino, y la resta de la desviación típica en la cantidad de calor generado por todos esos caminos posibles (las fluctuaciones perjudican en la probabilidad de que un estado destino sea alcanzado). Un eficiente método para que una estructura altamente compleja consiga mantener el tercer término de la ecuación en un valor muy alto, consiste en reducir la fluctuación (la desviación de la media del calor generado); y el mejor modo de reducir la fluctuación, y aún así generar el calor suficiente para sobreponerse al bajo valor relativo de los dos primeros términos, es la copia o replicación de una estructura material (suprimiendo así fluctuaciones) y  consiguiendo además en el proceso de copia, que cada vez se produzca más energía, puesto que la estructura a copiar va a ser también una eficiente disipadora de calor (para aumentar en lo posible el calor medio disipado).

Eso ocurrió en la Tierra con la estructura de ADN. El ADN es una estructura molecular compleja, pero con una enorme capacidad para generar calor. Y su capacidad intrínseca para hacer copias exactas de si misma, hace que la fluctuación de calor sea mínima, y que la cantidad de calor disipado siga una proporción exponencial. Probablemente, la aparición del ADN como tal, siguió un proceso evolutivo previo, donde otras estructuras materiales previas consiguieron cierta capacidad replicativa, aconteciendo una selección espontánea de las estructuras que mejor se copiaban y que más eficientemente disipaban calor en su formación y mantenimiento.

Aparecen las células.

La replicación molecular es un gran paso hacia la complejidad (baja entropía o alto orden) en aras de la eficiencia para utilizar la energía externa del Sol para realizar un trabajo mecánico que disipe una gran cantidad de calor hacia la atmósfera o el océano. Sin embargo, una vez iniciado el proceso, la teoría de Jeremy England apunta a que los procesos macroscópicos evolucionarán, con mayor probabilidad, hacia estados que disipen más calor que el anterior. Esto es así puesto que, llegado el momento en que el tercer término domina con claridad a los otros dos, la evolución de tales microsistemas va a estar siempre ya dominada por dicho tercer término (puesto que son poco reversibles).

Si tenemos un sistema constituido por estructuras materiales muy complejas; como por ejemplo, un charco de agua lleno de estructuras replicativas, sabemos que es poco probable que todas esas estructuras complejas se disuelvan a la vez aumentando los dos primeros términos lo suficiente. Esto es así, puesto que el camino que ha llevado a toda esa complejidad es poco accesible; o, lo que es lo mismo, es poco reversible estadísticamente. Es decir, que una vez iniciado el proceso, ya no hay vuelta atrás, la evolución biológica está en marcha.

Y como no es ya viable en estos casos una vuelta atrás donde vuelvan a dominar los dos primeros términos en exclusiva, la teoría nos dice que el sistema en estudio va a evolucionar o tender hacia estados cada vez más eficientes en la disipación de calor térmico. Esto supone pequeñas mejoras durante un tiempo, pero puede también suponer grandes saltos evolutivos en otras. Cada gran salto evolutivo supone también un paso hacia la complejidad y contra la reversibilidad del proceso, por lo que, una vez acontecido, es poco probable una vuelta atrás fortuita.

Esto mismo debió de ocurrir con la aparición de la primera célula (o con las estructuras precelulares). La formación evolutiva de complejas maquinas materiales, altamente efectivas en el uso de la energía del Sol, y favorecidas por la baja fluctuación que supone contener las instrucciones (o la información) para su construcción en moléculas replicativas de ADN, fueron haciendo aparición en la Tierra. Y cada nueva mejora acontecida espontáneamente en dicha máquina, era un pequeño salto en favor de la disipación de calor.

Aparecen los organismos multicelulares.

Pronto acontece un nuevo salto en la eficiencia disipativa. Algunas de estas máquinas celulares, por puro azar en los cambios ocurridos en la replicación de sus instrucciones de formación, comienzan a presentar, paulatinamente, una buena afinidad unas por otras. Esta afinidad, supone en efecto, una mayor complejidad, pero también un nuevo salto hacia la mejora en la capacidad para realizar trabajo y generar calor. En pocas palabras: una colección de células cooperando, requiere mayor complejidad en su creación y mantenimiento, pero acarrea también una mucho mayor capacidad disipativa; puesto que la cooperación asegura un mayor tiempo de existencia, y una mayor probabilidad para hacer más y más copias durante ese tiempo.

Y así continuó el camino evolutivo. Las estructuras eran cada vez más complejas, y cada vez disipaban más energía en su construcción, mantenimiento y replicación. Es importante hacer notar, que esta misma tendencia continúa hoy día.

Aparecen las plantas y los animales.

Con el paso del tiempo, la aparición de estructuras multicelulares capaces de llevar a cabo la fotosíntesis fue factible, y eso supuso un nuevo salto en cuanto a la eficiencia disipativa. Más tarde, esto hizo viable la aparición de estructuras materiales aún más complejas, las cuales harían uso de las anteriores para metabolizar (alimentarse de) energía con una alta eficiencia. La aparición del reino animal, de este modo, supuso un gran salto evolutivo en favor de una mayor disipación de calor, puesto que el movimiento organizado y continuado de una estructura material tan compleja, supone el uso de una enorme cantidad de energía en forma de trabajo mecánico. Los animales consumen muchas plantas (o consumen otros animales los cuales sí consumen muchas plantas), y eso es un gran salto en pos del consumo energético: son más complejos de construir y de mantener, y su movimiento es muy costoso energéticamente hablando.

Y es muy importante comprender que, cuando alguna de estas estructuras, por algún motivo, es superada en capacidad disipativa por otras de su entorno, estas últimas, al ser más eficientes consumidoras de energía, tienden a reemplazar a la primera. Este proceso, por supuesto espontáneo, constituye lo que se ha dado a llamar desde la biología el proceso por selección natural, aunque ahora podemos comprobar qué es realmente lo que mueve a un nivel más básico tal proceso: la optimización en el uso de la energía disponible.

Aparece la conducta.

Llega un punto en que, las estructuras animales, para poder mejorar el consumo de energía, necesitan "aprender" o "prever" el comportamiento futuro del entorno. No vale sólo con alimentarse de otras estructuras, es necesario saber cómo y donde encontrar esas estructuras. Además, es necesario "prever", que es "bueno" o "malo" para poder cumplir la tarea disipativa eficientemente: hay que "prever" las circunstancias que pueden llevar a la destrucción de la propia estructura y "aprender" a evitarlo.

Pongo todas esas comillas, porque el uso de esas palabras tan comunes en biología o psicología pueden llevar a engaño. No hay ningún objetivo o fin racional en todo el proceso que estamos comentando. Dada la aparición espontánea de los animales cuando la oportunidad fue la adecuada, y puesto que este suceso suponía un gran aumento en el calor disipado medio, la aparición de la conducta fue también un acto igualmente espontáneo y automático, totalmente determinado por esa misma tendencia física que consiste en aumentar la energía media utilizada para generar calor mediante la realización de trabajo, y para disminuir, en lo posible, las fluctuaciones en el calor disipado.

Y no hay más explicación. Cualquier otra finalidad, o supuesto objetivo, en la conducta, no es más que una abstracción ideada por la mente humana. Realmente no existe eso que identificamos por especie, ni por individuo: todo lo que hay, son trillones de diferentes partículas interactuando dentro de un sistema físico lejos del equilibrio térmico, y dirigido por una fuente de energía externa continua. La teoría matemática de Jeremy England explica cada uno de los fenómenos macroscópicos acontecidos en tales sistemas, y podemos comprobar que todas esas cualidades que definimos como pertenecientes a la vida, han ocurrido simplemente gracias a una tendencia natural que permite la aparición de estructuras de gran complejidad estructural a expensas de generar una enorme cantidad de calor en el proceso. Y nada más.

Aparece el hombre.

Y, por fin, llegamos al quid de la cuestión. Mediante este mismo proceso que hemos descrito, fue sólo cuestión de tiempo, una vez dada la oportunidad, que aconteciera la aparición de un ser consciente. El hombre, en cierto sentido, es un caso muy especial en la historia evolutiva. Su complejidad estructural y conductual es enorme, y eso debe llevar aparejado un inmenso potencial para consumir energía, de modo que tal complejidad sea viable.

Es más, conforme el genero homo se diferencia y avanza hacia lo que denominamos homo sapiens, se ha producido un aumento constante en la cantidad de energía utilizada por persona y día. No se trata sólo de los 9000 kJ consumidos de media para mantener nuestros procesos corporales y estructurales, sino que, nuestra complejidad social y conductual, hacen que necesitemos y dediquemos una cantidad de energía por individuo nunca vista hasta ahora. Esto ocurre principalmente mediante el coste de energía extra que suponen todos los procesos sociales, culturales y tecnológicos.

Nuestra gran complejidad estructural, permite y favorece así, la aparición de normas sociales, de rituales culturales, y de un gran consumo tecnológico y de ingeniería (que comienza con el uso del fuego), lo que lleva a un nuevo y enorme salto evolutivo en cuanto a la capacidad de explotación energética. Conforme han transcurrido los siglos, el homo sapiens ha ido incrementando linealmente la cantidad de calor generado al entorno pero; tras cierto tiempo, se alcanzó la técnica necesaria para hacer uso de los combustibles fósiles, y una nueva fuente de energía, distinta de la del Sol, estuvo a nuestro alcance. El consumo de energía externa comenzó así un crecimiento exponencial en el tiempo.

Como era de esperar, hicimos -y hacemos- uso de toda esa energía de un modo voraz. Es la tendencia natural que llevamos estudiando desde el principio: somos, como el resto de animales, máquinas diseñadas espontáneamente para consumir energía; y el descubrimiento de cada nueva fuente de energía, lleva aparejada un incremento de complejidad (esta vez social y técnica) y de un incremento en la replicación (incremento de la población), lo cual consigue el consumo y explotación más eficiente de toda esa nueva energía disponible. Se estima, por ejemplo; que hoy día se consumen aproximadamente 240.000 Kcal por persona y día (algo inaudito que explica que un fenómeno tan complejo como el hombre actual pueda existir sin violar las leyes termodinámicas). 



Y es que, si somos tan buenos como especie, si hay algo que nos caracteriza, es precisamente este potencial para consumir energía: hay otras especies que se replican más y mejor que nosotros, pero no hay especie en el mundo que consiga un consumo energético ni remotamente parecido al nuestro. Y es este potencial el  asegura nuestra supervivencia como fenómeno, y es también lo que explica nuestro evidente dominio sobre otras formas de vida.


Recapitulando.


Visto de otra forma, podemos decir que el fenómeno macroscópico que supone la aparición de una estructura compleja, que no sea al mismo tiempo eficiente consumiendo energía, es prácticamente imposible que acontezca en nuestro Universo. Esta limitación, como todo en termodinámica, se basa en la baja probabilidad práctica, y no en la imposibilidad teórica:


Un ejemplo clásico de semejante proceso de limitación práctica, sería aquel en el que todo el aire de una habitación se moviera espontáneamente a una mitad de la habitación, dejando vacío en la otra mitad. Tal compresión libre reduciría en un factor de 2^N el número de posibles estados microscópicos. En teoría, ¡este proceso no es imposible! La probabilidad de hallar una molécula dada en una mitad de la habitación es de 1/2, y la probabilidad de hallar todas las moléculas en la misma mitad es (1/2)^N. Esta probabilidad no es cero. Sin embargo, por si te preocupa encontrarse repentinamente sin aire en la mitad evacuada de tu habitación, considera que ésta podría contener 1000 moles de aire, de manera que N = 1000xNA = 6.02x10^26 moléculas. La probabilidad de que todas las moléculas estén en la misma mitad del cuarto es entonces (1/2)^6.02x10^26. Dada la probabilidad tan insignificante de que tal compresión libre ocurra, es casi seguro que nunca ha ocurrido en el Universo desde el principio de los tiempos. Concluimos que, en la práctica, la segunda ley de la termodinámica (y el resto de propuestas derivadas de esta, como es el caso de todo lo que estamos estudiando) nunca se viola.



Tenemos pues, un sistema lejos del equilibrio térmico (la Tierra), rico en cantidad y variedad de materia (lo que facilita la aparición de la oportunidad necesaria en favor de la disipación y la complejidad, reduciendo el tiempo necesario para que tal camino comience), con una fuente continua de energía externa (el Sol), y con dos grandes baños térmicos hacia los que disipar calor (océano y atmósfera).


Bajo estas condiciones, las matemáticas nos dicen que es sólo cuestión de tiempo, que cierta organización empiece a acontecer, con el único requisito de que dicha complejidad sea compensada con una eficiente capacidad para disipar calor hacia el entorno. Una vez esto sucede, el camino evolutivo hacia la complejidad en favor de un cada vez mayor uso de la energía disponible ha comenzado. Este camino, finalmente da lugar a todo lo que conocemos por vida y a todo lo relacionado con ella (incluida cultura y tecnología humana).

Las matemáticas de nuestra conducta.



La conducta animal está determinada por esta tendencia a utilizar la mayor cantidad de energía posible desde sus inicios. Su aparición fue posible, precisamente porque el hecho de poseer las habilidades conductuales adecuadas, favorece enormemente el potencial para consumir energía. Además, cualquier conducta que no favorezca a la eficiencia de este fin disipativo, está condenado a desaparecer, puesto que su complejidad no será respalda por la disipación del calor necesario, lo cual iría contra las leyes de la física. Por lo tanto; según la teoría de Jeremy England, en la práctica es imposible observar comportamientos conductuales complejos que no ser orienten y favorezcan, de un modo u otro, el uso y consumo de energía.


Merece la pena mencionar aquí, la consecuencia que todo esto tiene sobre nuestra supuesta libertad de acción (libre albedrío). Evidentemente, no hay cabida para una verdadera libertad de acción en este escenario que estamos describiendo:

Sí la teoría es correcta, es en la práctica imposible que se observe ningún fenómeno macroscópico en el mundo, cuya complejidad no se vea respaldada por una mayor eficiencia consumiendo energía. Y un fenómeno tan enormemente complejo como es la conducta humana, no puede existir, según las leyes físicas, si no va acompañado por una aún más enorme capacidad para consumir energía y disipar calor. Pero es que de esta forma, se está condicionando indudablemente lo que el hombre puede o no puede hacer: puede hacer todo aquello que favorezca la disipación, y no puede hacer aquello que vaya en contra de esta tendencia. Sólo hay una libertad muy parcial y relativa, que simplemente permite elegir, de entre varias alternativas, aquella que se prevé que otorgará mejores resultados disipativos en el futuro.

De este modo, debemos perder toda esperanza de que la especie humana haga un uso razonable de la energía y de los recursos naturales: simplemente no podemos. No podemos dejar de crecer en número, y no podemos dejar de acaparar y utilizar toda la energía que caiga en nuestras manos: es nuestro sino, nuestra naturaleza y nuestro ser. Por poner un símil, podemos ver al ser humano como el equivalente a una población de bacterias en una placa de Petri, que simplemente tiende a crecer en número aprovechando toda la energía y recursos disponibles. No es posible que las bacterias detengan su tendencia hacia el crecimiento y el uso energético, ni es posible que nosotros lo hagamos, puesto que incluso nuestro raciocinio es sólo un fenómeno complejo más, y que debe, por lo tanto, obedecer la misma tendencia disipativa que permitió su aparición, y que permite, ademásque siga existiendo.

Con el tiempo, una vez que tengamos que utilizar energías menos eficaces que las fósiles y la nuclear (las renovables), habrá reajustes en la población, pero la tendencia a consumir la mayor cantidad de energía posible seguirá aún con nosotros, y lo hará por siempre jamás, ya que la física del mundo no permite otra cosa: Así es la física, así es el mundo, y así es el hombre.


Aquí tenéis todas las referencias necesarias para seguir este interesante asunto:
  1. http://www.englandlab.com/publications.html (web oficial del equipo de investigación de Jeremy England. Aquí irán subiendo los avances que se produzcan en este asunto).
  2. G. E. Crooks, Phys. Rev. E 60, 2721 (1999). [3] R. A. Blythe, Phys. Rev. Lett. 100, 010601 (2008)(Este estudio de Crooks, es el que sirve de base para todo el trabajo de Jeremy).
  3. Perunov, N., Marsland, R., and England, J. "Statistical Physics of Adaptation", (preprint), arxiv.org, 2014. (Este es el paper de diciembre que ha levantado tanta expectación).
  4. England, J. L.  "Statistical Physics of self-replication." J. Chem. Phys.139, 121923 (2013). (Este es un paper del 2013, donde el equipo comenzó a dar forma definida a toda la línea de investigación).
  5. https://www.youtube.com/watch?v=e91D5UAz-f4#t=1720 (Vídeo con una charla del propio Jeremy England donde explica la línea de investigación).
  6. http://www.scientificamerican.com/article/a-new-physics-theory-of-life/ (Artículo divulgativo en la revista Scientific American sobre el trabajo de Jeremy England).
  7. https://www.quantamagazine.org/20140122-a-new-physics-theory-of-life/ (Artículo divulgativo en la revista Quanta Magazine sobre el trabajo de Jeremy).
  8. http://quevidaesta2010.blogspot.com.es/2014/12/las-matematicas-de-la-vida.html
  9. http://quevidaesta2010.blogspot.com.es/2015/01/las-matematicas-de-la-vida-ii.html
  10. http://quevidaesta2010.blogspot.com.es/2015/01/las-matematicas-de-la-vida-iii.html
  11. http://quevidaesta2010.blogspot.com.es/2015/01/las-matematicas-de-la-vida-iv.html
  12. http://quevidaesta2010.blogspot.com.es/2015/01/las-matematicas-de-la-vida-v.html
Autor: Samuel Graván