Las estructuras biológicas, en su gran mayoría proteínas, se construyen a partir de la información contenida en las moléculas de ADN, que a su vez están compuestas por la concatenación de 4 nucleótidos. Durante un tiempo fue un misterio el código utilizado por la vida para su desarrollo. Con 4 letras, (A, T, G, C), correspondientes a los 4 nucleótidos (Adenina, Timina, Guanina, Citosina), se pueden hacer diversas combinaciones, según se tomen de dos en dos o de tres en tres (tomadas de una en una son solo 4 posibles combinaciones, y de 4 en cuatro solo habría una). La cuestión estaba en determinar qué opción tomó la vida entre dobletes y tripletes. Habiendo 20 aminoácidos y 16 posibles combinaciones de dobletes, y 64 de tripletes, o bien no había información suficiente para construir las proteínas existentes, o bien había demasiada. Al final se descubrió que el código genético es de tripletes, y que a cada aminoácido corresponden más de uno de estos tripletes, habiendo además algunos que ellos que sirven de señal de parada para la traducción de la información del lenguaje de los nucleótidos al de las proteínas.
Al margen de las complejidades introducidas por la epigenética, el dogma central de la biología molecular, ADN->ARN->Proteína, es el núcleo cierto en torno al cual se forman los organismos, y el código genético es la clave que permite interpretar cómo ocurre esto.
Pero ¿por qué todos los seres vivos tienen el mismo código, elaborado a partir de los mismos ladrillos moleculares? La respuesta obvia es que todos descienden de un primer organismo que adoptó este código, y no otro de entre los (pocos) posibles. Sería por tanto algo debido en gran parte a una casualidad. Sin embargo hoy se especula con la posibilidad de que la casualidad fuera anterior al código de tripletes, que no sería el originario, habiendo evolucionara a partir de uno de dobletes. Este último (primero, en el tiempo), según nos cuenta Nick Lane en su libro Life Ascending, permitiría transmitir información sobre 15 aminoácidos y una señal de parada. El tercer elemento del triplete, los restantes aminoácidos y la llamada degeneración del código genético (el hecho de que este tenga varias combinaciones de tripletes para cada aminoácido), vendrían después.
Parece, por recientes investigaciones en genética, que el primer elemento del triplete está relacionado con el precursor químico del aminoácido que este codifica. El segundo está relacionado con la hidrofilia o hidrofobia del mismo (que se diluya en agua o en grasas), siendo el tercer elemento más “libre” o “irrelevante” (según se mire).
A finales de la década de los 90 del siglo pasado, Laurence Hurst y Stephen Freeland realizaron un estudio en el que contrastaban las consecuencias de las mutaciones en el código genético y en cientos de miles de otros códigos generados aleatoriamente. Descubrieron que el código genético era sumamente estable, más de lo que cabría esperar de uno generado al azar, es decir, que las mutaciones en letras sueltas del ADN por lo general no tenían consecuencias catastróficas en la estructura y función de las proteínas que contribuían con su información a crear.
El ADN es una molécula estable en más de un sentido, por lo tanto. No sólo es que no reaccione fácilmente con otras moléculas, sino que además los cambios en él no son, por lo general, capaces de perturbar gravemente el diseño de sus traducciones proteínicas.
El Profesor Hurst ha tenido la amabilidad de respondernos unas preguntas, puestas en correcto inglés por José Miguel. Marzo tradujo las respuestas al castellano.
Inglés:
1. Stephen Freeland and you came to the conclusion that the genetic code is more consistent than any other randomly created code. Could you tell us how did you determine this? What do you think is the reason for this consistency?
I would not use the word consistent. What we found was the code is structured in a manner that tends to minimize the impact of errors, especially those owing to mistranslation. This is to say, when a mistranslation event occurs the amino acid that ends up being incorporated is, on the average, more chemically similar to the one that should have been there, than you would have expected had the code been just randomly arranged.
We came to this conclusion by application of randomization tests. We first asked what the impact of all possible single base error events was in the Universal code (there is an issue of how you define chemical similarity but I’ll not go there). From here we could ask about the average effect, allowing for the finding that mistranslation errors tend to be rare at codon second sites. Then we simply pretended that the block structure of the code was a constant and re-allocated amino acids to the blocks to generate in silico alternative possible codes and looked to see how they behaved. We found that only about one per million random codes is as good as the real code at minimizing mistranslation errors. The code also contains strong signatures of the way in which it was assembled. For example, it looks like amino acids belonging to the same biosynthetic pathway tend to have the same first base. Even controlling for this we still find the code to be strikingly robust to error.
An obvious explanation for the resilience to error is that it is a consequence of selection. But we also don’t fully understand the biochemical details of how the code rules were established and there might be an alternative explanation that emerges from that area. For now though selection appears to be the most parsimonious explanation.
2. Mutations, recombination and transpositions change genomes and are a source of phenotypic variation, and therefore an engine of evolution. What kinds of changes occur in the genomes and what effects do they have on organisms?
Changes come in many forms: single base pair mutations, insertions (including duplications), deletions, inversions and chromosomal re-arrangements. Predicting the consequences at the phenotypic level of any given change is very difficult. We have used flux balance analysis applied to metabolic networks in yeast and found that we can replicate results on growth rates of knockouts pretty well. Generally, however predicting a phenotype from a genotype is a very complex business and rarely successful.
We can be more successful in asking about which mutations have some phenotype, even if we cannot say what they phenotype might be. This has thrown up many surprises. For many years, for example, it was thought that synonymous mutations in humans would have no effects on fitness or phenotypes, as they don’t alter the proteins produced. The same was true of chromosome re-arrangements, such as inversions, if they didn’t disrupt genes. Both we have found can, and regularly do, have important fitness consequences. Humans are unusual in having many and small exons (we have an unusually large number of introns). Many synonymous sites in exons, it transpires, are involved in specifying where exon ends are. Mutations in such positions thus change the splicing of a protein. Predicting the phenotype that would result is, however, not generally within our grasp.
3. What do you think is peculiar in the genome of our species that makes us so unique?
Good question and one to which I wish knew the answer. There is certainly a level of RNA regulation that was unappreciated for a long time, but whether it makes us unique is hard to say. The other side of the debate is about whether human specific adaptations are mostly owing to changes in gene expression or owing to changes in the proteins. The answer is most probably a mix of the two. I have, however, been struck by how little we understand about the things that much us different from genome scans for positive selection.
4. Is there a battle of the sexes in the microcosm of genomes?
Males and females can have different “best strategies” in any given circumstance. Some variation we would then expect to be sexually antagonistic (good for one sex, bad for the other). It can be advantageous for a male to have a showy trait but the responsible alleles may well be deleterious if expressed in females. Such variation certainly exists but I’m not sure whether it is appropriate to call it the battle of the sexes. The proportion of variation within a population that is like this is an unresolved issue.
5. Natural selection might be operating at various levels, from the genetic level —with selfish genes— to the population level —with altruistic individuals risking their own survival for the group. How important in your view is each of the levels ranging from genes to groups of organisms?
There is a lot of semantic discussion over just what a level of selection is. Side-stepping this issue, there is a helpful distinction between mutations that spread deterministically but are deleterious to the bearer (e.g. selfish genetic elements) and those that spread deterministically but are good for the bearer (a classical beneficial allele). I was attracted by the thought that selfish elements might be important to genetic system evolution because they can have such strong deleterious effects. Much of population genetics considers weakly deleterious alleles falling on to genomes like a steady drizzle. Considering the same weather analogy, many selfish elements are best seen as rare but catastrophic thunderstorms. I don’t think we know how important such relatively rare big effects are. One can argue that they are more important than previously thought, but as they were somewhat ignored before that isn’t an especially interesting assertion. I have been struck, however, by the repeated finding that meiotic drive genes are associated with hybrid sterility. We hypothesized that this might be the case many years ago and I had thought that the idea was more or less dismissed. It seems to have made a Lazarus-like resurrection.
6. In what sense might we say that evolution is a statistical process?
In the sense that to model it accurately you need to consider sampling processes. This is most especially true when considering the fate of new mutations that have little or no effect on fitness. Their fate (will they be lost from the population or persist) is largely dominated by chance events.
7. What are you now working on?
My overall concern is to understand the evolution of genes and of genome organization. I was trained in a tradition that studied animal behaviour and presumed that what was being observed was the result of selection. The challenge was to find an ingenious selectionist explanation for the oddity in question. There is, however, a different paradigm: evolutionary change can happen owing to chance events alone without selection having any effect. It is very seductive to suppose that genomes are more the result of the latter than the former. Why would selection care about a single base pair change in non-coding DNA? But if we have learnt one thing, it is that we shouldn’t be seduced by plausible arguments, in the absence of data, be they selectionist or neutralist. Indeed, when the human genome was first sequenced some advocated that we just sequence the genes. It seemed plausible that the non-coding “junk” must be just so much space filler. Thankfully the “lets not sequence the junk” voices lost the argument. We now know about domains in the non-coding DNA that are very highly conserved over long evolutionary distances and that most of our genome, junk included, is transcribed.
So is a genome a well-regulated structure in which all these transcripts and alternative splice forms are necessary? Or are they just so much noise? My research approaches these sorts of questions using many different case histories. I am interested in evolution of synonymous sites and why the rate of synonymous evolution varies around genomes. I am interested in gene order evolution. Is there a rationale to why genes reside where they do or is it just random? I find the fact that most knockouts have little of no effect on fitness to be a really interesting observation. Is this a result of selection to minimize the impact of mutations? Alternatively might it simply be a necessary consequence of the way gene expression works or an artifact of lab conditions?
Answers to these questions go beyond simple intellectual curiosity. If we are to introduce new genes into genomes, as in gene therapy and GM crops, then we should both understand the risks and be able to optimize the process. If gene order matters, then where a gene inserts into a genome should matter. If selection operates on synonymous mutations to aid splicing, then we should be able to make more efficient transgenes lacking introns with different synonymous sites.
Al margen de las complejidades introducidas por la epigenética, el dogma central de la biología molecular, ADN->ARN->Proteína, es el núcleo cierto en torno al cual se forman los organismos, y el código genético es la clave que permite interpretar cómo ocurre esto.
Pero ¿por qué todos los seres vivos tienen el mismo código, elaborado a partir de los mismos ladrillos moleculares? La respuesta obvia es que todos descienden de un primer organismo que adoptó este código, y no otro de entre los (pocos) posibles. Sería por tanto algo debido en gran parte a una casualidad. Sin embargo hoy se especula con la posibilidad de que la casualidad fuera anterior al código de tripletes, que no sería el originario, habiendo evolucionara a partir de uno de dobletes. Este último (primero, en el tiempo), según nos cuenta Nick Lane en su libro Life Ascending, permitiría transmitir información sobre 15 aminoácidos y una señal de parada. El tercer elemento del triplete, los restantes aminoácidos y la llamada degeneración del código genético (el hecho de que este tenga varias combinaciones de tripletes para cada aminoácido), vendrían después.
Parece, por recientes investigaciones en genética, que el primer elemento del triplete está relacionado con el precursor químico del aminoácido que este codifica. El segundo está relacionado con la hidrofilia o hidrofobia del mismo (que se diluya en agua o en grasas), siendo el tercer elemento más “libre” o “irrelevante” (según se mire).
A finales de la década de los 90 del siglo pasado, Laurence Hurst y Stephen Freeland realizaron un estudio en el que contrastaban las consecuencias de las mutaciones en el código genético y en cientos de miles de otros códigos generados aleatoriamente. Descubrieron que el código genético era sumamente estable, más de lo que cabría esperar de uno generado al azar, es decir, que las mutaciones en letras sueltas del ADN por lo general no tenían consecuencias catastróficas en la estructura y función de las proteínas que contribuían con su información a crear.
El ADN es una molécula estable en más de un sentido, por lo tanto. No sólo es que no reaccione fácilmente con otras moléculas, sino que además los cambios en él no son, por lo general, capaces de perturbar gravemente el diseño de sus traducciones proteínicas.
El Profesor Hurst ha tenido la amabilidad de respondernos unas preguntas, puestas en correcto inglés por José Miguel. Marzo tradujo las respuestas al castellano.
Inglés:
1. Stephen Freeland and you came to the conclusion that the genetic code is more consistent than any other randomly created code. Could you tell us how did you determine this? What do you think is the reason for this consistency?
I would not use the word consistent. What we found was the code is structured in a manner that tends to minimize the impact of errors, especially those owing to mistranslation. This is to say, when a mistranslation event occurs the amino acid that ends up being incorporated is, on the average, more chemically similar to the one that should have been there, than you would have expected had the code been just randomly arranged.
We came to this conclusion by application of randomization tests. We first asked what the impact of all possible single base error events was in the Universal code (there is an issue of how you define chemical similarity but I’ll not go there). From here we could ask about the average effect, allowing for the finding that mistranslation errors tend to be rare at codon second sites. Then we simply pretended that the block structure of the code was a constant and re-allocated amino acids to the blocks to generate in silico alternative possible codes and looked to see how they behaved. We found that only about one per million random codes is as good as the real code at minimizing mistranslation errors. The code also contains strong signatures of the way in which it was assembled. For example, it looks like amino acids belonging to the same biosynthetic pathway tend to have the same first base. Even controlling for this we still find the code to be strikingly robust to error.
An obvious explanation for the resilience to error is that it is a consequence of selection. But we also don’t fully understand the biochemical details of how the code rules were established and there might be an alternative explanation that emerges from that area. For now though selection appears to be the most parsimonious explanation.
2. Mutations, recombination and transpositions change genomes and are a source of phenotypic variation, and therefore an engine of evolution. What kinds of changes occur in the genomes and what effects do they have on organisms?
Changes come in many forms: single base pair mutations, insertions (including duplications), deletions, inversions and chromosomal re-arrangements. Predicting the consequences at the phenotypic level of any given change is very difficult. We have used flux balance analysis applied to metabolic networks in yeast and found that we can replicate results on growth rates of knockouts pretty well. Generally, however predicting a phenotype from a genotype is a very complex business and rarely successful.
We can be more successful in asking about which mutations have some phenotype, even if we cannot say what they phenotype might be. This has thrown up many surprises. For many years, for example, it was thought that synonymous mutations in humans would have no effects on fitness or phenotypes, as they don’t alter the proteins produced. The same was true of chromosome re-arrangements, such as inversions, if they didn’t disrupt genes. Both we have found can, and regularly do, have important fitness consequences. Humans are unusual in having many and small exons (we have an unusually large number of introns). Many synonymous sites in exons, it transpires, are involved in specifying where exon ends are. Mutations in such positions thus change the splicing of a protein. Predicting the phenotype that would result is, however, not generally within our grasp.
3. What do you think is peculiar in the genome of our species that makes us so unique?
Good question and one to which I wish knew the answer. There is certainly a level of RNA regulation that was unappreciated for a long time, but whether it makes us unique is hard to say. The other side of the debate is about whether human specific adaptations are mostly owing to changes in gene expression or owing to changes in the proteins. The answer is most probably a mix of the two. I have, however, been struck by how little we understand about the things that much us different from genome scans for positive selection.
4. Is there a battle of the sexes in the microcosm of genomes?
Males and females can have different “best strategies” in any given circumstance. Some variation we would then expect to be sexually antagonistic (good for one sex, bad for the other). It can be advantageous for a male to have a showy trait but the responsible alleles may well be deleterious if expressed in females. Such variation certainly exists but I’m not sure whether it is appropriate to call it the battle of the sexes. The proportion of variation within a population that is like this is an unresolved issue.
5. Natural selection might be operating at various levels, from the genetic level —with selfish genes— to the population level —with altruistic individuals risking their own survival for the group. How important in your view is each of the levels ranging from genes to groups of organisms?
There is a lot of semantic discussion over just what a level of selection is. Side-stepping this issue, there is a helpful distinction between mutations that spread deterministically but are deleterious to the bearer (e.g. selfish genetic elements) and those that spread deterministically but are good for the bearer (a classical beneficial allele). I was attracted by the thought that selfish elements might be important to genetic system evolution because they can have such strong deleterious effects. Much of population genetics considers weakly deleterious alleles falling on to genomes like a steady drizzle. Considering the same weather analogy, many selfish elements are best seen as rare but catastrophic thunderstorms. I don’t think we know how important such relatively rare big effects are. One can argue that they are more important than previously thought, but as they were somewhat ignored before that isn’t an especially interesting assertion. I have been struck, however, by the repeated finding that meiotic drive genes are associated with hybrid sterility. We hypothesized that this might be the case many years ago and I had thought that the idea was more or less dismissed. It seems to have made a Lazarus-like resurrection.
6. In what sense might we say that evolution is a statistical process?
In the sense that to model it accurately you need to consider sampling processes. This is most especially true when considering the fate of new mutations that have little or no effect on fitness. Their fate (will they be lost from the population or persist) is largely dominated by chance events.
7. What are you now working on?
My overall concern is to understand the evolution of genes and of genome organization. I was trained in a tradition that studied animal behaviour and presumed that what was being observed was the result of selection. The challenge was to find an ingenious selectionist explanation for the oddity in question. There is, however, a different paradigm: evolutionary change can happen owing to chance events alone without selection having any effect. It is very seductive to suppose that genomes are more the result of the latter than the former. Why would selection care about a single base pair change in non-coding DNA? But if we have learnt one thing, it is that we shouldn’t be seduced by plausible arguments, in the absence of data, be they selectionist or neutralist. Indeed, when the human genome was first sequenced some advocated that we just sequence the genes. It seemed plausible that the non-coding “junk” must be just so much space filler. Thankfully the “lets not sequence the junk” voices lost the argument. We now know about domains in the non-coding DNA that are very highly conserved over long evolutionary distances and that most of our genome, junk included, is transcribed.
So is a genome a well-regulated structure in which all these transcripts and alternative splice forms are necessary? Or are they just so much noise? My research approaches these sorts of questions using many different case histories. I am interested in evolution of synonymous sites and why the rate of synonymous evolution varies around genomes. I am interested in gene order evolution. Is there a rationale to why genes reside where they do or is it just random? I find the fact that most knockouts have little of no effect on fitness to be a really interesting observation. Is this a result of selection to minimize the impact of mutations? Alternatively might it simply be a necessary consequence of the way gene expression works or an artifact of lab conditions?
Answers to these questions go beyond simple intellectual curiosity. If we are to introduce new genes into genomes, as in gene therapy and GM crops, then we should both understand the risks and be able to optimize the process. If gene order matters, then where a gene inserts into a genome should matter. If selection operates on synonymous mutations to aid splicing, then we should be able to make more efficient transgenes lacking introns with different synonymous sites.
En castellano:
1. Stephen Freelan y usted llegaron a la conclusión de que el código genético es más consistente que cualquier otro código creado aleatoriamente. ¿Podría contarnos cómo determinaron esto? ¿Cuál piensa que es la razón de esta consistencia?
Yo no usaría la palabra "consistente". Lo que encontramos fue que el código está estructurado de manera que tiende a minimizar el impacto de los errores, especialmente los debidos a fallos de traducción. Es decir, cuando ocurre un fallo de traducción el aminoácido que acaba incorporándose es, en promedio, más similar químicamente al que debería haber estado allí de lo que se esperaría si el código estuviera simplemente dispuesto al azar.
Llegamos a esta conclusión mediante la aplicación de tests de randomización. Nos planteamos en primer lugar cuál era el posible impacto en el Código Universal de todos los posibles errores de una sola base (hay un problema en cómo se define la similaridad química, pero no entraré ahí). A partir de allí pudimos calcular el efecto promedio, teniendo en cuenta el hallazgo de que los fallos de traducción tienden a ser raros en la segunda posición de los codones. Entonces simplemente fingimos que la estructura de bloques del código era una constante y reasignamos los aminoácidos a los bloques para generar in silico posibles códigos alternativos y ver cómo se portaban. Hallamos que sólo uno de aproximadamente cada millón de códigos aleatorios es tan bueno como el código real en minimizar los errores de traducción.
El código contiene también marcadas huellas del modo como se ensambló. Por ejemplo, parece que aminoácidos que pertenecen a la misma vía biosintética tienden a tener la misma primera base. Aun controlando para esto seguimos hallando que el código es llamativamente robusto frente a errores.
Una explicación obvia para la resistencia al error es que es consecuencia de la selección. Pero tampoco entendemos plenamente los detalles bioquímicos de cómo se establecieron las reglas del código y podría haber una explicación alternativa que emergiera de esta área. Por ahora, sin embargo, la selección parece ser la explicación más parsimoniosa.
2. Mutaciones, recombinación y transposiciones cambian los genomas y son una fuente de variación fenotípica, y por tanto un motor de la evolución. ¿Qué tipos de cambios ocurren en los genomas y qué efectos tienen en los organismos?
Cambios los hay de muchas formas: mutaciones de un solo par de bases, inserciones (incluidas duplicaciones), deleciones, inversiones y reorganizaciones cromosómicas. Predecir las consecuencias fenotípicas de un cambio dado cualquiera es muy difícil. Hemos usados análisis de balance de flujos aplicado a redes metabólicas en levaduras y hallamos que podemos replicar bastante bien resultados de tasas de crecimiento de cepas con genes inactivados. En general, sin embargo, predecir un fenotipo a partir de un genotipo es empeño muy complejo y rara vez tiene éxito.
Podemos tener más éxito si preguntamos qué mutaciones tienen algún fenotipo, aun si no podemos decir cuál podría ser el fenotipo. Esto ha traído muchas sorpresas. Durante muchos años, por ejemplo, se pensó que las mutaciones sinónimas en humanos no tendrían efectos sobre la aptitud o los fenotipos, pues no alteran las proteínas producidas. Lo mismo las reorganizaciones cromosómicas, como las inversiones, si no alteraban genes. Hemos hallado que ambas pueden, y suelen, tener importantes consecuencias sobre la aptitud. Los humanos somos inusuales en que tenemos muchos y pequeños exones (tenemos un número de intrones desusadamente grande). Resulta que muchos sitios sinónimos de exones intervienen en especificar dónde están los extremos de los exones. Mutaciones en esas posiciones, pues, cambian el corte y empalme de una proteína. Predecir el genotipo que resultaría, sin embargo, en general no está a nuestro alcance.
3. ¿Qué cree usted que es lo peculiar en el genoma de nuestra especie que nos hace tan únicos?
Buena pregunta, y ojalá conociese la respuesta. Hay ciertamente un nivel de regulación de ARN que durante mucho tiempo no se apreció, pero es difícil decir si nos hace únicos. La otra cara del debate es si las adaptaqciones específicas humanas se deben principalmente a cambios en la expresión génica o a cambios en las proteínas. Lo más probable es que la respuesta sea una mezcla de ambas. Sin embargo, me ha impresionado cuán poco entendemos acerca de las cosas que nos hacen diferentes a partir de barridos del genoma en busca de selección positiva.
4. ¿Hay una batalla de los sexos en el microcosmos de los genomas?
Machos y hembras pueden tener diferentes estrategias óptimas en cualquier circunstancia dada. Esperaríamos, pues, que parte de la variación sea sexualmente antagonística (buena para un sexo, mala para el otro). Puede ser ventajoso para un macho tener un rasgo vistoso pero los alelos responsables pueden ser deletéreos si se expresan en hembras. Ciertamente hay variación así, pero no estoy seguro de si es apropiado llamarla "batalla de los sexos". Es cuestión no resuelta qué proporción de la variación en una población es de este tipo.
5. La selección natural podría estar operando en varios niveles, desde el genético (con genes egoístas) al de poblaciones (con individuos altruistas arriesgando su propia supervivencia por el grupo). ¿Qué importancia cree usted que tiene cada uno de los niveles entre los genes y los grupos de organismos?
Hay mucha discusión semántica simplemente sobre qué es un nivel de selección. Dejando de lado esta cuestión, hay una distinción útil entre las mutaciones que se diseminan de manera determinista pero son deletéreas para el portador (esto es, elementos genéticos egoístas) y las que se diseminan de manera determinista pero son buenas para el portador (un alelo beneficioso clásico). Me atrajo el pensamiento de que los elementos egoístas podrían ser importantes para la evolución del sistema genético porque pueden tener efectos deletéreos tan fuertes. Mucho de la genética de poblaciones considera que los alelos débilmente deletéreos caen sobre los genomas como una llovizna constante. Considerando la misma analogía meteorológica, muchos elementos egoístas serían como tormentas raras pero catastróficas. No creo que sepamos cuán importantes son esos efectos grandes, relativamente raros. Puede argüirse que son más importantes de lo que antes se pensaba pero, dado que antes eran más bien ignorados, no es una afirmación especialmente interesante. Me ha llamado la atención, sin embargo, el repetido hallazgo de que los genes con deriva meiótica se asocian a esterilidad de los híbridos. Hace muchos años conjeturamos que podría ser así y yo había pensado que la idea estaba más o menos descartada. Parece haber resucitado como Lázaro.
6. ¿En qué sentido podría decirse que la evolución es un proceso estadístico?
En el sentido de que para modelizarla con precisión es necesario considerar procesos de muestreo. Esto es cierto muy en especial al considerar el destino de mutaciones nuevas que tienen escaso o ningún efecto sobre la aptitud. Su destino (¿se perderán o persistirán en la población?) está dominado en gran medida por sucesos fortuitos.
7. ¿En qué trabaja ahora?
Mi preocupación en conjunto es entender la evolución de los genes y del genoma. Me eduqué en una tradición que estudiaba la conducta animal y suponía que lo que se estaba observando era resultado de la selección. El desafío era hallar una ingeniosa explicación seleccionista para la rareza en cuestión. Hay, sin embargo, un paradigma diferente: puede ocurrir cambio evolutivo debido a sucesos azarosos nada más, sin que la selección tenga ningún efecto. Es muy seductor suponer que los genomas son resultado más de lo segundo que de lo primero. ¿Por qué debería la selección preocuparse del cambio de un solo par de bases en ADN no codificante? Pero si hemos aprendido algo es que en asuencia de datos no deberíamos dejarnos seducir por argumentos plausibles, sean seleccionistas o neutralistas. Ciertamente, cunado se secuenció por primera vez el genoma humano algunos abogaban por que secuenciáramos solamente los genes. Parecía plausible que la “morralla” no codificante fuera seguramente sólo relleno. Afortunadamente las voces de “no secuenciemos la morralla” perdieron la discusión. Sabemos ahora de dominios en el ADN no codificante muy altamente conservados sobre grandes distancias evolutivas, y que la mayor parte de nuestro genoma, morralla incluida, se transcribe.
Entonces, ¿es un genoma una estructura bien reglada en la que todos estos transcritos y formas de ensamblaje alternativas son necesarias? ¿O son simplemente ruido? Mi investigación aborda esta clase de cuestiones usando muchas historias clínicas diferentes. Me interesa la evolución de los sitios sinónimos y por qué la tasa de evolución sinónima varía entre genomas. Me interesa la evolución del orden de los genes. ¿Hay alguna razón para que los genes estén donde están o es sólo azar? Encuentro el que la mayor parte de las inactivaciones de genes tengan poco o ningún efecto sobre la aptitud una observación realmente interesante. ¿Es esto resultado de la selección para minimizar el impacto de las mutaciones? Alternativamente, ¿podría ser simplemente una consecuencia necesaria del modo en que funciona la expresión genética, o un artefacto de las condiciones de laboratorio?
Las respuestas a estas preguntas van más allá de la simple curiosidad intelectual. Si hemos de introducir nuevos genes en los genomas, como en la terapia génica y los cultivos genéticamente modificados, entonces deberíamos tanto entender los riesgos como ser capaces de optimizar el proceso. Si el orden de los genes importa, entonces debería importar dónde se inserta un gen en un genoma. Si la selección opera sobre mutaciones sinónimas para ayudar al corte y empalme, entonces debríamos ser capaces de hacer transgenes más eficientes, que carecieran de intrones, con diferentes sitios sinónimos.
No hay comentarios:
Publicar un comentario