Agregar a favoritos      Ayuda      Português      Ingles     

Genoma humano

Enviado por yamilkilla22



  1. Objetivos
  2. Desarrollo
  3. Justificación del proyecto
  4. Secuenciación
  5. Proyecto de diversidad del genoma humano
  6. Identificación de los genes asociados a fenotipos
  7. La era postgenómica: la próxima revolución de la biología
  8. Conclusión
  9. Bibliografía
  10. Anexos

OBJETIVO GENERAL

Dar a conocer el Genoma Humano como el descubrimiento más importante para la humanidad.

OBJETIVOS ESPECIFICOS

1) Conocer y dar a conocer los avances en medicina que los experimentos de los genomas consigue día a día.

2) Encontrar la respuesta a porque el Genoma nos ayudaría a explicar muchas enfermedades.

3) Conocer la forma en la cual los experimentos del Genoma Humano encontraría las soluciones y curas a los diferentes males que acechan nuestra humanidad.

4) Conocer como ha sido la evolución del Genoma Humano a lo largo del tiempo hasta el día de hoy.

INTRODUCCIÓN

ORIGEN Y JUSTIFICACIÓN DEL PROYECTO

El PGH es el primer gran esfuerzo coordinado internacionalmente en la historia de la Biología. Se propone determinar la secuencia completa (más de 3000 .106 pares de bases) del genoma humano, localizando con exactitud (cartografía) los 100.000 genes aproximadamente y el resto del material hereditario de nuestra especie, responsables de las instrucciones gen éticas de lo que somos desde el punto de vista biológico. Realmente, lo que llamamos Proyecto Genoma es el término genérico con el que designamos una serie de diversas iniciativas para conocer al máximo detalle los genomas no sólo de humanos, sino de una serie de organismos modelo de todos los dominios de la vida, todo lo cual se espera que dé un impulso formidable en el conocimiento de los procesos biológicos (desde la escala molecular hasta la evolutiva) y de la fisiología y patología de los seres humanos, y que se traducirá en multitud de aplicaciones técnicas y comerciales en ámbitos como el diagnóstico y terapia de enfermedades, biotecnologías, instrumental, computación, robótica, etc.

Hacia mediados de la década de los años 80 la metodología del ADN recombinante y sus técnicas asociadas (vectores de clonación, enzimas de restricción, transformación artificial de células procariotas y eucariotas, bibliotecas de genes, sondas moleculares, secuenciación, genética inversa, PCR, etc.) habían alcanzado una madurez suficiente como para que se planteara la pertinencia y viabilidad de un proyecto coordinado de caracterización detallada (hasta nivel de secuencia de nucleótidos) del genoma humano y de genomas de una serie de organismos modelo.

¿Por qué cartografiar y secuenciar genomas?

La biología pretende dar respuestas lo más completas y detalladas posibles de los fenómenos vitales. Al ser el ADN la molécula universal de la herencia, y constituir la base gen ética de la vida, la tendencia natural ha sido terminar buscando explicaciones al nivel de ADN. Este conocimiento molecular puede dar la clave de muchos fenómenos que hoy entendemos a niveles menos profundos ya descritos por otras ciencias biológicas (fisiología, biología celular, bioquímica, etc.).

Ha llegado un momento en que se plantea que abordar el estudio detallado de los genomas de los organismos es mucho menos costoso, y más interesante intelectualmente, logrando el conocimiento detallado de la secuencia. Pero los Proyectos Genoma no son más que un punto de arranque para nuevos descubrimientos en las ciencias biomédicas. Con los datos de secuencias habrá que trabajar para dar respuestas a cuestiones de expresión de genes, de regulación gen ética, de interacción de las células con sus entornos, etc.

La secuenciación de genomas de plantas y animales domésticos conducirá a nuevos avances en la mejora agronómica y ganadera.

Para comprender la evolución será cada vez más esencial el disponer de datos de secuencias. La bioinformática permite comparar genes y genomas completos, lo que junto con otros datos biológicos y paleontológicos, está dando nuevas claves de la evolución de la vida.

La principal justificación del PGH de cara a la sociedad es la promesa de avances importantes en Medicina. Aunque el estudio de las enfermedades en humanos se ha venido haciendo mayoritariamente en ausencia de su comprensión gen ética, la disponibilidad de técnicas poderosas anima a emprender la secuenciación sistemática, lo que suministrará un formidable impulso sobre todo para las enfermedades poligénicas y multifactoriales. Una de las consecuencias más inmediatas del PGH (y que ya experimentamos desde hace unos años) es la de disponer de sondas y marcadores moleculares para el diagnóstico de enfermedades gen éticas, de cáncer y de enfermedades infecciosas. A plazos mayores. se espera que a su vez la investigación genómica permita diseñar nuevas generaciones de fármacos, que sean más específicos y que tiendan a tratar las causas y no sólo los síntomas. La terapia gen ética, aunque aún en sus balbucientes inicios, puede aportar soluciones a enfermedades, no sólo hereditarias, sino cáncer y enfermedades infecciosas.

Uno de los principales objetivos es desarrollar a corto plazo tecnologías de vanguardia. Es decir, una de las principales justificaciones del PGH es la necesidad de impulsar poderosas infraestructuras tecnológicas que deben de proporcionar a las instituciones, empresas y países implicados un lugar de privilegio en la investigación biomédica y en multitud de aplicaciones industriales (diagnósticos, terapias, instrumental de laboratorio, robótica, hardware, software, etc.).

Origen del Proyecto Genoma

Aunque antes de los años 80 ya se había realizado la secuenciación de genes sueltos de muchos organismos, así como de "genomas" de entidades subcelulares (algunos virus y plásmidos), y aunque "flotaba" en el entorno de algunos grupos de investigación la idea de comprender los genomas de algunos microorganismos, la concreción institucional del PGH comenzó en los EEUU en 1986 cuando el Ministerio de Energía (DOE), en un congreso en Santa Fe (NM) planteó dedicar una buena partida presupuestaria a secuenciar el genoma humano, como medio para afrontar sistemáticamente la evaluación del efecto de las radiaciones sobre el material hereditario. El año siguiente, tras un congreso de biólogos en el Laboratorio de Cold Spring Harbor, se unió a la idea el Instituto Nacional de la Salud (NIH), otro organismo público con más experiencia en biología (pero no tanta como el DOE en la coordinación de grandes proyectos de investigación). El posterior debate público tuvo la habilidad de captar la imaginación de los responsables políticos, y ofrecer el atractivo de que no sólo el PGH era el gran emblema tecnocientífico de finales de siglo (como lo había sido el Proyecto Apolo en los años 60), sino que uno de sus fines explícitos era desarrollar tecnologías de vanguardia y conocimiento directamente aplicable (no sólo en el campo de la biotecnología) que asegurarían la primacía tecnológica y comercial del país en el siglo XXI. En 1988 se publicaron informes de la Oficina de Evaluación Tecnológica del Congreso (OTA) y del Consejo Nacional de Investigación (NRC), que supusieron espaldarazos esenciales para dar luz verde a la Iniciativa. Ese mismo año se establece la Organización del Genoma Humano (HUGO), como entidad destinada a la coordinación internacional, a evitar duplicaciones de esfuerzos, ya diseminar el conocimiento. El comienzo oficioso del PGH corresponde a 1990, y se calcula que terminará el 2005. Sus objetivos eran elaborar en una primera etapa mapas gen éticos y físicos con suficiente resolución, mientras se ponían a punto técnicas más eficientes de secuenciación, de modo que en la fase final se pudiera abordar la secuenciación de todo el genoma humano. Entre los objetivos se cuentan igualmente la caracterización y secuenciación de organismos modelo, y la creación de infraestructura tecnológica, entre la que destacan nuevas herramientas de hardware y software destinadas a automatizar tareas, a procesar la enorme cantidad de datos que se esperan, ya extraer la máxima información biológica y médicamente significativa.

Aunque en un principio se calculó que el PGH .americano costaría unos 3000 millones de dólares y duraría 15 años, tanto el coste como los plazos han tenido que ser estimados a la baja, debido a innovaciones tecnológicas que abaratan y acortan la investigación. Los fondos federales estadounidenses dedicados hasta ahora (1998) al PGH ascienden a 1.9 mil millones de dólares (casi 300.000 millones de pesetas).

En 1993 los fondos públicos para el PGH fueron 170 millones de dólares, mientras que la industria gastó 80 millones. Conforme pasa el tiempo, la inversión privada se está haciendo más importante, e incluso amenaza con adelantarse a los proyectos financiados con fondos públicos. Recientemente (mayo de 1998), la empresa TIGR anunció la creación de un proyecto conjunto con Perkin-Elmer (fabricante de secuenciadores automáticos) que podría conducir a terminar por su cuenta la secuencia humana aun coste equivalente a la décima parte del proyecto público y con unos plazos más breves.

Para hacerse una idea de las ventajas del PGH con relación a otros ámbitos tradicionales de investigación médica, se pueden dar algunas cifras:

El aislamiento por clonación posicional del gen de la fibrosis quística costó $ 30 millones. Se calcula que, de haber tenido un buen mapa como los actuales, hubiera costado solamente $ 200.000.

El desarrollar un nuevo medicamento cuesta como mínimo 50 millones de dólares.

El gasto sanitario total estadounidense es de 600 mil millones de dólares.

EI NIH está gastando un 2-3% de su presupuesto al PGH.

DESARROLLO

Introducción a los Proyectos Genoma

Lo que a finales de 1989 era un proyecto que algunos tachaban de loco, por lo caro, superfluo y utópico que parecía, es ahora una realidad deseada y aceptada por todos, que se terminará probablemente antes de lo esperado (2005) y que costará mucho menos de lo previsto. Veamos algunos hitos en el avance del PGH:

En 1987 se construyeron mapas genéticos de ligamiento usando polimorfismos de tipo RFLP, con una resolución aún baja: 10-15 cM.

El primer mapa genético de ligamiento del Génethon (1992), que ya recurrió a microsatélites, supuso una revolución inmediata en el análisis de ligamiento de las enfermedades con base genética. Su resolución media ya era de 5 cM.

La tercera versión del Génethon se publicó en 1996, y ya contenía unos 5000 marcadores microsatélites, separados los consecutivos una media de 0.7 cM (aprox. 700 kb), lo cual ya supera el nivel de detalle especificado en uno de los objetivos para el primer lustro del PGH.

En los últimos años se ha avanzado más en los mapas físicos. En septiembre de 1995 Nature publicó un Directorio del Genoma Humano que incluía un mapa de contigs de YACs que cubría 75% del genoma. Hudson et al publicaron un mapa físico preliminar del 94% del genoma, abarcado por unos 15.000 marcadores.

Un problema con los YACs es su elevado quimerismo. por lo que hay que complementar los mapas de contigs. Es lo que hizo el Whitehead Institute a finales de 1995, con la publicación en Science del mapa basado en STS que incorpora datos de híbridos de radiación (RH).

El PGH pretendía balizar el genoma humano con unas 30.000 STSs repartidas de modo más o menos uniforme, de modo que cada par de STSs contiguas están separadas por una medía de 100.000 pb. Este objetivo acaba de cumplirse, y señala el punto de partida para la fase final del Proyecto, ya que a partir de aquí la secuenciación queda expedita de forma ordenada y significativa, y los datos pueden ser correlacionados con el mapa genético.

Una consecuencia casi inmediata de estos avances en cartografía es que la localización, aislamiento (por la llamada clonación del candidato posicional) y caracterización de genes concretos relacionados con enfermedades se acelera y simplifica, haciendo que el coste presupuestario se abarate notablemente en comparación con los esfuerzos tradicionales en que cada laboratorio luchaba por separado durante largos años para lograr clonar algún gen de interés.

Una vez completadas las dos primeras fases del PGH (mapas físicos y gen éticos de suficiente resolución), el presente año de 1997 va a marcar el asentamiento de la fase clave del PGH, ya que la madurez de los mapas obtenidos hasta ahora y los avances y bajos costes en las tecnologías de secuenciación y procesamiento de datos suponen que se pueda dar luz verde a la obtención masiva de secuencias de forma sistemática y organizada. Las secuencias van siendo puestas de modo prácticamente inmediato a disposición de la comunidad investigadora por medio de varias bases de datos entrelazadas dentro de Internet. Se espera que la secuencia virtualmente completa del genoma humano, está disponible antes del 2005 (se habla del año 2002).

El ritmo de acumulación de secuencias de ADN es vertiginoso, y ya se dobla cada pocos meses. Actualmente se estima que ya se ha secuenciado casi un 2% de genoma humano, pero este dato no debe engañar: con las técnicas y ritmos actuales, en los próximos años se obtendrá una tasa de 500 Mb por año.

Los costes de secuenciación siguen bajando. En algunos laboratorios cada par de bases de secuencia definitiva está en 30 centavos de dólar; y se espera que pronto baje a 10 centavos.

Ahora. el reto de la fase final del PGH es obtener secuencias del modo más rápido. barato y preciso. Para ello, se están diseñando métodos de alto rendimiento, lo más automatizados posibles.

JUSTIFICACIÓN DEL PROYECTO

Tras las propuestas iniciales, que partieron del ministerio de energía de los EEUU (DOE), al que enseguida siguieron los Institutos Nacionales de la Salud (NIH), quedó claro que este magno proyecto no podía consistir en la secuenciación pura y dura, sino que habría de constar de varias etapas encadenadas, comenzando por la elaboración de mapas gen éticos y físicos de resolución cada vez mayor. Además, la secuenciación habría de centrarse en principio en las zonas de ADN más interesantes a priori, como las regiones génicas codificadoras, dejando para una etapa ulterior el análisis del enorme contenido de ADN repetitivo de distintas clases que existe en el genoma. Simultáneamente había que ir desarrollando toda una infraestructura de técnicas instrumentales y de análisis de la información generada (programas informáticos potentes para gestionar las secuencias y extraer sentido biológico de ellas, nuevos algoritmos, redes de ordenadores interconectados, bases de datos entrelazados, etc.).

Cartografías genómicas

El PGH hace uso de dos tipos de cartografía para caracterizar el genoma, aunque en última instancia los mapas emanados de los distintos métodos han de ser correlacionados e integrados: cartografía genética de ligamiento, y cartografía física.

Cartografía genética de ligamiento

La cartografía genética se basa en el cálculo de la frecuencia a la que se coheredan formas alternativas (alelos) de dos loci genéticos que están ligados formando parte de un mismo cromosoma. Hasta el advenimiento de las técnicas moleculares, los mapas genéticos de ligamiento en humanos eran bastante rudimentarios, ya que en su elaboración no puede intervenir (por obvios motivos éticos) la experimentación de laboratorio que se usa en animales, y porque los datos habían de basarse casi exclusivamente en la comparación de fenotipos normales y los mutantes correspondientes a determinadas enfermedades genéticas, y en el recurso a análisis de familias, a ser posible con registros de varias generaciones y con gran número de individuos.

La revolución de la cartografía genética de ligamiento sobrevino cuando a finales de los años 70 se recurre al análisis molecular de zonas de ADN no codificadoras y que son muy polimórficas: existen varios tipos de secuencias (algunas de ellas de naturaleza repetitiva, como los VNTR, los microsatélites, etc.), dispersos por el genoma, cada uno de ellos con varios alelos en el ámbito poblacional. Entre las ventajas de los microsatélites se cuentan: contenido informativo muy alto, con lo que los análisis estadísticos mejoran en fiabilidad; distribución abundante y relativamente uniforme por todo el genoma; y que se pueden ensayar fácilmente mediante PCR. Además, estos loci genéticos sirven en genética clínica como marcadores útiles para localizar genes relacionados con enfermedades. Los polimorfismos moleculares han permitido que en la actualidad el PGH haya generado detallados mapas gen éticos del genoma humano aun nivel de resolución en torno a 1 centimorgan (cM) o incluso menos. Esto ya se logró en 1994, un año antes de lo previsto, y en buena parte con resoluciones mejores (0.7 cM).

Cartografía física e integración de los mapas

Los mapas físicos tienen como objetivo especificar distancias físicas mensurables en pares de bases (pb) o alguno de sus múltiplos. Obviamente, el mapa físico de mayor detalle es la propia secuencia del genoma. Pero antes de llegar a obtenerla, hay que elaborar mapas físicos partiendo de resoluciones bajas y avanzando hacia las resoluciones cada vez mayores. En cierta manera, los mapas físicos de menor resolución son los propios cariotipos: la visualización microscópica de la dotación cromosómica haploide humana teñida con colorante de Giemsa nos muestra un patrón alternante de bandas claras y oscuras, en el que cada banda tiene una media de unos 7 millones de pares de bases. Si bien los métodos citogenéticos tienen sus limitaciones, no hay que olvidar que actualmente existen novedosas herramientas de citogenética molecular (como las sondas fluorescentes in situ o FISH, la "pintura de cromosomas", etc.) que permiten un mayor detalle y que, unidas a otras técnicas aumentan el arsenal de enfoques para el estudio de los genomas, de su dinámica y de sus alteraciones.

Los mapas físicos de mayor resolución se suelen elaborar a partir de genotecas (bibliotecas de genes) en las que el genoma a estudiar se encuentra fragmentado en multitud de trozos aleatorios y desordenados, cada uno de ellos clonado por separado en un vector adecuado: plásmido, cósmido, cromosomas artificiales de levadura (YAC), cromosomas artificiales de bacteria (BAC), etc.. La idea para elaborar los mapas físicos es en cierto modo similar a la de ensamblar un rompecabezas: consiste en ordenar los fragmentos del genoma a base de buscar grupos de fragmentos que tienen alguna zona en común, es decir, ir hallando conjuntos de pares de fragmentos parcialmente solapados. Ello conduce al concepto de contig: un contig (o cóntigo, como algún autor español ha traducido) es un conjunto de fragmentos de un genoma que se han clonado por separado, pero que son contiguos y que están parcialmente solapados. Los actuales mapas físicos han de recurrir pues al ensamblaje de esos fragmentos dentro de un contig, y ulteriormente, los distintos contigs correspondientes al mismo grupo de ligamiento han de ser ensamblados entre sí: el objetivo final (ideal) sería obtener un gran contig por cada cromosoma, que describiera detalladamente la posición y distancia física (en bases) de y entre distintos marcadores (representados, p. ej. , por dianas para enzimas de restricción).

La cartografía de contigs se puede realizar buscando la "huella dactilar" común a distintos clones de una genoteca de ADN humano. Dicha huella puede consistir en un patrón compartido de dianas de enzimas de restricción (que se puede indagar ayudándose de algoritmos y programas computacionales adecuados). Las estrategias más recientes hacen uso de ADN humano en forma de unos 20.000 trozos independientes clonados en los llamados cromosomas artificiales de levadura (YAC, de sus iniciales inglesas), y buscando la "huella dactilar común" entre clones a base de la detección de determinadas secuencias repetitivas. Todo el procedimiento está altamente automatizado, como en el famoso laboratorio francés del Génethon, provisto de varios robots especializados en procesar y analizar las muestras.

El último gran hito en cuanto a metodología de mapas físicos ha sido el desarrollo de una especie de "marcadores físicos universales", fácilmente generables, que permiten que los datos obtenidos en un laboratorio sean rápidamente compartidos y asumidos por toda la comunidad investigadora: se trata de los llamados "lugares etiquetados por su secuencia" (STS en inglés). Consisten en trechos cortos de ADN (de entre 100 y 1000 pb) cuya secuencia exacta se conoce y se sabe que es única en todo el genoma. Su facilidad de uso y su aceptación como "lenguaje común" estriba en que una vez que un investigador descubre una STS, cualquier otro puede obtenerla por sí mismo (ni siquiera hace falta el envío físico de muestras), simplemente fabricando in vitro los cebadores correspondientes a sus extremos y amplificando la STS por reacción en cadena de la polimerasa (PCR). Los STS definen puntos concretos únicos del mapa físico, y constituyen magníficos "mojones" o balizas fácilmente detectables.

Uno de los objetivos iniciales del PGH era la obtención de mapas físicos con unas 30.000 balizas repartidas de modo más o menos uniforme, de modo que cada dos marcadores consecutivos estén separados una media de 100 kb. Este objetivo se acaba de cumplir, en buena parte debido al empleo de los STS, que permiten elaborar mapas de contigs según el contenido de STS de los clones solapados. Estos mapas de STS permiten la integración de los mapas gen éticos y físicos, hacen accesible la fase de secuenciación y facilitan la clonación de genes implicados en enfermedades mediante la llamada estrategia del candidato posicional.

Una vez que se construyen los mapas, hay que refinarlos y purgarlos de posibles errores. Los errores suelen tener dos fuentes principales: algunos clones YACs son en realidad híbridos o quimeras producidas por artefactos durante el proceso de elaboración de la genoteca, y por lo tanto su mapa no refleja el orden genómico auténtico; y por otro lado, los programas de ensamblado de los mapas no son fiables al 100%. De ahí la importancia de confirmar normalizar los datos mediante estrategias aceptadas por todos los investigadores.

Dentro del PGH se está abordando un enfoque paralelo y complementario consistente en secuenciar los denominados EST (lugares etiquetados expresables). Se parte de muestras de ARN mensajero aisladas de los distintos tipos de células y tejidos del cuerpo humano, se realiza por transcripción inversa (con reversotranscriptasa) copias de ADN, y se procede a su secuenciación. Ello rinde versiones no genómicas, desprovistas de las porciones intrónicas, de los distintos genes que se expresan en los diferentes tejidos. Los datos obtenidos se integran en "mapas funcionales" que muestran el patrón de expresión diferencial según su localización anatomo-histológica.

SECUENCIACIÓN

Métodos básicos de secuenciación

  • Método químico de Maxam y Gilbert (actualmente poco usado).
  • Método enzimático de Sanger (terminación de cadena, o de los didesoxinucleótidos, ddNTP)
  • Secuenciación automática según el método de Sanger

Cada ddNTP se marca con un colorante fluorescente diferente. Ello permite hacer la electroforesis en el mismo callejón del gel. Las bandas de ADN son detectadas por su fluorescencia según pasan delante del detector. Si el detector lo hacemos mover en horizontal, podrá leer varias secuenciaciones al mismo tiempo. Los datos pasan aun sistema computerizado.

Nuevos métodos de secuenciación

Microscopías de efecto túnel (STM) y de fuerza atómica (AFM)

Microscopía de barrido (scanning) de efecto túnel (STM). Una fina sonda se mantiene muy cerca del objeto (en este caso ADN), por medio de un sistema de control basado en la detección de una minúscula corriente inducida por el efecto túnel entre la punta de la sonda y el ADN. Una técnica muy parecida es la microscopía de fuerza atómica (AFM), en la que el control se debe a la medida de las fuerzas de van der Waals entre la sonda y la muestra. En cualquiera de los dos casos, la punta se mueve a lo largo del objeto, de modo que sus desplazamientos en vertical se miden y se registran, generando una imagen de la superficie del objeto. Aunque se han obtenido imágenes del esqueleto azúcar-fosfato de ADN de cadena sencilla y de cadena doble, está por ver si se pueden "ver" las bases nitrogenadas. Si es así, la técnica podría secuenciar del orden de 1 Mb cada día.

Secuenciación por hibridación: chip de hibridación

Secuenciación por hibridación en chips con oligonucleótidos. Se basa en sintetizar distintas sondas de oligonucleótidos, y unirlas en disposiciones ordenadas (arrays) a una fina pastilla de nylon o vidrio. Este chip se prueba frente aun ADN marcado fiuorescentemente, de modo que el patrón y cantidad de fluorescencia suministra información sobre la secuencia del ADN en cuestión. La última generación de este enfoque es la combinación de técnicas folitográficas (como la de los chips de silicio para computadores) con síntesis química en fase sólida, que logra chips con ordenaciones de decenas e incluso centenares de miles de oligos distintos, que pueden usarse para identificar secuencias marcadas fluorescentemente en cuestión de minutos, por medio de un microscopio confocal de fluorescencia totalmente automatizado, que registra los datos.

A modo de estudio piloto sobre sus posibilidades, la empresa Affimetrix ha logrado re-secuenciar por este método las 16 kb de AQN mitocondrial humano, con un dispositivo formado por 135.000 oligonucleótidos. Con la tecnología actual se puede llegar a sintetizar en un día 400.000 oligos de 20 bases cada uno, dispuestos en un chip de 1 ,6 cm2. Pero el objetivo final es lograr un chip con los 4 millones de sondas necesarias para secuenciar todo el genoma humano en una sola hibridación (!).

Estrategias de secuenciación

Secuenciación genómica clásica

Hasta hace muy poco, la secuenciación genómica dependía de la previa disponibilidad de mapas físicos detallados, para que los fragmentos secuenciados puedan ser ensamblados correctamente. Necesita manejar una gran cantidad de datos (a título de ejemplo, para generar 1 kb de secuencia final, hay que secuenciar 10 kb en total), y no es totalmente automatizable.

Resumamos brevemente (recapitulando algo de lo dicho para los mapas) cuál es la estrategia habitual para secuenciar genomas:

El ADN genómico se corta aleatoriamente en fragmentos, que se separan en distintas clases de tamaños, y se insertan en distintos tipos de vectores, cada uno con una capacidad media diferente (por ejemplo, los YACs portan insertos entre 100 y 2000 kb, los cósmidos unas 40 kb).

Se preparan mapas físicos de baja resolución a base de clones solapados de insertos de YACs.

Se preparan mapas físicos de alta resolución, preparados para la secuenciación, por medio de la subclonación en cósmidos de fragmentos aleatorios de insertos de YACs.

Finalmente, se escoge un conjunto de clones de cósmidos con solapamientos mínimos, sus insertos se rompen aleatoriamente y se subclonan en vectores para la secuenciación (derivados del fago M13, plásmidos de la serie pUC, etc.).

Por cada cósmido hay que secuenciar unos 800 clones de fago M13, con un tamaño medio de inserto de 400 pb, y la secuencia de 40 kb del inserto del cósmido original se ensambla computacionalmente. Este enfoque de secuenciación aleatoria (shotgun) obliga a secuenciar muchas veces (unas 8 o 10) el mismo segmento de secuencia, lo que tiene la ventaja de que asegura una mayor fiabilidad de los datos obtenidos. Sin embargo, como ya dijimos, presenta varios inconvenientes: hay que disponer previamente de buenos mapas; los YACs son inestables y muchos de ellos son quimeras, artefactos de clonación que no reflejan el orden genómico (identificarlos y descartarlos es una tarea que lleva tiempo y esfuerzo); y como ya sabemos, esta metodología no se puede automatizar totalmente.

Un tema importante es tener tasas de errores lo más bajas posibles: del orden de 0.02-0.2%.

Secuenciación de ADN complementario (ADNc)

No es una alternativa, sino un complemento ala secuenciación genómica. No es el gen lo que estamos secuenciando, sino la "retrocopia" de su ARNm obtenida por reversotranscripción, desprovisto de intrones y secuencias reguladoras no traducidas.

Si bien la secuenciación de ADNc no nos da información de la estructura del gen, sí nos la puede dar sobre su expresión: en qué tejidos se expresa, bajo qué condiciones, etc., lo que permite iniciar mapas funcionales del genoma humano.

Nuevas estrategias de secuenciación genómica

Recientemente (véase Venter et al., 1996) se ha propuesto una estrategia de secuenciación genómica que no depende de previos mapas físicos, y que en lugar de YACs emplea otro tipo de vectores, los cromosomas artificiales de bacteria (BACs), que aunque permiten insertos de entre 100 y 350 kb, tienen la gran ventaja de aceptar insertos genómicos con gran fidelidad (sin quimerismos ni apenas reordenaciones del material insertado). La estrategia consiste en lo siguiente:

Se crea una genoteca humana de BACs, con un tamaño medio de 150 kb, y una redundancia de 15 veces, de modo que consta de unos 300.000 clones. Los clones de la genoteca se reparten en pocillos de placas de microtitulación.

Se secuencian unas 500 bases en cada uno de los dos extremos del inserto de cada clon. Esto significa que las 600.000 secuencias de los extremos de los clones están repartidas a razón de una cada 5 kb de genoma, y constituyen el 10% de la secuencia genómica.

A estas secuencias se las denomina STCs, acrónimo inglés de "conectores" etiquetados por su secuencia", ya que permiten que por término medio cada clon BAC pueda ser conectado con otros 30 (un inserto típico de 150 kb dividido por 5 kb, estará representado en otros 30 BACs). Las secuencias de las STCs se pondrían enseguida en Internet, a disposición de la comunidad investigadora.

Se toma la "huella dactilar" de cada clon BAC, con una enzima de restricción .

Un clon BAC que actúa de semilla se secuencia por cualquier método, y se compara con la base de datos de STCs para identificar los clones solapados.

Se secuencian los dos clones BAC que muestren consistencia interna entre las huellas dactilares y solapamiento mínimo en ambos extremos con respecto al BAC semilla.

El proceso se va reiterando a ambos lados del BAC semilla (lo que podríamos llamar "paseo genómico con BACs").

De esta manera, el genoma humano completo se podría secuenciar con sólo 20.000 clones BAC.

Aunque la estrategia es muy atractiva por su aparente rapidez y menor costo (se estima que en dos años 30 secuenciadores de última generación podrían obtener esas 600.000 STCs, con un desembolso de menos de 10 millones de dólares), tiene varios inconvenientes, entre ellos el que obliga a mantener uno o varios centros depositarios de las placas con los clones BACs, y al envío de clones entre laboratorios. Dado que el PGH ha funcionado muy bien hasta ahora de modo descentralizado, es posible que haya reticencias en grupos que vean amenazada la actual cuasi-democracia investigadora. (No se puede olvidar quién hace la propuesta: el director de uno de los centros privados más "agresivos" en investigación genómica).

El papel de la informática en los proyectos genoma

La informática ha sido uno de los objetivos esenciales del PGH, debido a la gigantesca cantidad de datos que hay que recoger, analizar, comparar, interpretar y distribuir. La informática aplicada a la biología presenta dos subdisciplinas (véase Benton, 1996): la bioinformática en sentido estricto, que se puede definir como el trabajo de investigación y desarrollo que se necesita como infraestructura de información de la actual biología; y la biología computacional, que es la investigación dependiente de computación dedicada a entender cuestiones biológicas básicas. El término bioinformática, en sentido lato, comprende estos dos grandes aspectos. Estamos ante un nuevo campo interdisciplinario, en la interfase entre ciencias de la computación, matemáticas y biología.

Las cuestiones de gestión de datos que plantea el PGH suponen un auténtico "revulsivo" para la informática. Aunque para algunas de las tareas se puede recurrir a enfoques tradicionales, con sólo aumentar la escala del procesamiento, para otros problemas se necesitan arquitecturas y programas informáticos totalmente diferentes.

Adquisición informatizada de datos biológicos

La adquisición de datos experimentales por métodos digitales está espoleando a la industria a diseñar y fabricar aparatos cada vez más sofisticados, que mejoran y aceleran la parte más rutinaria de la investigación. Para ello los aparatos incorporan sistemas computerizados de análisis y tratamiento de imagen visible. Piénsese en los secuenciadores automáticos de ADN o en la tecnología del chip de ADN.

El ensamblaje automático de mapas y secuencias es otra tarea que plantea numerosos e interesantes problemas a las ciencias de la computación, que han de hacer uso de nuevos algoritmos y estrategias en las que tener en cuenta los posibles errores.

Predicción de secuencias codificadoras, dominios funcionales y otras zonas interesantes del genoma: Aunque disponemos de programas a tal efecto (GRAIL, FASTA, etc.), se requieren nuevos algoritmos capaces de predecir patrones especiales de secuencia dentro de genomas completos. Se están ensayando aproximaciones derivadas de las redes neurales (neuromiméticas).

Construcción de árboles filogenéticos: En principio se viene realizando a base de comparar determinados genes entre pares de organismos, mediante algoritmos de alineamiento de secuencia, pero habrá que mejorar los métodos, incluyendo una adecuada evaluación del grado de fiabilidad de los árboles.

Bases de datos gen éticos y moleculares

La gigantesca cantidad de datos generados en los proyectos genoma obliga a abandonar la "Galaxia Gutenberg" a la hora de publicar los datos: su difusión se hace por medios electrónicos, depositándolos en bases de datos públicos. El ritmo de acumulación de datos es vertiginoso, y actualmente se duplican en menos de un año. Los biólogos del siglo XXI usarán esas bases de datos como un recurso indispensable de su trabajo cotidiano. En la actualidad funcionan principalmente dos tipos de bases de datos genómicos:

El Consorcio Internacional de Bases de Datos de Secuencias está formado por GenBank, el Banco de datos de ADN de Japón (DDBJ) y el del EMBL. Alberga los datos de secuencias. Las tres bases comparten y complementan la información. En España existe un nodo de EMBL residente en el Centro Nacional de Biotecnología (CNB) de Madrid.

Genome Data Base (GDB) se estableció para albergar los datos de mapas y relacionados (sondas, marcadores, etc.).

Actualmente la base de datos bibliográfica MEDLINE (mantenida por la NML estadounidense) está vinculada con las bases de datos genéticos y de secuencias. Por ejemplo, se puede hacer una búsqueda desde MEDLINE con palabras clave de una enfermedad, lo que da acceso a OMIM (Herecia mendeliana on-line), con referencias bibliográficas, y de ahí se puede saltar a los mapas genéticos, físicos y las secuencias, si están disponibles.

En 1993, un taller recomendó profundizar en la coordinación entre los distintos bancos informatizados. Las diferencias en la estructura de las bases de datos y en su nomenclatura hacen que un investigador que trabaje con un gen o una proteína de una especie tenga difícil acceder a la información de genes homólogos de otras especies. Los expertos en bioinformática están tratando de desarrollar estándares y nombres comunes, y de establecer vínculos entre ellos, de modo que cuando los investigadores busquen información en una base de datos, automáticamente la encuentren vinculada con otras bases depositarias de otros datos. Internet y los lenguajes informáticos dedicados al WWW pueden venir a ayudar, al hacer fácil crear vínculos entre bases de datos diferentes ha abierto el camino ala diseminación del enfoque basado en "federaciones de pequeñas bases de datos". Basta definir hipervínculos activos (hipertexto) para vincular datos relevantes entre distintas bases. Pero para hacer frente al diluvio de datos tales hipervínculos tendrán que ser creados automáticamente por el software de la base de datos. Ello obliga a ponerse de acuerdo sobre la nomenclatura y los formatos compatibles. El famoso lenguaje Java, creado para Internet, parece que puede desarrollarse en una buena herramienta para entrecruzar de modo inteligente todas las bases de datos biológicos.

Diagnóstico molecular: detección de mutaciones

El avance en el PGH y en los mapas y secuencias ya disponibles impulsan la necesidad de disponer de técnicas capaces de rastrear ADN en busca de mutaciones asociadas con enfermedades humanas. En los próximos años se habrá identificado la mayor parte de los genes implicados en importantes enfermedades humanas. En las bases de datos se están introduciendo informaciones sobre mutaciones y sus implicaciones clínicas. Uno de los retos de la medicina será hacer uso de esa información para mejorar el diagnóstico y prognosis de las enfermedades.

Para detectar mutaciones en sitios previamente determinados se han diseñado una serie de métodos:

Hibridación de oligonucleótidos específicos de alelos.

Amplificación específica de alelos (con o sin PCR, o con reacción en cadena de la ligasa, LCR)

Procedimientos que crean o destruyen sitios de restricción.

La detección de mutaciones en lugares sin especificar o cuando no se dispone de información de secuencia es una tarea muy ardua, aunque se han desarrollado algunas estrategias (rastreo de malos emparejamientos en el genoma).

Sin embargo, lo más frecuente es la situación en que se trata de identificar mutaciones en múltiples sitios potenciales dentro de segmentos de ADN de los que se conoce la secuencia normal.

Se han diseñado técnicas de tipo "multiplex" que permiten la búsqueda de diversos tipos de mutantes en un determinado gen.

De modo ideal, el procedimiento tendría que ser fiable, rápido, barato, y proporcionar información exacta sobre la posición y naturaleza de la mutación, así como requerir poco esfuerzo, ser automatizable y no usar reactivos peligrosos. Ninguno de los métodos actuales cumple este criterio. La secuenciación sería el método definitivo, pero sigue requiriendo mucho trabajo, y los métodos automatizados de alto rendimiento son caros. De todos modos, debido a que hay mucho interés y dinero puesto en el empeño, se puede casi garantizar que veremos importantes avances en breve.

Por ejemplo, se está desarrollando un sistema que no usa electroforesis en gel (una de las fases más tediosas), llamado espectrometría de masas por láser de desorción/ionización asistida por matriz

La división Applied Biosystems de Perkin Elmer ha diseñado un análisis de hasta 32 mutaciones diferentes de un gen por amplificación simultánea de hasta 15 segmentos de ADN, seguida por ligado multiplex de oligonucleótidos específicos de alelos.

La misma empresa ha creado un ensayo de micro-PCR que puede realizar 24 ensayos de 2ml cada uno en un chip, y cuyos resultados se pueden leer en tiempo real por medio de la estrategia de TaqMan.

Otro de los avances más prometedores son los "chips" de oligonucleótidos: ordenaciones de diferentes oligos unidos a soportes semisólidos. AON marcado fluorescentemente puede entonces hibridarse a los oligos del chip, de modo que el patrón de hibridación se puede analizar por scaning de fluorescencia. Como se conoce la secuencia y posición de cada oligo en el chip, se puede determinar la posición y posiblemente la naturaleza de cada mutación.

Este enfoque de microchips con oligos ha sido llevado a un avance importante por la empresa Affimetrix: usando técnicas fotolitográficas similares a las que emplea la fabricación de chips de silicio, se han podido obtener chips con 64.000 diferentes sondas de oligonucleótidos unidos a superficies planas de cristal. En 15 minutos el dispositivo puede detectar la hibridación de secuencias diana marcadas fluorescentemente a oligos del chip.

Otro caso notable de nuevas perspectivas que se pueden abrir con el diagnóstico molecular es el Proyecto de Anatomía Genómica del Cáncer que pretende realizar un catálogo de todos los genes expresados en los distintos tipos de células tumorales. Se trata del último ejemplo de matrimonio entre ciencia genómica e informática, con consecuencias trascendentales en el ámbito clínico. los investigadores quieren determinar cómo cambia la expresión génica conforme progresa el cáncer y comprender cómo surgen los tumores. Se espera que se pueda obtener un índice genético de los tumores, de modo que el clínico no sólo dependa de anatomía patológica convencional (microscopía), sino que el diagnóstico, pronóstico y tratamiento de sus pacientes se pueda asentar en un conocimiento más adecuado a base de la expresión génica y de las proteínas, la idea de que se puedan identificar todos los genes alterados en un cáncer determinado es muy atractiva. Debería realmente suministrar información para clasificar tumores e identificar dianas para la terapia.

"Las tres culturas" de la biología genómica

En la biomedicina de la era genómica y postgenómica se requiere, como se está viendo, un alto grado de interdisciplinariedad e integración entre distintos profesionales. Es lo que Benton (1996) ha llamado -parafraseando a C.P. Snow- el problema de las tres culturas: los biólogos querrán que los informáticos les suministren soluciones a sus problemas de gestión de datos, los matemáticos y expertos en computación andarán detrás de problemas intelectualmente llamativos, y los ingenieros pedirán a los dos grupos anteriores que les suministren especificaciones bien concretadas para que ellos puedan desarrollar su trabajo. Los distintos expertos habrán de acostumbrarse a emplear vocabularios y lenguajes comunes ya entender (sin minusvalorar) los problemas de los demás. En numerosas universidades empiezan a impartirse enseñanzas (de pregrado o postgrado) de bioinformática y biocomputación. En muchos casos se trata de que los estudiantes o profesionales de especialidades tradicionales completen su formación con la parte con la que no están familiarizados.

Por lo que respecta a los biólogos, habrán de trabajar en entornos tremendamente ricos en información, manejarán con soltura las bases de datos, y extraerán conocimiento biológicamente significativo. Los nuevos datos obligarán a elaborar nuevas hipótesis en muchos ámbitos de las ciencias de la vida, que sugerirán nuevos tipos de experimentos, estableciéndose una retroalimentación fructífera entre la biología in silico y la tradicional biología in vtvo e in vitro. Las Ciencias Biológicas darán un salto no sólo cuantitativo, sino que probablemente entraremos en un nuevo paradigma de investigación, en el que contemplaremos los fenómenos vitales no sólo desde un punto de vista molecular, sino de integración entre sus diversos niveles de complejidad.

PROYECTO DE DIVERSIDAD DEL GENOMA HUMANO

Lucca Cavalli-Sforza, un prestigioso genético especializado en estudio de poblaciones humanas, está impulsando la idea de realizar una investigación destinada a comprender la variación genética humana ya reconstruir la historia de las poblaciones humanas en los últimos 100.000 años de nuestra especie. Este Proyecto de Diversidad del Genoma Humano (PDGH) implicaría una diversidad de disciplinas (genética, arqueología, lingüística, antropología, etc.) para dar cuenta de la evolución reciente de la humanidad, reconstruir las grandes migraciones de grupos, la distribución de las poblaciones y culturas, etc. Una de las estrategias consistirá en la toma de muestras de ADN de una serie de poblaciones y etnias, con ulterior estudio comparativo de polimorfismos moleculares. Se pretende estudiar muestras correspondientes al 10% de las 5000 poblaciones lingüísticas diferenciadas que existen, con el objeto de ver si existen correlaciones (y en su caso, cómo se han producido) entre la diseminación cultural y la genética. Según sus impulsores, el PDGH daría una rica visión de la variedad de recursos gen éticos de nuestra especie, y junto con los datos del PGH convencional, facilitaría la comprensión del fundamento genético de la susceptibilidad o resistencia a distintas enfermedades, incluidas las infecciosas, comprender mejor el papel de la selección y el de la deriva gen ética.

Algunos colectivos y medios de comunicación han lanzado acusaciones de "racismo" contra este Proyecto, pero para Cavalli-Sforza nada está más lejos de sus propósitos. De hecho, piensa que con él se va a llamar la atención las reclamaciones de ciertas tribus para que se les ayude a sobrevivir y conservar sus culturas. Ningún genético serio actual (y menos una autoridad en la materia como Cavalli-Sforza) mantiene la idea de que la especie humana esté separada en razas, ni mucho menos que de los datos gen éticos se puedan derivar planes políticos. Un comité ad hoc de la UNESCO está emitiendo informes para que el PDGH se amolde a una serie de criterios éticos y sociales. Los principales temas que se están evaluando son:

  • Consentimiento informado a los individuos y poblaciones implicados. El PDGH contiene, según los miembros del comité de la UNESCO, algunas de las medidas más detalladas y sofisticadas que se hayan propuesto nunca para obtener ese consentimiento informado.
  • Comercialización de los posibles resultados de la investigación: la UNESCO recomienda que este tema forme parte de las cláusulas del consentimiento informado y de acuerdos de cooperación. Es decir, se prevé que parte de los beneficios económicos reviertan en las comunidades indígenas. Sin embargo, este tema de la "prospección genética" (biooprospección) requiere aún mucha discusión para ser clarificado. El tema de las posibles patentes sobre genes útiles que se pudieran encontrar es delicado. La opinión personal de Cavalli- Sforza es que no se permitan, o en todo caso, que sus beneficios reviertan ala población donadora que permitió la identificación del gen.
  • La financiación debería ser pública y de entidades sin ánimo de lucro. No se debe aceptar la financiación de empresas, para evitar todo posible conflicto de intereses.

Eugenesia y racismo. El racismo es una actitud mental, no una consecuencia de ningún dato biológico. Hay que tomar medidas para evitar que nadie saque conclusiones sociales y políticas de meros datos de polimorfismos gen éticos en las poblaciones humanas.

En la oposición contra el PDGH ha influido algún lamentable caso de "bioprospección" (no relacionado con el Proyecto), que ha servido de munición a ciertos grupos ecologistas y de apoyo a tribus. Por ejemplo el RAFI (Fundación Internacional para el Avance de las comunidades Rurales) ha desplegado una campaña para divulgar "los peligros de PDGH", pidiendo que no se lleve a cabo. Los miembros de RAFI llamaron la atención del hecho de la concesión de patente sobre unas células resistentes al virus HTLV-1 derivadas de la tribu Hagahai de Papúa-Nueva Guinea.

Hay empresas farmacéuticas que están realizando "bioprospección" en poblaciones aisladas, las cuales presentan la ventaja de que su menor polimorfismo gen ético puede ayudar a encontrar la explicación sobre base de resistencias o sensibilidades a ciertas enfermedades. Por ejemplo, se está intentado identificar genes de sensibilidad al asma en una pequeña población altamente endogámica de la isla de Tristan da Cunha

Genoma modelos

Como ya apuntábamos anteriormente, habría que hablar más bien de Proyectos Genoma (en plural), ya que en paralelo al estudio del genoma humano están en curso la caracterización y secuenciación de genomas de organismos modelo, cuya comparación entre sí y con el acervo genético humano tendrán dos notables efectos:

Acelerarán notablemente la obtención de importantes datos sobre la organización, función y evolución del ADN a lo largo de toda la escala filogenética. Se espera que la comparación de genomas completos de los tres grandes dominios de la vida (arqueas, bacterias y eucariotas) nos suministrará claves para comprender más de 3000 millones de años de evolución. La biología (que como decía Dobzhanski, no tiene sentido si no es a la luz de la evolucíón) profundizará aún más su interés filogenético.

Ayudarán a determinar la función de numerosos genes (incluyendo humanos). Habrá numerosas aplicaciones médicas.

Servirán para emprender nuevos enfoques dentro de la Biotecnología y la Biología industrial.

Hasta el momento se dispone de la secuencia completa de al menos un representante de cada uno de los tres grandes dominios de seres vivos, y están en marcha o en proyecto unos 30 proyectos. (Para los proyectos de bacterias, véase la web del TIGR).

Eubacterias. Las siguientes eubacterias están totalmente secuenciadas:

Mycoplasma genitalium

0.58

http://www.tigr.org

Mycoplasma pneumoniae

0.82

http://www.zmbh.uniheidelberg.de/M_pneumoniae

Borrelia burgdorferi (+ Plasmidos)

0.91 (+32)

http://www.tigr.org

Aquiles aeolicus

1.55

Helicobacter pylori

1.67

http://www.tigr.org

Haemophilus influenzae

1.83

http://www.tigr.org

Synechocystis

3.57

http://www.kazusa.or.jp/cyano/cyano.html

Bacillus subtilis

4.21

http://www.pasteur.fr/Bio/SubtilList.html

Mycobacterium tuberculosis

4.4

http://www.sanger.ac.uk

Escherichia coli

4.67

http://www.genetics.wisc.edu:80

Arqueas (arqueobacterias): Los genomas concluidos son los de Methanococcus jannaschii y Archaeoglobus fulgidus, ambos obtenidos por el TIGR, y el de M. Thermoautotrophicum. Muy avanzados están los de dos arqueobacterias hipertermofílicas (Pyrobaculum aerophilum, Pyrococcus furiosus).

Mehanococcus jannaschil

1.67

http://www.tigr.org

M Thermoautotrophicum

1.75

http://www.genomecorp.com/htdocs/sequences

Archaeoglobus fulgidus

2.18

http://www.tigr.org

El TIGR de Craig Venter está secuenciando decenas de microorganismos tanto procariotas como eucariotas, muchos de ellos con importancia clínica o industrial (entre las eubacterias: Enterococcus feacalis, Legionella pneumophila, Mycobacterium tuberculosis, Neisseria meningitidis, Salmonella typhimurium, Vibrio cholerae, Deinococcus radiodurans, etc.). El creciente número de secuencias bacterianas facilitará muchos estudios básicos, y por lo que respecta a las patógenas, permitirá aclarar sus mecanismos de patogenicidad y virulencia, 10 que podrá sugerir a su vez nuevos tratamientos.

Hacia el inicio del siglo XXI se estima que dispondremos de las secuencias de más de 100 microorganismos. Como siempre, el problema será cómo vamos a digerir esa información (y quién se va a beneficiar de ella, pero esta es otra historia que tratamos en otro sitio). Aparte de los tradicionales (pero renovados) métodos de biología in silico, siempre hay que volver al laboratorio a comprobar hipótesis experimentalmente y recabar nuevos datos. Para ello se están diseñando nuevas estrategias. Por ejemplo, la llamada GEMS (selección multiplex manilada genómicamente), que consiste en medir simúltáneamente los efectos sobre la supervivencia de una serie de delecciones en fase en muchos genes, y bajo diferentes condiciones ambientales; de esta manera, se puede rastrear el patrón de pérdida o selección de mutantes concretos..

Eucariotas

En 1996 se terminó la secuencia de la levadura de panadería (Saccharomyces cerevisiae), y ahora se va a emprender el de otra levadura muy diferente (Schyzosaccharomyces pombe). El proyecto genoma de levadura, que ha costado unos 30 millones de dólares, ha sido un logro esencialmente europeo, con André Goffeau (Universidad Católica de Lovaina) como coordinador. Se evitó a toda costa la duplicación de esfuerzo, "repartiéndose" los cromosomas o regiones entre países y laboratorios. La Unión Europea secuenció el 55%, el Centro Sanger (UK), 17%, la Universidad Washington en St. Louis, 15%, Universidad de Stanford, 7%, Universidad McGi11 (Canadá), el 4%, y un laboratorio japonés (RIKEN), el 2%.

El genoma del nematodo Caenorhabditis elegans se terminará de secuenciar en 1998, con una intervención esencial del Centro Sanger.

El de la mosca del vinagre (Drosophila melanogaster) está muy avanzado

Dentro de los mamíferos está en curso igualmente la cartografía y secuenciación del genoma del ratón.

Y no hay que olvidar que la biología Vegetal está muy interesada a su vez en descifrar los genomas de especies modelo tanto monocotiledóneas (arroz, maíz) como dicotiledóneas (de estas últimas, el modelo más avanzado es el de Arabidopsis thaliana).

IDENTIFICACION DE LOS GENES ASOCIADOS A FENOTIPOS

Genes de rasgos mendelianos

Clonación funcional

Cuando se tiene información bioquímica sobre un rasgo monogénico, es posible en principio diseñar alguna estrategia para seleccionar el gen correspondiente de la genoteca, lo que se ha llamado clonación funcional. Este es el caso del factor VIII de coagulación.

Clonación posicional

La clonación funcional no siempre es posible. Cuando, como ocurre con la gran mayoría de enfermedades genéticas, se desconoce la base bioquímica del rasgo, hay que recurrir a otras estrategias, a menudo laboriosas. Como ejemplo, la clonación posicional de genes de enfermedades: consiste en ir estrechando el cerco al gen a partir de su localización cromosómica (genética inversa). La clonación posicional era una estrategia ya empleada antes del PGH:

  1. Se parte de una colección de pedigrís en la que se ve la cosegregación del rasgo mutante respecto a múltiples marcadores gen éticos polimórficos. En humanos, lo ideal es que la separación entre marcadores no sea mayor de 1 cM. Luego, por paseo o salto cromosómico, se va uno acercando al gen.
  2. Identificación del gen mediante una serie de técnicas
  • Zoo-blots
  • Islas de CpG sin metilar
  • Selección de ADNc
  • Atrapamiento de exones

Ejemplos de genes aislados por clonación posicional:

  • Fibrosis quístíca
  • Distrofia muscular de Duchenne
  • Neurofibromatosis tipo 1
  • Alzheimer familiar
  • Cloroidemia.

Análisis de genes candidatos

Se han aislado muchos genes por clonación posicional, pero la mayoría de ellos sobre la base de mutaciones de delección, translocación o amplificaciones de trinucleótidos. La clonación posicional a partir de mutaciones puntuales es más ardua, y suele requerir muchos marcadores cercanos al gen y una cartografía fina de desequilibrio de ligamiento. Por ello, se recurre a otra estrategia: enfoque del candidato posicional: se usa información disponible sobre función y posición en el mapa de genes previamente aislados, información que puede proceder de otros proyectos genoma o de ESTs/ADNc.

Por ejemplo, una EST aleatoriamente aislada y homóloga con una glicerol- quinasa de S. subti¡is se cartografió en la región Xp21 humana. Tras obtener un ADNc más largo, se vio ese era el correspondiente al gen en cuestión.

  • Gen de la retinitis pigmentosa.
  • Síndrome de Marfan.
  • Cardiomiopatía hipertrófica familiar
  • Atrofia muscular espinal y bulbar.
  • Síndrome de Waandenburg
  • Esclerosis lateral amiotrófica.

Este tipo de estrategia se hará cada vez más importante conforme avance el PGH. En el futuro, cuando se asigne un nuevo rasgo a una nueva posición específica del mapa, será posible interrogar a las bases de datos genómicas, y obtener para esa porción genómica una lista de los otros genes asignados a esa región. Las características de los genes se compararán entonces con las características del rasgo para encontrar el candidato más verosímil.

En resumidas cuentas, el PGH va a simplificar y abaratar la búsqueda de genes relativos a enfermedades mediante estrategias de clonación posicional.

  • Predicción y análisis de genes mediante bioinformática
  • Conforme avanza el PGH, se hace cada vez más importante la predicción de genes por medio de bioinformática: Algunos métodos:
  • Predicción de genes a partir de secuencias mediante programas como el GRAIL.
  • Búsquedas de similitudes (BLAST, FASTA).
  • Comparación con secuencias de organismos modelo.
  • ESTs.
  • Perfiles de secuencia y modelos de Markov ocultos.

La bioinformática tiene ante sí un formidable reto, dado el diluvio de datos que está cayendo en las bases de datos. Habrá que desarrollar nuevos y potentes algoritmos, y de aplicar buenas estrategias de ingeniería y gestión de la información, capaces de sacar provecho a los datos e integrarlos para darles sentido biológico, según los programas de investigación que cada centro o grupo se plantee.

Estudio de rasgos complejos y cuantitativos

Los rasgos complejos (poligénicos) se pueden clasificar como rasgos discretos (medidos según un resultado específico: diabetes, infarto de miocardio) o como rasgos cuantitativos (medidos por una variable continua). Son estos rasgos los que plantean más problemas a la hora de adscribirlos a los genes correspondientes, pero ya hay varias estrategias para estudiarlos.

Identificación de loci de rasgos cuantitativos (QTls)

Sólo se ha vuelto posible con la llegada de los RFLPs. Las estrategias consisten en cruzar dos razas puras que difieran sustancialmente en un rasgo cuantitativo.

La progenie segregante se analiza tanto para el rasgo como para una serie de marcadores. Se emplea en animales y plantas domésticos.

Análisis de rasgos complejos en humanos

Uno de los mayores retos del PGH será identificar y caracterizar los genes responsables de rasgos complejos, incluyendo las enfermedades poligénicas y multifactoriales. Los rasgos poligénicos son difíciles de estudiar en humanos, y evidentemente no se puede recurrir a estudios de cruces controlados como en los animales y plantas.

Cosegregación en estudios familiares

Se parte de familias con individuos afectados. Los genes de la enfermedad se pueden identificar por cosegregación con marcadores genéticos (p. ej., microsatélites) estrechamente ligados, que mostrarán identidad por descendencia en los individuos afectados. Este enfoque se está volviendo más cómodo y rápido gracias a las técnicas de genotipado rápido basado en fluorescencia, que permiten rastrear el genoma completo en poco tiempo. Mediante este tipo de estrategia se han logrado varios éxitos:

Genes responsables de mayor o menor susceptibilidad a enfermedades infecciosas, como la malaria. Además, ello abre nuevas vías al desarrollo de vacunas.

Genes de susceptibilidad a diabetes tipo 1 y tipo 2: algunos han resultado ser genes del complejo HLA-DR. También la porción 5' del mismo gen de la insulina, y otros genes a caracterizar.

Genes relacionados con susceptibilidad a osteoporosis: polimorfismos en genes de receptores de vitamina D. ¿Una puerta abierta al diagnóstico y prevención de la osteoporosis postmenopáusica?

A principios de 1997 se creó en Baltimore el Centro de Investigación sobre Enfermedades Hereditarias (CIDR), por acuerdo entre los NIH y la Universidad John Hopkins, y que se dedicará especialmente al genotipado de enfermedades complejas (diabetes, enfermedades neuropsiquiátricas, esclerosis múltiples, etc). Este centro está dotado de tecnologías informáticas y biológicas de última generación, y realizará genotipado de entre 2 y 4 millones de marcadores cada año. Pondrá aprueba nuevas tecnologías como genotipado basado en chips de ADN y en espectroscopía de masas.

Métodos de rastreo de genomas

Sería ideal contar con métodos capaces de rastrear genomas completos en busca de secuencias relacionadas con un determinado rasgo complejo. Citemos algunos intentos:

Rastreo genómico de malos emparejamientos (GMS).

Rastreo por rotura enzimática de malos emparejamientos (EMC) con resolvasas de fagos.

LA ERA POSTGENÓMICA: LA PRÓXIMA REVOLUCIÓN DE LA BIOLOGíA

Desde el punto de vista de la práctica de la biología básica, el proyecto genoma está acentuando un par de tendencias que ya se dejaban sentir en los últimos años: por un lado la necesidad de formar nuevos tipos de biólogos capaces de tender puentes entre varias disciplinas, que se muevan con comodidad en un entorno de ordenadores, autopistas de información y gigantescas bases de datos e imágenes; y por otro lado, la reorganización de los laboratorios e institutos de investigación, donde interaccionen especialistas en diversos ámbitos de las Ciencias de la Vida, matemáticos, informáticos, químicos, etc.

No hay que olvidar que lo que entendemos por Proyecto Genoma consiste en principio en la obtención de información estructural más o menos en bruto, pero lo realmente importante empieza después (en realidad, simultáneamente): dar sentido biológico, tanto funcional como evolutivo a tal cúmulo de información, es decir, extraer auténtico conocimiento. La "orgía de datos" que se nos viene encima habrá de ser "digerida" adecuadamente, impulsando nuevos avances a base de sugerir nuevos enfoques, nuevos experimentos, renovadas hipótesis de trabajo, todo ello retroalimentándose en un "circulo virtuoso" que abrirá las puertas de una nueva era en las Ciencias Biológicas. Se habla por ello de una "Era Postgenómica", en la que se irán integrando los conocimientos acumulados en diversos "Atlas" del ser humano y de otros seres vivos, en los que se podrán interrelacionar de modo funcionalmente significativo diversos niveles de comprensión de la materia viva: génico, genómico, regulación, biología celular, fisiología, evolución, etc. El impacto real de todo ello no se puede prever, pero no cabe duda que el PGH sienta las bases de un salto cualitativo y cuantitativo en nuestra visión del mundo vivo.

En la era post-genómica habrá muchas tareas por hacer (véase p. ej. Lander, 1996):

Identificación de las variantes alélicas más comunes de los genes humanos. Se trata de formar una especie de catálogo con las variantes alélicas más frecuentes (denominadas isotipos) de los genes humanos. Se calcula que para encontrarlas bastará re-secuenciar las regiones codificadoras de unos 100 individuos tomados al azar, y ello se podría llevar a cabo rápidamente con la técnica del chip de ADN. Correlacionando esas variantes con la incidencia de enfermedades, se podrá dar un salto adelante para identificar genes de susceptibilidad a numerosas enfermedades (y esto, sin recurrir a los clásicos y complejos estudios con "sagas familiares"). Se abre un campo inmenso a lo que podríamos llamar estudios epidemiológicos a base de genética de poblaciones, con la ayuda de las herramientas genómicas.

Avances en los estudios evolutivos por comparación de genomas completos de diversos organismos. Tendremos a nuestro alcance la comprensión de multitud de aspectos insospechados de los más de 3000 millones de años de evolución. Se aclararán filogenias completas, se estudiarán familias de genes y proteínas, viendo cómo sus miembros varían y adquieren nuevas funciones en distintos linajes; se aclararán mecanismos genéticos evolutivos, etc.

Estudios de "transcriptoma", es decir, entender cómo, cuándo y por qué se activan o se silencian distintos juegos de genes, en función del tipo celular, del tiempo, de los estímulos, etc. La comprensión de los circuitos de regulación según la fase de desarrollo del organismo y el órgano/tejido es uno de los retos de la fase post-genómica en la que ya estamos. Los proyectos genoma de ciertos organismos modelo (levadura, Caenorhabditis, mosca del vinagre, incluso ratón) prevén la obtención de miles de mutantes, de modo que virtualmente se disponga de razas inactivadas para cada gen concreto (razas noqueadas genéticamente, K.O.); de ese modo se podrán comprobar los fenotipos resultantes, a distintos niveles, permitiendo aclarar la función genética. Igualmente se pueden emplear técnicas de disrupción transitoria de la función genética (como los oligonucleótidos antisentido y las ribozimas) para estudiar la expresión de genes no susceptibles de analizar mediante la transgénesis inactivadora en línea germinal.

Un ejemplo de este tipo de estudios está en un trabajo aparecido recientemente (9 de abril de 1998) en "Nature" (vol. 392, pp. 608-611). En él, miembro de la empresa Lexicon Genetics describen la aplicación de un método de mutagénesis en células madre embrionarias (ES) de ratón, que permite obtener miles de mutantes "marcados" con una etiqueta genética, de modo que luego se puede identificar el gen alterado y estudiar su función.

Estudios de "proteoma": seguimiento de la expresión al nivel de traducción y post-traducción en cada tipo celular, y en función de nuevo de la fase de desarrollo y de las señales recibidas por la célula. Uno de los retos es automatizar y hacer más sencilla la técnica de geles bidimensionales, y a ser posible fusionarla con alguna técnica espectroscópica para caracterizar los cientos o miles de proteínas de cada muestra, e incluso las interacciones entre proteínas.

Un atisbo de lo que puede ser esta era post-genómica del PGH la tenemos ya con la levadura, una vez finalizada la secuenciación de su genoma:

Tras la finalización del proyecto genoma de levadura

Generación de mutantes de delección específicos: Es perfectamente factible emprender la delección sistemática de todos y cada uno de los 6000 genes. Para ello se ha diseñado una de disrupción génica dirigida por PCR y que aprovecha la eficiencia y precisión del sistema de recombinación mitótica del organismo. El método permite la sustitución de cualquier gen de la levadura, incluyendo las razas industriales. Se pretende obtener una biblioteca de 6000 razas de delección, una por cada ORF o gen, y en la que cada cepa estará marcada con un ologonucleótido, a modo de código de barras molecular identificador.

Análisis fenotípico cuantitativo: análisis de control metabólico (MCA) de arriba a abajo

El transcriptoma El transcriptoma es el conjunto de genes expresados, junto con su nivel de transcripción, bajo un conjunto dado de condiciones. Se están poniendo a prueba varias estrategias:

Un enfoque que se está ensayando es el análisis en serie de la expresión génica (SAGE). Se trataría de determinar las condiciones fisiológicas y fases de desarrollo en las que genes y grupos de genes concretos se expresan, y de relacionar estos patrones de expresión con los de los genes cuyas funciones se conocen bien.

Otros enfoques distintos son el despliegue diferencial (differential display) y las tecnologías de hibridación en formación ordenada (hybridation-array). Esta ofrece buenas esperanzas de lograr un análisis a gran escala con buenos rendimientos. Recuérdese lo dicho sobre los microchips de oligonucleótidos.

Lo que es cierto es que el análisis clásico tipo Northern no sirve para esto. Se espera que incluso termine recurriéndose al uso de paneles solapados de oligonucleótidose en hibridación en formación para la correlación entre transcritos individuales y las ORF correspondientes.

También aquí será importante agrupar los genes en unidades funcionalmente relacionadas, que es de esperar contengan genes de función ya conocida.

El proteoma Se trata del conjunto de proteínas que se encuentran en una célula bajo unas condiciones determinadas. El proteoma de levadura se está estudiando mediante electroforesis bidimensional, usando espectrografía de masas para identificar las proteínas contenidas en las manchas del gel. Será importante caracterizar proteínas de complejos proteicos, que suministrarían un importante correlato bioquímico de los datos in vivo.

Análisis funcionales de todo el genoma, recurriendo a novedosas tecnologías genéticas y bioinformáticas, incluyendo los chips de ADN.

En general, los análisis genómicos globales funcionales suministran una clasificación funcional más que una comprensión detallada de cada gen. Para esto último habrá que volver a los estudios de corte más clásico, sobre genes o grupos de genes.

Como dice Fred Sherman, uno de los líderes del Proyecto genoma de Levadura, tener la secuencia del genoma no es muy diferente a tener uno de los grandes catálogos de productos bioquímicos comerciales que tanto usan los biotecnólogos. Cada laboratorio dispone de ese catálago, pero cada uno usa un conjunto limitado de sus recursos, en función del tipo de investigación y del problema biológico que quiera abordar. Disponer del atlas del genoma y de las herramientas de estudio de rasgos complejos impulsará la biología del siglo XXI de un modo que no podemos sospechar aún.

Avances en la medicina

El PGH influirá poderosamente en la Biomedicina de los próximos lustros: permitirá avanzar en el conocimiento de la base de muchas enfermedades (Medicina Molecular), y abrirá perspectivas nuevas en el diagnótico, pronóstico y tratamiento, aunque esto último, necesitado de mucha investigación de tipo post- genómico, vendrá con más retraso.

Comprensión de la base molecular de las enfermedades

Uso de los modelos de ratones transgénicos

Los ratones se pueden manipular en línea germinal e inactivar de modo dirigido genes. De esta forma se han logrado modelos de numerosas enfermedades humanas, sobre todo las que afectan al sistema inmune y al desarrollo embrionario. Actualmente existen unas 1000 razas de ratones K.O. (noqueados), y obtener cada una de ellas cuesta una media de $ 100.000 y unos 10 meses de desarrollo.

En 1997 el Instituto Merck de Investigación Genómica anució que iba a financiar con $ 8 millones a la empresa Lexicon Genetics para crear 150 nuevas razas de ratones K.O. usando una nueva tecnología desarrollada por esa compañía. La Merck pretende que las razas de ratón creadas en el proyecto queden disponibles para los investigadores aun precio nominal. La estrategia de Lexicon consiste en insertar un pequeño trozo de ADN aleatoriamente en células madre embrionarias. El ADN insertado inactiva la función del gen donde se inserta, y junto con algunas secuencias adyacentes transcribibles del ratón, suministra un sitio-etiqueta único. Luego se recupera esa etiqueta, de modo que se puede averiguar la identidad del gen inactivado.

Durante los próximos 3 años, Lexicon pondrá a trabajar robots de alto rendimiento para generar unos 500.000 clones mutantes de células madre embrionarias de ratón, cantidad suficiente para que cada gen quede marcado e inactivado una media de 5 veces. Las células clonadas se guardan en nitrógeno líquido. Para final de este año se espera disponer ya de 50.000 clones. Cualquier investigador con un gen clonado o secuenciado podrá consultar la base de datos OmniBank para localizar los clones que lleven una inserción inactivadora en el gen en que trabajan. Las células de ese clon o clones se descongelan y se usan para crear el correspondiente ratón transgénco K.O., del .- que se estudiará el fenotipo a nivel anatomo-histológico, fisiológico, etc. (Volvemos a remitir al lector al artículo publicado en "Nature" (vol 392: 608-611 [1998])con un ejemplo de cómo esta empresa está aplicando este método prometedor.

CONCLUSION

Desde el momento que se decidió introducir fragmentos de (ADN) en el Genoma de un individuo que de un modo arrojo saldos positivos para los investigadores y su función en vivo.

El interés y preocupación de los investigadores empezó a aumentar y transcender hacia otros sectores de la sociedad en el decenio de 1980, al tener conciencia de la viabilidad y factibilidad de modificar genéticamente las células.

Entendiendo la importancia del Genoma Humano debemos tomar en cuenta de cual pueden ser sus consecuencias en el ámbito social, éticas, jurídicas, etc.

Los primeros resultados ya han estimulado un debate sobre si conviene o no patentar para uso comercial, las secuencias de Genes Humanos y de poner la información sobre Genética Humana a disposición, así como corregir defectos Genéticos de forma que podría transmitirse de generación en generación, pero hay que destacar la relevancia que tiene el proyecto Genoma Humano en cuanto a que traería conocimientos y abriría nuevas puertas ala ciencia del mañana, pero será necesario delimitar los procesos de estudio según el derecho ala dignidad humana.

En fin podemos decir que la realización de la investigación del Genoma Humano, permite asumir muchas consideraciones, entre las cuales podemos nombrar a manera de conclusión:

_Las investigaciones acerca del Genoma suponen un aporte importante en torno al, futuro genético del hombre.

_El aporte de las deducciones realizadas a partir del estudio de la cadena de ADN permitirán mejorar la calidad de vida del hombre desde la perspectiva de la salud.

_Los estudios acerca del Genoma suponen una relación de carácter científico tecnológico.

_Los estudios en tomo al Genoma supondrán la curación de enfermedades que han estado afectando al hombre( cáncer, HIV) así como herejías genéticas.

_Permitirá mejorar la estructura física del hombre.

_Permitirá la escogencia de nuevos elementos y perfiles para el hombre del futuro.

BIBLIOGRAFIA

-Enciclopedia Encarta 98

-Trabajo practico de Genoma, de Juan Andrés Toselli en wwwv.monografias.com

-Declaraciones de la asociación medica Mundial sobre el proyecto Genoma Humano, en www.uma.net/s/policy/17-5-1_5.html.

-Aplicaciones de la Ingeniería Genética en www.geocitees.com/genetica 2000.

-El Genoma Humano del Dr. Francisco Lenadro Loicano en www.alfinal.com

-Biología I. Editorial Santillana

-Química II. Editorial Santillana.

-Diario la nación en www.lanacion.com.ar , Febrero-Agosto 2002

-Clarín Digital en www.clarin.com .ar , Febrero-Agosto 2002

ANEXOS

 

 

 

Realizado por:

Maria A. Alcalá O.

Rondón, Marvelis.

Urbano, Yamilka

PTO. LA CRUZ,


Comentarios


Trabajos relacionados

Ver mas trabajos de Biologia

 

Nota al lector: es posible que esta página no contenga todos los componentes del trabajo original (pies de página, avanzadas formulas matemáticas, esquemas o tablas complejas, etc.). Recuerde que para ver el trabajo en su versión original completa, puede descargarlo desde el menú superior.


Todos los documentos disponibles en este sitio expresan los puntos de vista de sus respectivos autores y no de Monografias.com. El objetivo de Monografias.com es poner el conocimiento a disposición de toda su comunidad. Queda bajo la responsabilidad de cada lector el eventual uso que se le de a esta información. Asimismo, es obligatoria la cita del autor del contenido y de Monografias.com como fuentes de información.

Iniciar sesión

Ingrese el e-mail y contraseña con el que está registrado en Monografias.com

   
 

Regístrese gratis

¿Olvidó su contraseña?

Ayuda