Monografias.com > Biología
Descargar Imprimir Comentar Ver trabajos relacionados

Genoma humano




Enviado por yamilkilla22



    1. Objetivos
    2. Desarrollo
    3. Justificación del
      proyecto
    4. Secuenciación
    5. Proyecto de diversidad del genoma
      humano
    6. Identificación de los
      genes asociados a fenotipos
    7. La era postgenómica: la
      próxima revolución de la
      biología
    8. Conclusión
    9. Bibliografía
    10. Anexos

    OBJETIVO GENERAL

    Dar a conocer el Genoma Humano como el descubrimiento
    más importante para la humanidad.

    OBJETIVOS ESPECIFICOS

    1) Conocer y dar a conocer los avances en medicina que los
    experimentos
    de los genomas consigue día a día.

    2) Encontrar la respuesta a porque el Genoma nos
    ayudaría a explicar muchas enfermedades.

    3) Conocer la forma en la cual los experimentos del
    Genoma Humano encontraría las soluciones y
    curas a los diferentes males que acechan nuestra
    humanidad.

    4) Conocer como ha sido la evolución del Genoma Humano a lo largo del
    tiempo hasta
    el día de hoy.

    INTRODUCCIÓN

    ORIGEN Y JUSTIFICACIÓN DEL
    PROYECTO

    El PGH es el primer gran esfuerzo coordinado
    internacionalmente en la historia de la Biología. Se propone
    determinar la secuencia completa (más de 3000
    .106 pares de bases) del genoma humano, localizando
    con exactitud (cartografía) los 100.000 genes
    aproximadamente y el resto del material hereditario de nuestra
    especie, responsables de las instrucciones gen éticas de
    lo que somos desde el punto de vista biológico. Realmente,
    lo que llamamos Proyecto Genoma
    es el término genérico con el que designamos una
    serie de diversas iniciativas para conocer al máximo
    detalle los genomas no sólo de humanos, sino de una serie
    de organismos modelo de
    todos los dominios de la vida, todo lo cual se espera que
    dé un impulso formidable en el
    conocimiento de los procesos
    biológicos (desde la escala molecular
    hasta la evolutiva) y de la fisiología y patología de los seres
    humanos, y que se traducirá en multitud de aplicaciones
    técnicas y comerciales en ámbitos
    como el diagnóstico y terapia de enfermedades,
    biotecnologías, instrumental, computación, robótica,
    etc.

    Hacia mediados de la década de los años 80
    la metodología del ADN recombinante
    y sus técnicas asociadas (vectores de
    clonación, enzimas de
    restricción, transformación artificial de células
    procariotas y eucariotas, bibliotecas de
    genes, sondas moleculares, secuenciación, genética
    inversa, PCR, etc.) habían alcanzado una madurez
    suficiente como para que se planteara la pertinencia y viabilidad
    de un proyecto coordinado de caracterización detallada
    (hasta nivel de secuencia de nucleótidos) del genoma
    humano y de genomas de una serie de organismos modelo.

    ¿Por qué cartografiar y secuenciar
    genomas?

    La biología pretende dar respuestas lo más
    completas y detalladas posibles de los fenómenos vitales.
    Al ser el ADN la molécula universal de la herencia, y
    constituir la base gen ética de
    la vida, la tendencia natural ha sido terminar buscando
    explicaciones al nivel de ADN. Este conocimiento
    molecular puede dar la clave de muchos fenómenos que hoy
    entendemos a niveles menos profundos ya descritos por otras
    ciencias
    biológicas (fisiología, biología celular,
    bioquímica, etc.).

    Ha llegado un momento en que se plantea que abordar el
    estudio detallado de los genomas de los organismos es mucho menos
    costoso, y más interesante intelectualmente, logrando el
    conocimiento detallado de la secuencia. Pero los Proyectos Genoma
    no son más que un punto de arranque para nuevos
    descubrimientos en las ciencias biomédicas. Con los
    datos de
    secuencias habrá que trabajar para dar respuestas a
    cuestiones de expresión de genes, de regulación gen
    ética, de interacción de las células con sus
    entornos, etc.

    La secuenciación de genomas de plantas y
    animales
    domésticos conducirá a nuevos avances en la mejora
    agronómica y ganadera.

    Para comprender la evolución será cada vez
    más esencial el disponer de datos de secuencias. La
    bioinformática permite comparar genes y genomas completos,
    lo que junto con otros datos biológicos y
    paleontológicos, está dando nuevas claves de la
    evolución de la vida.

    La principal justificación del PGH de cara a la
    sociedad es la
    promesa de avances importantes en Medicina. Aunque el estudio de
    las enfermedades en humanos se ha venido haciendo
    mayoritariamente en ausencia de su comprensión gen
    ética, la disponibilidad de técnicas poderosas
    anima a emprender la secuenciación sistemática, lo
    que suministrará un formidable impulso sobre todo para las
    enfermedades poligénicas y multifactoriales. Una de las
    consecuencias más inmediatas del PGH (y que ya
    experimentamos desde hace unos años) es la de disponer de
    sondas y marcadores moleculares para el diagnóstico de
    enfermedades gen éticas, de cáncer y de
    enfermedades infecciosas. A plazos mayores. se espera que a su
    vez la investigación genómica permita
    diseñar nuevas generaciones de fármacos, que sean
    más específicos y que tiendan a tratar las causas y
    no sólo los síntomas. La terapia gen ética,
    aunque aún en sus balbucientes inicios, puede aportar
    soluciones a enfermedades, no sólo hereditarias, sino
    cáncer y enfermedades infecciosas.

    Uno de los principales objetivos es
    desarrollar a corto plazo tecnologías de vanguardia. Es
    decir, una de las principales justificaciones del PGH es la
    necesidad de impulsar poderosas infraestructuras
    tecnológicas que deben de proporcionar a las instituciones,
    empresas y
    países implicados un lugar de privilegio en la
    investigación biomédica y en multitud de
    aplicaciones industriales (diagnósticos, terapias,
    instrumental de laboratorio,
    robótica, hardware, software, etc.).

    Origen del Proyecto Genoma

    Aunque antes de los años 80 ya se había
    realizado la secuenciación de genes sueltos de muchos
    organismos, así como de "genomas" de entidades
    subcelulares (algunos virus y
    plásmidos), y aunque "flotaba" en el entorno de algunos
    grupos de
    investigación la idea de comprender los genomas de algunos
    microorganismos, la concreción institucional del PGH
    comenzó en los EEUU en 1986 cuando el Ministerio de
    Energía (DOE), en un congreso en Santa Fe (NM)
    planteó dedicar una buena partida presupuestaria a
    secuenciar el genoma humano, como medio para afrontar
    sistemáticamente la evaluación
    del efecto de las radiaciones sobre el material hereditario. El
    año siguiente, tras un congreso de biólogos en el
    Laboratorio de Cold Spring Harbor, se unió a la idea el
    Instituto Nacional de la Salud (NIH), otro organismo
    público con más experiencia en biología
    (pero no tanta como el DOE en la coordinación de grandes proyectos de
    investigación). El posterior debate
    público tuvo la habilidad de captar la imaginación
    de los responsables políticos, y ofrecer el atractivo de
    que no sólo el PGH era el gran emblema
    tecnocientífico de finales de siglo (como lo había
    sido el Proyecto Apolo en los años 60), sino que uno de
    sus fines explícitos era desarrollar tecnologías de
    vanguardia y conocimiento directamente aplicable (no sólo
    en el campo de la biotecnología) que asegurarían la
    primacía tecnológica y comercial del país en
    el siglo XXI. En 1988 se publicaron informes de la
    Oficina de
    Evaluación Tecnológica del Congreso (OTA) y del
    Consejo Nacional de Investigación (NRC), que supusieron
    espaldarazos esenciales para dar luz verde a la
    Iniciativa. Ese mismo año se establece la
    Organización del Genoma Humano (HUGO), como entidad
    destinada a la coordinación internacional, a evitar
    duplicaciones de esfuerzos, ya diseminar el conocimiento. El
    comienzo oficioso del PGH corresponde a 1990, y se calcula que
    terminará el 2005. Sus objetivos eran elaborar en una
    primera etapa mapas gen
    éticos y físicos con suficiente resolución,
    mientras se ponían a punto técnicas más
    eficientes de secuenciación, de modo que en la fase final
    se pudiera abordar la secuenciación de todo el genoma
    humano. Entre los objetivos se cuentan igualmente la
    caracterización y secuenciación de organismos
    modelo, y la creación de infraestructura
    tecnológica, entre la que destacan nuevas herramientas
    de hardware y software destinadas a automatizar tareas, a
    procesar la enorme cantidad de datos que se esperan, ya extraer
    la máxima información biológica y
    médicamente significativa.

    Aunque en un principio se calculó que el PGH
    .americano costaría unos 3000 millones de dólares y
    duraría 15 años, tanto el coste como los plazos han
    tenido que ser estimados a la baja, debido a innovaciones
    tecnológicas que abaratan y acortan la
    investigación. Los fondos federales estadounidenses
    dedicados hasta ahora (1998) al PGH ascienden a 1.9 mil millones
    de dólares (casi 300.000 millones de pesetas).

    En 1993 los fondos públicos para el PGH fueron
    170 millones de dólares, mientras que la industria
    gastó 80 millones. Conforme pasa el tiempo, la inversión privada se está haciendo
    más importante, e incluso amenaza con adelantarse a los
    proyectos financiados con fondos públicos. Recientemente
    (mayo de 1998), la empresa TIGR
    anunció la creación de un proyecto conjunto con
    Perkin-Elmer (fabricante de secuenciadores automáticos)
    que podría conducir a terminar por su cuenta la secuencia
    humana aun coste equivalente a la décima parte del
    proyecto público y con unos plazos más
    breves.

    Para hacerse una idea de las ventajas del PGH con
    relación a otros ámbitos tradicionales de
    investigación médica, se pueden dar algunas
    cifras:

    El aislamiento por clonación posicional del gen
    de la fibrosis quística costó $ 30 millones. Se
    calcula que, de haber tenido un buen mapa como los actuales,
    hubiera costado solamente $ 200.000.

    El desarrollar un nuevo medicamento cuesta como
    mínimo 50 millones de dólares.

    El gasto sanitario total estadounidense es de 600 mil
    millones de dólares.

    EI NIH está gastando un 2-3% de su presupuesto al
    PGH.

    DESARROLLO

    Introducción a los Proyectos
    Genoma

    Lo que a finales de 1989 era un proyecto que algunos
    tachaban de loco, por lo caro, superfluo y utópico que
    parecía, es ahora una realidad deseada y aceptada por
    todos, que se terminará probablemente antes de lo esperado
    (2005) y que costará mucho menos de lo previsto. Veamos
    algunos hitos en el avance del PGH:

    En 1987 se construyeron mapas genéticos de
    ligamiento usando polimorfismos de tipo RFLP, con una
    resolución aún baja: 10-15 cM.

    El primer mapa genético de ligamiento del
    Génethon (1992), que ya recurrió a
    microsatélites, supuso una revolución
    inmediata en el análisis de ligamiento de las enfermedades
    con base genética. Su resolución media ya era de 5
    cM.

    La tercera versión del Génethon se
    publicó en 1996, y ya contenía unos 5000 marcadores
    microsatélites, separados los consecutivos una media de
    0.7 cM (aprox. 700 kb), lo cual ya supera el nivel de detalle
    especificado en uno de los objetivos para el primer lustro del
    PGH.

    En los últimos años se ha avanzado
    más en los mapas físicos. En septiembre de 1995
    Nature publicó un Directorio del Genoma Humano que
    incluía un mapa de contigs de YACs que cubría 75%
    del genoma. Hudson et al publicaron un mapa físico
    preliminar del 94% del genoma, abarcado por unos 15.000
    marcadores.

    Un problema con los YACs es su elevado quimerismo. por
    lo que hay que complementar los mapas de contigs. Es lo que hizo
    el Whitehead Institute a finales de 1995, con la
    publicación en Science del mapa basado en STS que
    incorpora datos de híbridos de radiación
    (RH).

    El PGH pretendía balizar el genoma humano con
    unas 30.000 STSs repartidas de modo más o menos uniforme,
    de modo que cada par de STSs contiguas están separadas por
    una medía de 100.000 pb. Este objetivo acaba
    de cumplirse, y señala el punto de partida para la fase
    final del Proyecto, ya que a partir de aquí la
    secuenciación queda expedita de forma ordenada y
    significativa, y los datos pueden ser correlacionados con el mapa
    genético.

    Una consecuencia casi inmediata de estos avances en
    cartografía es que la localización, aislamiento
    (por la llamada clonación del candidato posicional) y
    caracterización de genes concretos relacionados con
    enfermedades se acelera y simplifica, haciendo que el coste
    presupuestario se abarate notablemente en comparación con
    los esfuerzos tradicionales en que cada laboratorio luchaba por
    separado durante largos años para lograr clonar
    algún gen de interés.

    Una vez completadas las dos primeras fases del PGH
    (mapas físicos y gen éticos de suficiente
    resolución), el presente año de 1997 va a marcar el
    asentamiento de la fase clave del PGH, ya que la madurez de los
    mapas obtenidos hasta ahora y los avances y bajos costes en las
    tecnologías de secuenciación y procesamiento de
    datos suponen que se pueda dar luz verde a la
    obtención masiva de secuencias de forma sistemática
    y organizada. Las secuencias van siendo puestas de modo
    prácticamente inmediato a disposición de la
    comunidad
    investigadora por medio de varias bases de datos
    entrelazadas dentro de Internet. Se espera que la
    secuencia virtualmente completa del genoma humano, está
    disponible antes del 2005 (se habla del año
    2002).

    El ritmo de acumulación de secuencias de ADN
    es vertiginoso, y ya se dobla cada pocos meses. Actualmente se
    estima que ya se ha secuenciado casi un 2% de genoma humano, pero
    este dato no debe engañar: con las técnicas y
    ritmos actuales, en los próximos años se
    obtendrá una tasa de 500 Mb por año.

    Los costes de secuenciación siguen bajando. En
    algunos laboratorios cada par de bases de secuencia definitiva
    está en 30 centavos de dólar; y se espera que
    pronto baje a 10 centavos.

    Ahora. el reto de la fase final del PGH es obtener
    secuencias del modo más rápido. barato y preciso.
    Para ello, se están diseñando métodos de
    alto rendimiento, lo más automatizados
    posibles.

    JUSTIFICACIÓN DEL PROYECTO

    Tras las propuestas iniciales, que partieron del
    ministerio de energía de los EEUU (DOE), al que enseguida
    siguieron los Institutos Nacionales de la Salud (NIH),
    quedó claro que este magno proyecto no podía
    consistir en la secuenciación pura y dura, sino que
    habría de constar de varias etapas encadenadas, comenzando
    por la elaboración de mapas gen éticos y
    físicos de resolución cada vez mayor.
    Además, la secuenciación habría de centrarse
    en principio en las zonas de ADN más interesantes a
    priori, como las regiones génicas codificadoras, dejando
    para una etapa ulterior el análisis del enorme contenido
    de ADN repetitivo de distintas clases que existe en el genoma.
    Simultáneamente había que ir desarrollando toda una
    infraestructura de técnicas instrumentales y de
    análisis de la información generada (programas
    informáticos potentes para gestionar las secuencias y
    extraer sentido biológico de ellas, nuevos algoritmos,
    redes de
    ordenadores interconectados, bases de datos entrelazados,
    etc.).

    Cartografías genómicas

    El PGH hace uso de dos tipos de cartografía para
    caracterizar el genoma, aunque en última instancia los
    mapas emanados de los distintos métodos han de ser
    correlacionados e integrados: cartografía genética
    de ligamiento, y cartografía física.

    Cartografía genética de
    ligamiento

    La cartografía genética se basa en el
    cálculo
    de la frecuencia a la que se coheredan formas alternativas
    (alelos) de dos loci genéticos que están ligados
    formando parte de un mismo cromosoma. Hasta el advenimiento de
    las técnicas moleculares, los mapas genéticos de
    ligamiento en humanos eran bastante rudimentarios, ya que en su
    elaboración no puede intervenir (por obvios motivos
    éticos) la experimentación de laboratorio que se
    usa en animales, y porque los datos habían de basarse casi
    exclusivamente en la comparación de fenotipos normales y
    los mutantes correspondientes a determinadas enfermedades
    genéticas, y en el recurso a análisis de familias,
    a ser posible con registros de
    varias generaciones y con gran número de
    individuos.

    La revolución de la cartografía
    genética de ligamiento sobrevino cuando a finales de los
    años 70 se recurre al análisis molecular de zonas
    de ADN no codificadoras y que son muy polimórficas:
    existen varios tipos de secuencias (algunas de ellas de naturaleza
    repetitiva, como los VNTR, los microsatélites, etc.),
    dispersos por el genoma, cada uno de ellos con varios alelos en
    el ámbito poblacional. Entre las ventajas de los
    microsatélites se cuentan: contenido informativo muy alto,
    con lo que los análisis estadísticos mejoran en
    fiabilidad; distribución abundante y relativamente
    uniforme por todo el genoma; y que se pueden ensayar
    fácilmente mediante PCR. Además, estos loci
    genéticos sirven en genética clínica como
    marcadores útiles para localizar genes relacionados con
    enfermedades. Los polimorfismos moleculares han permitido que en
    la actualidad el PGH haya generado detallados mapas gen
    éticos del genoma humano aun nivel de resolución en
    torno a 1
    centimorgan (cM) o incluso menos. Esto ya se logró en
    1994, un año antes de lo previsto, y en buena parte con
    resoluciones mejores (0.7 cM).

    Cartografía física e integración de los mapas

    Los mapas físicos tienen como objetivo
    especificar distancias físicas mensurables en pares de
    bases (pb) o alguno de sus múltiplos. Obviamente, el mapa
    físico de mayor detalle es la propia secuencia del genoma.
    Pero antes de llegar a obtenerla, hay que elaborar mapas
    físicos partiendo de resoluciones bajas y avanzando hacia
    las resoluciones cada vez mayores. En cierta manera, los mapas
    físicos de menor resolución son los propios
    cariotipos: la visualización microscópica de la
    dotación cromosómica haploide humana teñida
    con colorante de Giemsa nos muestra un
    patrón alternante de bandas claras y oscuras, en el que
    cada banda tiene una media de unos 7 millones de pares de bases.
    Si bien los métodos citogenéticos tienen sus
    limitaciones, no hay que olvidar que actualmente existen
    novedosas herramientas de citogenética molecular (como las
    sondas fluorescentes in situ o FISH, la "pintura de
    cromosomas",
    etc.) que permiten un mayor detalle y que, unidas a otras
    técnicas aumentan el arsenal de enfoques para el estudio
    de los genomas, de su dinámica y de sus alteraciones.

    Los mapas físicos de mayor resolución se
    suelen elaborar a partir de genotecas (bibliotecas de genes) en
    las que el genoma a estudiar se encuentra fragmentado en multitud
    de trozos aleatorios y desordenados, cada uno de ellos clonado
    por separado en un vector adecuado: plásmido,
    cósmido, cromosomas artificiales de levadura (YAC),
    cromosomas artificiales de bacteria (BAC), etc.. La idea para
    elaborar los mapas físicos es en cierto modo similar a la
    de ensamblar un rompecabezas: consiste en ordenar los fragmentos
    del genoma a base de buscar grupos de fragmentos que tienen
    alguna zona en común, es decir, ir hallando conjuntos de
    pares de fragmentos parcialmente solapados. Ello conduce al
    concepto de
    contig: un contig (o cóntigo, como algún
    autor español ha
    traducido) es un conjunto de fragmentos de un genoma que se han
    clonado por separado, pero que son contiguos y que están
    parcialmente solapados. Los actuales mapas físicos han de
    recurrir pues al ensamblaje de esos fragmentos dentro de un
    contig, y ulteriormente, los distintos contigs correspondientes
    al mismo grupo de
    ligamiento han de ser ensamblados entre sí: el objetivo
    final (ideal) sería obtener un gran contig por cada
    cromosoma, que describiera detalladamente la posición y
    distancia física (en bases) de y entre distintos
    marcadores (representados, p. ej. , por dianas para enzimas de
    restricción).

    La cartografía de contigs se puede realizar
    buscando la "huella dactilar" común a distintos clones de
    una genoteca de ADN humano. Dicha huella puede consistir en un
    patrón compartido de dianas de enzimas de
    restricción (que se puede indagar ayudándose de
    algoritmos y programas computacionales adecuados). Las estrategias
    más recientes hacen uso de ADN humano en forma de unos
    20.000 trozos independientes clonados en los llamados cromosomas
    artificiales de levadura (YAC, de sus iniciales inglesas), y
    buscando la "huella dactilar común" entre clones a base de
    la detección de determinadas secuencias repetitivas. Todo
    el procedimiento
    está altamente automatizado, como en el famoso laboratorio
    francés del Génethon, provisto de varios robots
    especializados en procesar y analizar las muestras.

    El último gran hito en cuanto a
    metodología de mapas físicos ha sido el desarrollo de
    una especie de "marcadores físicos universales",
    fácilmente generables, que permiten que los datos
    obtenidos en un laboratorio sean rápidamente compartidos y
    asumidos por toda la comunidad investigadora: se trata de los
    llamados "lugares etiquetados por su secuencia" (STS en inglés). Consisten en trechos cortos de ADN
    (de entre 100 y 1000 pb) cuya secuencia exacta se conoce y se
    sabe que es única en todo el genoma. Su facilidad de uso y
    su aceptación como "lenguaje
    común" estriba en que una vez que un investigador descubre
    una STS, cualquier otro puede obtenerla por sí mismo (ni
    siquiera hace falta el envío físico de muestras),
    simplemente fabricando in vitro los cebadores
    correspondientes a sus extremos y amplificando la STS por
    reacción en cadena de la polimerasa (PCR). Los STS definen
    puntos concretos únicos del mapa físico, y
    constituyen magníficos "mojones" o balizas
    fácilmente detectables.

    Uno de los objetivos iniciales del PGH era la
    obtención de mapas físicos con unas 30.000 balizas
    repartidas de modo más o menos uniforme, de modo que cada
    dos marcadores consecutivos estén separados una media de
    100 kb. Este objetivo se acaba de cumplir, en buena parte debido
    al empleo de los
    STS, que permiten elaborar mapas de contigs según el
    contenido de STS de los clones solapados. Estos mapas de STS
    permiten la integración de los mapas gen éticos y
    físicos, hacen accesible la fase de secuenciación y
    facilitan la
    clonación de genes implicados en enfermedades mediante
    la llamada estrategia del
    candidato posicional.

    Una vez que se construyen los mapas, hay que refinarlos
    y purgarlos de posibles errores. Los errores suelen tener dos
    fuentes
    principales: algunos clones YACs son en realidad híbridos
    o quimeras producidas por artefactos durante el proceso de
    elaboración de la genoteca, y por lo tanto su mapa no
    refleja el orden genómico auténtico; y por otro
    lado, los programas de ensamblado de los mapas no son fiables al
    100%. De ahí la importancia de confirmar normalizar los
    datos mediante estrategias aceptadas por todos los
    investigadores.

    Dentro del PGH se está abordando un enfoque
    paralelo y complementario consistente en secuenciar los
    denominados EST (lugares etiquetados expresables). Se parte de
    muestras de ARN mensajero aisladas de los distintos tipos de
    células y tejidos del
    cuerpo humano,
    se realiza por transcripción inversa (con
    reversotranscriptasa) copias de ADN, y se procede a su
    secuenciación. Ello rinde versiones no genómicas,
    desprovistas de las porciones intrónicas, de los distintos
    genes que se expresan en los diferentes tejidos. Los datos
    obtenidos se integran en "mapas funcionales" que muestran el
    patrón de expresión diferencial según su
    localización anatomo-histológica.

    SECUENCIACIÓN

    Métodos básicos de
    secuenciación

    • Método químico de Maxam y Gilbert
      (actualmente poco usado).
    • Método enzimático de Sanger
      (terminación de cadena, o de los
      didesoxinucleótidos, ddNTP)
    • Secuenciación automática según
      el método
      de Sanger

    Cada ddNTP se marca con un
    colorante fluorescente diferente. Ello permite hacer la
    electroforesis en el mismo callejón del gel. Las bandas de
    ADN son detectadas por su fluorescencia según pasan
    delante del detector. Si el detector lo hacemos mover en
    horizontal, podrá leer varias secuenciaciones al mismo
    tiempo. Los datos pasan aun sistema
    computerizado.

    Nuevos métodos de
    secuenciación

    Microscopías de efecto túnel (STM) y de
    fuerza
    atómica (AFM)

    Microscopía de barrido (scanning) de
    efecto túnel (STM). Una fina sonda se mantiene muy cerca
    del objeto (en este caso ADN), por medio de un sistema de
    control basado
    en la detección de una minúscula corriente inducida
    por el efecto túnel entre la punta de la sonda y el ADN.
    Una técnica muy parecida es la microscopía de
    fuerza atómica (AFM), en la que el control se debe a la
    medida de las fuerzas de van der Waals entre la sonda y la
    muestra. En cualquiera de los dos casos, la punta se mueve a lo
    largo del objeto, de modo que sus desplazamientos en vertical se
    miden y se registran, generando una imagen de la
    superficie del objeto. Aunque se han obtenido imágenes
    del esqueleto azúcar-fosfato de ADN de cadena sencilla y
    de cadena doble, está por ver si se pueden "ver" las bases
    nitrogenadas. Si es así, la técnica podría
    secuenciar del orden de 1 Mb cada día.

    Secuenciación por hibridación: chip de
    hibridación

    Secuenciación por hibridación en chips con
    oligonucleótidos. Se basa en sintetizar distintas sondas
    de oligonucleótidos, y unirlas en disposiciones ordenadas
    (arrays) a una fina pastilla de nylon o vidrio. Este chip
    se prueba frente aun ADN marcado fiuorescentemente, de modo que
    el patrón y cantidad de fluorescencia suministra
    información sobre la secuencia del ADN en cuestión.
    La última generación de este enfoque es la
    combinación de técnicas folitográficas (como
    la de los chips de silicio para computadores) con síntesis
    química en
    fase sólida, que logra chips con ordenaciones de decenas e
    incluso centenares de miles de oligos distintos, que pueden
    usarse para identificar secuencias marcadas fluorescentemente en
    cuestión de minutos, por medio de un microscopio
    confocal de fluorescencia totalmente automatizado, que registra
    los datos.

    A modo de estudio piloto sobre sus posibilidades, la
    empresa
    Affimetrix ha logrado re-secuenciar por este método las 16
    kb de AQN mitocondrial humano, con un dispositivo formado por
    135.000 oligonucleótidos. Con la tecnología actual se
    puede llegar a sintetizar en un día 400.000 oligos de 20
    bases cada uno, dispuestos en un chip de 1 ,6 cm2.
    Pero el objetivo final es lograr un chip con los 4 millones de
    sondas necesarias para secuenciar todo el genoma humano en una
    sola hibridación (!).

    Estrategias de secuenciación

    Secuenciación genómica
    clásica

    Hasta hace muy poco, la secuenciación
    genómica dependía de la previa disponibilidad de
    mapas físicos detallados, para que los fragmentos
    secuenciados puedan ser ensamblados correctamente. Necesita
    manejar una gran cantidad de datos (a título de ejemplo,
    para generar 1 kb de secuencia final, hay que secuenciar 10 kb en
    total), y no es totalmente automatizable.

    Resumamos brevemente (recapitulando algo de lo dicho
    para los mapas) cuál es la estrategia habitual para
    secuenciar genomas:

    El ADN genómico se corta aleatoriamente en
    fragmentos, que se separan en distintas clases de tamaños,
    y se insertan en distintos tipos de vectores, cada uno con una
    capacidad media diferente (por ejemplo, los YACs portan insertos
    entre 100 y 2000 kb, los cósmidos unas 40 kb).

    Se preparan mapas físicos de baja
    resolución a base de clones solapados de insertos de
    YACs.

    Se preparan mapas físicos de alta
    resolución, preparados para la secuenciación, por
    medio de la subclonación en cósmidos de fragmentos
    aleatorios de insertos de YACs.

    Finalmente, se escoge un conjunto de clones de
    cósmidos con solapamientos mínimos, sus insertos se
    rompen aleatoriamente y se subclonan en vectores para la
    secuenciación (derivados del fago M13, plásmidos de
    la serie pUC, etc.).

    Por cada cósmido hay que secuenciar unos 800
    clones de fago M13, con un tamaño medio de inserto de 400
    pb, y la secuencia de 40 kb del inserto del cósmido
    original se ensambla computacionalmente. Este enfoque de
    secuenciación aleatoria (shotgun) obliga a
    secuenciar muchas veces (unas 8 o 10) el mismo segmento de
    secuencia, lo que tiene la ventaja de que asegura una mayor
    fiabilidad de los datos obtenidos. Sin embargo, como ya dijimos,
    presenta varios inconvenientes: hay que disponer previamente de
    buenos mapas; los YACs son inestables y muchos de ellos son
    quimeras, artefactos de clonación que no reflejan el orden
    genómico (identificarlos y descartarlos es una tarea que
    lleva tiempo y esfuerzo); y como ya sabemos, esta
    metodología no se puede automatizar totalmente.

    Un tema importante es tener tasas de errores lo
    más bajas posibles: del orden de 0.02-0.2%.

    Secuenciación de ADN complementario
    (ADNc)

    No es una alternativa, sino un complemento ala
    secuenciación genómica. No es el gen lo que estamos
    secuenciando, sino la "retrocopia" de su ARNm obtenida por
    reversotranscripción, desprovisto de intrones y secuencias
    reguladoras no traducidas.

    Si bien la secuenciación de ADNc no nos da
    información de la estructura del
    gen, sí nos la puede dar sobre su expresión: en
    qué tejidos se expresa, bajo qué condiciones, etc.,
    lo que permite iniciar mapas funcionales del genoma
    humano.

    Nuevas estrategias de secuenciación
    genómica

    Recientemente (véase Venter et al., 1996) se ha
    propuesto una estrategia de secuenciación genómica
    que no depende de previos mapas físicos, y que en lugar de
    YACs emplea otro tipo de vectores, los cromosomas artificiales de
    bacteria (BACs), que aunque permiten insertos de entre 100 y 350
    kb, tienen la gran ventaja de aceptar insertos genómicos
    con gran fidelidad (sin quimerismos ni apenas reordenaciones del
    material insertado). La estrategia consiste en lo
    siguiente:

    Se crea una genoteca humana de BACs, con un
    tamaño medio de 150 kb, y una redundancia de 15 veces, de
    modo que consta de unos 300.000 clones. Los clones de la genoteca
    se reparten en pocillos de placas de
    microtitulación.

    Se secuencian unas 500 bases en cada uno de los dos
    extremos del inserto de cada clon. Esto significa que las 600.000
    secuencias de los extremos de los clones están repartidas
    a razón de una cada 5 kb de genoma, y constituyen el 10%
    de la secuencia genómica.

    A estas secuencias se las denomina STCs, acrónimo
    inglés de "conectores" etiquetados por su secuencia", ya
    que permiten que por término medio cada clon BAC pueda ser
    conectado con otros 30 (un inserto típico de 150 kb
    dividido por 5 kb, estará representado en otros 30 BACs).
    Las secuencias de las STCs se pondrían enseguida en
    Internet, a disposición de la comunidad
    investigadora.

    Se toma la "huella dactilar" de cada clon BAC, con una
    enzima de restricción .

    Un clon BAC que actúa de semilla se secuencia por
    cualquier método, y se compara con la base de datos de
    STCs para identificar los clones solapados.

    Se secuencian los dos clones BAC que muestren
    consistencia interna entre las huellas dactilares y solapamiento
    mínimo en ambos extremos con respecto al BAC
    semilla.

    El proceso se va reiterando a ambos lados del BAC
    semilla (lo que podríamos llamar "paseo genómico
    con BACs").

    De esta manera, el genoma humano completo se
    podría secuenciar con sólo 20.000 clones
    BAC.

    Aunque la estrategia es muy atractiva por su aparente
    rapidez y menor costo (se estima
    que en dos años 30 secuenciadores de última
    generación podrían obtener esas 600.000 STCs, con
    un desembolso de menos de 10 millones de dólares), tiene
    varios inconvenientes, entre ellos el que obliga a mantener uno o
    varios centros depositarios de las placas con los clones BACs, y
    al envío de clones entre laboratorios. Dado que el PGH ha
    funcionado muy bien hasta ahora de modo descentralizado, es
    posible que haya reticencias en grupos que vean amenazada la
    actual cuasi-democracia
    investigadora. (No se puede olvidar quién hace la
    propuesta: el director de uno de los centros privados más
    "agresivos" en investigación genómica).

    El papel de la
    informática en los proyectos
    genoma

    La informática ha sido uno de los objetivos
    esenciales del PGH, debido a la gigantesca cantidad de datos que
    hay que recoger, analizar, comparar, interpretar y distribuir. La
    informática aplicada a la biología presenta dos
    subdisciplinas (véase Benton, 1996): la
    bioinformática en sentido estricto, que se puede definir
    como el trabajo de
    investigación y desarrollo que se necesita como
    infraestructura de información de la actual
    biología; y la biología computacional, que es la
    investigación dependiente de computación dedicada a
    entender cuestiones biológicas básicas. El
    término bioinformática, en sentido lato, comprende
    estos dos grandes aspectos. Estamos ante un nuevo campo
    interdisciplinario, en la interfase entre ciencias de la
    computación, matemáticas y biología.

    Las cuestiones de gestión
    de datos que plantea el PGH suponen un auténtico
    "revulsivo" para la informática. Aunque para algunas de
    las tareas se puede recurrir a enfoques tradicionales, con
    sólo aumentar la escala del procesamiento, para otros
    problemas se
    necesitan arquitecturas y programas informáticos
    totalmente diferentes.

    Adquisición informatizada de datos
    biológicos

    La adquisición de datos experimentales por
    métodos digitales está espoleando a la industria a
    diseñar y fabricar aparatos cada vez más
    sofisticados, que mejoran y aceleran la parte más
    rutinaria de la investigación. Para ello los aparatos
    incorporan sistemas
    computerizados de análisis y tratamiento de imagen
    visible. Piénsese en los secuenciadores automáticos
    de ADN o en la tecnología del chip de ADN.

    El ensamblaje automático de mapas y secuencias es
    otra tarea que plantea numerosos e interesantes problemas a las
    ciencias de la computación, que han de hacer uso de nuevos
    algoritmos y estrategias en las que tener en cuenta los posibles
    errores.

    Predicción de secuencias codificadoras, dominios
    funcionales y otras zonas interesantes del genoma: Aunque
    disponemos de programas a tal efecto (GRAIL, FASTA, etc.), se
    requieren nuevos algoritmos capaces de predecir patrones
    especiales de secuencia dentro de genomas completos. Se
    están ensayando aproximaciones derivadas de las
    redes neurales (neuromiméticas).

    Construcción de árboles
    filogenéticos: En principio se viene realizando a base de
    comparar determinados genes entre pares de organismos, mediante
    algoritmos de alineamiento de secuencia, pero habrá que
    mejorar los métodos, incluyendo una adecuada
    evaluación del grado de fiabilidad de los
    árboles.

    Bases de datos gen éticos y
    moleculares

    La gigantesca cantidad de datos generados en los
    proyectos genoma obliga a abandonar la "Galaxia Gutenberg" a la
    hora de publicar los datos: su difusión se hace por
    medios
    electrónicos, depositándolos en bases de datos
    públicos. El ritmo de acumulación de datos es
    vertiginoso, y actualmente se duplican en menos de un año.
    Los biólogos del siglo XXI usarán esas bases de
    datos como un recurso indispensable de su trabajo cotidiano. En
    la actualidad funcionan principalmente dos tipos de bases de
    datos genómicos:

    El Consorcio Internacional de Bases de Datos de
    Secuencias está formado por GenBank, el Banco de datos de
    ADN de Japón
    (DDBJ) y el del EMBL. Alberga los datos de secuencias. Las tres
    bases comparten y complementan la información. En España
    existe un nodo de EMBL residente en el Centro Nacional de
    Biotecnología (CNB) de Madrid.

    Genome Data Base (GDB) se estableció para
    albergar los datos de mapas y relacionados (sondas, marcadores,
    etc.).

    Actualmente la base de datos bibliográfica
    MEDLINE (mantenida por la NML estadounidense) está
    vinculada con las bases de datos genéticos y de
    secuencias. Por ejemplo, se puede hacer una búsqueda desde
    MEDLINE con palabras clave de una enfermedad, lo que da acceso a
    OMIM (Herecia mendeliana on-line), con referencias
    bibliográficas, y de ahí se puede saltar a los
    mapas genéticos, físicos y las secuencias, si
    están disponibles.

    En 1993, un taller recomendó profundizar en la
    coordinación entre los distintos bancos
    informatizados. Las diferencias en la estructura de las bases de
    datos y en su nomenclatura
    hacen que un investigador que trabaje con un gen o una
    proteína de una especie tenga difícil acceder a la
    información de genes homólogos de otras especies.
    Los expertos en bioinformática están tratando de
    desarrollar estándares y nombres comunes, y de establecer
    vínculos entre ellos, de modo que cuando los
    investigadores busquen información en una base de datos,
    automáticamente la encuentren vinculada con otras bases
    depositarias de otros datos. Internet y los lenguajes
    informáticos dedicados al WWW pueden venir a ayudar, al
    hacer fácil crear vínculos entre bases de datos
    diferentes ha abierto el camino ala diseminación del
    enfoque basado en "federaciones de pequeñas bases de
    datos". Basta definir hipervínculos activos
    (hipertexto) para vincular datos relevantes entre distintas
    bases. Pero para hacer frente al diluvio de datos tales
    hipervínculos tendrán que ser creados
    automáticamente por el software de la base de datos. Ello
    obliga a ponerse de acuerdo sobre la nomenclatura y los formatos
    compatibles. El famoso lenguaje Java, creado para
    Internet, parece que puede desarrollarse en una buena herramienta
    para entrecruzar de modo inteligente todas las bases de datos
    biológicos.

    Diagnóstico molecular: detección de
    mutaciones

    El avance en el PGH y en los mapas y secuencias ya
    disponibles impulsan la necesidad de disponer de técnicas
    capaces de rastrear ADN en busca de mutaciones asociadas con
    enfermedades humanas. En los próximos años se
    habrá identificado la mayor parte de los genes implicados
    en importantes enfermedades humanas. En las bases de datos se
    están introduciendo informaciones sobre mutaciones y sus
    implicaciones clínicas. Uno de los retos de la medicina
    será hacer uso de esa información para mejorar el
    diagnóstico y prognosis de las enfermedades.

    Para detectar mutaciones en sitios previamente
    determinados se han diseñado una serie de
    métodos:

    Hibridación de oligonucleótidos
    específicos de alelos.

    Amplificación específica de alelos (con o
    sin PCR, o con reacción en cadena de la ligasa,
    LCR)

    Procedimientos que crean o destruyen sitios de
    restricción.

    La detección de mutaciones en lugares sin
    especificar o cuando no se dispone de información de
    secuencia es una tarea muy ardua, aunque se han desarrollado
    algunas estrategias (rastreo de malos emparejamientos en el
    genoma).

    Sin embargo, lo más frecuente es la
    situación en que se trata de identificar mutaciones en
    múltiples sitios potenciales dentro de segmentos de ADN de
    los que se conoce la secuencia normal.

    Se han diseñado técnicas de tipo
    "multiplex" que permiten la búsqueda de diversos tipos de
    mutantes en un determinado gen.

    De modo ideal, el procedimiento tendría que ser
    fiable, rápido, barato, y proporcionar información
    exacta sobre la posición y naturaleza de la
    mutación, así como requerir poco esfuerzo, ser
    automatizable y no usar reactivos peligrosos. Ninguno de los
    métodos actuales cumple este criterio. La
    secuenciación sería el método definitivo,
    pero sigue requiriendo mucho trabajo, y los métodos
    automatizados de alto rendimiento son caros. De todos modos,
    debido a que hay mucho interés y dinero puesto
    en el empeño, se puede casi garantizar que veremos
    importantes avances en breve.

    Por ejemplo, se está desarrollando un sistema que
    no usa electroforesis en gel (una de las fases más
    tediosas), llamado espectrometría de masas por láser de
    desorción/ionización asistida por matriz

    La división Applied Biosystems de Perkin Elmer ha
    diseñado un análisis de hasta 32 mutaciones
    diferentes de un gen por amplificación simultánea
    de hasta 15 segmentos de ADN, seguida por ligado multiplex de
    oligonucleótidos específicos de alelos.

    La misma empresa ha creado un ensayo de
    micro-PCR que puede realizar 24 ensayos de 2ml
    cada uno en un chip, y cuyos resultados se pueden leer en tiempo
    real por medio de la estrategia de TaqMan.

    Otro de los avances más prometedores son los
    "chips" de oligonucleótidos: ordenaciones de diferentes
    oligos unidos a soportes semisólidos. AON marcado
    fluorescentemente puede entonces hibridarse a los oligos del
    chip, de modo que el patrón de hibridación se puede
    analizar por scaning de fluorescencia. Como se conoce la
    secuencia y posición de cada oligo en el chip, se puede
    determinar la posición y posiblemente la naturaleza de
    cada mutación.

    Este enfoque de microchips con oligos ha sido llevado a
    un avance importante por la empresa Affimetrix: usando
    técnicas fotolitográficas similares a las que
    emplea la fabricación de chips de silicio, se han podido
    obtener chips con 64.000 diferentes sondas de
    oligonucleótidos unidos a superficies planas de cristal.
    En 15 minutos el dispositivo puede detectar la hibridación
    de secuencias diana marcadas fluorescentemente a oligos del
    chip.

    Otro caso notable de nuevas perspectivas que se pueden
    abrir con el diagnóstico molecular es el Proyecto de
    Anatomía
    Genómica del Cáncer que pretende realizar un
    catálogo de todos los genes expresados en los distintos
    tipos de células tumorales. Se trata del último
    ejemplo de matrimonio entre
    ciencia
    genómica e informática, con consecuencias
    trascendentales en el ámbito clínico. los
    investigadores quieren determinar cómo cambia la
    expresión génica conforme progresa el cáncer
    y comprender cómo surgen los tumores. Se espera que se
    pueda obtener un índice genético de los tumores, de
    modo que el clínico no sólo dependa de
    anatomía patológica convencional
    (microscopía), sino que el diagnóstico,
    pronóstico y tratamiento de sus pacientes se pueda asentar
    en un conocimiento más adecuado a base de la
    expresión génica y de las proteínas,
    la idea de que se puedan identificar todos los genes alterados en
    un cáncer determinado es muy atractiva. Debería
    realmente suministrar información para clasificar tumores
    e identificar dianas para la terapia.

    "Las tres culturas" de la biología
    genómica

    En la biomedicina de la era genómica y
    postgenómica se requiere, como se está viendo, un
    alto grado de interdisciplinariedad e integración entre
    distintos profesionales. Es lo que Benton (1996) ha llamado
    -parafraseando a C.P. Snow- el problema de las tres culturas: los
    biólogos querrán que los informáticos les
    suministren soluciones a sus problemas de gestión de
    datos, los matemáticos y expertos en computación
    andarán detrás de problemas intelectualmente
    llamativos, y los ingenieros pedirán a los dos grupos
    anteriores que les suministren especificaciones bien concretadas
    para que ellos puedan desarrollar su trabajo. Los distintos
    expertos habrán de acostumbrarse a emplear vocabularios y
    lenguajes comunes ya entender (sin minusvalorar) los problemas de
    los demás. En numerosas universidades empiezan a
    impartirse enseñanzas (de pregrado o postgrado) de
    bioinformática y biocomputación. En muchos casos se
    trata de que los estudiantes o profesionales de especialidades
    tradicionales completen su formación con la parte con la
    que no están familiarizados.

    Por lo que respecta a los biólogos, habrán
    de trabajar en entornos tremendamente ricos en
    información, manejarán con soltura las bases de
    datos, y extraerán conocimiento biológicamente
    significativo. Los nuevos datos obligarán a elaborar
    nuevas hipótesis en muchos ámbitos de las
    ciencias de la vida, que sugerirán nuevos tipos de
    experimentos, estableciéndose una retroalimentación fructífera entre
    la biología in silico y la tradicional
    biología in vtvo e in vitro. Las Ciencias
    Biológicas darán un salto no sólo
    cuantitativo, sino que probablemente entraremos en un nuevo
    paradigma de
    investigación, en el que contemplaremos los
    fenómenos vitales no sólo desde un punto de vista
    molecular, sino de integración entre sus diversos niveles
    de complejidad.

    PROYECTO
    DE DIVERSIDAD DEL GENOMA HUMANO

    Lucca Cavalli-Sforza, un prestigioso genético
    especializado en estudio de poblaciones humanas, está
    impulsando la idea de realizar una investigación destinada
    a comprender la variación genética humana ya
    reconstruir la historia de las poblaciones humanas en los
    últimos 100.000 años de nuestra especie. Este
    Proyecto de Diversidad del Genoma Humano (PDGH) implicaría
    una diversidad de disciplinas (genética,
    arqueología, lingüística, antropología, etc.) para dar cuenta de la
    evolución reciente de la humanidad, reconstruir las
    grandes migraciones de grupos, la distribución de las
    poblaciones y culturas, etc. Una de las estrategias
    consistirá en la toma de muestras de ADN de una serie de
    poblaciones y etnias, con ulterior estudio comparativo de
    polimorfismos moleculares. Se pretende estudiar muestras
    correspondientes al 10% de las 5000 poblaciones
    lingüísticas diferenciadas que existen, con el objeto
    de ver si existen correlaciones (y en su caso, cómo se han
    producido) entre la diseminación cultural y la
    genética. Según sus impulsores, el PDGH
    daría una rica visión de la variedad de recursos gen
    éticos de nuestra especie, y junto con los datos del PGH
    convencional, facilitaría la comprensión del
    fundamento genético de la susceptibilidad o resistencia a
    distintas enfermedades, incluidas las infecciosas, comprender
    mejor el papel de la selección
    y el de la deriva gen ética.

    Algunos colectivos y medios de
    comunicación han lanzado acusaciones de "racismo" contra
    este Proyecto, pero para Cavalli-Sforza nada está
    más lejos de sus propósitos. De hecho, piensa que
    con él se va a llamar la atención las reclamaciones de ciertas
    tribus para que se les ayude a sobrevivir y conservar sus
    culturas. Ningún genético serio actual (y menos una
    autoridad en
    la materia como
    Cavalli-Sforza) mantiene la idea de que la especie humana
    esté separada en razas, ni mucho menos que de los datos
    gen éticos se puedan derivar planes políticos. Un
    comité ad hoc de la UNESCO está emitiendo
    informes para que el PDGH se amolde a una serie de criterios
    éticos y sociales. Los principales temas que se
    están evaluando son:

    • Consentimiento informado a los individuos y
      poblaciones implicados. El PDGH contiene, según los
      miembros del comité de la UNESCO, algunas de las medidas
      más detalladas y sofisticadas que se hayan propuesto
      nunca para obtener ese consentimiento informado.
    • Comercialización de los posibles resultados de
      la investigación: la UNESCO recomienda que este tema
      forme parte de las cláusulas del consentimiento
      informado y de acuerdos de cooperación. Es decir, se
      prevé que parte de los beneficios económicos
      reviertan en las comunidades indígenas. Sin embargo,
      este tema de la "prospección genética"
      (biooprospección) requiere aún mucha
      discusión para ser clarificado. El tema de las posibles
      patentes sobre genes útiles que se pudieran encontrar es
      delicado. La opinión personal de
      Cavalli- Sforza es que no se permitan, o en todo caso, que sus
      beneficios reviertan ala población donadora que permitió la
      identificación del gen.
    • La financiación debería ser
      pública y de entidades sin ánimo de lucro. No se
      debe aceptar la financiación de empresas, para evitar
      todo posible conflicto de
      intereses.

    Eugenesia y racismo. El racismo es una actitud
    mental, no una consecuencia de ningún dato
    biológico. Hay que tomar medidas para evitar que nadie
    saque conclusiones sociales y políticas
    de meros datos de polimorfismos gen éticos en las
    poblaciones humanas.

    En la oposición contra el PDGH ha influido
    algún lamentable caso de "bioprospección" (no
    relacionado con el Proyecto), que ha servido de munición a
    ciertos grupos ecologistas y de apoyo a tribus. Por ejemplo el
    RAFI (Fundación Internacional para el Avance de las
    comunidades Rurales) ha desplegado una campaña para
    divulgar "los peligros de PDGH", pidiendo que no se lleve a cabo.
    Los miembros de RAFI llamaron la atención del hecho de la
    concesión de patente sobre unas células resistentes
    al virus HTLV-1 derivadas de la tribu Hagahai de
    Papúa-Nueva Guinea.

    Hay empresas farmacéuticas que están
    realizando "bioprospección" en poblaciones aisladas, las
    cuales presentan la ventaja de que su menor polimorfismo gen
    ético puede ayudar a encontrar la explicación sobre
    base de resistencias o
    sensibilidades a ciertas enfermedades. Por ejemplo, se
    está intentado identificar genes de sensibilidad al asma
    en una pequeña población altamente
    endogámica de la isla de Tristan da Cunha

    Genoma modelos

    Como ya apuntábamos anteriormente, habría
    que hablar más bien de Proyectos Genoma (en plural), ya
    que en paralelo al estudio del genoma humano están en
    curso la caracterización y secuenciación de genomas
    de organismos modelo, cuya comparación entre sí y
    con el acervo genético humano tendrán dos notables
    efectos:

    Acelerarán notablemente la obtención de
    importantes datos sobre la organización, función y
    evolución del ADN a lo largo de toda la escala
    filogenética. Se espera que la comparación de
    genomas completos de los tres grandes dominios de la vida
    (arqueas, bacterias y
    eucariotas) nos suministrará claves para comprender
    más de 3000 millones de años de evolución.
    La biología (que como decía Dobzhanski, no tiene
    sentido si no es a la luz de la evolucíón)
    profundizará aún más su interés
    filogenético.

    Ayudarán a determinar la función de
    numerosos genes (incluyendo humanos). Habrá numerosas
    aplicaciones médicas.

    Servirán para emprender nuevos enfoques dentro de
    la Biotecnología y la Biología
    industrial.

    Hasta el momento se dispone de la secuencia completa de
    al menos un representante de cada uno de los tres grandes
    dominios de seres vivos, y están en marcha o en proyecto
    unos 30 proyectos. (Para los proyectos de bacterias,
    véase la web del
    TIGR).

    Eubacterias. Las siguientes eubacterias
    están totalmente secuenciadas:

    Mycoplasma genitalium

    0.58

    http://www.tigr.org

    Mycoplasma pneumoniae

    0.82

    http://www.zmbh.uniheidelberg.de/M_pneumoniae

    Borrelia burgdorferi (+ Plasmidos)

    0.91 (+32)

    http://www.tigr.org

    Aquiles aeolicus

    1.55

    Helicobacter pylori

    1.67

    http://www.tigr.org

    Haemophilus influenzae

    1.83

    http://www.tigr.org

    Synechocystis

    3.57

    http://www.kazusa.or.jp/cyano/cyano.html

    Bacillus subtilis

    4.21

    http://www.pasteur.fr/Bio/SubtilList.html

    Mycobacterium tuberculosis

    4.4

    http://www.sanger.ac.uk

    Escherichia coli

    4.67

    http://www.genetics.wisc.edu:80

    Arqueas (arqueobacterias): Los genomas concluidos son
    los de Methanococcus jannaschii y Archaeoglobus fulgidus, ambos
    obtenidos por el TIGR, y el de M. Thermoautotrophicum. Muy
    avanzados están los de dos arqueobacterias
    hipertermofílicas (Pyrobaculum aerophilum, Pyrococcus
    furiosus).

    Mehanococcus jannaschil

    1.67

    http://www.tigr.org

    M Thermoautotrophicum

    1.75

    http://www.genomecorp.com/htdocs/sequences

    Archaeoglobus fulgidus

    2.18

    http://www.tigr.org

    El TIGR de Craig Venter está secuenciando decenas
    de microorganismos tanto procariotas como eucariotas, muchos de
    ellos con importancia clínica o industrial (entre las
    eubacterias: Enterococcus feacalis, Legionella pneumophila,
    Mycobacterium tuberculosis,
    Neisseria meningitidis, Salmonella typhimurium, Vibrio cholerae,
    Deinococcus radiodurans, etc.). El creciente número de
    secuencias bacterianas facilitará muchos estudios
    básicos, y por lo que respecta a las patógenas,
    permitirá aclarar sus mecanismos de patogenicidad y
    virulencia, 10 que podrá sugerir a su vez nuevos
    tratamientos.

    Hacia el inicio del siglo XXI se estima que dispondremos
    de las secuencias de más de 100 microorganismos. Como
    siempre, el problema será cómo vamos a digerir esa
    información (y quién se va a beneficiar de ella,
    pero esta es otra historia que tratamos en otro sitio). Aparte de
    los tradicionales (pero renovados) métodos de
    biología in silico, siempre hay que volver al laboratorio
    a comprobar hipótesis
    experimentalmente y recabar nuevos datos. Para ello se
    están diseñando nuevas estrategias. Por ejemplo, la
    llamada GEMS (selección multiplex manilada
    genómicamente), que consiste en medir
    simúltáneamente los efectos sobre la supervivencia
    de una serie de delecciones en fase en muchos genes, y bajo
    diferentes condiciones ambientales; de esta manera, se puede
    rastrear el patrón de pérdida o selección de
    mutantes concretos..

    Eucariotas

    En 1996 se terminó la secuencia de la levadura de
    panadería (Saccharomyces cerevisiae), y ahora se va a
    emprender el de otra levadura muy diferente (Schyzosaccharomyces
    pombe). El proyecto genoma de levadura, que ha costado unos 30
    millones de dólares, ha sido un logro esencialmente
    europeo, con André Goffeau (Universidad
    Católica de Lovaina) como coordinador. Se evitó a
    toda costa la duplicación de esfuerzo,
    "repartiéndose" los cromosomas o regiones entre
    países y laboratorios. La Unión
    Europea secuenció el 55%, el Centro Sanger (UK), 17%,
    la Universidad Washington en St. Louis, 15%, Universidad de
    Stanford, 7%, Universidad McGi11 (Canadá), el 4%, y un
    laboratorio japonés (RIKEN), el 2%.

    El genoma del nematodo Caenorhabditis elegans se
    terminará de secuenciar en 1998, con una
    intervención esencial del Centro Sanger.

    El de la mosca del vinagre (Drosophila melanogaster)
    está muy avanzado

    Dentro de los mamíferos está en curso igualmente
    la cartografía y secuenciación del genoma del
    ratón.

    Y no hay que olvidar que la biología Vegetal
    está muy interesada a su vez en descifrar los genomas de
    especies modelo tanto monocotiledóneas (arroz, maíz) como
    dicotiledóneas (de estas últimas, el modelo
    más avanzado es el de Arabidopsis thaliana).

    IDENTIFICACION DE LOS GENES ASOCIADOS A
    FENOTIPOS

    Genes de rasgos mendelianos

    Clonación funcional

    Cuando se tiene información bioquímica
    sobre un rasgo monogénico, es posible en principio
    diseñar alguna estrategia para seleccionar el gen
    correspondiente de la genoteca, lo que se ha llamado
    clonación funcional. Este es el caso del factor VIII de
    coagulación.

    Clonación posicional

    La clonación funcional no siempre es posible.
    Cuando, como ocurre con la gran mayoría de enfermedades
    genéticas, se desconoce la base bioquímica del
    rasgo, hay que recurrir a otras estrategias, a menudo laboriosas.
    Como ejemplo, la clonación posicional de genes de
    enfermedades: consiste en ir estrechando el cerco al gen a partir
    de su localización cromosómica (genética
    inversa). La clonación posicional era una estrategia ya
    empleada antes del PGH:

    1. Se parte de una colección de pedigrís
      en la que se ve la cosegregación del rasgo mutante
      respecto a múltiples marcadores gen éticos
      polimórficos. En humanos, lo ideal es que la
      separación entre marcadores no sea mayor de 1 cM. Luego,
      por paseo o salto cromosómico, se va uno acercando al
      gen.
    2. Identificación del gen mediante una serie de
      técnicas
    • Zoo-blots
    • Islas de CpG sin metilar
    • Selección de ADNc
    • Atrapamiento de exones

    Ejemplos de genes aislados por clonación
    posicional:

    • Fibrosis quístíca
    • Distrofia muscular de Duchenne
    • Neurofibromatosis tipo 1
    • Alzheimer familiar
    • Cloroidemia.

    Análisis de genes candidatos

    Se han aislado muchos genes por clonación
    posicional, pero la mayoría de ellos sobre la base de
    mutaciones de delección, translocación o
    amplificaciones de trinucleótidos. La clonación
    posicional a partir de mutaciones puntuales es más ardua,
    y suele requerir muchos marcadores cercanos al gen y una
    cartografía fina de desequilibrio de ligamiento. Por ello,
    se recurre a otra estrategia: enfoque del candidato posicional:
    se usa información disponible sobre función y
    posición en el mapa de genes previamente aislados,
    información que puede proceder de otros proyectos genoma o
    de ESTs/ADNc.

    Por ejemplo, una EST aleatoriamente aislada y
    homóloga con una glicerol- quinasa de S.
    subti¡is
    se cartografió en la región Xp21
    humana. Tras obtener un ADNc más largo, se vio ese era el
    correspondiente al gen en cuestión.

    • Gen de la retinitis pigmentosa.
    • Síndrome de Marfan.
    • Cardiomiopatía hipertrófica
      familiar
    • Atrofia muscular espinal y bulbar.
    • Síndrome de Waandenburg
    • Esclerosis lateral amiotrófica.

    Este tipo de estrategia se hará cada vez
    más importante conforme avance el PGH. En el futuro,
    cuando se asigne un nuevo rasgo a una nueva posición
    específica del mapa, será posible interrogar a las
    bases de datos genómicas, y obtener para esa
    porción genómica una lista de los otros genes
    asignados a esa región. Las características de los genes se
    compararán entonces con las características del
    rasgo para encontrar el candidato más
    verosímil.

    En resumidas cuentas, el PGH
    va a simplificar y abaratar la búsqueda de genes relativos
    a enfermedades mediante estrategias de clonación
    posicional.

    • Predicción y análisis de genes mediante
      bioinformática
    • Conforme avanza el PGH, se hace cada vez más
      importante la predicción de genes por medio de
      bioinformática: Algunos métodos:
    • Predicción de genes a partir de secuencias
      mediante programas como el GRAIL.
    • Búsquedas de similitudes (BLAST,
      FASTA).
    • Comparación con secuencias de organismos
      modelo.
    • ESTs.
    • Perfiles de secuencia y modelos de Markov
      ocultos.

    La bioinformática tiene ante sí un
    formidable reto, dado el diluvio de datos que está cayendo
    en las bases de datos. Habrá que desarrollar nuevos y
    potentes algoritmos, y de aplicar buenas estrategias de ingeniería y gestión de la
    información, capaces de sacar provecho a los datos e
    integrarlos para darles sentido biológico, según
    los programas de investigación que cada centro o grupo se
    plantee.

    Estudio de rasgos complejos y cuantitativos

    Los rasgos complejos (poligénicos) se pueden
    clasificar como rasgos discretos (medidos según un
    resultado específico: diabetes, infarto
    de miocardio) o como rasgos cuantitativos (medidos por una
    variable continua). Son estos rasgos los que plantean más
    problemas a la hora de adscribirlos a los genes correspondientes,
    pero ya hay varias estrategias para estudiarlos.

    Identificación de loci de rasgos
    cuantitativos (QTls)

    Sólo se ha vuelto posible con la llegada de los
    RFLPs. Las estrategias consisten en cruzar dos razas puras que
    difieran sustancialmente en un rasgo cuantitativo.

    La progenie segregante se analiza tanto para el rasgo
    como para una serie de marcadores. Se emplea en animales y
    plantas domésticos.

    Análisis de rasgos complejos en
    humanos

    Uno de los mayores retos del PGH será identificar
    y caracterizar los genes responsables de rasgos complejos,
    incluyendo las enfermedades poligénicas y
    multifactoriales. Los rasgos poligénicos son
    difíciles de estudiar en humanos, y evidentemente no se
    puede recurrir a estudios de cruces controlados como en los
    animales y plantas.

    Cosegregación en estudios
    familiares

    Se parte de familias con individuos afectados. Los genes
    de la enfermedad se pueden identificar por cosegregación
    con marcadores genéticos (p. ej., microsatélites)
    estrechamente ligados, que mostrarán identidad por
    descendencia en los individuos afectados. Este enfoque se
    está volviendo más cómodo y rápido
    gracias a las técnicas de genotipado rápido
    basado en fluorescencia, que permiten rastrear el genoma completo
    en poco tiempo. Mediante este tipo de estrategia se han logrado
    varios éxitos:

    Genes responsables de mayor o menor susceptibilidad a
    enfermedades infecciosas, como la malaria. Además, ello
    abre nuevas vías al desarrollo de vacunas.

    Genes de susceptibilidad a diabetes tipo 1 y tipo 2:
    algunos han resultado ser genes del complejo HLA-DR.
    También la porción 5' del mismo gen de la insulina,
    y otros genes a caracterizar.

    Genes relacionados con susceptibilidad a osteoporosis:
    polimorfismos en genes de receptores de vitamina D. ¿Una
    puerta abierta al diagnóstico y prevención de la
    osteoporosis postmenopáusica?

    A principios de
    1997 se creó en Baltimore el Centro de
    Investigación sobre Enfermedades Hereditarias (CIDR), por
    acuerdo entre los NIH y la Universidad John Hopkins, y que se
    dedicará especialmente al genotipado de enfermedades
    complejas (diabetes, enfermedades neuropsiquiátricas,
    esclerosis múltiples, etc). Este centro está dotado
    de tecnologías informáticas y biológicas de
    última generación, y realizará genotipado de
    entre 2 y 4 millones de marcadores cada año. Pondrá
    aprueba nuevas
    tecnologías como genotipado basado en chips de ADN y
    en espectroscopía de masas.

    Métodos de rastreo de genomas

    Sería ideal contar con métodos capaces de
    rastrear genomas completos en busca de secuencias relacionadas
    con un determinado rasgo complejo. Citemos algunos
    intentos:

    Rastreo genómico de malos emparejamientos
    (GMS).

    Rastreo por rotura enzimática de malos
    emparejamientos (EMC) con resolvasas de fagos.

    LA ERA
    POSTGENÓMICA: LA PRÓXIMA REVOLUCIÓN DE LA
    BIOLOGíA

    Desde el punto de vista de la práctica de la
    biología básica, el proyecto genoma está
    acentuando un par de tendencias que ya se dejaban sentir en los
    últimos años: por un lado la necesidad de formar
    nuevos tipos de biólogos capaces de tender puentes entre
    varias disciplinas, que se muevan con comodidad en un entorno de
    ordenadores, autopistas de información y gigantescas bases
    de datos e imágenes; y por otro lado, la
    reorganización de los laboratorios e institutos de
    investigación, donde interaccionen especialistas en
    diversos ámbitos de las Ciencias de la Vida,
    matemáticos, informáticos, químicos,
    etc.

    No hay que olvidar que lo que entendemos por Proyecto
    Genoma consiste en principio en la obtención de
    información estructural más o menos en bruto, pero
    lo realmente importante empieza después (en realidad,
    simultáneamente): dar sentido biológico, tanto
    funcional como evolutivo a tal cúmulo de
    información, es decir, extraer auténtico
    conocimiento. La "orgía de datos" que se nos viene encima
    habrá de ser "digerida" adecuadamente, impulsando nuevos
    avances a base de sugerir nuevos enfoques, nuevos experimentos,
    renovadas hipótesis de trabajo, todo ello
    retroalimentándose en un "circulo virtuoso" que
    abrirá las puertas de una nueva era en las Ciencias
    Biológicas. Se habla por ello de una "Era
    Postgenómica", en la que se irán integrando los
    conocimientos acumulados en diversos "Atlas" del ser humano y de
    otros seres vivos, en los que se podrán interrelacionar de
    modo funcionalmente significativo diversos niveles de
    comprensión de la materia viva: génico,
    genómico, regulación, biología celular,
    fisiología, evolución, etc. El impacto real de todo
    ello no se puede prever, pero no cabe duda que el PGH sienta las
    bases de un salto cualitativo y cuantitativo en nuestra
    visión del mundo vivo.

    En la era post-genómica habrá muchas
    tareas por hacer (véase p. ej. Lander, 1996):

    Identificación de las variantes alélicas
    más comunes de los genes humanos. Se trata de formar una
    especie de catálogo con las variantes alélicas
    más frecuentes (denominadas isotipos) de los genes
    humanos. Se calcula que para encontrarlas bastará
    re-secuenciar las regiones codificadoras de unos 100 individuos
    tomados al azar, y ello se podría llevar a cabo
    rápidamente con la técnica del chip de ADN.
    Correlacionando esas variantes con la incidencia de enfermedades,
    se podrá dar un salto adelante para identificar genes de
    susceptibilidad a numerosas enfermedades (y esto, sin recurrir a
    los clásicos y complejos estudios con "sagas familiares").
    Se abre un campo inmenso a lo que podríamos llamar
    estudios epidemiológicos a base de genética de
    poblaciones, con la ayuda de las herramientas
    genómicas.

    Avances en los estudios evolutivos por
    comparación de genomas completos de diversos organismos.
    Tendremos a nuestro alcance la comprensión de multitud de
    aspectos insospechados de los más de 3000 millones de
    años de evolución. Se aclararán filogenias
    completas, se estudiarán familias de genes y
    proteínas, viendo cómo sus miembros varían y
    adquieren nuevas funciones en
    distintos linajes; se aclararán mecanismos
    genéticos evolutivos, etc.

    Estudios de "transcriptoma", es decir, entender
    cómo, cuándo y por qué se activan o se
    silencian distintos juegos de
    genes, en función del tipo celular, del tiempo, de los
    estímulos, etc. La comprensión de los circuitos de
    regulación según la fase de desarrollo del
    organismo y el órgano/tejido es uno de los retos de la
    fase post-genómica en la que ya estamos. Los proyectos
    genoma de ciertos organismos modelo (levadura, Caenorhabditis,
    mosca del vinagre, incluso ratón) prevén la
    obtención de miles de mutantes, de modo que virtualmente
    se disponga de razas inactivadas para cada gen concreto
    (razas noqueadas genéticamente, K.O.); de ese modo se
    podrán comprobar los fenotipos resultantes, a distintos
    niveles, permitiendo aclarar la función genética.
    Igualmente se pueden emplear técnicas de disrupción
    transitoria de la función genética (como los
    oligonucleótidos antisentido y las ribozimas) para
    estudiar la expresión de genes no susceptibles de analizar
    mediante la transgénesis inactivadora en línea
    germinal.

    Un ejemplo de este tipo de estudios está en un
    trabajo aparecido recientemente (9 de abril de 1998) en "Nature"
    (vol. 392, pp. 608-611). En él, miembro de la empresa
    Lexicon Genetics describen la aplicación de un
    método de mutagénesis en células madre
    embrionarias (ES) de ratón, que permite obtener miles de
    mutantes "marcados" con una etiqueta genética, de modo que
    luego se puede identificar el gen alterado y estudiar su
    función.

    Estudios de "proteoma": seguimiento de la
    expresión al nivel de traducción y
    post-traducción en cada tipo celular, y en función
    de nuevo de la fase de desarrollo y de las señales
    recibidas por la célula.
    Uno de los retos es automatizar y hacer más sencilla la
    técnica de geles bidimensionales, y a ser posible
    fusionarla con alguna técnica espectroscópica para
    caracterizar los cientos o miles de proteínas de cada
    muestra, e incluso las interacciones entre
    proteínas.

    Un atisbo de lo que puede ser esta era
    post-genómica del PGH la tenemos ya con la levadura, una
    vez finalizada la secuenciación de su genoma:

    Tras la finalización del proyecto genoma de
    levadura

    Generación de mutantes de delección
    específicos: Es perfectamente factible emprender la
    delección sistemática de todos y cada uno de los
    6000 genes. Para ello se ha diseñado una de
    disrupción génica dirigida por PCR y que aprovecha
    la eficiencia y
    precisión del sistema de recombinación
    mitótica del organismo. El método permite la
    sustitución de cualquier gen de la levadura, incluyendo
    las razas industriales. Se pretende obtener una biblioteca de
    6000 razas de delección, una por cada ORF o gen, y en la
    que cada cepa estará marcada con un
    ologonucleótido, a modo de código
    de barras molecular identificador.

    Análisis fenotípico cuantitativo:
    análisis de control metabólico (MCA) de arriba a
    abajo

    El transcriptoma El transcriptoma es el conjunto
    de genes expresados, junto con su nivel de transcripción,
    bajo un conjunto dado de condiciones. Se están poniendo a
    prueba varias estrategias:

    Un enfoque que se está ensayando es el
    análisis en serie de la expresión génica
    (SAGE). Se trataría de determinar las condiciones
    fisiológicas y fases de desarrollo en las que genes y
    grupos de genes concretos se expresan, y de relacionar estos
    patrones de expresión con los de los genes cuyas funciones
    se conocen bien.

    Otros enfoques distintos son el despliegue diferencial
    (differential display) y las tecnologías de
    hibridación en formación ordenada
    (hybridation-array). Esta ofrece buenas esperanzas de lograr un
    análisis a gran escala con buenos rendimientos.
    Recuérdese lo dicho sobre los microchips de
    oligonucleótidos.

    Lo que es cierto es que el análisis
    clásico tipo Northern no sirve para esto. Se espera que
    incluso termine recurriéndose al uso de paneles solapados
    de oligonucleótidose en hibridación en
    formación para la correlación entre transcritos
    individuales y las ORF correspondientes.

    También aquí será importante
    agrupar los genes en unidades funcionalmente relacionadas, que es
    de esperar contengan genes de función ya
    conocida.

    El proteoma Se trata del conjunto de
    proteínas que se encuentran en una célula
    bajo unas condiciones determinadas. El proteoma de levadura se
    está estudiando mediante electroforesis bidimensional,
    usando espectrografía de masas para identificar las
    proteínas contenidas en las manchas del gel. Será
    importante caracterizar proteínas de complejos proteicos,
    que suministrarían un importante correlato
    bioquímico de los datos in vivo.

    Análisis funcionales de todo el genoma,
    recurriendo a novedosas tecnologías genéticas y
    bioinformáticas, incluyendo los chips de ADN.

    En general, los análisis genómicos
    globales funcionales suministran una clasificación
    funcional más que una comprensión detallada de cada
    gen. Para esto último habrá que volver a los
    estudios de corte más clásico, sobre genes o grupos
    de genes.

    Como dice Fred Sherman, uno de los líderes del
    Proyecto genoma de Levadura, tener la secuencia del genoma no es
    muy diferente a tener uno de los grandes catálogos de
    productos
    bioquímicos comerciales que tanto usan los
    biotecnólogos. Cada laboratorio dispone de ese
    catálago, pero cada uno usa un conjunto limitado de sus
    recursos, en función del tipo de investigación y
    del problema biológico que quiera abordar. Disponer del
    atlas del genoma y de las herramientas de estudio de rasgos
    complejos impulsará la biología del siglo XXI de un
    modo que no podemos sospechar aún.

    Avances en la medicina

    El PGH influirá poderosamente en la Biomedicina
    de los próximos lustros: permitirá avanzar en el
    conocimiento de la base de muchas enfermedades (Medicina
    Molecular), y abrirá perspectivas nuevas en el
    diagnótico, pronóstico y tratamiento, aunque esto
    último, necesitado de mucha investigación de tipo
    post- genómico, vendrá con más
    retraso.

    Comprensión de la base molecular de las
    enfermedades

    Uso de los modelos de ratones
    transgénicos

    Los ratones se pueden manipular en línea germinal
    e inactivar de modo dirigido genes. De esta forma se han logrado
    modelos de numerosas enfermedades humanas, sobre todo las que
    afectan al sistema inmune y al desarrollo
    embrionario. Actualmente existen unas 1000 razas de ratones
    K.O. (noqueados), y obtener cada una de ellas cuesta una media de
    $ 100.000 y unos 10 meses de desarrollo.

    En 1997 el Instituto Merck de Investigación
    Genómica anució que iba a financiar con $ 8
    millones a la empresa Lexicon Genetics para crear 150 nuevas
    razas de ratones K.O. usando una nueva tecnología
    desarrollada por esa compañía. La Merck pretende
    que las razas de ratón creadas en el proyecto queden
    disponibles para los investigadores aun precio
    nominal. La estrategia de Lexicon consiste en insertar un
    pequeño trozo de ADN aleatoriamente en células
    madre embrionarias. El ADN insertado inactiva la función
    del gen donde se inserta, y junto con algunas secuencias
    adyacentes transcribibles del ratón, suministra un
    sitio-etiqueta único. Luego se recupera esa etiqueta, de
    modo que se puede averiguar la identidad del gen
    inactivado.

    Durante los próximos 3 años, Lexicon
    pondrá a trabajar robots de alto rendimiento para generar
    unos 500.000 clones mutantes de células madre embrionarias
    de ratón, cantidad suficiente para que cada gen quede
    marcado e inactivado una media de 5 veces. Las células
    clonadas se guardan en nitrógeno líquido. Para
    final de este año se espera disponer ya de 50.000 clones.
    Cualquier investigador con un gen clonado o secuenciado
    podrá consultar la base de datos OmniBank para localizar
    los clones que lleven una inserción inactivadora en el gen
    en que trabajan. Las células de ese clon o clones se
    descongelan y se usan para crear el correspondiente ratón
    transgénco K.O., del .- que se estudiará el
    fenotipo a nivel anatomo-histológico, fisiológico,
    etc. (Volvemos a remitir al lector al artículo publicado
    en "Nature" (vol 392: 608-611 [1998])con un ejemplo de
    cómo esta empresa está aplicando este método
    prometedor.

    CONCLUSION

    Desde el momento que se decidió introducir
    fragmentos de (ADN) en el Genoma de un individuo que de un modo
    arrojo saldos positivos para los investigadores y su
    función en vivo.

    El interés y preocupación de los
    investigadores empezó a aumentar y transcender hacia otros
    sectores de la sociedad en el decenio de 1980, al tener conciencia de la
    viabilidad y factibilidad de
    modificar genéticamente las células.

    Entendiendo la importancia del Genoma Humano debemos
    tomar en cuenta de cual pueden ser sus consecuencias en el
    ámbito social, éticas, jurídicas,
    etc.

    Los primeros resultados ya han estimulado un debate
    sobre si conviene o no patentar para uso comercial, las
    secuencias de Genes Humanos y de poner la información
    sobre Genética Humana a disposición, así
    como corregir defectos Genéticos de forma que
    podría transmitirse de generación en
    generación, pero hay que destacar la relevancia que tiene
    el proyecto Genoma Humano en cuanto a que traería
    conocimientos y abriría nuevas puertas ala ciencia del
    mañana, pero será necesario delimitar los procesos
    de estudio según el derecho ala dignidad
    humana.

    En fin podemos decir que la realización de la
    investigación del Genoma Humano, permite asumir muchas
    consideraciones, entre las cuales podemos nombrar a manera de
    conclusión:

    _Las investigaciones
    acerca del Genoma suponen un aporte importante en torno al,
    futuro genético del hombre.

    _El aporte de las deducciones realizadas a partir del
    estudio de la cadena de ADN permitirán mejorar la calidad de
    vida del hombre desde la perspectiva de la salud.

    _Los estudios acerca del Genoma suponen una
    relación de carácter
    científico tecnológico.

    _Los estudios en tomo al Genoma supondrán la
    curación de enfermedades que han estado
    afectando al hombre( cáncer, HIV) así como
    herejías genéticas.

    _Permitirá mejorar la estructura física
    del hombre.

    _Permitirá la escogencia de nuevos elementos y
    perfiles para el hombre del
    futuro.

    BIBLIOGRAFIA

    -Enciclopedia Encarta 98

    -Trabajo practico de Genoma, de Juan Andrés
    Toselli en wwwv.monografias.com

    -Declaraciones de la asociación medica Mundial
    sobre el proyecto Genoma Humano, en
    www.uma.net/s/policy/17-5-1_5.html.

    -Aplicaciones de la Ingeniería
    Genética en www.geocitees.com/genetica
    2000.

    -El Genoma Humano del Dr. Francisco Lenadro Loicano en
    www.alfinal.com

    -Biología I. Editorial Santillana

    -Química II. Editorial Santillana.

    -Diario la nación
    en www.lanacion.com.ar
    , Febrero-Agosto 2002

    -Clarín Digital en www.clarin.com .ar ,
    Febrero-Agosto 2002

    ANEXOS

     

     

     

    Realizado por:

    Maria A. Alcalá O.

    Rondón, Marvelis.

    Urbano, Yamilka

    PTO. LA CRUZ,

    Nota al lector: es posible que esta página no contenga todos los componentes del trabajo original (pies de página, avanzadas formulas matemáticas, esquemas o tablas complejas, etc.). Recuerde que para ver el trabajo en su versión original completa, puede descargarlo desde el menú superior.

    Todos los documentos disponibles en este sitio expresan los puntos de vista de sus respectivos autores y no de Monografias.com. El objetivo de Monografias.com es poner el conocimiento a disposición de toda su comunidad. Queda bajo la responsabilidad de cada lector el eventual uso que se le de a esta información. Asimismo, es obligatoria la cita del autor del contenido y de Monografias.com como fuentes de información.

    Categorias
    Newsletter