Monografias.com > Filosofía
Descargar Imprimir Comentar Ver trabajos relacionados

Repercusiones godelianas




Enviado por Jesús Castro



Partes: 1, 2

  1. Repercusiones
    matemáticas
  2. Repercusiones físicas
  3. Inteligencia artificial
  4. Vida
    artificial
  5. Repercusiones sobre Alife
  6. Repercusiones
    lingüísticas
  7. Repercusiones
    filosóficas
  8. Repercusiones
    informáticas
  9. Conclusión

Este artículo pretende contestar lo más
eficaz y sencillamente posible la siguiente pregunta, basada en
los estudios profundos del Génesis: ¿Qué
repercusiones tienen los descubrimientos acerca de las
limitaciones de la ciencia humana?

Monografias.com

Desde la época de los grandes pensadores griegos
de la antigüedad hasta la segunda mitad del siglo XX, la
ciencia y la tecnología humanas han experimentado subidas
y bajadas alternativas, a nivel particular en un principio
(según la potencia cultural en auge o declive) y a nivel
más global en tiempos modernos. Pero desde la Edad Moderna
en adelante, la eclosión del conocimiento
científico se ha dado de forma expansiva y exponencial,
abarcando cada vez más sectores sociales de la humanidad y
acelerando sus descubrimientos. Este aumento vertiginoso del
saber técnico ha producido una especie de enajenamiento en
el ámbito de la ciencia, toda vez que ésta ha
quedado deslumbrada a causa de su propia potencialidad
extrovertida y se ha olvidado de sí misma, es decir, de
analizarse a sí misma.

Sin embargo, la omnipresente y prolífica plaga de
las paradojas nunca ha cesado de atormentar a los constructores
de modelos interpretativos y teorías, por lo que hacia la
segunda mitad del siglo XX se hizo completamente necesario
atender a estos inconvenientes. Se observó que las
paradojas solían atacar al edificio científico a
partir de los fundamentos, de manera que para resolverlas era
necesario analizar concienzudamente dichos fundamentos y
remodelarlos, esto es, dotarlos de mayor inmunidad contra esta
plaga. Y así, entonces, el mundo científico se vio
obligado a hacer autorreferencia teórica, es decir, a
estudiar minuciosamente el derrotero de la ciencia con
métodos también científicos, pero adaptados
a este tipo de investigación. Surgió así la
denominada "metaciencia", o el estudio científico de la
ciencia como fenómeno u objeto cambiante.

Pues bien, en medio de este nuevo
desarrollo y en muchos sentidos vanguardista dentro del
mismo, se encuentra la figura de Kurt Gödel.
Sus trabajos metacientíficos permiten atisbar el inicio de
un interesante camino de investigación científica
que puede aclarar qué es lo que es realmente la ciencia y
cuáles son sus fronteras o limitaciones: cuáles son
las capacidades de la ciencia y cuáles son sus
incapacidades.

Son muchas las repercusiones del trabajo de
Gödel. La única condición para su
aplicación es contar con un sistema de
razonamiento basado en un conjunto finito de axiomas. A esta
descripción responden todas las ramas de las
matemáticas, la física y la astronomía,
así como muchos planteamientos de la filosofía y la
lingüística. Sin embargo, y relajando la
condición de rigurosidad, podría extenderse a las
ciencias sociales, la economía, la psicología, la
sociología, la teología y la historia, e igualmente
a la ética y la moral; si bien hay que decir que la
aplicación en dichos casos no gozará del rigor de
su origen, y se puede llegar a conclusiones falsas,
pero también es verdad que siempre es posible adoptar una
terminología y una fundamentación más
exactas para las ramas del conocimiento que todavía
contienen conceptos ambiguos y poco
refinados.

La limitación que el teorema de
Gödel nos descubre supuso un duro golpe al formalismo y
logicismo matemáticos que, hasta entonces,
trataban de alcanzar lo que resultaría ser inalcanzable.
Ésta es pues su primera y más directa
repercusión.

Repercusiones
matemáticas.

Peano, Boole, De Morgan, Hilbert, Gentzen y otros dieron
por sentado que para cualquier proposición bien construida
del sistema matemático habría de existir o bien una
demostración de ella o bien una demostración de su
contraria, porque en matemáticas no hay ningún
"ignoramos". El sistema matemático es un sistema formal,
es decir, un conjunto de símbolos carentes de significado
y que lo adquieren mediante una serie de convenciones previas o
axiomas. La demostración de este hecho, que no se
ponía en duda, fue el objetivo principal de los trabajos
de Hilbert.

El teorema de Gödel constituyó un duro golpe
para esa concepción clásica, donde la naturaleza de
la verdad matemática se suponía que era la
demostrabilidad, pero no es así. Demostró los
límites de los sistemas formales: La matemática
siempre contendrá verdades indecidibles, siendo por tanto
inagotable. El método axiomático resulta
finitamente fecundo.

Monografias.com

Como dijo Morris Kline, uno de los formalistas de la
época, "El fenómeno de la incompletitud constituye
un importante defecto, ya que entonces el sistema formal no es
adecuado para demostrar todas las afirmaciones que podrían
serlo correctamente (sin contradicción) dentro del
sistema". También, Herman Weyl apostilló, en 1949:
"Ningún Hilbert será capaz de asegurar la
consistencia para siempre; hemos de estar satisfechos de que un
sistema axiomático simple de matemáticas haya
superado hasta el presente el test de nuestros elaborados
experimentos matemáticos… Una matemática
genuinamente realista debería concebirse, en
parangón con la física, como una rama de la
interpretación teorética (especulativa o
teórica) del único mundo real y debería
adoptar la misma actitud sobria y cautelosa que manifiesta la
física hacia las extensiones hipotéticas de sus
fundamentos".

Repercusiones
físicas.

Por su cercanía a las matemáticas y
después de ésta, la física, tan
cuidadosamente axiomatizada, es la más afectada por el
teorema de Gödel. Los físicos han comprendido a la
fuerza que sus mayores limitaciones no serán
económicas o tecnológicas, ni siquiera las
asociadas a la capacidad humana. Su mayor limitación
radica en que nunca alcanzarán solución a todos los
problemas que puedan plantearse, ya que todo sistema racional de
conocimientos es esencialmente incompleto.

Para entenderlo mejor consideremos que la física
no existe a parte del universo, sino que forma parte de él
y su objeto es modelizarlo o representarlo teóricamente.
El hombre también forma parte del universo. Dado que tanto
el sistema teórico como sus creadores humanos forman parte
del universo, parece permisible afirmar que el universo trata de
hacer un modelo de sí mismo. Por tanto, una pequeña
parte del universo (el hombre y su sistema teórico) tratan
de modelar una realidad completa (el universo). Se trata, pues,
de un claro ejemplo de autorreferencia, y como tal adolece de una
paradoja: el modelo como parte del universo tendría que
ser mayor que el universo que pretende modelizar. Pero,
¿es lógico aceptar que una parte es mayor que el
todo?

Junto al teorema de Gödel surgen una serie de otros
teoremas cuya totalidad impone una gran limitación sobre
el alcance del conocimiento científico. Muere por tanto el
ideal, u objetivo esencial de la ciencia en
sí, consistente en establecer un sistema axiomático
que explique los fenómenos de la naturaleza o
universales. Pero todo esto, para algunos teóricos,
sólo supone el descubrimiento de limitaciones que existen
en la lógica formal que empleamos para llegar a las
verdades más profundas, ya sea en física,
matemáticas o cualquier otra disciplina. Por lo tanto, los
investigadores más optimistas creen que éstas no
son limitaciones contra la ciencia en sí, sino más
bien adjudicables a la forma en que la observamos. No
deberían constituir, por lo tanto y según ellos,
una fuente de desánimo total sino más bien una
llamada de atención, un desafío y una
invitación a la cautela.

Inteligencia
Artificial.

John R. Lucas, filósofo de Oxford,
ha interpretado los trabajos de Gödel como una prueba
inequívoca de que en los sistemas matemáticos
existen proposiciones indemostrables dentro de los propios
sistemas, y que sin embargo son evidentemente verdaderas.
Argumenta: "Cualquier formalismo S que contenga PA es tal que al
razonar sobre él, podemos establecer la existencia de una
fórmula verdadera con respecto a la interpretación
estándar de S pero indemostrable en S. Por tanto, esa
fórmula será aceptable desde nuestro punto de
vista, por ser verdadera, pero inaceptable para S –por ser
indemostrable–, con lo que ningún cálculo
será capaz de encapsular las habilidades formales del ser
humano" (ver Nota siguiente).

Monografias.com

Lucas, por tanto, concluía que la capacidad de
nuestro entendimiento sobrepasa a la del computador. El
computador emplea únicamente algoritmos, es decir, series
de precisas normas que definen los pasos a seguir para resolver
un problema o demostrar la veracidad de una proposición.
Pero no existe ningún algoritmo capaz de demostrar
determinadas proposiciones que sin embargo nosotros percibimos
como ciertas. De esta manera, el conocimiento de esas verdades no
puede ser de orden algorítmico. En consecuencia, como los
computadores funcionan únicamente sobre la base
algorítmica, no somos computadores.

NOTA:

La expresión PA significa
literalmente "Peanno's axioms" (axiomas de Peano) y se refiere a
un conjunto de axiomas o postulados aritméticos
establecidos por Giuseppe Peano en el siglo XIX, los cuales se
han utilizado prácticamente sin cambios en diversas
investigaciones matemáticas, incluyendo cuestiones acerca
de la consistencia y completitud de la aritmética y la
teoría de números. Son cinco axiomas, a
saber:

1. El 1 es un número natural. 1
está en N, el conjunto de los números
naturales.

2. Todo número natural n tiene un
sucesor n* (este axioma es usado para definir posteriormente la
suma).

3. El 1 no es el sucesor de ningún
número natural.

4. Si hay dos números naturales n y
m con el mismo sucesor, entonces n y m son el mismo número
natural.

5. Si el 1 pertenece a un conjunto K de n
naturales y dado un elemento cualquiera k resulta que el sucesor
k* también pertenece al conjunto K, entonces
todos los números naturales pertenecen a dicho conjunto K.
Este último axioma es el denominado "principio de
inducción matemática".

Hay un debate sobre si considerar al 0 como
número natural o no. Generalmente se decide en cada caso,
dependiendo de si se lo necesita o no. Cuando se resuelve incluir
al 0, entonces deben hacerse algunos ajustes menores y
queda:

1. El 0 es un número
natural.

2. Si n es un número natural,
entonces el sucesor de n también es un número
natural.

3. El 0 no es el sucesor de ningún
número natural.

4. Si hay dos números naturales n y
m con el mismo sucesor, entonces n y m son el mismo número
natural.

5. Si el 0 pertenece a un conjunto y dado
un número natural cualquiera resulta que el sucesor de ese
número también pertenece a ese
conjunto, entonces todos los números naturales pertenecen
a dicho conjunto.

Roger Penrose ha retomado el argumento de
Lucas, y a partir de la versión del teorema de Gödel
presentado por Turing y conocido como "demostración del
insolucionable problema de la Detención o Parada de una
máquina MT en proceso de cálculo" (ver Nota, a
continuación), ha afirmado que ningún computador
podrá jamás alcanzar al ser humano en el
ámbito del razonamiento matemático, ya que el ser
humano posee capacidades intuitivas "no
algorítmicas", y además de ello resulta que los
modelos informáticos no garantizan la resolución de
todos los juicios de verdad (o razonamientos que permiten decidir
entre veracidad y falsedad para un cierto enunciado o
proposición, el cual trasciende las reglas dadas
algorítmicamente).

NOTA:

Manuel López Pellicer, licenciado en Ciencias
Físicas y doctor en Ciencias Matemáticas, que ha
sido Profesor Agregado de Análisis Funcional en la
Universidad de Valencia y desde 1979 Catedrático de
Matemática Aplicada en la Universidad Politécnica
de Valencia; académico Correspondiente de la Real Academia
de Ciencias desde 1989 y académico Numerario
desde 1998; cuyos campos de trabajo son la Topología
Conjuntista y el Análisis

Funcional, con aportaciones en espacios
topológicos completamente regulares, espacios vectoriales
topológicos y teoría de la medida… este
científico emitió un artículo, aparecido en
el año 2003 en la revista de la Real Academia de Ciencias
Exactas, Físicas y Naturales (España), titulado
"Matemáticas, ordenadores y el conocimiento del mundo", en
el cual expone que el libro "Principia Mathematica" de Russell y
Whitehead pudo motivar que Hilbert en su conferencia de 1900
propusiese encontrar un sistema lógico formal con el que
se pudiese probar la verdad o falsedad de cualquier enunciado
matemático. Nadie imaginó que ese sueño de
Hilbert sería irrealizable, pero, tres décadas
después, Kurt Gödel probó que no existe un
sistema axiomático que contenga a toda la
matemática. Entonces, y diez años antes de la
aparición de los primeros ordenadores electrónicos,
un pequeño grupo de matemáticos empezó a
predecir cómo funcionarían. Uno de ellos, Alan
Turing, desarrolló muchos de los conceptos que utilizan
nuestros ordenadores personales.

Menos clara es la naturaleza del supuesto "ordenador"
(cerebro) que tenemos en nuestra cabeza, del que se está
empezando a descifrar los algoritmos empleados en los circuitos
neuronales más simples. Turing, explorando el concepto de
computabilidad, encontró el denominado "problema de la
detención, interrupción o parada" (que esbozaremos
sobre estas líneas, un poco más adelante) y
probó su equivalencia con el teorema de Gödel en
1936. Lo que todavía no se sabe es por qué es
imposible elaborar un sistema formal que abarque toda la
matemática. Dado que las matemáticas son
construcciones mentales, Roger Penrose cree que la imposibilidad
se debe a la intervención de las incertidumbres de la
mecánica cuántica en el funcionamiento del cerebro
a nivel de las neuronas.

El resultado de Gödel y Turing no
disminuye la potencia de las aplicaciones de la
matemática, que con ayuda del ordenador ha dedicado mucho
esfuerzo en el siglo XX a la obtención de aproximaciones
numéricas de soluciones de problemas complejos. Aún
siguen siendo muchos los campos actuales necesitados de ayuda con
nuevos desarrollos matemáticos, pues los problemas de
muchas investigaciones son demasiado complicados para resolverlos
por métodos conocidos. El plegamiento de las
moléculas de proteínas, formadas por
miles de aminoácidos, para adoptar una forma
funcional exige el desarrollo de un tratamiento
sistemático dada la enorme variedad de posibilidades.
También los biólogos y bioquímicos
tendrán que recurrir pronto a nuevos modelos
informáticos para dar sentido a la enorme masa de datos
acumulados.

Monografias.com

Recapitulemos. En 1931, Kurt Gödel publicó
su famoso artículo "Sobre las proposiciones formalmente
indecidibles en Principia Mathematica y sistemas relacionados",
que quizá sea la realización matemática
más importante del siglo XX. La argumentación
presentada en dicho artículo es lo que se conoce
generalmente como "teorema de Gödel" y demuestra que toda
formulación axiomática consistente (o coherente) de
la teoría de números contiene proposiciones
indecidibles: siempre habrá en ella afirmaciones
verdaderas que no se pueden demostrar.

En 1937, el matemático inglés
Alan Mathison Turing publicó otro artículo famoso
sobre los "números calculables", basado en el Teorema de
Gödel y que puede considerarse el origen oficial de la
"informática teórica". En realidad, dicho
artículo contemplaba la aplicación del Teorema de
Gödel a la informática, o la informatización
del Teorema de Gödel. El artículo introducía
la denominada "máquina de Turing" (MT), una entidad
matemática abstracta que formalizó el concepto de
"algoritmo" y resultó ser la precursora teórica de
las computadoras digitales. Pues bien, con la ayuda de esta MT
abstracta Turing pudo demostrar que existen problemas
irresolubles tales que ninguna MT, y por ende ningún
ordenador, será capaz de resolver o solucionar
jamás.

Una MT puede considerarse como una cinta
infinita dividida en casillas, cada una de las cuales contiene
un símbolo. Sobre dicha cinta actúa un
dispositivo que puede adoptar diversos estados y que, en cada
instante, lee un símbolo de las casilla sobre la que
está situado. En función del símbolo que ha
leído y del estado en que se encuentra, realiza las 3
acciones siguientes:

1. Pasa a un nuevo estado, imprime un
símbolo en lugar del que acaba de leer y se desplaza una
posición hacia la izquierda.

2. Pasa a un nuevo estado, imprime un
símbolo en lugar del que acaba de leer y se desplaza una
posición hacia la derecha.

3. Pasa a un nuevo estado, imprime un
símbolo en lugar del que acaba de leer y se detiene o
para.

Monografias.com

El concepto de MT es tan general y potente que es
posible construir otra máquina que sea capaz de simular el
comportamiento de otra MT cualquiera, llamándose a dicha
máquina MTU (máquina de Turing universal).
Estudiando la MT, Turing demostró la existencia de un
problema irresoluble: ¿Es posible construir un algoritmo
que, dada una MT cualquiera, nos diga si esa MT acabará
por pararse al leer cierta cinta o bien seguirá
funcionando indefinidamente, moviéndose siempre hacia la
derecha, la izquierda o realizando ciclos más o menos
complejos?

Turing supuso hipotéticamente que el problema se
puede resolver, por lo que debería ser posible construir
una máquina MT* que lo resuelva. En la cinta de MT*
colocamos una descripción de MT y una copia de la cinta
que debe leer. Además, podemos programar MT* de manera que
si MT se para entonces MT* siga funcionando indefinidamente; y
por el contrario, si MT no se para entonces MT* debe pararse.
Ahora bien, puesto que MT* acepta la descripción de
cualquier MT, entonces a MT* le proporcionamos su propia
descripción. Pero entonces aparece la siguiente
contradicción: por construcción, MT* debe pararse
si MT* no se para y viceversa. En consecuencia, hay que renunciar
a la hipótesis de que sea posible construir MT*. Es decir,
el "problema de la parada" de una MT es irresoluble.

Los teoremas de Gödel han sido ampliamente
empleados para criticar las ideas que defienden la
creación de una auténtica Inteligencia Artificial.
Sin embargo, muchas de las teorías que echan por tierra el
sueño de crear una máquina con una inteligencia que
pueda rivalizar con la del ser humano no son igualmente
aplicables al campo de la Vida Artificial (nota: no es lo mismo
vida artificial que inteligencia artificial) sin más, a
pesar de los muchos puntos en común que tienen ambos
campos.

Por otra parte, el propio Gödel, en un rapto de
moderación, dijo que su teorema de la incompletitud no
impediría la posible creación de una mente
artificial; y autores como Rudy Rucker emplean argumentos
similares a los de Lucas, utilizando también el teorema de
incompletitud de Gödel, para defender la posible
creación de inteligencia artificial. Tales argumentos
demuestran que el sólo uso de la incompletitud no sirve
para convencer a ciertos teóricos de la imposibilidad de
crear una inteligencia artificial. Sin embargo, el teorema de
Gödel puede emplearse para restringir y cerrar muchos
caminos en el campo de la Vida Artificial y de la Inteligencia
Artificial.

La Vida Artificial no persigue la meta de
crear una inteligencia similar a la humana (esto queda dentro del
campo de la Inteligencia Artificial), sino que profundiza en el
estudio de la vida en su sentido más elemental, comparando
y contrastando los conceptos de "vida tal como es" y "vida tal y
como podría ser". Actualmente, en el campo de la Vida
Artificial existen dos opciones para la investigación y el
desarrollo, a saber:

(1) Una de ellas considera la Vida
Artificial como herramienta necesaria para estudiar el mundo
natural.

(2) La otra se centra en la idea de que se
pueden diseñar programas que, ejecutados correctamente,
constituyan una forma de vida por sí mismos.

NOTA:

La vida artificial (VA) es el estudio de la vida y de
los sistemas artificiales que exhiben propiedades similares a los
seres vivos, a través de modelos de simulación. El
científico Christopher Langton fue el primero a utilizar
el término a fines de los años 1980, cuando se
celebró la "International Conference on the Synthesis and
Simulation off Living Systems" (Primera Conferencia Internacional
de la Síntesis y Simulación de Sistemas Vivientes),
también conocida como "Artificial Life I" (Vida Artificial
I), en los Alamos National Laboratory en 1987. En inglés
también se conoce como alife, por la contracción de
"artificial life" (vida artificial).

Aunque el estudio de vida artificial tiene alguna
superposición significativa con el estudio de inteligencia
artificial (IA), los dos campos son muy diferentes en su historia
y métodos. La investigación de IA organizada
empezaba temprano en la historia de calculadoras digitales, y se
caracterizaba a menudo en aquellos años por
un enfoque "de arriba abajo" (top-down), basado en redes
complejas de reglas. Pero los estudios de vida artificial (Alife)
no tuvieron un campo nada organizado hasta los años 1980 y
a menudo trabajaban de forma aislada, sin cohesionar a los
investigadores que hacían trabajos similares. Si en alguna
ocasión éstos se preocupaban por la inteligencia,
tendían a centrarse en un enfoque "de abajo arriba"
(bottom-up), de conductos emergentes.

Monografias.com

Los investigadores de vida artificial se
han dividido a menudo en dos grupos principales (aunque existen
otras clasificaciones posibles):

1. Alife-fuerte: Es la posición de
"vida artificial dura o fuerte", que manifiesta que la vida es un
proceso que se puede conseguir fuera de cualquier
medio particular (John Von Neumann). Por su parte, Tom Ray, un
ecologista que creó y desarrolló el proyecto
"Tierra" (una simulación por ordenador de vida
artificial), declaró paroxísticamente que su
programa "Tierra" no estaba simulando vida en un ordenador sino
que la estaba sintetizando.

2. Alife-débil: Es la posición de "vida
artificial débil", que niega la posibilidad de generar un
"proceso de vida" fuera de una solución química
basada en el carbono. Sus investigadores intentan en cambio
imitar procesos de vida para entender aspectos de
fenómenos sencillos. La manera habitual es a través
de un modelo basado en agentes, que normalmente da una
solución posible mínima. Esto es: "no sabemos
qué genera este fenómeno en la naturaleza, pero
podría ser algo tan simple cómo… ".

El campo de investigación de Alife se caracteriza
por el uso extenso de programas informáticos y
simulaciones que incluyen el denominado "cálculo
evolutivo" (algoritmos evolutivos, algoritmos genéticos o
GA por el inglés Genetic Algorithm –,
programación genética, inteligencia de enjambre,
optimización de colonias de hormigas, etc.),
química artificial, modelos basados en agentes y
autómatas celulares o CA (del inglés Cellular
Automata). A menudo todas estas ramas cognitivas se ven como
subcampos de la vida artificial, además de los
artículos técnicos en los temas de vida artificial
que son aceptados en conferencias diversas hasta que su dominio
teórico haya crecido lo suficiente para celebrar sus
propias conferencias independientes.

La vida artificial es un punto de reunión para
gente de otros muchos campos más tradicionales, como la
lingüística, física, matemáticas,
filosofía, informática, biología,
antropología y sociología, en los cuales se puede
hablar de enfoques computacionales y teóricos inusuales
que serían controvertidos dentro de su propia disciplina.
Como ámbito independiente, Alife ha tenido una historia
controvertida; John Maynard Smith criticaba en el año 1995
algunos trabajos de vida artificial como "ciencia libre de
hecho", y no ha recibido generalmente demasiada atención
seria de los biólogos. Aun así, la
publicación reciente de artículos de vida
artificial en revistas ampliamente leídas, como Science y
Nature, evidencia que las técnicas de vida artificial se
están volviendo cada vez más aceptadas en la
ciencia central, como mínimo al aportar un método
que estudia la evolución.

Monografias.com

Es interesante reflexionar en el uso que
los evolucionistas quieren dar al cálculo evolutivo
provisto por Alife, en un esfuerzo desesperado y
postrero por consolidar su doctrina (el evolucionismo). Por su
parte, parece que este tipo de cálculo (computacional)
adopta la denominación de "evolutivo" por influencia del
paradigma evolucionista, que es supuesto cierto "a priori" (sin
el respaldo de la ciencia experimental fidedigna) por la
mayoría de los intelectuales contemporáneos y
evidentemente por el grueso del colectivo dedicado a desarrollar
Alife.

Sin embargo, hay que hacer notar tres cuestiones. La
primera es la que tiene que ver con la capacidad creativa del ser
humano, presumiblemente derivada de las características
con las que fue creado, pues el Génesis dice que el hombre
fue hecho "a la imagen de Dios, el Creador". Por consiguiente, no
sería del todo extraño que los investigadores
humanos fueran capaces de dar a luz (en el marco de la
tecnología computacional) algoritmos que simulan el
fenómeno biológico que se denomina "vida", e
incluso también extraños e hipotéticos
"avatares" (en su acepción secular: cambio, fase o
vicisitud) considerados como "vida artificial" sin
correspondencia directa con el mundo natural conocido. Esto
quiere decir que el hecho de que la inventiva humana produzca
"mundos artificiales aderezados con biología
evolucionista" no significa necesariamente que la realidad
natural posea las mismas características evolucionistas.
La inventiva computacional humana puede producir "mundos
virtuales" inconexos en mayor o menor grado con el mundo natural
diseñado por el Gran Creador, el Dios del
Génesis.

La segunda cuestión que queremos hacer notar es
la que tiene que ver con el "isomorfismo biológico", es
decir, con dos estructuras biológicas compuestas por
diferentes materiales entre sí pero que sin embargo tienen
las mismas propiedades biológicas. Por ejemplo, las
prótesis médicas que pretenden suplir los
menoscabos anatómicos y funcionales de pacientes que han
perdido su integridad morfológica y funcional se pueden
considerar, en mayor o menor grado, como "isomorfismos
biológicos". Más concretamente, cuando un individuo
recibe un implante dental, de una muela que ha perdido, dicho
implante tiene la finalidad de suplir al mayor grado posible la
anatomía y funcionalidad de la muela perdida; por
consiguiente, existe un "isomorfismo biológico" entre la
prótesis molar y la muela perdida; pero dicho isomorfismo
no es completo sino parcial, ya que no remeda todas las
características de la pieza ósea perdida (la muela
natural está irrigada por vasos sanguíneos que le
confieren la capacidad de regenerar lesiones microscópicas
por reposición de osteocitos muertos, cosa que no puede
hacer la prótesis).

Pues bien, los evolucionistas se han
empeñado en hacer creer que existe un "isomorfismo
biológico" entre la vida en la naturaleza y
la vida artificial evolutiva (vida virtual, computarizada,
afectada por algoritmos evolutivos). Sin embargo, esta creencia
no está apoyada por la ciencia experimental fidedigna. La
vida creada por el Sumo Hacedor no es "isomorfa" con
la vida creada artificialmente por ingenieros informáticos
evolucionistas. El Génesis no admite la doctrina
evolucionista. El Gran Diseñador de la biosfera revela, a
través del Génesis, que es un error monumental
suponer que existe un "isomorfismo biológico" entre su
obra creativa biológica y la obra creativa
biológica (virtual) de científicos evolucionistas
que utilizan tecnología computacional.

La tercera y última cuestión que queremos
resaltar es la que tiene que ver con la dimensión
ética y moral de la supuesta capacidad humana para crear
Alife. En efecto, según se desprende del estudio del
Génesis y de la demás Sagrada Escritura, los graves
problemas que afectan a la humanidad actual hunden sus
raíces en la gran decadencia ética y moral
contemporánea, así como en una concepción
errónea de las normas y principios que deben contener
estas dos disciplinas. Es revelador lo que dice el
Génesis, en su capítulo 2, versículos 15 a
17:

… Y Jehová Dios (el Creador)
procedió a tomar al hombre y a establecerlo en el
jardín de Edén para que lo cultivara y
lo cuidara. Y también impuso Jehová Dios este
mandato al hombre: "De todo árbol del jardín puedes
comer hasta quedar satisfecho. Pero en cuanto al árbol del
conocimiento de lo bueno y lo malo, no debes comer de él,
porque en el día que comas de él, positivamente
morirás".

Obsérvese que la única
restricción dada al hombre por su Creador era la de comer
del "árbol del conocimiento de lo bueno y lo malo", esto
es, evitar usurpar a su Hacedor el derecho a decidir qué
es bueno y qué es malo para el hombre. Así, el ser
humano podía disfrutar de libertad completa para amasar
por cuenta propia cualquier tipo de conocimiento
(científico, cultural, tecnológico, etc.), salvo el
conocimiento de "lo bueno y lo malo".

¿Y qué clase de conocimiento es el que
sirve para valorar algún fenómeno como "bueno" o
"malo"? ¿No es el llamado "conocimiento ético y
moral", exclusivamente? Por lo tanto, se sobreentiende que el ser
humano no está capacitado para alcanzar por sí
mismo un conocimiento ético y moral confiable, debiendo
recurrir a su Creador para obtener dicho conocimiento.

Al parecer, en prevención de que la
primera pareja humana causara problemas graves a la colectividad
social que pronto se desarrollaría con su propia prole,
Dios puso coto al impulso latente en el hombre en cuanto a
proporcionar leyes éticas y morales que regularan a la
sociedad humana en ciernes, y lo hizo por medio de
señalarle su incapacidad innata a este respecto, tomando
como emblema el árbol del "conocimiento de lo bueno y lo
malo". Recordemos que los funcionarios judiciales y los jueces
establecidos por el hombre, supuestamente encargados de guardar
las leyes que favorecen el orden social, dictan a veces
sentencias éticas y morales en desacuerdo con la norma
divina, y esto suele acarrear gravísimas consecuencias
más o menos tardías. En realidad, la paz y la
estabilidad de la sociedad humana organizada
dependen, en buena medida, del acierto o desacierto con que
la clase judicial se exprese respecto a la ética y la
moral.

Monografias.com

Por otra parte, la revista DESPERTAD del 8-2-2005,
página 12, editada en español y en otros idiomas
por la Sociedad Watchtower Bible And Tract, expone: «El
eminente profesor y psiquiatra Robert Coles dijo en cierta
ocasión: "El niño cuenta con un sentido moral
interno en desarrollo. Pienso que Dios lo creó con esa
necesidad acuciante de guía ética". Ahora bien,
¿quién tiene que satisfacer esa hambre y sed de
orientación moral? En Efesios 6:4, las Escrituras
exhortan: "Vosotros, padres, no estéis irritando a
vuestros hijos, sino seguid criándolos en la disciplina y
regulación mental de Jehová"».

Esto da a entender que existe una necesidad de
educación moral en el niño, quien, por decirlo
así, precisa recibir externamente orientación en
este sentido; y son los padres, según las Santas
Escrituras, los máximos responsables de proporcionar esta
educación a sus hijos. Ahora bien, los padres,
independientemente de lo experimentados y sabios que sean, son
incapaces de dar una correcta orientación moral a sus
hijos basándose sólo en sus propias ideas. Los
padres necesitan primero estar duchos en la guía moral que
proviene del Todopoderoso. De otra manera, cada familia y cada
individuo llegaría a tener su propio y subjetivo sentido
moral particular, con el riesgo aumentante de
colisiones entre diferentes puntos de vista humanos. De hecho,
muchas guerras y represiones violentas han ensangrentado las
páginas de la historia y se han debido fundamentalmente a
choques brutales entre maneras distintas de entender la
ética y la moral.

Alife supone la introducción de una
potentísima herramienta en el seno de una sociedad humana
tecnificada y sin valores éticos y morales
fiables, por lo que su uso y abuso puede traer consecuencias
calamitosas en todas direcciones. Al igual que Internet, la
energía nuclear, la aviación, etcétera
(todos ellos caracterizados históricamente por una
desdichada explotación contraproducente), así
también Alife se encamina a servir de juego perverso en
manos de dioses humanos sin escrúpulos e inclinados al
error y a las bajas pasiones, como bien patentiza el
Génesis.

Vida
artificial.

Los orígenes de Alife se encuentran alrededor de
los años 1950. Uno de los primeros pensadores
contemporáneos que previó los potenciales de la
vida artificial, separada de inteligencia artificial, fue el
prodigioso matemático e informático John Von
Neumann. En el Simposio Hixon, ofrecido por Linus Pauling en
Pasadena, California, a finales de los años 1940, Von
Neumann dio una conferencia titulada "The General and Logical
Theory of Automata" (La Teoría General y la Lógica
de Autómatas). Definía un "autómata" como
cualquier máquina cuyo comportamiento provenía de
la lógica, paso a paso, combinando información
tomada desde el ambiente y la de su propia programación, y
decía que con el tiempo se encontrarían organismos
naturales que siguieran reglas simples similares. También
habló sobre la idea de máquinas que se auto
duplicaran. Presuponía una máquina – un
autómata cinemático – constituida por un
ordenador de control, un brazo de construcción y gran
conjunto de instrucciones. Utilizando las instrucciones, que eran
parte de su propio cuerpo, podría crear una máquina
idéntica. Siguiendo esta idea creó (con Stanislaw
Ulam) autómatas puramente lógicos, no dotados
cuerpo físico sino basados en estados cambiantes en
unidades celulares insertas en una red infinita.

El primer autómata celular de este
cuño fue extraordinariamente mucho más
complicado que posteriores autómatas celulares.
Tenía cientos de miles de células que podían
existir cada una de ellas en uno de 29 estados posibles, pero Von
Neumann pensaba que necesitaba esta complejidad para conseguir
que funcionara no sólo como una máquina auto
replicante, sino también como una computadora universal
tal y como la definió Alan Turing. Este computador
"constructor universal" leía de una cinta de instrucciones
y escribía una serie de células que podían
ser activadas para dejar una copia completamente funcional del
original y de su cinta. Von Neumann trabajó en su
teoría de autómatas intensivamente
hasta el momento de su muerte, y lo consideró su trabajo
más importante en la vida.

Monografias.com

El profesor John Horton Conway, de
Cambridge, inventó el autómata celular más
famoso de los años 1960. Lo denominó
el "Juego de la Vida", y consiguió publicidad a
través de la columna de Martin Gardner en la revista
"Scientific American". Christopher Langton fue un investigador
poco convencional, con una carrera académica sin
distinciones que lo llevó a conseguir un trabajo
programando "mainframes" para un hospital. Lo cautivó el
"Juego de la Vida" de Conway, y empezó a perseguir la idea
que una computadora puede emular criaturas vivas. Tras
años de estudio (y un casi fatal accidente de ala delta),
empezó a intentar actualizar el autómata celular de
Von Neumann y el trabajo de Edgar F. Codd, que simplificó
el monstruo original de 29 estados de Von Neumann a uno con
sólo 8 estados. Consiguió el primer
organismo computacional auto replicante en octubre
de 1979, usando simplemente un ordenador de sobremesa
Apple II. Entró al programa de graduados del
"Logic of Computers Group" el año 1982, a los 33
años, y ayudó a crear una nueva
disciplina.

El anuncio oficial de Langton de la conferencia
"Artificial Life I" fue la primera descripción de un campo
en el que casi no existían avances. Como sabemos, la "vida
artificial" (Alife) es el estudio de sistemas artificiales que
exhiben comportamientos característicos de los sistemas
vivos naturales. Es la búsqueda de una explicación
de la vida en cualquiera de sus posibles manifestaciones, sin
restricciones a un ejemplo particular que exista sobre la Tierra.
Incluye experimentos biológicos y químicos,
simulaciones por ordenador e iniciativas puramente
teóricas. Los procesos que ocurren en una escala
molecular, social o cósmica son objeto de
investigación. El deseo final es poder extraer la supuesta
"lógica" (los mecanismos automáticos) de los
sistemas vivientes.

Algunos expertos opinan que la tecnología
microelectrónica y la ingeniería genética
pronto nos darán capacidad para crear nuevas formas de
vida, tanto en silicio como "in vitro". Esta capacidad, caso de
materializarse, presentará a la humanidad retos
técnicos, teóricos y éticos con mayor
alcance que nunca.

En 1982, el científico en computadoras Stephen
Wolfram dirigió su atención a los autómatas
celulares. Exploró y categorizó los tipos de
complejidad que mostraban los autómatas celulares
unidimensionales, y señaló cómo
podían ser aplicados a fenómenos naturales como las
conchas marinas y la naturaleza del crecimiento de las plantas.
Norman Packard, que trabajó con Wolfram en el "Institute
for Advanced Study" (Instituto para Estudios Avanzados),
usó autómatas celulares para simular el crecimiento
de copos de nieve, siguiendo reglas muy básicas. El
animador por computadora Craig Reynolds, en el año 1987,
usó de manera similar simples reglas para crear
comportamientos de bandadas de pájaros en grupos de
"boids" dibujados por ordenador. Sin ningún tipo de
programación "de arriba abajo" (top down), los "boids"
producían soluciones parecidas a los de la vida real para
evadir obstáculos en su camino.

Monografias.com

La animación por computadora ha continuado siendo
un conductor comercial clave para la investigación en vida
artificial, según la actividad de los creadores de
películas que intentan encontrar formas más
realistas y baratas de animar escenas naturales relativas a
plantas vivas, movimientos de animales, movimiento del pelo y
complicadas texturas orgánicas.

Actualmente, Alife (vida artificial) va
ganando terreno entre las ciencias computacionales y
parece que en breve adquirirá identidad
propia como disciplina tecnológica. De momento, sus
aplicaciones más inmediatas son las siguientes:

• Sistemas complejos adaptativos, que han dado paso
a una nueva generación de sistemas expertos, que son
capaces de aprender y evolucionar.

• Autómatas celulares, que imitan funciones
de los organismos celulares en programas complejos, aplicando el
conocimiento biológico de los mismos a principios
prácticos de organización en sistemas de
cómputo.

• Agentes autónomos, que son
cada día más usados en aplicaciones de
búsqueda.

• Conocimiento de comportamientos
adaptativos, para el desarrollo de robots adaptativos.

Computación cuántica,
que a través del uso de las propiedades cuánticas
de los átomos y sus desplazamientos, prevé
posibilitar una nueva forma de cálculos
binarios.

NOTA:

Partes: 1, 2

Página siguiente 

Nota al lector: es posible que esta página no contenga todos los componentes del trabajo original (pies de página, avanzadas formulas matemáticas, esquemas o tablas complejas, etc.). Recuerde que para ver el trabajo en su versión original completa, puede descargarlo desde el menú superior.

Todos los documentos disponibles en este sitio expresan los puntos de vista de sus respectivos autores y no de Monografias.com. El objetivo de Monografias.com es poner el conocimiento a disposición de toda su comunidad. Queda bajo la responsabilidad de cada lector el eventual uso que se le de a esta información. Asimismo, es obligatoria la cita del autor del contenido y de Monografias.com como fuentes de información.

Categorias
Newsletter