Monografias.com > Sin categoría
Descargar Imprimir Comentar Ver trabajos relacionados

Repercusiones godelianas (página 2)




Enviado por Jesús Castro



Partes: 1, 2

Alife ha construido su metodología
inspirándose fundamentalmente en la teoría
evolucionista neodarwiniana (mutaciones y selección
natural). Por ejemplo, en los años 1970, de la mano de
John Henry Holland, surgió una de las líneas
más prometedoras de la "inteligencia artificial", la de
los "algoritmos genéticos". Son llamados así porque
se inspiran en la evolución biológica y su base
genético-molecular. Estos algoritmos hacen "evolucionar"
una población de individuos sometiéndola a acciones
aleatorias semejantes a las que teóricamente actúan
en la evolución biológica (mutaciones y
recombinaciones genéticas, así como también
a una selección de acuerdo con algún criterio, en
función del cual se decide cuáles son
los individuos más adaptados y que sobreviven, y
cuáles los menos aptos y que por lo tanto son descartados.
Es incluido dentro de los algoritmos.

Monografias.com

Un algoritmo genético es un
método de búsqueda dirigida basada en probabilidad.
Bajo una condición muy débil (que el algoritmo
mantenga "elitismo", es decir, guarde siempre al mejor elemento
de la población sin hacerle ningún cambio) se puede
demostrar que el algoritmo converge en probabilidad al
óptimo. En otras palabras, al aumentar el número de
iteraciones, la probabilidad de tener el óptimo en la
población tiende a 1 (uno).

Las aplicaciones actuales de los algoritmos
genéticos son las siguientes:

Diseño automatizado,
incluyendo investigación en diseño de materiales y
diseño multiobjetivo de componentes
automovilísticos: mejor comportamiento ante choques,
ahorros de peso, mejora de aerodinámica, etc.

•Diseño automatizado de
equipamiento industrial.

•Diseño automatizado de
sistemas de comercio en el sector financiero.

•Optimización de carga de
contenedores.

Diseño de sistemas de
distribución de aguas.

•Diseño de topologías de
circuitos impresos.

•Diseño de topologías de
redes computacionales.

•En Teoría de juegos,
resolución de equilibrios.

Análisis de expresión
de genes.

Aprendizaje de comportamiento de
robots.

•Aprendizaje de reglas de
Lógica difusa.

•Análisis
lingüístico, incluyendo inducción gramatical,
y otros aspectos de Procesamiento de lenguajes
naturales, tales como eliminación de ambigüedad
de sentido.

•Infraestructura de redes de
comunicaciones móviles.

•Optimización de estructuras
moleculares.

Planificación de
producción multicriteria.

•Predicción.

•Optimización de sistemas de
compresión de datos, por ejemplo, usando
wavelets.

•Predicción de Plegamiento de
proteínas.

•Optimización de
Layout.

•Predicción de estructura de
ARN.

•En bioinformática,
Alineamiento múltiple de secuencias.

•Aplicaciones en planificación
de procesos industriales, incluyendo planificación
job-shop.

•Selección óptima de
modelos matemáticos para la descripción de sistemas
biológicos.

•Manejo de residuos
sólidos.

Ingeniería de
software.

Construcción de horarios en
grandes universidades, evitando conflictos de clases.

•Hallazgo de errores en
programas.

•Optimización de
producción y distribución de energía
eléctrica.

•Diseño de redes
geodésicas (Problemas de diseño).

•Calibración y detección
de daños en estructuras civiles.

Esta tecnología, basada en las ideas de Darwin,
puede ser aprovechable. Sin embargo, ello no hace del
evolucionismo una correcta interpretación de la forma en
que ha venido a la existencia la biodiversidad terrestre. Por
ejemplo, el hecho de que las dos guerras mundiales del siglo XX
hayan impulsado determinadas áreas de la tecnología
hasta el límite no justifica la guerra en el
interés del progreso; dichas tecnologías se
hubieran desarrollado de todos modos, tal vez más
lentamente pero no menos eficazmente, con otros incentivos
más pacíficos y cooperadores. De la misma manera,
el neodarwinismo no queda justificado debido a que su
versión cibernética haya tenido muy buenas
aplicaciones en muchos campos, pues su extrapolación a
realidad biosférica y a la historia natural de ésta
es una falacia contraproducente.

Son muchas las invenciones teóricas del hombre,
pero no todas son extrapolables a la realidad. Citemos un caso
importante. Consideremos el auge de las máquinas que
precedió a la era de la industrialización y que ha
medrado durante ella; como consecuencia surgieron las ideas
mecanicistas y una filosofía llamada "mecanicismo" se
impuso en el ambiente académico. El mecanicismo es la
doctrina según la cual toda realidad natural tiene una
estructura comparable a la de una máquina, de modo que
puede explicarse de esta manera basándose en modelos de
máquinas. Como concepción filosófica
reduccionista, el mecanicismo sostiene que toda realidad debe ser
entendida según los modelos proporcionados por la
mecánica, e interpretada sobre la base de las
nociones de materia y movimiento. El reloj fue durante mucho
tiempo el prototipo de máquina (que por una parte liga el
tiempo con el espacio que debe recorrer el péndulo o las
agujas de su esfera), aparecido como el modelo de las
concepciones mecanicistas de los siglos XVII hasta mediados del
siglo XIX. Se trata de una metáfora radical, porque
constituye no sólo un modo de entender la física de
los cuerpos, es decir, lo que se llamó "mecánica
moderna", sino una verdadera filosofía, o sea, una
concepción del mundo en su conjunto.

Monografias.com

El paradigma mecanicista produjo, durante
tres siglos, enormes avances, tal como lo ha hecho la
computación evolucionista a través de
los algoritmos genéticos en campos tecnológicos.
Tanto es así, que el mecanicismo generó en la
sociedad la creencia de haber hallado el camino del progreso
ilimitado. Además, el éxito en física del
mecanicismo influenció en forma notoria otras áreas
de la ciencia, tales como la economía, la biología
y la sociología. Pero todo cambió en el siglo XX. A
principios de dicho siglo se formularon dos teorías
revolucionarias, la teoría de la "relatividad", de Albert
Einstein, y la "mecánica cuántica"; y, durante su
transcurso, hubo un formidable desarrollo teórico y
experimental de la física de las partículas
elementales, un avance sin precedentes de la cosmología y
la formulación de la teoría del caos, esta
última en las antípodas del mecanicismo.

En la teoría del caos se demuestra
que, en muchos y frecuentes casos, los sistemas en su
evolución alcanzan situaciones de
inestabilidad caracterizados por cambios aleatorios totalmente
impredecibles. Bajo esas circunstancias, el mecanismo de
relojería del universo newtoniano es impensable y el
futuro del mundo queda abierto o indeterminado, al menos para el
hombre.

Se observa, pues, que la comunidad
científica tiende a adoptar paradigmas inspirados en
modelos y teorías revolucionarios, tal como
el mecanicismo o la interpretación neodarwiniana de la
biodiversidad terrestre. Sin embargo, debería
imponerse la cautela en la adopción de criterios de base
como éstos porque las consecuencias pueden resultar
lamentables. Así, el mecanicismo promovió el
materialismo y la negación de toda realidad más
allá de lo tangible y observable por el hombre, causando
estragos en la fe que el ciudadano instruido tenía en la
Sagrada Escritura; y el evolucionismo ha promovido el
ateísmo y la sublimación de la "madre naturaleza"
(una diosa de carácter aleatorio que produce vida a partir
de la materia inerte), adormeciendo a la gente con respecto a la
búsqueda de guía dada por el Creador en unos
tiempos tan peligrosos como los de hoy, donde nuestro planeta
corre el riesgo de ser irrecuperablemente apolillado por la
insensatez humana.

Repercusiones
sobre Alife.

Actualmente, en el campo de la Vida Artificial (Alife)
existen dos opciones para la investigación y el desarrollo
tecnológico. Una de ellas considera la Vida Artificial
como herramienta necesaria para estudiar el mundo natural (por
ejemplo, simulando adaptaciones de individuos y poblaciones),
mientras que la otra se centra en la idea de que se pueden
diseñar programas que ejecutados correctamente constituyan
una forma de vida por sí mismos. Pues bien, donde el
teorema de Gödel puede afectar más es en esta segunda
acepción del concepto Vida Artificial, y más
concretamente en la idea de que se pueden crear realidades
artificiales que tengan los requisitos mínimos para la
creación de vida.

Para entender las restricciones que el
teorema de Gödel puede imponer en el
ámbito de la Vida Artificial se hace necesario conocer
primero el significado del término "mecanicismo". El
"mecanicismo" es un movimiento de carácter
científico-filosófico que surge a partir del siglo
XVII y se apodera del mundo académico, imponiendo la
creencia de que el universo es explicable en términos
mecánicos y se rige por procesos mecánicos. El
"mecanicismo" intenta demostrar que el universo no es más
que un gran sistema.

Monografias.com

Si los físicos pudieran modelar el
universo en función de las leyes físicas, la
biología también podría ser modelada de
acuerdo a esas mismas leyes. Según Descartes, los propios
animales podrían ser considerados máquinas; y
autores como Emmeche han afirmado que "un organismo no es
más que una colección de átomos, una simple
máquina hecha de moléculas orgánicas". A su
vez, Sattler definió los seres vivos en términos
mecanicistas y literalmente hizo las siguientes
afirmaciones:

1. Los sistemas vivos pueden y deben ser
vistos como sistemas físico-químicos.

2. Los sistemas vivos pueden y deben ser
vistos como máquinas.

3. Los sistemas vivos pueden ser descritos formalmente.
Existen leyes naturales que describen por completo los sistemas
vivos.

Sin embargo, autores como Lucas y Penrose defienden la
idea de que al menos en el caso de los seres humanos esto no es
así, y pese a la idea que se tenía de los seres
vivos como entidades físicas que se rigen por procesos
mecánicos, los avances en física han hecho que esta
concepción empiece a tambalearse. En lo referente a
términos de Vida Artificial, la idea predominante es que
puede ser descrita formalmente mediante las leyes físicas
por las que se rigen los seres vivos. De los tres postulados
anteriores sobre los sistemas vivos puede eliminarse el primero,
ya que no van a tratarse de sistemas
físico-químicos. Sin embargo, se mantienen los
otros dos. Los principales términos teóricos de la
Vida Artificial, en resumen, son los siguientes:

1. Los sistemas vivos pueden reducirse a
las leyes descritas en los sistemas adaptativos
complejos.

2. Puesto que un sistema adaptativo complejo es
reducible a procesos mecánicos, debe ser posible
formalizar todas las leyes que rigen en ese sistema.

3. Estas leyes pueden ser implementadas en
una determinada arquitectura computacional.

NOTA:

El "Diccionario de filosofía" de
Mario Bunge, editorial Siglo XXI de México, año
1999, página 196, expone que un "sistema"
(del latín "systema", proveniente del griego
"s?st?µa") es un objeto compuesto cuyos componentes se
relacionan con al menos algún otro componente, pudiendo
ser material o conceptual. El mismo diccionario, en su
página 200, explica que todos los sistemas tienen
composición, estructura y entorno, pero sólo los
sistemas materiales tienen mecanismo, y sólo algunos
sistemas materiales tienen figura (forma). Según el
"sistemismo", todos los objetos son sistemas o componentes de
otro sistema.

Monografias.com

Por ejemplo, un núcleo
atómico es un sistema material físico compuesto de
protones y neutrones relacionados por la interacción
nuclear fuerte; una molécula es un sistema material
químico compuesto de átomos relacionados por
enlaces químicos; una célula es un sistema material
biológico compuesto de orgánulos relacionados por
enlaces químicos no covalentes y rutas metabólicas;
una corteza cerebral es un sistema material psicológico
(mental) compuesto de neuronas relacionadas por potenciales de
acción y neurotransmisores; un
ejército es un sistema material social y parcialmente
artificial compuesto de personas y artefactos relacionados por el
mando, el abastecimiento, la comunicación y la guerra; el
anillo de los números enteros es un sistema conceptual
algebraico compuesto de números positivos, negativos y el
cero relacionados por la suma y la multiplicación; y una
teoría científica es un sistema conceptual
lógico compuesto de hipótesis, definiciones y
teoremas relacionados por la correferencia (ya que todos ellos
deben referirse a una misma cosa: en la teoría de
conjuntos, todos los teoremas se refieren o tienen que ver con
los conjuntos) y la deducción
(implicación).

Monografias.com

Un sistema adaptativo complejo (CAS, del inglés
"complex adaptive system") es un tipo especial de sistema
complejo; es complejo en el sentido de que es diverso y
conformado por múltiples elementos interconectados; y
adaptativo, porque tiene la capacidad de cambiar y aprender de la
experiencia.

La expresión «sistema
adapativo complejo» (o «ciencia de la
complejidad») fue acuñada en el interdisciplinario
"Santa Fe Institute" por John H. Holland, Murray Gell-Mann y
otros. Es a menudo usada para describir el campo académico
libremente organizado que se ha desarrollado alrededor de estos
sistemas. La ciencia de la complejidad no es una teoría
única, ya que abarca más de un marco
teórico, es sumamente interdisciplinaria y busca las
respuestas a algunas preguntas fundamentales sobre los sistemas
vivos, adaptables y cambiables.

Los ejemplos de sistemas adaptativos complejos incluyen
el ser humano, la bolsa de valores, las sociedades de insectos y
colonias de hormigas, la biosfera y el ecosistema, el cerebro y
el sistema inmunitario, las células y el desarrollo
embrionario, negocios de fabricación y cualquier esfuerzo
de grupos sociales humanos dentro de un sistema cultural y social
dado, tales como equipos de fútbol o comunidades. Hay una
estrecha relación entre el campo de los CAS y la vida
artificial, pues en ambas áreas los principios emergentes
y de autoorganización son muy importantes.

Los teóricos, esgrimiendo la
definición más reciente y genérica de vida,
han llegado a la conclusión de que
ésta puede ser entendida en términos de
programación ejecutada en una arquitectura especial
y suficientemente compleja y que cualquier programa
perteneciente a ese ámbito puede ser considerado como un
ser vivo. Evidentemente, esta concepción engloba a la vida
artificial como caso particular, por lo que ha llegado el momento
de ver cuál es la repercusión del teorema de de
Gödel en Alife.

John P. Sullins emplea el artículo
de Steen Rasmussen titulado "Aspects of Information, Life,
Reality, and Physics" y razona a partir de él. Dicho
artículo presenta una serie de postulados, a
saber:

1. Una computadora universal, como la
máquina de Turing, puede simular cualquier proceso
físico.

2. La vida es un proceso físico, por
lo que la vida puede ser simulada en una computadora
universal.

3. Existen criterios que permiten
diferenciar a los seres vivos de los no vivos, por lo tanto es
posible determinar si un determinado proceso está vivo o
no.

4. Un organismo artificial debe percibir una realidad
R2, la cual debe ser para él tan real como para nosotros
es nuestra propia realidad R1, pudiendo ser R1 y R2 la misma
clase de realidad (realidades coincidentes).

5. R1 y R2 tienen el mismo "status" ontológico
(idéntico esquema existencial, o una especie de
isomorfismo de realidades).

6. Gracias al quinto postulado y al corolario
extraído del segundo postulado, se puede afirmar que el
status ontológico de un proceso vivo es independiente del
hardware que lo soporta. En consecuencia, puesto que el status
ontológico de R1 y R2 es el mismo, los sistemas vivos
pueden crearse en un computador.

7. Es posible aprender algo acerca las
propiedades fundamentales de las realidades en general y
de

R1 en particular, mediante el estudio de los detalles de
las diferentes R2's.

A partir de estos postulados, es posible suponer que se
puede crear una realidad R2 equivalente a nuestra R1 con la
condición de que las leyes físicas de R2 sean
equivalentes a las de R1. De ahí que los entes vivos de R2
puedan interactuar con los de R1. Ahora bien, es necesario
formalizar las leyes físicas de la realidad artificial R2,
para que ésta sea capaz de soportar vida artificial. Por
lo tanto, debería existir un conjunto mínimo de
axiomas formales que tienen que ser empleados para crear esa
física artificial.

Pero el teorema de incompletitud de Gödel, que
afecta a cualquier realidad artificial, afirma que en sistemas
formales axiomáticos, tales como la aritmética,
existen proposiciones que aún siendo ciertas no pueden ser
demostradas. Es decir, dichos sistemas serían
incompletos.

Esto sugiere que las matemáticas no
son formalizables, ni mucho menos mecanicistas. Por consiguiente,
si las matemáticas en muchos de sus campos no son
formalizables, entonces no pueden incluirse en la realidad
artificial que se intenta crear. Pero esto se pudiera extrapolar
más allá del campo de las matemáticas, hacia
otros aspectos y "reglas" de nuestra realidad R1 y
los tales no podrían ser incluidos en R2. Siendo esto
así, nuestra realidad y la realidad artificial no
podrán tener el mismo status ontológico. Ante tal
situación, el postulado número 5 de
Rasmussen se viene abajo.

Monografias.com

Semejantes desenlaces nos llevan a pensar que tal vez la
vida artificial no podrá ser posible, en el sentido de que
no podría equipararse isomórficamente con ninguna
clase de vida de nuestra realidad R
1, pues Gödel ha bloqueado su camino.
En efecto, el fenómeno que nosotros llamamos "vida"
alcanza su primera y más obligada definición en el
seno de la realidad R 1 que nos acoge
(o a la que nosotros pertenecemos); por lo tanto, si
una supuesta "vida artificial" de R2 no puede interactuar
indeterminísticamente (de forma no
algorítmica) con la vida de R1: ¿de qué
manera es vida dicha "vida artificial"? (No obstante, éste
es un tema controversial, aparentemente no resuelto,
puesto que según las Santas Escrituras existe vida
espiritual en un universo anterior y diferente al nuestro, cuyos
moradores son criaturas inteligentes o "ángeles",
pertenecientes a una realidad R0 diferente de la nuestra, aunque
ellos sí poseen la capacidad de interactuar
indeterminísticamente con R1 y los humanos también
poseen igualmente la capacidad de interactuar
indeterminísticamente con R0; de ahí que sea
pertinente la sospecha de que la misma o parecida relación
indeterminista pueda lograrse algún día entre R1 y
R2).

Sin embargo, aunque no fuera viable crear realidades
artificiales con procesos cibernéticos que actúen
como entes vivos, algunos teóricos opinan que el campo de
la robótica abre nuevas vías, de tal modo que
pueden crearse seres vivos artificiales en nuestra propia
realidad. Para ello bastaría lograr que los robots
interactuaran con el medio y a la vez habría que dotarlos
de la capacidad de adaptación y reproducción, con
lo cual la Vida Artificial aún seguiría siendo
posible, según opinan. No obstante, esta creencia no es
compartida por algunos intelectuales de alto nivel porque no ven
de manera alguna cómo evadir a los robots de una base
algorítmica perteneciente obviamente a R2, la cual los
obliga a actuar determinísticamente (de forma
algorítmica) en R1.

Repercusiones
lingüísticas.

La Lingüística es un área que ha sido
objeto de estudio para numerosas disciplinas, desde la
filosofía a la psicología, pasando por la
informática. Su fin es estudiar las estructuras
gramaticales y sintácticas del lenguaje. La
Lingüística, pues, supone una base de
comunicación. En el campo de la inteligencia artificial,
por ejemplo, se pretende enseñar al computador a entender
y emitir formalmente enunciados comprensibles para el hombre.
Aquí entra en juego también la "semántica"
(disciplina que se encarga de estudiar el significado de las
palabras). Es vital, por tanto, comprender la gran importancia de
la Lingüística como base para la comunicación,
ya sea entre hombres o ya entre hombres y
máquinas.

La base de la lingüística es
una serie finita de normas que establecen de
qué manera debe realizarse la comunicación; y se
puede entender, por tanto, como un conjunto finito de axiomas,
siendo este entendimiento el que coloca a la
lingüística dentro de la
hipótesis del teorema de Gödel y por tanto podemos
sacarle las conclusiones que pertenecen a la tesis
del mismo. Podemos concluir, por ende, que todo sistema
lingüístico coherente debe contener algo que resulta
indecible.

Monografias.com

Dado que a medida que nos alejamos de la rigurosidad
científica vamos relajando los requisitos para aplicar el
teorema, los resultados obtenidos son pues discutibles o
parcialmente aplicables. Por ejemplo, en el ámbito de la
lingüística encontramos la poesía como clara
excepción. La poesía no posee determinadas
limitaciones, ya que permite darse contradicciones e
incoherencias que son el fruto de la aplicación de
numerosas figuras literarias que inexorablemente quedan fuera de
la axiomatización inicial.

Repercusiones
filosóficas.

La obra PERSPICACIA PARA COMPRENDER LAS ESCRITURAS,
publicada en 1991 por la Sociedad Watchtower Bible And Tract en
español y otros idiomas, tomo 1, página 994, bajo
el término FILOSOFÍA, señala: «La
palabra griega
fi·lo·so·fí·a significa
literalmente "amor a la sabiduría". En su uso moderno, el
término tiene que ver con los intentos humanos por
entender e interpretar, por medio de la razón y la
especulación, toda la experiencia humana, las causas y los
principios fundamentales de la realidad».

Según el Génesis, la
humanidad se dispersó después del Diluvio y grupos
tribales medraron en lugares geográficos distantes y
lejanos, originando posteriores grupos nacionales e imperios. La
dispersión también produjo un
inevitable alejamiento de Dios y de la religión que
él aprobaba (practicada por los patriarcas de la historia
bíblica). Pero el interés de ciertos individuos
humanos por entender la realidad y las claves de la existencia
siempre debió encontrar simpatía y apoyo social, de
tal manera que líderes y pensadores de todas las culturas
intentaron dar una explicación más o menos
coherente que satisficiera la necesidad de muchos. Los egipcios y
los babilonios de la antigüedad se valieron de
enseñanzas mitológicas y mágicas para calmar
el hambre humana en este sentido, y consiguieron sosegar con
engaños y mentiras la mente de la mayoría. Pero los
griegos no se contentaron con la mitología, a la que
consideraron sospechosamente engañosa y manipuladora de
las masas ignorantes, sino que buscaron maneras más
fidedignas de atisbar la verdad de las cosas y de los
fenómenos, y se dieron cuenta de que la razón era
la herramienta más poderosa que tenía el ser humano
para buscar la verdad y la sabiduría. Por lo tanto, a
partir de la actividad intelectual de ellos, en pro de la
búsqueda de orientaciones trascendentales,
surgió la Filosofía (es decir, el amor a la
sabiduría).

Así, pues, la Filosofía muestra toda la
apariencia de ser un sucedáneo o supletorio que tiene por
objeto dar respuestas a cuestiones trascendentales que
sólo la verdadera revelación procedente del
Creador, y canalizada a través de la religión que
él aprueba, puede proporcionar al ser humano, sin el
perjuicio de llevarlo a error. La Filosofía, por tanto, es
el principal subproducto acumulativo (en forma de paradigmas y
teorías) de una inquietud humana persistente e
insepultable, que pretende dar la mejor explicación
(necesariamente especulativa) para mitigar la dolorosa
frustración mental que causa la falta de respuesta a las
preguntas fundamentales que acosan al hombre: ¿De
dónde venimos? ¿Por qué estamos aquí?
¿Hacia dónde vamos?

Monografias.com

Platón, el gran filósofo griego,
enseñaba y creía en la existencia de un mundo
sensible que podemos conocer a través de los sentidos y de
un mundo de las ideas puras que sólo podemos alcanzar por
medio de la razón. Para los platónicos, las
verdades matemáticas, los teoremas, no son convenciones
arbitrarias sino que, por el contrario, tienen una realidad
exterior independiente de nuestra existencia. Según esta
filosofía, el matemático no inventa ningún
teorema sino que lo descubre, así que su labor se asemeja
más a la de un explorador de mundos recónditos que
a la de un inventor. Hoy, por supuesto, estas creencias
están totalmente desfasadas.

Desde los griegos, y durante siglos, los
filósofos han creído que la razón humana
tiene poderes ilimitados. Leibnitz soñó con un
algoritmo capaz de dilucidar la veracidad o falsedad de cualquier
proposición, y la tumba del gran matemático
alemán David Hilbert exhibe como epitafio la frase
"Debemos saber, sabremos", que resume su confianza en la
capacidad de la mente humana como instrumento de
conocimiento.

Sin embargo, el fisiólogo alemán Emil du
Bois había advertido acerca de "la posible ignorancia
definitiva del metafísico sobre lo que está
más allá de la experiencia". Las sospechas de Du
Bois serían confirmadas medio siglo más tarde por
Kurt Gödel, un platónico que solía dar sus
caminatas vespertinas en la sola compañía de
Einstein y que moriría de inanición. En un trabajo
publicado en 1931, tan revolucionario como la Teoría de la
Relatividad de Einstein, el joven Gödel demostró que
en cualquier sistema lógico basado en axiomas y reglas de
inferencia existen enunciados cuya verdad o falsedad nunca
podremos decidir, basándonos en el propio sistema. Y como
corolario, Gödel probó que jamás podrá
demostrarse que las matemáticas estén exentas de
contradicciones internas, es decir, que nadie podrá
jamás probar su consistencia lógica.

La conclusión de Gödel no puede
ser más desoladora ni la ironía mayor. La
matemática, paradigma de la precisión
humana, estará por siempre destinada a descansar sobre
bases lógicas cuya consistencia se debe
aceptar más bien como un acto de fe. Para algunos
teóricos esta situación se asemeja a la
alegoría de Platón, donde, atados de
pies y manos en la caverna, no queda más remedio que
resignarse a contemplar las sombras de un mundo
inexpugnable, cuyos secretos permanecerán ocultos para
siempre en la más densa bruma.

La filosofía, o mejor dicho, las
filosofías, son disciplinas del conocimiento que
también parten de un sistema finito de axiomas
básicos, por lo que igualmente deben de sujetarse a las
limitaciones impuestas por el teorema de Gödel. La
implicación es que cualquier sistema filosófico,
sin importar su grado de complejidad, resulta incompleto. Es
decir, todo sistema filosófico contiene dentro de
sí mismo más aseveraciones verdaderas que las que
puede demostrar como tales, de acuerdo con sus propias reglas.
Esto significa que muchas de las verdades filosóficas
nunca podrán decidirse dentro del sistema
filosófico que consideremos, cualquiera que éste
sea. Y aun si el sistema filosófico en cuestión se
aumentara, incluyendo un número indefinido de axiomas
adicionales, siempre existirán verdades que no pueden ser
formalmente derivadas del conjunto aumentado.

Monografias.com

El teorema de Gödel establece que la
"verificabilidad" es un concepto más débil que la
"verdad", en tanto que existen proposiciones verdaderas que no es
posible verificar, sin importar la complejidad del sistema
filosófico subyacente.

Para muchos pensadores, el teorema de
Gödel constituye el último clavo en el ataúd
de la filosofía clásica. Hubo una
época en que la filosofía abarcaba todos los campos
del conocimiento, pero con la llegada del método
científico y el resultante auge de la ciencia, la
filosofía fue perdiendo poco a poco muchos de los objetos
de su estudio. La lógica, por ejemplo, que una vez
llegó a ser un baluarte de la filosofía, pero hoy
forma parte de las matemáticas. La
lingüística, antes también del interés
de los filósofos, ahora queda comprendida en la
teoría de la información. Las especulaciones
filosóficas sobre la mente humana, que dieron lugar al
nacimiento de la psicología, hoy encuentran poderosos
resultados en los trabajos de investigadores en inteligencia
artificial e informática.

La filosofía, desplazada en muchos
de sus territorios por la ciencia, ha tenido que ir
encontrando nuevos objetos de estudio. Pero, de
alguna forma, el teorema de Gödel cierra un círculo
para la filosofía, completa un cerco, pues hoy un
filósofo sabe de las limitaciones que el teorema de
Gödel implica para su disciplina, por lo que está
obligado a redefinir su objeto de estudio y termina
ampliándolo para considerar nuevamente a todo el
conocimiento, pero desde una perspectiva nueva, que considera ya
las limitaciones impuestas por Gödel.

Curiosamente, muchos filósofos
modernos encuentran campos fértiles para su disciplina en
aspectos del conocimiento que también le interesaron a
Gödel, a Einstein y a otros grandes pensadores por el simple
hecho de que no se basan en sistemas axiomáticos finitos.
Nos referimos a lo que pudiera llamarse "el misticismo".
Wittgenstein, quien tuvo influencia sobre Gödel en sus
años de estudiante en Viena, dijo al respecto: "Hay en
efecto cosas que no pueden ponerse en palabras. Ellas simplemente
se manifiestan. Ellas constituyen lo místico". El propio
Wittgenstein, amigo cercano de los integrantes del Círculo
de Viena, aunque no miembro del mismo, ofrece en su libro
"Tractatus Logico-Philosophicus" una solución particular a
los problemas tradicionales de la filosofía: "Aquello de
lo que no nos es posible hablar, debemos dejarlo pasar en
silencio". Wittgenstein a veces tomó posturas
filosóficas que se asemejan al misticismo Zen.

NOTA:

¿Será el Teorema de
Gödel un indicio de que la ciencia, la especulación y
la filosofía humanas, incapaces de atisbar
por sí mismas las respuestas a las preguntas
fundamentales, invitan a la mente a buscar en otra
dirección? ¿Qué otra dirección hay,
salvo el esoterismo, la magia, la mitología y el
misticismo? ¿Es ésa una dirección acertada?
¿No son las revelaciones sagradas procedentes del Creador,
entre las que se encuentra el Génesis, más
provechosas y fiables que el esoterismo, la magia, la
mitología y el misticismo?

Repercusiones
informáticas.

La prestigiosa revista "Investigación y ciencia"
de julio-2003, en español, páginas 28 a 35, inserta
un artículo titulado "Ordenadores, paradojas y fundamentos
de las matemáticas", escrito por el reputado Gregory J.
Chaitin (ver Nota a continuación), el cual, parafraseado y
complementado en parte, dice lo siguiente:

«Grandes pensadores del siglo XX han demostrado
que la incompletitud (la incapacidad de atisbar todas las
implicaciones de una teoría) y la aleatoriedad (el
hallazgo fortuito de implicaciones de una teoría, sin que
medie ningún método encaminado a ello ni sea
concebible a priori) medran incluso en el mundo austero de la
matemática. El mundo de la informática,
especialmente en sus fundamentos, contribuye su testimonio en
este sentido. Todos saben que los ordenadores son aparatos muy
prácticos y se han vuelto indispensables en el
funcionamiento de la sociedad moderna. Pero hasta muchos
informáticos han olvidado que fueron inventados para que
ayudasen a aclarar una cuestión filosófica
(metacientífica) concerniente a los fundamentos de la
matemática.

Monografias.com

David Hilbert, célebre matemático
alemán, propuso a principios del siglo XX la
formalización completa de todo el razonamiento
matemático. Pero resultó imposible formalizar el
razonamiento matemático en su totalidad, por lo que, en
cierto sentido, su idea fue un tremendo fracaso. Mas, en otro
sentido, tuvo un gran éxito, porque el formalismo ha sido
uno de los grandes dones que nos ha dado el siglo XX. No para el
razonamiento o la deducción matemática, sino para
la programación, el cálculo y la
computación.

Por otro lado, tenemos a Bertrand Russell,
matemático que más tarde se hizo filósofo y
luego humanista. Constituye una figura clave en metaciencia,
porque descubrió algunas paradojas muy perturbadoras en la
lógica misma. Es decir, halló casos en los que
razonamientos en apariencia impecables conducen a
contradicciones. Las aportaciones de Russell fueron fundamentales
para que se difundiese la idea de que estas contradicciones
causaban una crisis grave y tenían de ser resueltas de
algún modo.

Las paradojas que Russell descubrió atrajeron
mucho la atención en los círculos
matemáticos, pero, curiosamente, tan sólo una de
ellas acabó llevando su nombre. He aquí la
denominada Paradoja de Russell: Supongamos el conjunto A cuyos
elementos son todas las ideas abstractas. Es evidente que A
pertenecerá a A porque A mismo es una idea abstracta. En
cambio, el conjunto B de todas las bicicletas no pertenece a B,
pues B no es una bicicleta. Llamaremos CLASE A al conjunto A'
formado por todos aquellos conjuntos que pertenecen a sí
mismos, y llamaremos CLASE B al conjunto B' formado por todos
aquellos conjuntos que no pertenecen a sí mismos. Es
evidente que todo conjunto concebible sólo puede
pertenecer a uno y sólo uno de los conjuntos A' o B'. Por
lo tanto, cabe preguntarse: ¿Pertenecerá B' a A' o
no?. Si decimos que B' no pertenece a A', entonces resulta que B'
pertenece a B' y por lo tanto debería pertenecer a A'.
Pero si decimos que B' pertenece a A' entonces resulta que B' no
pertenece a B' y por lo tanto debería pertenecer a
B'.

La paradoja de Russell es un eco, en la
teoría de conjuntos, de otra paradoja muy anterior, ya
conocida por los antiguos griegos. Es posible desdeñar
tales paradojas, considerándolas juegos de palabras sin
significado, pero algunas de las más grandes inteligencias
del siglo XX se las tomaron muy en serio. ¿Por qué?
Tal vez porque vieron en ellas un indicio, un germen que pudiera
estar contaminando áreas del conocimiento
científico fuertemente atesoradas y finalmente derrumbar
lo que se ha venido dando por sentado.

Una de las reacciones a la crisis de la lógica
fue la tentativa de Hilbert de intentar eludirla por medio del
formalismo. Él creía que, si encontramos conflictos
al seguir razonamientos que parecen correctos, la
solución consiste en utilizar la lógica
simbólica para crear un lenguaje artificial
inmune a las paradojas y ser muy cuidadosos al especificar
sus reglas, de modo que no surjan ya
contradicciones. Después de todo, el lenguaje cotidiano
(que fácilmente podría infectar al edificio de la
ciencia) es ambiguo y no siempre se sabe con certeza cuál
es el antecedente de un pronombre.

La idea de Hilbert consistía en crear para el
razonamiento, para la deducción y para la
matemática un lenguaje artificial perfecto. Hizo, por
tanto, hincapié en la importancia del método
axiomático, donde se parte de un conjunto de postulados
básicos (axiomas) y reglas bien definidas para efectuar
deducciones y derivar teoremas válidos. La idea de
trabajar matemáticamente de este modo se remonta a los
antiguos griegos, y en particular, a Euclides y su
geometría, un sistema de hermosa claridad
matemática.

Monografias.com

Dicho de otro modo, era intención de Hilbert ser
absolutamente riguroso en lo que se refería a las reglas
del juego —las definiciones, los conceptos elementales, la
gramática y el lenguaje—, de modo que hubiera un
general acuerdo sobre la forma en que había de hacerse la
matemática. En la práctica resultaría
excesivamente laborioso utilizar un sistema axiomático
tal, incómodo para desarrollar nuevos resultados o
teorías matemáticas, pero su importancia desde el
punto de vista filosófico (metacientífico)
sería grande.

La propuesta de Hilbert no parecía demasiado
espinosa. Después de todo, no hacía sino seguir las
tradiciones de formalización de la matemática;
seguía una larga historia de trabajos de Leibniz, Boole,
Frege y Peano. Pero lo que él deseaba era recorrer el
camino completo, hasta el mismísimo fin, y formalizar la
totalidad de la matemática. La gran sorpresa fue que tal
cosa no resultase posible. Hilbert estaba equivocado, aunque su
error fue tremendamente fructífero porque había
planteado una pregunta muy acertada. Al formularla creó
una disciplina del todo nueva, la metamatemática, un campo
introspectivo de la matemática en el que se estudia lo que
la matemática puede, o no puede, conseguir.

La noción fundamental es la
siguiente: en cuanto se encierra la matemática en un
lenguaje artificial a la manera de Hilbert, en
cuanto se establece un sistema axiomático completamente
formal, podemos olvidarnos de que posee algún significado
y limitarnos a considerarla un juego; sus piezas serían
marcas trazadas en un papel, y la tarea consistiría en
deducir teoremas de los axiomas. Claro está, si se hace
matemática es porque tiene significado. Pero si se desea
estudiar la matemática utilizando métodos puramente
matemáticos, es necesario destilar el significado y
limitarnos a examinar un lenguaje artificial con reglas
absolutamente precisas.

¿Qué clase de cuestiones podríamos
plantear? Por ejemplo, si se puede o no demostrar que 0 = 1
(deseamos que no se pueda). En general, dada una
proposición cualquiera A, podemos preguntarnos si es
posible demostrar la veracidad de A, o bien la veracidad de la
proposición contraria de A (la negación de A). Se
considera que un sistema axiomático formal es completo si
se puede demostrar la veracidad de cualquier A, o bien su
falsedad.

Hilbert perseguía la creación
de reglas tan precisas que toda demostración pudiera
siempre someterse a un arbitraje imparcial, a un procedimiento
mecánico capaz de afirmar "esta demostración se
atiene a las reglas", o tal vez "hay un error tipográfico
en la línea 4", o "eso que en la línea 4 se supone
que es consecuencia de la línea 3, en realidad no lo es",
etc. Ese veredicto debería ser final, sin
apelación.

Hilbert realmente no pensaba que la labor humana de
creación matemática hubiera de llevarse a cabo de
un modo tan algorítmico, sino más bien que, si se
pudiera hacer matemática de ese modo se podría
utilizar la propia matemática para estudiar su alcance o
poder. Y Hilbert pensó que él mismo iba a ser capaz
de ejecutar tal empresa. Podemos, pues, tratar de imaginar su
enorme desconcierto cuando en 1931 el matemático
austríaco Kurt Gödel demostró que el plan de
"rescate" de Hilbert no era en modo alguno realizable.
Jamás podría ser llevado a efecto, ni siquiera en
sus comienzos.

Gödel dinamitó la visión
de Hilbert en 1931. Por entonces era docente en la Universidad de
Viena, si bien procedía de la hoy llamada
República Checa, de la ciudad de Brno en concreto, que en
aquella época formaba parte del Imperio
Austrohúngaro. Posteriormente, pasaría, como
Einstein, al Instituto de Estudios Avanzados de Princeton,
EEUU.

El descubrimiento de Gödel fue pasmoso: Hilbert
estaba totalmente equivocado; no hay modo de que exista un
sistema axiomático para la totalidad de la
matemática en el que quede claro como el agua si un
enunciado es verdadero o no. Con mayor precisión:
Gödel descubrió que el plan falla aun
limitándose a la aritmética elemental, es decir, a
los números 0, 1, 2, 3…, y a la
adición y multiplicación de estos
números.

Cualquier sistema formal que trate de
contener toda la verdad y nada más que la
verdad respecto a la adición y la multiplicación de
los números 0, 1, 2, 3,… tendrá que ser
incompleto. O más bien: será, ora incoherente, ora
incompleto. Por tanto, si se supone que solamente dice la verdad,
entonces no dirá toda la verdad. En particular, si se
supone que los axiomas y las reglas de deducción no
permiten la demostración de teoremas falsos,
entonces habrá teoremas verdaderos que no podrán
ser demostrados.

Monografias.com

La demostración de la incompletitud
dada por Gödel es muy ingeniosa. Muy paradójica. En
realidad, lo que Gödel hace es construir una
aseveración que dice de sí misma: "¡Soy
indemostrable!". Desde luego, hará falta muchísimo
ingenio para poder construir en la teoría elemental de
números —en la aritmética— un enunciado
matemático que se describa a sí mismo y diga
semejante cosa, pero si fuéramos capaces de lograrlo,
enseguida comprenderíamos que estaríamos en un
brete. ¿Por qué? Porque si el enunciado es
demostrable, entonces es necesariamente falso; estaríamos
demostrando resultados falsos. Si es indemostrable, como dice de
sí mismo, entonces es verdadero y la matemática
sería incompleta.

Hay en la demostración de Gödel muchos
detalles técnicos complicados. Pero al consultar su
artículo original, encontramos en él algo que se
parece mucho a la programación en LISP (listas de
programación). Es debido a que la demostración de
Gödel comporta la definición recursiva (recurrente,
reiterada o repetitiva) de una gran cantidad de funciones que
operan sobre listas, y eso es precisamente lo que hace LISP.
Así pues, aunque en 1931 no existían los
ordenadores ni los lenguajes de programación, una mirada
retrospectiva deja ver claramente un lenguaje de
programación en el núcleo del artículo
original de Gödel.

John von Neumann, otro famoso matemático de
aquellos tiempos (que, dicho sea de paso, tuvo un importante
papel en la promoción y la creación de la
tecnología informática en los Estados Unidos),
apreció inmediatamente el hallazgo de Gödel. Von
Neumann jamás se había planteado que el proyecto de
Hilbert pudiera ser erróneo. Así pues, Gödel
no sólo había demostrado una inteligencia
apabullante, sino que tuvo la valentía de señalar
que Hilbert podría estar equivocado.

Muchos consideraron que el artículo
de Gödel era absolutamente devastador. Toda la
filosofía matemática (metamatemática)
tradicional acababa de quedar reducida a escombros. En 1931, sin
embargo, había en Europa algunos otros problemas de los
que preocuparse con mayor interés: una gran
depresión económica y una guerra en ciernes (la
amenaza de una Segunda Guerra Mundial).

El siguiente avance de importancia tuvo lugar cinco
años después (1936), en Inglaterra, cuando Alan
Turing descubrió la "no-computabilidad". Recordemos que,
según Hilbert, debía existir "un procedimiento
mecánico" que decidiese si una demostración se
atenía a las reglas o no. Hilbert no aclaró nunca
qué entendía por "procedimiento mecánico".
Turing, en esencia, vino a decir que se trataba de una
máquina (una máquina de un tipo que ahora llamamos
"máquina de Turing").

El artículo original de Turing
contiene un lenguaje lo que hoy denominaríamos un lenguaje
de programación, lo mismo que el artículo de
Gödel. Pero el lenguaje de programación
de Turing no era un lenguaje de alto nivel, como el LISP; se
trataba más bien de un lenguaje de máquina, el
código "en crudo" formado por unos y ceros que se le
suministra al procesador central de un ordenador. El invento de
Turing de 1936 es, de hecho, un lenguaje de máquina
horrible, que nadie querría utilizar hoy, porque es
demasiado rudimentario.

Pero aunque las máquinas computadoras
hipotéticas de Turing sean muy sencillas, y su lenguaje de
máquina bastante primitivo, no carecen precisamente de
versatilidad. En su artículo de 1936, Turing afirmaba que
una máquina tal debería ser capaz de efectuar
cualquier cómputo que un ser humano pudiese llevar a
cabo.

En este punto, el curso del razonamiento de Turing
experimenta un violento giro: ¿Qué le sería
imposible a semejante máquina? ¿Qué es lo
que no podría hacer? Y Turing encuentra inmediatamente un
problema que ninguna máquina de las que llevan su nombre
podría resolver: el problema de la detención, es
decir, decidir de antemano si una máquina de Turing (o un
programa de ordenador) acabará por hallar su
solución deseada y, por tanto, se
detendrá.

Monografias.com

Si se impone un límite de tiempo,
este problema tiene muy fácil
solución. Supongamos que deseamos saber si un programa
dado llegará a detenerse en el plazo de un
año. En tal caso, basta hacerlo funcionar durante un
año y observar si se detiene o no. Pero lo que Turing hizo
ver es que podemos encontrarnos en una dificultad muy seria si no
se impone límite de tiempo, si tratamos de deducir a
priori si un programa se detendrá o no, sin limitarnos
meramente a hacerlo funcionar.

Veamos el asunto con más detenimiento. Supongamos
posible la creación de un programa de ordenador P capaz de
averiguar si un programa G, cualquiera que sea, llegará a
detenerse. Llamémoslo a P, por comodidad, un "verificador
de terminación". En teoría, a P le
suministraríamos un programa G y emitiría una
respuesta: "sí, este programa terminará," o bien,
"no, este programa seguirá haciendo girar sus ruedas en un
bucle infinito y nunca llegará a detenerse". Preparemos
ahora un segundo programa M basado en el verificador de
terminación P. Consistirá M en una
modificación del verificador P de modo que, cuando se le
entregue a M para examen un programa que termine, entre M en un
bucle infinito. Y aquí viene la parte sutil: suministremos
al nuevo programa M una copia de sí mismo.
¿Qué hará?

No olvidemos que se ha preparado el nuevo programa de
verificación M de manera que entre en un bucle infinito si
el programa sometido a prueba termina. Pero ahora el programa
objeto de verificación es el propio programa verificador
modificado M. Por consiguiente, si terminase, habría de
entrar en un bucle infinito, lo que significa que no termina: una
contradicción. Tampoco sirve de nada suponer lo contrario.
Si el programa M no terminase, el verificador de
terminación M indicaría tal hecho, y el programa M
no entraría en bucle infinito, llegando, pues, a
término (y terminaría, contra lo supuesto). Esta
paradoja llevó a Turing a considerar que sería
imposible idear un verificador Mu de terminación
universal.

Lo más interesante es que Turing dedujo un
corolario inmediato: Si no hay forma de determinar de antemano
mediante cálculos si un programa va a detenerse o no,
tampoco puede haber ningún modo de averiguarlo mediante
razonamientos. Ningún sistema axiomático formal
puede facultarnos para decidir si un programa acabará por
detenerse. ¿Por qué? Porque si fuera posible
utilizar a tal fin un sistema axiomático, éste nos
proporcionaría los medios para calcular por adelantado si
un programa se detendrá o no. Lo cual es imposible, pues
se obtendría una paradoja del estilo de "Esta
aseveración es falsa": Se puede crear un
programa que se detiene si y solamente si no se detiene. La
paradoja es similar a la descubierta por Gödel en sus
investigaciones sobre la teoría de números
(Recordemos que no había dificultades mayores en
el sistema que Gödel examinó que las que 0, 1,
2, 3…, la adición y la multiplicación ofrecen).
La proeza de Turing consistió en demostrar
que ningún sistema axiomático formal puede ser
completo.

Al desencadenarse la Segunda Guerra Mundial, Turing
comenzó a trabajar en criptografía y von Neumann en
el cálculo de detonaciones de bombas atómicas. El
mundo dejó de lado, durante un tiempo, el problema de la
incompletitud de los sistemas axiomáticos.

La generación de matemáticos
o de teóricos interesados en estas profundas
cuestiones metacientíficas quedó
prácticamente extinguida durante la Segunda Guerra
Mundial. Luego vino el matemático Gregory J. Chaitin, del
actual Centro de Investigación Thomas J. Watson de IBM, en
Yorktown Heights, Nueva York. Éste ha sido, a lo largo de
las cuatro últimas décadas, el principal arquitecto
de la teoría algorítimica de la información,
que inventó cuando todavía no contaba 20
años de edad. Su logro más reciente ha consistido
en transformar la teoría algorítmica de la
información de modo que sea aplicable a los
programas informáticos reales.

Monografias.com

A finales de los años cincuenta, Chaitin era casi
un niño, pero leyó en Scientific American un
artículo sobre Gödel y la incompletitud. El resultado
de Gödel le dejó fascinado, aunque en realidad no
pudo comprenderlo del todo; le pareció que había en
él algo dudoso. En cuanto al método de Turing,
consideró que profundizaba mucho más, pero
todavía no se sentía satisfecho. Fue por entonces
cuando se le ocurrió una curiosa idea sobre la
aleatoriedad.

De muchacho también leyó
mucho acerca de otra famosa cuestión intelectual, no la de
los fundamentos de la matemática, sino la de los
fundamentos de la física —sobre la teoría de
la relatividad y la cosmología, e incluso más
frecuentemente sobre la mecánica cuántica—.
Aprendió que cuando las cosas son muy pequeñas, el
mundo físico se comporta de una forma descabellada; en
realidad, es aleatorio; es intrínsecamente impredecible.
Estaba leyendo acerca de todo esto, y empezó a considerar
si no habría también aleatoriedad en la
matemática pura. Empezó a sospechar que ésa
pudiera ser la verdadera causa de la incompletitud.

Hay un ejemplo que viene al caso en la teoría
elemental de números, donde se plantean ciertas cuestiones
muy difíciles. Tomemos los números primos. Si
estamos interesados en su estructura de detalle, resulta que los
números primos se comportan de forma muy impredecible. Es
cierto que existen en ellos regularidades estadísticas. Se
tiene, sea por caso, el llamado "teorema de los números
primos", que pronostica con muy buena precisión la
distribución media de los números primos. Pero en
lo que toca a la distribución detallada de cada
número primo, parece a las claras aleatoria.

Chaitin empezó, pues, a pensar que pudiera ser
que la aleatoriedad inherente a la matemática
proporcionase una razón más profunda para toda esta
incompletitud. A mediados de los años 1960, A. N.
Kolmogoroff, en la Unión Soviética, y Chaitin en
EEUU, cada uno por su lado, aportaron nuevas ideas, a las que
podríamos llamar "teoría algorítmica de la
información", de acuerdo con Cahitin. La idea fundamental
es muy sencilla: se trata, simplemente, de medir la complejidad
computacional.

Chaitin encontró una de las primeras
referencias a la complejidad algorítmica en un trabajo de
von Neumann. Turing consideraba a la computadora
como mero concepto matemático —una computadora
perfecta, que jamás comete errores, que dispone de tanto
espacio y tiempo como necesite—. Después de
que Turing diese a conocer esta idea, el paso
lógico siguiente para un matemático
consistía en calcular el tiempo necesario para efectuar un
cálculo; sería una medida de la complejidad de
éste. Hacia 1950, von Neumann hizo resaltar la importancia
de la complejidad temporal de los cálculos; hoy es una
especialidad bien desarrollada.

La idea "sui generis" de Chaitin no era estudiar el
tiempo, a pesar de que, desde un punto de vista práctico,
fuera muy importante, sino el tamaño de los programas
informáticos, la cantidad de información que es
necesario proporcionar a un ordenador para que realice una
determinada tarea. ¿Por qué era esto muy
interesante? Porque la noción de complejidad asociada al
tamaño del programa se podría ligar con la
noción de "entropía" (medida para evaluar el
desorden de un sistema) de la física.

Recordemos que la "entropía"
desempeñó un papel crucial en los
trabajos de un famoso físico del siglo XIX, Ludwig
Boltzmann, y ocupa un lugar central en la mecánica
estadística y en la termodinámica. La
entropía mide el grado de desorden, caos y aleatoriedad de
un sistema físico. La entropía de un cristal es
pequeña (pues se trata de un sistema molecular
mínimamente desordenado o altamente ordenado); pero en un
gas a temperatura ambiente, la entropía es alta
(pues se trata de un sistema molecular altamente
desordenado o muy poco ordenado).

Monografias.com

La entropía guarda relación con una
cuestión filosófica (metacientífica) de la
mayor importancia, a saber: ¿por qué corre el
tiempo en un solo sentido? En la vida ordinaria existe, desde
luego, una gran diferencia entre la retrogradación y la
progresión en el tiempo. Un vaso se rompe, pero no se
recompone espontáneamente. De igual modo, en la
teoría de Boltzmann la entropía tiene
necesariamente que aumentar: el sistema ha de adquirir cada vez
mayor desorden. Tal premisa se denomina "Segundo Principio de la
Termodinámica".

Los contemporáneos de Boltzmann no
conseguían ver la forma de deducir este resultado a partir
de la física newtoniana. Después de todo, en un
gas, donde los átomos chocan y rebotan como si fueran
bolas de billar, cada interacción es reversible. Si
tuviéramos algún modo de filmar una pequeña
porción de gas durante un breve tiempo, no
podríamos saber, al ver la película, si estaba
siendo pasada hacia delante o hacia atrás. Pero la
teoría de los gases de Boltzmann afirma que existe una
flecha del tiempo, que un sistema partirá de un estado
ordenado y acabará en un estado muy desordenado y
mezclado. Existe incluso un nombre amedrentador para la
situación final: la "muerte térmica".

La relación entre las ideas de Chaitin y la
teoría de Boltzmann se debe a que el tamaño de un
programa de ordenador es análogo al grado de desorden de
un sistema físico. El programa necesario para especificar
dónde se encuentran todos los átomos de un gas
tendría que ser enorme; en cambio, para la
descripción de un cristal no haría falta un
programa tan grande, a causa de la regularidad de su estructura.
La entropía y el tamaño de un programa se
encuentran, pues, íntimamente relacionados.

La noción de complejidad medida por
el tamaño de un programa guarda relación
también con la filosofía del método
científico. Ray Solomonoff (un
científico informático que trabajaba en Zator
Company, en Cambridge, Massachusetts) propuso esa idea en 1960,
en un congreso profesional; Chaitin no tuvo noticia de su trabajo
hasta después de haber llegado por mí mismo, varios
años más tarde, a ideas muy parecidas. Basta pensar
en el principio de "la navaja de Occam": la teoría
más sencilla es la mejor. Ahora bien, ¿qué
es una teoría? Es un programa de ordenador para la
predicción de observaciones. Y el aserto de que la mejor
teoría es la más sencilla se traduce en la
afirmación de que un programa informático breve o
conciso constituye la teoría óptima.

Monografias.com

¿Y si no existe una teoría
concisa? ¿Y si el programa más breve
capaz de reproducir un conjunto de datos experimentales es del
mismo tamaño que el conjunto de datos? En este caso, la
teoría no sirve de nada —es un amaño—;
los datos resultarían incomprensibles, aleatorios (pues no
sería posible establecer para ellos ninguna fórmula
definitoria o una regularidad común). Una teoría
sólo es buena en la medida en que comprime los datos hasta
crear un sistema, mucho menor, de hipótesis
teóricas y de reglas de deducción.

Así pues, podríamos definir
lo aleatorio como lo que no puede ser comprimido (o comprendido).
La única forma de describirle a alguien un
objeto o un número que es completamente aleatorio consiste
en exhibírselo y decirle: "Aquí lo tienes". Dado
que carece de estructura o de regularidad, no existe otra
descripción más concisa. En el otro extremo se
encuentran los objetos o los números que poseen una gran
regularidad. Podría describirse uno de ellos diciendo, por
ejemplo, que consiste en un millón de repeticiones de 01.
He aquí un objeto muy grande que admite una
descripción muy breve.

La idea de Chaitin consistía en
utilizar la complejidad, medida por el tamaño de programa,
para definir la aleatoriedad. Y en cuanto se empieza a examinar
el tamaño de los programas de ordenador —en cuanto
se toma en cuenta la noción de tamaño de un
programa o de complejidad de una información en lugar de
la de complejidad determinada por el tiempo de
ejecución—, se produce un fenómeno
interesante: allí donde miremos, encontraremos
incompletitud. ¿Por qué? Porque la primera pregunta
que se hace en la teoría de Chaitin crea ya un conflicto.
La complejidad de algo se mide por el tamaño del
mínimo programa de ordenador que permite calcularlo. Pero,
¿cómo podremos estar seguros de que tenemos el
mínimo programa? La respuesta es que no podremos. No es
poco sorprendente: esa tarea escapa del alcance del razonamiento
matemático».

NOTA:

Gregory J. Chaitin (nacido en Nueva York en 1947) es un
matemático y científico de la computación
estadounidense nacionalizado argentino. Sus padres eran
inmigrantes argentinos. En 1965 regresó a Buenos Aires
donde estudió matemáticas en la Universidad de
dicha ciudad. Luego trabajó para IBM y como docente en la
Facultad de Ciencias Exactas. Habiendo comenzado hacia fines de
los años 1960, Chaitin hizo importantes contribuciones a
la teoría algorítmica de la información y a
la metamatemática, en particular un teorema de la
incompletitud similar en espíritu al teorema de la
incompletitud de Gödel.

En 1995 recibió el grado de doctor en ciencias,
honoris causa, por la Universidad de Maine. En 2002
recibió el título de profesor honorario por la
Universidad de Buenos Aires, en Argentina, donde sus padres
nacieron y donde Chaitin pasó parte de su juventud.
Está en el equipo del Centro de Investigación
Thomas J. Watson de IBM y además es profesor visitante en
el Departamento de Computación de la Universidad de
Auckland, y en el comité internacional del Instituto de
Sistemas Complejos Valparaíso.

Chaitin definió la constante de
Chaitin, O, un número real cuyos dígitos
están equidistribuidos y expresa la
probabilidad de detención de un programa escogido al
azar. Omega (O) tiene numerosas propiedades matemáticas
interesantes, incluyendo el hecho de ser definible
pero no computable.

El trabajo de Chaitin en la teoría
algorítmica de la información continuó con
el trabajo anterior de Kolmogórov en varios respectos.
Chaitin también escribe sobre filosofía,
especialmente acerca de metafísica y filosofía de
la matemática (particularmente sobre asuntos
epistemológicos en la matemática). En
metafísica, Chaitin dice que la teoría
algorítmica de la información es la clave para
resolver problemas en materias como biología (obteniendo
una definición formal de "vida", sus orígenes y
evolución) y neurociencia (el problema de la conciencia y
el estudio de la mente). Además, en escritos recientes,
defiende la posición llamada "filosofía digital".
En la epistemología de las matemáticas, aclama que
sus resultados en lógica matemática y en
teoría de la información algorítmica
muestran que hay "hechos matemáticos que son ciertos sin
razón, por accidente. Son hechos matemáticos
aleatorios". Chaitin propone que los matemáticos
deberían abandonar toda esperanza de probarlos y adoptar
una metodología cuasi-empírica.

Monografias.com

Aunque el trabajo matemático de
Chaitin es generalmente aceptado como correcto, varios
matemáticos discrepan fuertemente de su
interpretación filosófica. El filósofo Panu
Raatikainen argumenta que Chaitin malinterpreta las implicaciones
de su propio trabajo y que sus conclusiones sobre asuntos
filosóficos no son sólidas. El filósofo
Torkel Franzén critica la interpretación del
Teorema de la incompletitud de Gödel de Chaitin y la
explicación que su trabajo representa.

Chaitin es también el inventor de usar coloreo de
grafos para la asignación de los registros al compilar.
Chaitin entiende que la "incompletitud" de la matemática o
los "límites de la matemática" se modificará
con la aplicación de la física subatómica a
las "máquinas pensantes", gracias a que en un futuro
próximo se podrán construir ordenadores con una
capacidad de procesamiento de información un millón
de veces superior a los actuales. Chaitin cree en una nueva
filosofía de la matemática: la matemática
cuasi empírica, que parte de idea de que no hay verdades
inamovibles en un espacio que parecía destinado a la
perennidad de los axiomas.

Conclusión.

¿Qué repercusiones han tenido, y parecen
tener, los descubrimientos acerca de las limitaciones internas de
los formalismos? ¿Qué relación podemos
establecer entre estos descubrimientos y lo que dice el
Génesis? ¿Hay alguna moraleja que se pueda
desprender de todo esto?

La primera gran repercusión del teorema de
Gödel ha sido la devastación de las esperanzas de
alcanzar un paradigma matemático coherente, completo y
global. Hemos de contentarnos, pues, con un sistema de retazos
teóricos muy bien definidos y estructurados a nivel
particular en el mejor de los casos, pero con la
resignación de tener como telón de fondo (debido a
nuestro natural y obligado modo de construir las
matemáticas) la dura convicción de ser incapaces de
encontrar una teoría global o un cuerpo teórico
general que albergue o integre a todos esos retazos (y a otros
retazos más, que ni sospechamos que existen) de una manera
coherente y completa. Esto ha sido una maldición para el
cientificismo matemático, cuya expectativa grandiosa ha
quedado destruida.

La segunda gran repercusión ha sido el
truncamiento del deseo de los físicos de hallar una
teoría universal o del todo, a partir de la cual se
deduzcan todas las demás partes de la física. Al
igual que las matemáticas, e incluso peor, la ciencia
física ha quedado condenada a permanecer como un mosaico
de teorías muy bellas y eficaces en su visión
particular de la realidad, por parte de cada una de ellas, pero
no aglutinables en un cuerpo común que sea fiable o
válido y capaz de cohesionarlas a todas.

La teoría del todo (ToE, por sus
siglas en inglés: Theory of Everything) es una
teoría hipotética de la Física
teórica que explica y conecta en una sola todos los
fenómenos físicos conocidos. Inicialmente, el
término fue usado con una connotación
irónica pero luego se utilizó para describir una
teoría capaz de unificar o explicar a través de un
modelo simple todas las interacciones fundamentales de la
naturaleza. El primer problema en producir una
teoría del todo es que las teorías
aceptadas, como la mecánica cuántica y la
relatividad general, son radicalmente diferentes en
las descripciones del universo: las formas sencillas de
combinarlas conducen rápidamente a la denominada
"renormalización" del problema, en donde la teoría
no nos da resultados finitos para datos cuantitativos
experimentales. Finalmente, un cierto número de
científicos indica que el teorema de incompletitud de
Gödel implica que cualquier intento de construir una
teoría del todo está abocada al fracaso. Stephen
Hawking fue originariamente creyente en una Teoría del
Todo, pero después de considerar el teorema de Gödel
concluyó que no podría ser obtenida; sobre este
particular ha dicho: "Muchas personas estarán muy
disgustadas si no hay una teoría ultima, que pueda
formular un finito número de principios. Yo solía
pertenecer a ese campamento, pero he cambiado mi manera de
pensar" (20 de julio de 2002).

Las demás repercusiones se deducen
del efecto del teorema godeliano sobre las
matemáticas y la física. Tanto la ciencia
teórica como la experimental, así como
cualquier forma de conocimiento científico humano, deben
estar tamizados por la razón y ésta no
puede operar en independencia de los formalismos si en verdad
quiere asegurar los resultados. Eliminar la razón del
cuadro equivale a obtener conocimientos inciertos, imprecisos, no
verificables, mitológicos, dogmáticos, subjetivos
en grado extremo, fantasiosos, engañosos, etc. La historia
de la ciencia es precisamente una lucha milenaria por depurar el
error cognoscitivo e implantar un metódo racional y
experimental que permita sacar del fango de la mentira al deseo
humano de conocer la verdad acerca de la realidad.

Monografias.com

Ante tal desenlace, cabe preguntarse: ¿Ha llegado
la ciencia misma, por medio del Teorema de Gödel y de otros
razonamientos similares, a descubrir lo que la sagrada escritura
ya había dado a entender hace mucho tiempo: "El
conocimiento humano es limitado por naturaleza"? ¿Que
conexión tiene todo esto con la advertencia del
Génesis: "En cuanto al árbol del conocimiento de lo
bueno y lo malo, no debes comer de él, porque en el
día que comas de él, positivamente morirás"?
(En un próximo artículo, investigaremos dicha
conexión).

 

 

Autor:

Jesús Castro

Partes: 1, 2
 Página anterior Volver al principio del trabajoPágina siguiente 

Nota al lector: es posible que esta página no contenga todos los componentes del trabajo original (pies de página, avanzadas formulas matemáticas, esquemas o tablas complejas, etc.). Recuerde que para ver el trabajo en su versión original completa, puede descargarlo desde el menú superior.

Todos los documentos disponibles en este sitio expresan los puntos de vista de sus respectivos autores y no de Monografias.com. El objetivo de Monografias.com es poner el conocimiento a disposición de toda su comunidad. Queda bajo la responsabilidad de cada lector el eventual uso que se le de a esta información. Asimismo, es obligatoria la cita del autor del contenido y de Monografias.com como fuentes de información.

Categorias
Newsletter