Indice
1.
Introducción
2. Aplicaciones
3. Historia
4. Redes Neuronales
5. Breve historia
6. Bibliografía
Se considera generalmente que el orígen remoto de
la "Inteligencia
Artificial" se remonta a los intentos por crear
autómatas, que simulasen la forma y las habilidades de los
seres humanos. Pero el orígen inmediato del concepto y de los
criterios de desarrollo de
la "I.A." se remonta a la intuición del matemático
inglés
Alan Turing y el apelativo "Inteligencia
Artificial" se debe a McCarthy, uno de los integrantes del
"Grupo de
Darmouth", un grupo de
investigadores que se reunió en 1956 en el Darmouth
College (Estados Unidos),
para discutir la posibilidad de construir máquinas
que no se limitaran a hacer cálculos prefijados sino
operaciones
genuinamente "inteligentes".
En primer lugar, revisemos algunas definiciones generales de
inteligencia,
antes de intentar definir inteligencia
artificial. Inteligencia es la aptitud de crear relaciones.
Esta creación puede darse de manera puramente sensorial,
como en la inteligencia animal; también puede darse de
manera intelectual, como en el ser humano, que pone en juego el lenguaje y
los conceptos. También se la puede conceptuar como la
habilidad para adquirir, comprender y aplicar conocimiento;
o como la aptitud para recordar, pensar y razonar.
La IA es una nueva generación de tecnología informática, caracterizada no sólo
por su arquitectura
(hardware), sino
también por sus capacidades. El énfasis de
generaciones previas fue en las computaciones numéricas
para aplicaciones científicas o de negocios. La
nueva generación de tecnología informática incluye además la
manipulación simbólica, con el objetivo de
emular el comportamiento
inteligente; y, la computación en paralelo, para tratar de
conseguir resultados prácticamente en tiempo real. La
capacidad predominante de la nueva generación,
también conocida como la Quinta Generación, es la
habilidad de emular (y tal vez en algunos casos superar) ciertas
funciones
inteligentes del ser humano. Por ejemplo:
Aprendizaje:
Captación automática de conocimientos.
Razonamiento:
Sistemas basados
en conocimientos.
Bases de datos
inteligentes.
Prueba de teoremas y juegos.
Percepción:
Comprensión de lenguaje
natural.
Interpretación de escenas visuales (Visión por
computadora).
Locomoción y Manipulación:
Realizar procesos
mecánicos y tareas manuales
(Robótica).
Creación:
Generación, verificación, depuración y
optimización automática de programas.
Algunas de las tareas que estos sistemas realizan
en el campo de la IA son:
Tareas generales
Percepción: Visión, Fonemas.
Lenguaje
Natural: Comprensión, generación y
traducción.
Razonamiento de sentido común.
Control de
robots.
Tareas formales
Juegos:
Ajedrez,
Backgammon, Damas.
Matemáticas: Geometría,
Lógica,
Cálculo
Integral.
Tareas expertas
Ingeniería: Diseño,
Localización de fallas, Planeamiento.
Análisis Científico.
Diagnóstico Médico.
Análisis
Financiero.
La inteligencia artificial aplicada al control del
fraude de los
móviles
La empresa
británica SearchSpace ha desarrollado un sistema de
detección del fraude en los
móviles basado en el uso que el propietario da al
móvil
El nuevo sistema aplica la
Inteligencia Artificial (AI) a un software que registra la
información de las llamadas del cliente. Para
ello estudia los números a los que suele llamar, el
tiempo que
duran las llamadas y cuándo se hacen. A partir de
ahí el sistema crea un patrón de conducta que
detecta movimientos extraños.
"Es como tener un guardián virtual asignado al
propietario", aseguraron fuentes de la
empresa. A
finales de noviembre, SearchSpace firmó un acuerdo con
Ericsson por el que el fabricante sueco utilizaría su
sistema AI en su FraudOffice. Gracias al software, la oficina aprende
de fraudes anteriores y descubre nuevas formas de abuso del
sistema y de la red.
Al utilizar un patrón reconocido, el sistema detecta el
uso extraño del móvil y envía un mensaje de
texto a la
terminal para confirmar el PIN y la identidad del
usuario. Si no se obtiene respuesta, el software apaga
inmediatamente el teléfono.
"Este sistema se diferencia de otros porque analiza el comportamiento
dinámicamente. Al no tener reglas fijas, puede saber que
el usuario hará más llamadas en fin de año y
permitirlo", afirmó un portavoz de la empresa.
Jason Kingdon, CEO de la empresa,
subrayó que "la AI puede contribuir extremadamente al
desarrollo de
aplicaciones para el usuario, como la navegación por
internet o el
comercio
electrónico a través del
móvil"
Robótica
– HOLA
– HOLA ORDENADOR, ME GUSTARIA QUE ME AYUDARAS.
– ¿DE QUE SE TRATA ?
– NECESITO QUE ME DIGAS DONDE ENCONTRAR UN DIALOGO ENTRE
MAQUINA Y HUMANO.
– ¿PARA QUE ?
– PARA UNA PAGINA WEB.
– NO LO NECESITAS.
– ¿CÓMO QUE NO ?, ¡ LO NECESITO PARA
MAÑANA !
– YA TE HE DADO UNO.
Este es un claro ejemplo de lo que podría ser una
conversación de un humano con una máquina en el
futuro, aunque actualmente estamos muy lejos de llegar a
esto.
La Inteligencia Artificial "nació" en 1943 cuando Warren
McCulloch y Walter Pitts propusieron un modelo de
neurona del
cerebro humano y
animal. Estas neuronas nerviosas abstractas proporcionaron una
representación simbólica de la actividad
cerebral.
Más adelante, Norbert Wiener elaboró estas ideas
junto con otras, dentro del mismo campo, que se llamó "
cibernética", de aquí nacería
, sobre los años 50, la Inteligencia Artificial.
Los primeros investigadores de esta innovadora ciencia,
tomaron como base la neurona
formalizada de McCulloch y postulaban que :
" El cerebro es un
solucionador inteligente de problemas, de
modo que imitemos al cerebro".
Pero si consideramos la enorme complejidad del mismo
esto es ya practicamente imposible, ni que mencionar que el
hardware de la
época ni el software estaban a la altura para ralizar
semejantes proyectos.
Se comenzó a considerar el pensamiento
humano como una coordinación de tareas simples relacionadas
entre sí mediante símbolos. Se llegaría a la
realización de lo que ellos consideraban como los
fundamentos de la solución inteligente de problemas,
pero lo difícil estaba todavía sin empezar, unir
entre sí estas actividades simples.
Por lo tanto podemos decir a grandes rasgos que la Inteligencia
Artificial es una ciencia que
intenta la creación de programas para
máquinas que imiten el comportamiento y la
comprensión humana, que sea capaz de aprender, reconocer y
pensar, aunque esto último está por ver, ya que,
realmente, ¿qué significa pensar? y ¿en
qué consiste el pensamiento?.
Ya hemos comentado anteriormente en la introducción que los primeros
investigadores se habían quedado en elaborar sistemas
inteligentes basados en el modelo de
McCulloch.
Es en los años 50 cuando se logra realizar un sistema que
tuvo cierto éxito,
se llamó el Perceptrón de Rossenblatt. Éste
era un sistema visual de reconocimiento de patrones en el cual se
aunaron esfuerzos para que se pudieran resolver una gama amplia
de problemas, pero estas energías se diluyeron
enseguida.
Fué en los años 60 cuando Alan Newell y
Herbert Simon, que trabajando la demostración de teoremas
y el ajedrez por
ordenador logran crear un programa llamado
GPS (General
Problem Solver: solucionador general de problemas). Éste
era una sistema en el que el usuario definía un entorno en
función
de una serie de objetos y los operadores que se podían
aplicar sobre ellos. Este programa era
capaz de trabajar con las torres de Hanoi, así como con
criptoaritmética y otros problemas similares, operando,
claro está, con microcosmos formalizados que representaban
los parámetros dentro de los cuales se podían
resolver problemas. Lo que no podía hacer el GPS era resolver
problemas ni del mundo real, ni médicos ni tomar
decisiones importantes. El GPS manejaba reglas heurísticas
(aprender a partir de sus propios descubrimientos) que la
conducían hasta el destino deseado mediante el método del
ensayo y el
error.
En los años 70, un equipo de investigadores
dirigido por Edward Feigenbaum comenzó a elaborar un
proyecto para
resolver problemas de la vida cotidiana o que se centrara, al
menos, en problemas más concretos. Así es como
nació el sistema experto.
El primer sistema experto fue el denominado Dendral, un
intérprete de espectrograma de masa construido en 1967,
pero el más influyente resultaría ser el Mycin de
1974. El Mycin era capaz de diagnosticar trastornos en la
sangre y
recetar la correspondiente medicación, todo un logro en
aquella época que incluso fueron utilizados en hospitales
(como el Puff, variante de Mycin de uso común en el
Pacific Medical Center de San Francisco, EEUU).
Ya en los años 80, se desarrollaron lenguajes especiales
para utilizar con la Inteligencia Artificial, tales como el LISP
o el PROLOG. Es en esta época cuando se desarrollan
sistemas
expertos más refinados, como por el ejemplo el
EURISKO. Este programa perfecciona su propio cuerpo de reglas
heurísticas automáticamente, por inducción.
Proyectos
Actualmente se están realizando numerosos proyectos no
solamente a nivel europeo, sino a nivel mundial, que por lógica
son mucho más numerosos. Una de las vertientes que parece
disponer de más adeptos en cuestión de Inteligencia
Artificial, parece ser el Procesamiento del Lenguaje Natural,
dado que no solamente da lugar a un aprovechamiento
científico sino que además es de alto rendimiento
en la sociedad para
multitud de situaciones que no nos paramos a pensar muy a
menudo.
Muchos de los proyectos dispuestos en los enlaces de está
página ya han concluido y disponen de información relativa a los mismos en sus
páginas oficiales, que dada la extensa referencia expuesta
sobre esos proyectos es aconsejable visitar. Muchos no disponen
de enlaces pero sí de información que en la medida
de lo posible se irá habilitando en esta parte de
Proyectos Europeos.
Ejemplos
Procesamiento del lenguaje natural
Aprendizaje
automático
Robótica
Comparación entre Humanos y Máquinas.
El aparato computacional más poderoso conocido por
el hombre es
el cerebro humano. Un niño de tres años puede
realizar fácilmente labores que superan por mucho las
capacidades de las computadoras
más sofisticadas: reconociendo docenas de caras y cientos
de objetos desde diferentes ángulos, en condiciones de
luz distintas,
manipulando un ambiente
complejo, entendiendo y usando un vocabulario complejo de
lenguaje y gestos. Han sido gastados enormes esfuerzos en
desarrollo para intentar reproducir versiones limitadas de
algunas de estas capacidades en las computadoras,
con pobres resultados.
Una computadora
puede realizar en segundos cálculos aritméticos
que, a un ser humano, le llevarían años. La
aritmética es difícil para los humanos e imposible
para los animales. Dicha
habilidad se considera tradicionalmente como un signo de gran
inteligencia. Entonces, ¿qué causa la disparidad
entre las habilidades del hombre y la
máquina?.
La diferencia obvia yace en la arquitectura
fundamental de la computadora
y del cerebro. Las computadoras tradicionales están
basadas en la arquitectura de Von Neumann: un simple procesador que
puede realizar operaciones
simples aritméticas, lógicas y condicionales una a
la vez, y una gran memoria.
El cerebro humano, en contraste, consiste en un gran numero de
células
especializadas llamadas neuronas, interconectadas masivamente (se
estima que hay del orden de diez billones de neuronas en el
cerebro humano con un promedio de miles de conexiones por cada
una). Estas neuronas son lentas (realizando cientos, en lugar de
millones, de operaciones por segundo).
Las Redes
Neuronales Artificiales (ANN, por sus siglas en ingles o
simplemente Redes
Neuronales) son modelos
computerizados inspirados en la estructura a
bajo nivel del cerebro. Consisten en grandes cantidades de
unidades de procesamiento sencillas llamadas neuronas, conectadas
por enlaces de varias fuerzas. Las Redes Neuronales
también pueden ser construidas con "hardware" especial o
simuladas en computadoras normales. Sin embargo, el "hardware"
neuronal especializado no es común, así que la
simulación es la norma.
Las neuronas y el
aprendizaje.
El cerebro contiene un gran número de células
especializadas llamadas neuronas. Una neurona tiene tres partes:
un cuerpo celular, una fina estructura de
entrada (Dendrita) y una gran estructura de salida (Axon). Un
buen mnemónico es que dendrIta=Input (Entrada) y
axOn=output (salida). Las terminales de los axones terminan en
sinapsis: éstas son conexiones con casi todas las
dendritas de otras neuronas, señales
electro-químicas que se propagan por las neuronas desde
sus sinapsis hacia otras neuronas. Esta conducta simple
es modificada en varias formas:
a) Una neurona sólo produce una señal (se dispara)
si la señal de entrada supera una determinada cantidad en
un periodo corto de tiempo.
b) Las sinapsis varían en fuerza:
algunas son buenas conductoras permitiendo una señal
fuerte y otras una señal débil.
c) Las sinapsis pueden ser: excitatorias o inhibitorias. Una
sinapsis excitatoria añade una señal a la dendrita.
En contraste, la inhibitoria reduce la señal de la
dendrita.
Ahora se cree que gran parte de la actividad cerebral es
controlada por conexiones introductoras/removedoras entre
neuronas, y alterando las fuerzas sinápticas de las
conexiones. Por ejemplo, asumamos que dos neuronas representan
dos conceptos: Comida y Campana. La neurona Comida transmite cada
vez que la comida esta disponible y la neurona Campana cuando
suena un campana. Si hay cena, la campana suena, de ahí
que haya una conexión muy importante entre estos dos
conceptos. El aprendizaje de
Hebb postula que la fuerza
sináptica entre neuronas se incrementa si representan
conceptos asociados. Cada vez que la campana suena y la comida
aparece, la conexión entre estas dos neuronas aumenta.
Consecuentemente, el cerebro aprende a asociar la campana con
comida. Ahora, si hay un número de conceptos que indican
la proximidad de comida (hambre, olor), pueden combinarse y
"pesarse" de acuerdo a su importancia relativa para determinar si
la comida puede aparecer. La neurona de comida quizá pueda
activarse sólo si coinciden un número de conceptos
relacionados, por ejemplo, si la campana suena cuando no hay
comida, puede no activarse.
Activación de las neuronas y su
representación
En las redes neuronales.
Matemáticamente, podemos representar una neurona
simplificada por un valor (que
debe ser superado para que se active) y una lista de sus sinapsis
y sus fuerzas asociadas. Las señales de entrada a una
neurona son multiplicadas por sus fuerzas("pesos") asociadas y
después se suman. El resultado se llama el nivel de
activación de la neurona. Si el nivel de activación
supera el valor de la
neurona, ésta se activa y una señal se envía
a cada neurona que tiene conectada. Se ha postulado que paquetes
de neuronas deben compartir esencialmente entradas de otros
paquetes, así que la conducta de neuronas individuales es
irrelevante. Los paquetes de neuronas más que neuronas
individuales necesitan ser modelados. En una red neuronal, se puede
tomar que una neurona sencilla representa un paquete de neuronas
reales para enfatizar que el modelo de neuronas usado hasta ahora
es extremadamente simple con respecto al del cerebro
humano.
Definiciones.
– Estudio de Redes Neuronales de DARPA (1988, AFCEA International
Press, p. 60): "Una red neuronal es un
sistema compuesto de muchos elementos procesadores
simples operando en paralelo, cuya función es
determinada por la estructura de la red, fuerza en las
conexiones y el procesamiento realizado por los elementos
computacionales en los nodos."
– Haykin, S. (1994, Neural Networks: A comprehensive foundation,
NY, McMillan, P.2): "Una red neuronal es un procesamiento
distribuido masivamente paralelo que tiene una tendencia natural
para almacenar conocimiento
empírico y hacerlo disponible para el uso. Recuerda al
cerebro en dos aspectos:
1.- el
conocimiento se adquiere por la red a través de un
proceso de
aprendizaje.
2.- Las conexiones interneurónicas se conocen como pesos
sinápticos y se usan para almacenar el
conocimiento."
– Zurada,J.M. (1992, Introduction to artificial neural nsystems,
Boston: PWS Publishing Company, P. XV): "Los sistemas de redes
neuronales artificiales, o redes neuronales, son sistemas
celulares físicos que puedan adquirir, almacenar y usar
conocimiento empírico."
Las redes neuronales son una forma de un sistema
computarizado multi-proceso
con:
– Elementos de procesamiento sencillos.
– Alto grado de interconexión.
– Mensajes simples escalares.
– Interacción adaptable entre elementos.
En los 50's y 60's, se hicieron varios intentos para
adaptar los modelos de
Redes Neuronales para que se diera el aprendizaje. Rosenblatt
diseñó el Perceptron. Éste contenía
tres tipos de neuronas: sensoriales, asociativas y de respuesta.
Las sensoriales tomaban entradas de fuera de la red, las unidades
de respuesta propagaban señales fuera de la red, al mundo
externo, y las asociativas eran meramente internas. La
distinción entre estas tres neuronas es importante. Sin
embargo ahora se refieren como unidades de entrada, de salida y
ocultas. Rosenblatt desarrolló métodos
para alterar los niveles sinápticos de forma que la red
aprendiera a reconocer clases de entradas. Por ejemplo, produjo
una red que aprendió a responder a líneas
verticales, pero no a horizontales (se sabe que neuronas
especializadas en la visión actúan de esta forma).
Como muchas Redes Neuronales posteriores, el rasgo más
importante del Perceptron de Rosenblatt es que aprendió a
clasificar sus entradas "por ejemplo"; lo cual contrasta con la
clásica ciencia computacional donde el programador escribe
un programa que le dice a la computadora
cómo clasificar sus entradas.
En 1969, Minsky y Papert publicaron un libro que
influenció mucho el pensamiento sobre redes neuronales. En
primer lugar demostraron que para hacer algunas tareas
importantes de clasificación en geometría
requerían un incremento arbitrario en el tamaño del
Perceptron mientras se iba incrementando el tamaño de la
retina. En segundo lugar demostraron que los Percepetrones eran
incapaces de aprender a resolver cualquier problema linealmente
inseparable. Puesto que problemas muy simples son linealmente
inseparables ( por ejemplo el XOR) este fue un grave
problema.
Después de los 80’s, el campo de la Inteligencia
Artificial se hizo muy popular. En Inteligencia Artificial, la
inteligencia se modela top-down, con algoritmos
diseñados para modelar procesos
mentales de alto nivel como la asociación de conceptos,
deducción, inducción y razonamiento.
Las redes aprenden a reconocer patrones por medio de un entrenamiento
basado en varios ejemplos diferentes. Ellas son eficientes en el
reconocimiento de patrones en un conjunto de datos.
También son efectivas en el aprendizaje de patrones a
partir de datos no
lineales, incompletos, con ruidos y hasta compuestos por ejemplos
contradictorios. La habilidad de manipular estos datos
imprecisos, hace que las redes sean muy eficaces en el
procesamiento de información sin reglas claras o que no
puedan se formuladas fácilmente.
Procesamiento del lenguaje
El procesamiento del lenguaje es, a nuestro entender, el que
mejor demuestra, por ahora, los avances y las posibilidades de la
I.A. Es también, por cierto, el que presenta el mayor
interés
para los comunicadores, ya que se relaciona directamente con el
problema de la transmisión y del uso de la
información.1. Palabras-claves
Uno de los primeros intentos de lograr la Prueba de Turing
utilizando el lenguaje
natural (es decir el lenguaje común diario) con un
computador -y
el más famoso- ha sido el programa ELIZA creado por
Weizenbaum en 1966, en el Instituto Tecnológico de
Massachusetts. Pretendía simular una conversación
entre un siquiátra y su paciente. Fue posiblemente el
primer programa que logró dar la apariencia de un diálogo
entre el usuario y la máquina. Pero, por cierto, a la
larga cualquier usuario inteligente terminaba descubriendo que
"algo andaba mal". Como lo expresó un siquiátra que
probó sus virtudes: "El interlocutor (la máquina)
tenía una muy seria lesión cerebral".No
había en este caso ni un mínimo de captación
de sentido, sino solo una hábil previsión de
palabras-claves, acompañada de reglas para formular
oraciones únicamente destinadas a inducir otra
afirmación por parte del sujeto humano en
interacción con él. En ausencia de alguna
palabra-clave, entraban a jugar reglas de repetición o de
inserción de alguna palabra aún sin uso, lo cual
podía aparecer fácilmente como una
preocupación fuera de contexto. Era, por lo tanto, un
automatismo expresivo sin verdadero contenido significativo.2.
Análisis gramaticalHasta este momento, el
computador
sólo "sabe" ejecutar órdenes dadas en un lenguaje
especial y sólo puede reproducir, como mensaje al usuario,
ciertas palabras que se incluyen en su programa o junto a
él a modo de "datos" constantes. Se pensó que para
una interracción en lenguaje natural habría que
"enseñarle" un amplio vocabulario, la sintáxis y la
gramática.Los programas basados en el
análisis gramatical, que sucedieron a ELIZA, no lograron
progresos significativos por no considerar que el niño no
aprende a hablar a partir de las reglas gramaticales, sino
captando por un lado el significado y por otro las
mútiples maneras de expresarlo. Llega a la gramática sabiendo ya manejar los
significados. Por lo tanto, la comprensión no se demuestra
por la capacidad de análisis gramatical. Así, los
intentos de la época (como las primeras traducciones
automáticas) fracasaron estrepitosamente.Los progresos
siguientes implican analizar el significado más que
analizar las expresiones.3. Procesamiento del
significado
El primer paso verdaderamente importante se dió
cuando los investigadores descubrieron que los problemas de
comprensión (sentido) no son idénticos a los de
expresión (sintaxis). La comprensión del lenguaje
se demuestra fundamentalmente en la capacidad de parafrasear, es
decir de referirse a un mismo contenido cambiando su forma de
expresión.Como consecuencia, el estudio ha avanzado hacia
el nivel del procesamiento conceptual. Para que éste pueda
ocurrir, se ha de "informar al computador" acerca del sentido de
las palabras, para lo cual se ha de dotarlo de algo que rinda
cuenta de la estructura de un área del conocimiento, en
que las relaciones son de suma importancia. Así, por
ejemplo, se ha de explicar lo que es un "regalo" relacionando
este término con muchos otros como dar, recibir,
donación, gratuidad, explicando que la propiedad del
objeto es transferida de la primera persona a la
segunda, que se da generalmente con oportunidad de un
acontecimiento festivo, que es grato, que se ha de agradecer,
etc. Todo ello de modo estrictamente formal (mediante reglas de
asociación y sustitución de símbolos), ya
que un sistema de cálculo no
tiene posibilidad alguna de acceder al "sentido" de los
símbolos.Toda información inicial (o pregunta)
habrá entonces de ser traducida y vertida en un modelo
fundamental que represente los múltiples aspectos del
significado, independientemente de la gramática del
lenguaje verbal. El programa deberá permitir utilizar este
modelo de múltiples maneras, a fin de relacionar los datos
de un modo nuevo y, así, generar una paráfrasis o
una respuesta a una pregunta acerca de los datos, es decir
realizar una inferencia a partir del conocimiento.
Pregunta frecuentes
Tabla de contenido
¿Que es la Inteligencia Artificial… ?
¿Para que sirve la Inteligencia Artificial … ?
¿Que son las Redes Neuronales… ?
¿Quién inventó los términos
"inteligencia artificial" (cuándo)?
¿Quienes fuerón los precursores de la Inteligente
Artificial"?¿Cuándo … ?
¿Que es la Inteligencia Artificial… ?
Para algunos se trata de "la capacidad de un sistema
auto corregido de responder a cambios externos procedentes de un
entorno, al que debe adaptarse de manera satisfactoria", para
otros resolver crucigramas, para otros mas atrevidos, controlar
el medicamento de un paciente, guiar un misil, etc
Ir al principio
¿Para que sirve la Inteligencia Artificial. ?
Para ayudar al Hombre a
resolver más rápidamente problemas
complicados
se pueden aplicar en :
Percepción: Visión, Fonemas.
Lenguaje Natural: Comprensión, generación y
traducción.
Razonamiento de sentido común.
Control de robots.
Juegos: Ajedrez, Back gamón, Damas.
Matemáticas: Geometría,
Lógica, Cálculo Integral.
Ingeniería: Diseño,
Localización de fallas, Planeamiento.
Análisis Científico.
Diagnóstico Médico.
Análisis
Financiero.
Ir al principio
Que son las Redes Neuronales… ?
Las Redes Neuronales Artificiales (ANN, por sus siglas en ingles
o simplemente Redes Neuronales) son modelos computerizados
inspirados en la estructura a bajo nivel del cerebro. Consisten
en grandes cantidades de unidades de procesamiento sencillas
llamadas neuronas, conectadas por enlaces de varias fuerzas. Las
Redes Neuronales también pueden ser construidas con
"hardware" especial o simuladas en computadoras normales. Sin
embargo, el "hardware" neuronal especializado no es común,
así que la simulación
es la norma.
Ir al principio
¿Quién inventó los términos
"inteligencia artificial" (cuándo)?
Los integrantes del grupo eran Samuel, que había escrito
un programa de juego de damas
capaz de aprender de su propia experiencia; McCarthy, que
estudiaba sistemas capaces de efectuar razonamientos de sentido
común; Minsky, que trabajaba sobre razonamientos
analógicos de geometría; Selfridge, que estudiaba
el reconocimiento visual por computador, Newell, Shaw y Simon,
que habían construido un programa para la
demostración automática de teoremas, y algunos
otros.
Fueron los verdaderos iniciadores en el campo de investigación que McCarthy bautizó
como "Inteligencia Artificial".Ir al principio
¿Quienes fuerón los precursores de la
Inteligencia Artificial"?En GreciaSe considera generalmente que
el orígen remoto de la "Inteligencia Artificial" se
remonta a los intentos por crear autómatas, que simulasen
la forma y las habilidades de los seres humanos.
Los griegos, además de la famosa paloma de Arquitas,
crearon numerosos juguetes y artefactos automáticos como
los que construyó Arquímedes para proteger a
Siracusa del asedio de la flota romana.Pero se debe a
Herón de Alejandría la primera construcción de un autómata con
forma humana: construyó actores artificiales que
representaban una obra sobre la Guerra de
Troya. Aunque, por cierto, la mitología
griega atribuye a Hefaistos (dios del fuego y primer herrero)
la fabricación de los primeros "robots" de forma humana.En
la Edad MediaHay que esperar la Edad Media
para encontrar la continuación de estos esfuerzos.
San Alberto Magno tuvo un "mayordomo" que abría la puerta
y saludaba al visitante, y Leonardo construyó un
león que caminaba. También se cita habitualmente al
"Golem", hombre hecho de barro, obra del rabino húngaro
Low que lo "dotó de vida" en una ceremonia mágica
(lo cual desvirtúa por cierto el valor científico
del invento).Era Moderna
En el Siglo XVII, los Droz, padre e hijo, construyeron tres
androides: dos niños y
una joven. Un niño escribía, el otro dibujaba y la
joven tocaba el órgano y simulaba respirar. Esta
realización (basada en mecanismos de relojería) les
valió ser detenidos y encerrados y quemados por la
Inquisición.
http://www.santafe.edu/projects/swarm/
Swarm: multi-agent simulation of complex systems. Plataforma de
desarrollo de Vida Artificial, Computación Evolutiva y todo tipo de
Sistemas Complejos, para UNIX GNU y
Xwindows
Algoritmos
Genéticos, Computación Evolutiva
Dpto. Ciencias de la
Computación e Inteligencia Artificial.
Ciencias de la
Computación e Inteligencia Artificial. Universidad de
Sevilla.
URL: http://www-cs.us.es/ •
Centro de Inteligencia Artificial – ITESM México
Pagina del Centro de Inteligencia Artificial, ITESM Campus
Monterrey
URL: http://www-cia.mty.itesm.mx/ •
Asociación Española de Inteligencia Artificial
(AEPIA)
Asociación Española para la Inteligencia Artificial
(AEPIA) Miembro del 'European Coordinating Committee for
Artificial Intelligence' (ECCAI)…
URL: http://aepia.dsic.upv.es/ •
Departamento de Ciencia de la Computación e Inteligencia
Artificial
Departamento de Ciencia de la Computación e Inteligencia
Artificial. Información General
URL: http://www.dccia.ua.es/ •
Departamento de Inteligencia Artificial — Home Page
Departamento de Inteligencia Artificial. [English version]
URL: http://www.dia.fi.upm.es/ •
Dpto. Ciencias de la Computación e Inteligencia
Artificial.
Ciencias de la Computación e Inteligencia
Artificial. Universidad de
Sevilla.
URL: http://www.cs.us.es/ •
Departamento de Ciencias de la Computación e Inteligencia
Artificial
Universidad de Granada. Escuela
Técnica Superior de Ingeniería Informática.
Departamento de Ciencias de la Computación e Inteligencia
Artificial….
URL: http://decsai.ugr.es/ •
DEPARTAMENTO DE INTELIGENCIA ARTIFICIAL
URL: http://ia-serv.dia.uned.es/ •
AIC – Centro de Inteligencia Artificial
Universidad. de. Oviedo en Gijón. Inteligencia
Artificial…
URL: http://www.aic.uniovi.es/ •
Autor:
Bareiro Avalos Victor
Bogado Diego Javier