- <>
- Resumen
- Historia de la inteligencia
artificial - Definiciones de inteligencia
artificial - Tendencias de los sistemas de
inteligencia artificial - Aplicaciones de la inteligencia
artificial y las técnicas que usan - Aplicación de la
inteligencia artificial en los sistemas
productivos - Aplicaciones de la
inteligencia artificial en la solución de problemas
específicos de producción - Conclusiones
- Bibliografía
Este documento está centrado en analizar
más a fondo la inteligencia
artificial con sus diferentes paradigmas,
siendo los más relevantes las redes
neuronales, algoritmos
genéticos, sistemas de
lógica
difusa y autómatas programables, con sus diferentes
aplicaciones en la vida cotidiana y más
específicamente aplicados a las soluciones de
problemas
relacionados con la ingeniería
industrial.
Se considera que la producción en nuestros días puede
estar muy apoyada en las nuevas
tecnologías, como es la inteligencia
artificial ya sea como soporte para una toma de
decisiones más eficaz o en la ayuda de labores,
tareas, que exijan gran demanda de
tiempo o
representen un alto grado de peligrosidad al ser
humano.
Palabras claves: Inteligencia artificial,
redes neuronales,
algoritmos
genéticos, sistemas de
lógica
difusa, producción.
La inteligencia
artificial es un área de la investigación donde se desarrollan
algoritmos para controlar cosas, y es así que en 1956 se
establecen las bases para funcionar como un campo independiente
de la informática.
Son muchos los estudios y aplicaciones que se han
logrado con el desarrollo de
esta ciencia ,
entre las cuales tenemos redes
neuronales aplicadas al control de la
calidad donde
la red evalúa
si determinado producto
cumple o no con las especificaciones demandadas, control del
proceso
químico en el grado de acidez, algoritmos genéticos
aplicados al problema cuadrático de asignación de
facilidades que trata de la asignación de N trabajos en M
máquinas, los autómatas programables
que se usan para la optimización de sistemas de
producción, en fin, todavía queda mucho por
descubrir con respecto a las aplicaciones de esta ciencia.
3.
HISTORIA DE LA
INTELIGENCIA ARTIFICIAL
Se podría situar los orígenes de la
inteligencia artificial con la definición de la neurona formal
dada por McCulloch & Pitts [1943], como un dispositivo
binario con varias entradas y salidas.
Ya en el año de 1956 se volvió a tocar el
tema de inteligencia artificial (IA) en el instituto de tecnología de
Massachussets por John McCarthy donde se celebró la
conferencia de
Dartmouth en Hanover (Estados Unidos).
En este certamen McCarthy, Marvin Minsky, Nathaniel Rochester y
Claude E. Shannon establecieron las bases de la inteligencia
artificial como un campo independiente dentro de la informática. Previamente, en 1950, Alan M.
Turing había publicado un artículo en la revista Mind,
titulado "Computing Machinery and Intelligence" ("Ordenador e
inteligencia"), en el que reflexionaba sobre el concepto de
inteligencia artificial y establecía lo que luego se
conocería como el test de Turing,
una prueba que permite determinar si un ordenador o computadora se
comporta conforme a lo que se entiende como artificialmente
inteligente o no.
La inteligencia artificial en los años sesenta,
como tal no tuvo muchos éxitos ya que requería
demasiada inversión para ese tiempo y la
mayoría de tecnologías eran propias de grandes
centros de investigación. En los años 70 a 80
se lograron algunos avances significativos en una de sus ramas
llamada Sistemas
Expertos, con la introducción de PROLOG LISP.
Básicamente lo que pretende la inteligencia artificial es
crear una maquina secuencial programada que repita
indefinidamente un conjunto de instrucciones generadas por un ser
humano.
En la actualidad mucho se sigue investigando en los
grandes laboratorios tecnológicos educativos y privados;
sin dejar de lado los notables avances en sistemas de
visión por computadora
(aplicados por ejemplo, para la clasificación de
artículos revueltos -tornillería o piezas marcadas
por códigos de colores, por
citar un caso-), control robótico autónomo (Sony,
con sus robots capaces de moverse en forma casi humana y
reaccionar a presiones tal como lo hace una persona al
caminar), aplicaciones de lógica difusa (aplicación
del tracking automático en nuestras video caseteras,
por citar una aplicación), etc. Sin embargo, la
Inteligencia Artificial sigue en su gran mayoría acotado
por su dominio
tecnológico, y poco ha podido salir al mercado del
consumidor final
o a la industria.
4.
DEFINICIONES DE INTELIGENCIA ARTIFICIAL
Con respecto a las definiciones actuales de inteligencia
artificial se encuentran autores como Rich & Knight [1994],
Stuart [1996], quienes definen en forma general la IA como la
capacidad que tienen las máquinas
para realizar tareas que en el momento son realizadas por seres
humanos; otros autores como Nebendah [1988], Delgado [1998],
arrojan definiciones más completas y las definen
cómo el campo de estudio que se enfoca en la
explicación y emulación de la conducta
inteligente en función de
procesos
computacionales basadas en la experiencia y el
conocimiento continuo del ambiente.
Hay más autores como Marr [1977], Mompin [1987],
Rolston [1992], que en sus definiciones involucran los
términos de soluciones a
problemas muy complejos.
A criterio de los autores las definiciones de Delgado y
Nebendan son muy completas, pero sin el apoyo del juicio formado,
emocionalidad del ser humano pueden perder peso dichas
soluciones, por eso, hay que lograr un ambiente
sinérgico entre ambas partes para mayor efectividad de
soluciones.
5.
TENDENCIAS DE LOS SISTEMAS DE INTELIGENCIA
ARTIFICIAL
Actualmente según Delgado [1998], Stuart [1996],
existen tres paradigmas en
cuánto al desarrollo de
la IA.
- Redes Neuronales.
- Algoritmos genéticos.
- Sistemas de Lógica difusa.
Pero se han venido destacando otros paradigmas como lo
son los agentes de decisión inteligente y autómatas
programables, con respecto a estos últimos se suelen
emplear en gran medida en procesos
industriales de acuerdo a necesidades a satisfacer como, espacio
reducido, procesos de producción periódicamente
cambiantes, procesos secuenciales, maquinaria de procesos
variables,
etc.
A juicio de los autores se determina que todos estos
desarrollos acortan bastante el proceso de
decisiones y optimizan las mismas, pero ahí que tener
mucho cuidado ya que hay que analizar los diferentes impactos ya
sean ambientales, sociales, políticos y
económicos.
5.1 Redes
neuronales
A grandes rasgos, se recordará que el cerebro humano se
compone de decenas de billones de neuronas interconectadas entre
sí formando circuitos o
redes que desarrollan funciones
específicas.
Una neurona
típica recoge señales procedentes de otras neuronas
a través de una pléyada de delicadas estructuras
llamadas dendritas. La neurona emite impulsos de actividad
eléctrica a lo largo de una fina y delgada capa denominada
axón, que se escinde en millares de
ramificaciones.
Las extremidades de estas ramificaciones llegan hasta
las dendritas de otras neuronas y establecen conexión
llamada sinapsis, que transforma el impulso eléctrico en
un mensaje neuroquímico mediante liberación de unas
sustancias llamadas neurotransmisores que excitan o inhiben sobre
la neurona, de esta manera la información se transmite de neuronas a
otras y va siendo procesada a través de las conexiones
sinápticas y el aprendizaje
varía de acuerdo a la efectividad de la
sinapsis.
Figura 1. Neuronas y conexiones
sinápticas.
Fuente: Sandra Patricia Daza, Universidad
Militar Nueva Granada, 2003.
Un psicólogo D Hebb [1949], introdujo dos ideas
fundamentales que han influido de manera decisiva en el campo de
las redes neuronales. La hipótesis de Hebb, basadas en investigaciones
psicofisiológicas, presentan de manera intuitiva el modo
en que las neuronas memorizan información y se plasman
sintéticamente en la famosa regla de aprendizaje de
Hebb ( también conocida como regla de producto).
Esta regla indica que las conexiones entre dos neuronas se
refuerza si ambas son activadas. Muchos de los algoritmos
actuales proceden de los conceptos de este
psicólogo.
Widrow [1959], publica una teoría
sobre la adaptación neuronal y unos modelos
inspirados en esta teoría,
el Adaline (Adaptative Linear Neuron) y el Madaline
(Múltiple Adaline). Estos modelos fueron
usados en numerosas aplicaciones y permitieron usar, por primera
vez, una red neuronal
en un problema importante del mundo real: filtros adaptativos que
eliminan ecos en las línea telefónicas.
Hopfield [1980], elabora un modelo de
red consistente
en unidades de proceso interconectadas que alcanzan
mínimos energéticos, aplicando los principios de
estabilidad desarrollados por Grossberg. El modelo
resultó muy ilustrativo sobre los mecanismos de almacenamiento y
recuperación de la memoria. Su
entusiasmo y claridad de presentación dieron un nuevo
impulso al campo y provocó el incremento de las investigaciones.
Otros desarrollos destacables de esta década son
la máquina de Boltzmann y los modelos Bam (Bi-directinal
Associative Memory).
Analogía de redes neuronales biológicas
y artificiales
Según Herrera Fernandez
Las neuronas se modelan mediante unidades de proceso,
caracterizadas por una función de
actividades que convierte la entrada total recibida de otras
unidades en un valor de
salida, el cual hace la función de tasa de disparo de la
neurona.
Las conexiones sinápticas se simulan mediante
conexiones ponderadas, la fuerza o peso
de la conexión cumple el papel de la
efectividad de la sinapsis. Las conexiones determinan si es
posible que una unidad influya sobre otra.
Una unidad de proceso recibe varias entradas procedentes
de las salidas de otras unidades de proceso de entrada total de
una unidad de proceso y se suele calcular como la suma de todas
las entradas ponderadas, es decir, multiplicadas por el peso de
la conexión. El efecto inhibitorio o excitatorio de la
sinapsis se logra usando pesos negativos o positivos
respectivamente
Tabla 1. Comparativo entre neuronas reales y las
unidades de proceso empleadas en los modelos
computacionales.
Fuente: Francisco Herrera Fernández
Redes biológicas | Redes artificiales |
Neuronas | Unidades de proceso |
Conexiones | Conexiones ponderadas |
Efectividad de la | Peso de las conexiones |
Efecto excitatorio o | Signo del peso de una |
Estimulación | Entrada total |
Activación (tasa de | Función de |
Las redes neuronales deben tener como estructura
varias capas las cuales son: primera capa como buffer de entrada,
almacenando la información bruta suministrada en la red
ó realizando un sencillo preproceso de la misma, la
llamamos capa de entrada; otra capa actúa como interfaz o
buffer de salida que almacena la respuesta de la red para que
pueda ser leída, la llamamos capa de salida; y las capas
intermedias, principales encargadas de extraer, procesar y
memorizar la información, las denominan capas
ocultas.
Figura 2. Modelo de red en cascada de
varias capas.
Fuente: Sandra Patricia Daza, Universidad
Militar Nueva Granada, 2003.
5.2 Sistemas de lógica difusa
A concepto de
Delgado [1998] es la segunda herramienta que permite emular el
razonamiento humano. Los seres humanos pensamos y razonamos por
medio de palabras y en grados entre dos estados por ejemplo
blanco y negro ó frío y caliente, etc. Estos
sistemas de lógica difusa son una mejora a los sistemas
experto tradicionales, en el sentido de que permiten utilizar
lenguaje
humano como nosotros razonamos
Ya hablando de sistemas
expertos tradicionales, estos intentan reproducir el
razonamiento humano de forma simbólica. Es un tipo de
programa de
aplicación informática que adopta decisiones o
resuelve problemas de un determinado campo, como los sistemas de
producción, las finanzas o la
medicina,
utilizando los conocimientos y las reglas analíticas
definidas por los expertos en dicho campo. Los expertos
solucionan los problemas utilizando una combinación de
conocimientos basados en hechos y en su capacidad de
razonamiento. En los sistemas expertos, estos dos elementos
básicos están contenidos en dos componentes
separados, aunque relacionados: una base de conocimientos y una
máquina de deducción, o de inferencia. La base de
conocimientos proporciona hechos objetivos y
reglas sobre el tema, mientras que la máquina de
deducción proporciona la capacidad de razonamiento que
permite al sistema experto
extraer conclusiones. Los sistemas expertos facilitan
también herramientas
adicionales en forma de interfaces de usuario y los mecanismos de
explicación. Las interfaces de usuario, al igual que en
cualquier otra aplicación, permiten al usuario formular
consultas, proporcionar información e interactuar de otras
formas con el sistema. Los
mecanismos de explicación, la parte más fascinante
de los sistemas expertos, permiten a los sistemas explicar o
justificar sus conclusiones, y también posibilitan a los
programadores verificar el funcionamiento de los propios
sistemas. Los sistemas expertos comenzaron a aparecer en la
década de 1960. Sus campos de aplicación son la
química,
la geología,
la medicina, la
banca e inversiones y
los seguros.
A experiencia de uno de los autores, el hardware en que se
fundamentan estos sistemas que son circuitos
integrados digitales son muy eficaces y de durabilidad de por
vida si se les da correcto uso.
5.3 Algoritmos genéticos:
Según Delgado [1998] son una técnica
inspirada en aspectos biológicos, el proceso de la
evolución del que Charles Darwin hace
referencia se puede aplicar para optimizar dispositivos de
control o robots o cualquier otro tipo de aspectos que sean
susceptibles de ser optimizados como líneas de
producción.
En general es aceptado que cualquier algoritmo
genético para resolver un problema, debe tener cinco
componentes básicos como se vera a
continuación:
- Se necesita una codificación o
representación del problema, que resulte adecuada al
mismo. - Una manera de crear una población inicial de
soluciones. - Una función de ajuste ó
adaptación al problema, también llamada
función de evaluación, la cual asigna un
número real a cada posible solución
codificada. - Durante la ejecución del algoritmo,
los padres – dos individuos pertenecientes a la población inicial, que son soluciones
factibles del problema- deben ser seleccionados para la
reproducción; a continuación
dichos padres seleccionados se cruzarán generando dos
hijos, nuevas soluciones al problema, sobre cada uno de los
cuales actuará un operador de mutación de acuerdo
con una cierta
probabilidad. El resultado de la combinación de
las anteriores funciones
será un conjunto de individuos (posibles soluciones al
problema), los cuales en la evolución del Algoritmo Genético
formarán parte de la siguiente
población.
- Valores para los parámetros: tamaño de
la población, probabilidad de
aplicación de los operadores
genéticos.
6.
APLICACIONES DE LA INTELIGENCIA ARTIFICIAL Y LAS TÉCNICAS
QUE USAN
Dentro del enfoque de la ingeniería de la Inteligencia Artificial,
se clasifican las técnicas
que pueden ser usadas como herramientas
para solucionar problemas en las siguientes
categorías:
1. Técnicas básicas, así llamadas
por encontrarse a la base de diversas aplicaciones de IA. Entre
otras se encuentran Búsqueda Heurística de
Soluciones, Representación del Conocimiento,
Deducción Automática, Programación Simbólica (LISP) y
Redes Neuronales. Estas técnicas son las bases de las
aplicaciones. En su mayoría, no necesita conocerla el
usuario final, sino los profesionales que se dedican a su
aplicación y la generación de aplicaciones
comerciales.
2. Tecnologías, o combinaciones de varias técnicas
básicas, orientadas a resolver familias de problemas. Las
tecnologías son más especializadas que las
técnicas básicas y están más cerca de
las aplicaciones finales. Se pueden mencionar a la Robótica y
Visión, Lenguaje
Natural, Sistemas Expertos
3. Clases o tipos de aplicaciones: Diagnóstico, Predicción (sistemas de
autocontrol de reactores atómicos), Secuenciamiento de
operaciones
("Scheduling"), Diseño,
Interpretación de datos. Todas
ellas son familias de problemas tipo. Por ejemplo, el diagnóstico se refiere a encontrar las
causas de fallas, ya sea que se trate de fallas en una
línea de producción o de enfermedades en una persona.
4. Campos de aplicación: Ingeniería, Medicina, Sistemas de Manufactura,
Administración, Apoyo a la Toma de
Decisiones Gerenciales, etc. Todas caen dentro de las
áreas de los sistemas computacionales, pero que se
consideran como clientes de la
Inteligencia Artificial.
7. APLICACIÓN DE LA INTELIGENCIA
ARTIFICIAL EN LOS SISTEMAS PRODUCTIVOS
La incorporación de agentes de decisión
inteligente, redes neuronales, sistemas expertos, algoritmos
genéticos y autómatas programables para
optimización de sistemas de producción es una
tendencia activa en el ambiente industrial de países con
alto desarrollo tecnológico y con una gran inversión en investigación y
desarrollo. Dichos componentes de la Inteligencia Artificial
tienen como función principal controlar de manera
independiente, y en coordinación con otros agentes, componentes
industriales tales como celdas de manufactura o
ensamblaje, y operaciones de
mantenimiento,
entre otras.
Existe una tendencia creciente a la
implementación de sistemas de manufactura/ensamblaje
más autónomos e inteligentes, debido a las
exigencias del mercado por
obtener productos con
niveles muy altos de calidad; lo cual
con operaciones manuales se hace
complicada y hace que los países subdesarrollados como el
nuestro no alcance niveles competitivos a nivel mundial. Al
diseñar un sistema de producción integrado por
computadora se debe dar importancia a la supervisión, planificación, secuenciación
cooperación y ejecución de las tareas de
operación en centros de trabajo, agregado al control de
los niveles de inventario y
características de calidad y confiabilidad
del sistema. Los factores mencionados determinan la estructura del
sistema y su coordinación representa una de las
funciones más importantes en el manejo y control de la
producción.
Muy frecuentemente, la razón para construir un
modelo de simulación
es para encontrar respuestas a interrogantes tales como
¿Cuáles son los parámetros óptimos
para maximizar o minimizar cierta función objetivo? En
los últimos años se han producido grandes avances
en el campo de la optimización de sistemas de
producción. Sin embargo, el progreso en el desarrollo de
herramientas de análisis para resultados de modelos de
simulación ha sido muy lento. Existe una
gran cantidad de técnicas tradicionales de
optimización que sólo individuos con gran conocimiento
estadístico y de conceptos de simulación han
logrado aportes significativos en el área.
Debido al auge de los algoritmos de búsqueda
meta-heurísticos, se ha abierto un nuevo campo en el
área de optimización con simulación. Nuevos
paquetes de software, tales como
OptQuest (Optimal Technologies), SIMRUNNER (Promodel Corporation)
y Evolver (Palisade Software), han salido al
mercado brindando soluciones amigables de optimización de
sistemas que no requieren control
interno sobre el modelo construido, sino sobre los resultados
que dicho modelo arroja bajo diferentes condiciones.
Además, nuevas técnicas de inteligencia artificial
aplicadas a problemas de optimización estocástica,
han demostrado su eficiencia y
capacidad de cómputo y aproximación.
El Aprendizaje
Reforzado (Reinforcement Learning) es un conjunto de
técnicas diseñadas para dar solución a
problemas cuya base son los procesos de decisión
markovianos. Los procesos markovianos son procesos
estocásticos de decisión que se basan en el
concepto de que la acción a tomar en un estado
determinado, en un instante determinado, depende sólo del
estado en que
se encuentre el sistema al momento de tomar la
decisión.
Una de las áreas que puede tener mayor incidencia
directa en los procesos productivos de la industria
nivel mundial, es el diseño de
sistemas de soporte para la toma de decisiones basados en la
optimización de los parámetros de operación
del sistema. Para tal efecto, el uso de técnicas
inteligentes paramétricas y no paramétricas para el
análisis de datos es de gran
interés.
Sin embargo, a juicio de los autores en la
mayoría de las arquitecturas propuestas hasta el momento
para manufactura integrada por computadora, carecen de un factor
de integración fundamental. La
comunicación entre los diversos niveles
jerárquicos de una planta de producción es muy
poca, ya que cada departamento se limita a realizar su
función sin buscar una integración de toda la planta productiva a
excepciones de empresas como ABB
con su software Baan, etc.
8. APLICACIONES DE LA INTELIGENCIA ARTIFICIAL EN LA
SOLUCION DE PROBLEMAS ESPECIFICOS DE
PRODUCCIONOperación automática de control de
calidad usando un sistema de visión por computador
(Royman López Beltrán, Edgar Sotter Solano, Eduardo
Zurek Varela. Laboratorio de
Robótica y
Producción Automática. Universidad del
Norte)
Todo proceso industrial es evaluado por la calidad de su
producto final, esto hace de la etapa de control de
calidad una fase crucial del proceso. Los mecanismos
utilizados para establecer la calidad de un producto
varían dependiendo de los parámetros que tengan
relevancia en el mismo. Cuando el parámetro relevante es
la geometría
o forma del objeto fabricado se suele dejar a la vista del
operario que lleve a cabo tal función tanto de
inspección como de verificación para el control de
calidad, sin embargo pueden existir errores en la geometría
de un objeto que escapen de la vista de un operario y que luego
impidan el buen funcionamiento de dicho objeto. En un caso como
éste, surge como una buena alternativa el utilizar un
sistema de visión artificial capaz de detectar aquellos
errores que un operario pudiera pasar por alto. El sistema de
visión artificial Robot Visión PRO, es capaz de
ejecutar de manera totalmente automática las labores de
identificación de objetos y de control de calidad de los
mismos.
El sistema Robot Visión PRO es un paquete de
software de visión que permite la adquisición de
imágenes, preprocesamiento y segmentación. Además realiza
procesamiento de
datos de alto nivel que brinda filtrado de imágenes,
elaboración de clusters y patrones, e
identificación de objetos. Este sistema cuenta con una
videocámara y un monitor
encargado de identificar cada una de las piezas salientes del
proceso y hacer una comparación con piezas de 100% calidad
para luego determinar si el empaque puede
salir al mercado o debe desecharse.
A continuación se presentan algunas
imágenes suministradas por el sistema Robot Visión
PRO Para la ejecución de la operación de control de
calidad. Fueron dispuestos los empaques de tal forma que las
geometrías quedaran plenamente contenidas en el programa, y se
procedió posteriormente a realizar de forma individual el
control de calidad para cada uno de los empaques.
Para ver el gráfico seleccione la
opción "Descargar" del menú superior
Figura 3.empaque bueno con
100% de calidad
En las dos figuras posteriores se muestra empaques
defectuosos porque no cumple con las especificaciones necesarias
y por ende el sistema de calidad rechaza el producto.
Para ver el gráfico seleccione la
opción "Descargar" del menú superior
<> Figura 4. Empaque rechazado por mala
calidad
Para ver el
gráfico seleccione la opción "Descargar" del
menú superior
Figura 5. Empaque rechazado por mala calidad
El sistema de visión por computador
Robot Visión PRO después de ser evaluado
en la empresa
resultó eficiente para la detección de defectos
geométricos en los empaques de compresores
centrífugos, ya que la flexibilidad del software
permitió ajustar las condiciones del proceso al sistema
de calidad requerido para la apropiada medición de los empaques. Este sistema es
lo bastante didáctico como para desarrollar expresiones
que permitan realizar de manera totalmente automática
mediciones del objeto, labores de reconocimiento y de control
de calidad.
Los autores opinan que es muy adecuado el uso de esta
tecnología en empresas donde
el acabado superficial de una pieza sea muy exigente ó
estrechas tolerancias como por ejemplo repuestos de carros,
instrumentación industrial,
etc.
JAT (Sistema Inteligente de despacho y Control
para el Transporte Publico): su idea principal es
mejorar el servicio
de transporte urbano de la ciudad de Manizales
a través de despacho y control inteligente que
permita mejorar la calidad del servicio
y reduzca los costos
de operación. El parte inteligente se encarga de
programar el despacho de rutas buscando todas las busetas
las cubran de manera equitativa.Sistema inteligente de Vigilancia y Monitoreo
Remoto: se busca implementar sistemas de circuito cerrado
de TV, que incluyan la capacidad de monitoreo remoto a
través de un computador y una línea
telefónica desde cualquier lugar del mundo y a
través de Internet.- Proyectos en vía de desarrollo por la
línea de investigación y desarrollo de
inteligencia artificial (grupo de
investigación de la Universidad de
Manizales)Este estudio está centrado en la
identificación global de ambientes ejecutada por un
robot móvil con base en el entrenamiento de una red
neuronal que recibe la información captada del
medio
ambiente por el sistema sensorial del robot
(ultrasonido). Se considera que el robot, a través
de la red neuronal, tiene como única tares maximizar
el
conocimiento del ambiente que se le presenta. De esta
forma este modela y explora el ambiente eficientemente
mientras ejecuta algoritmos de evasión de
obstáculos.El resultado de este estudio es de gran
importancia en el campo de la robótica móvil
debido a que: el robot adquiere una mayor autonomía
del movimiento, se optimiza el uso del
ultrasonido como detector de obstáculos y es una
herramienta importante para el desarrollo de planificadores
de trayectoria y controladores
´´inteligentes´´.Usando una arquitectura: 2 – 2 -1
Nih: Número de neuronas de
entrada(2).Nhid: Número de neuronas de la capa
intermedia(1).Nout: Número de neuronas de
salida(2).Se va a mostrar a groso modo uno de los ejemplos
con los cuáles fue entrenada la red (para mayor
detalle consultar investigación de Rivera &
Gauthier [1995] Universidad de los Andes).Los parámetros usados en el entrenamiento fueron constante de
aprendizaje de 0.2 y constante de momento de 0.9Para ver el gráfico
seleccione la opción "Descargar" del menú
superiorFuente: Claudia Rivera
1995Figura 6. ambiente de entrenamiento
de tres obstáculosSe ubica el robot en ocho posiciones diferentes y
en cada una de estas se hizo un barrido y de esta manera se
formaron ocho archivos
con los cuales se entreno la red, y esta ya reconociendo el
ambiente no se estrellará con ningún
obstáculo.En la red neuronal a medida que se aumenten las
capaz internas tendrá más capacidad y
velocidad de aprender diversos
ambientes.A intervención de los autores, determinan
que es muy importante el uso de la robótica
móvil en procesos productivos donde el
hombre no pueda soportar ambientes de altas
temperaturas o bajas temperaturas por intervalos largos de
tiempo, como por ejemplo en MEALS, donde se podría
entrenar un robot y a medida que se perfeccione su
entrenamiento prepararlo posteriormente como transportador
de carga. - Reconocimiento de ambientes en robótica
móvil por medio de redes neuronales - Algoritmos genéticos aplicados al
problema cuadrático de asignación de
facilidades QAP (Departamento de Investigación
Operativa, Escuela de
Ingeniería Industrial, Universidad de
Carabobo, Valencia, Venezuela.
Ninoska Maneiro. Algoritmo Genético Aplicado a
Problemas de Localización de Facilidades. Año
2001 www.cemisid.ing.ula.ve/area3
).
El QAP es un problema combinatorio, considerado por
algunos autores como NP-completo. El objetivo del
QAP es encontrar una asignación de facilidades a sitios,
a fin de minimizar una función que expresa costos o
distancias.
La localización y distribución de facilidades es uno de los
tópicos más importantes en la formación de
profesionales en el área de Ingeniería Industrial
y de todos aquellos
profesionales que se encargan de la planificación, organización y crecimiento
sistemático de las ciudades. En la vida cotidiana y
profesional de todo individuo, se presentan una gran variedad
de problemas de localización de facilidades.
Los problemas de localización y distribución de facilidades son
estratégicos para el éxito
de cualquier operación de manufactura. La principal
razón es que los costos de manejo al de materiales
comprenden entre el 30 y el 75% de los costos totales de
manufactura. Una buena solución problema de
asignación de facilidades contribuiría a la
eficiencia
total de las operaciones, una pobre distribución puede
conducir a la acumulación de inventario de
producto en proceso, sobrecarga de los sistemas de manejo de
materiales, puestas a punto ineficientes y largas colas.
Dentro de esta amplia clase de problemas que pueden ser
catalogados como QAP se encuentra el problema de flujo en
línea generalizado, que es una línea de flujo en
la cual las operaciones fluyen hacia adelante y no se procesan
necesariamente en todas las máquinas de la línea.
Un trabajo en tal clase de línea puede comenzar a
procesarse y completar su proceso en cualquier máquina,
moviéndose siempre hacia delante (downstream) por
operaciones sucesivas de acuerdo con la secuencia de trabajo
del proceso. Cuando la secuencia de operaciones para un trabajo
no especifica una máquina colocada delante de su
localización actual, el trabajo
tiene que viajar en sentido contrario (upstream) a fin
de completar la operación requerida. Este
<>"viaje en reversa" de las
operaciones, es llamado backtracking, y se desvía
de una línea de flujo ideal para un trabajo
específico, resultando en una estructura de trabajo
menos eficiente, como se muestra en la
siguiente figura.
Al parecer de los autores, este problema de
asignación cuadrática debería tratarse en
la clase de taller de producción por su relevancia al
analizar secuencias N / M.
Fig. 7. Una línea de flujo
generalizada Fuente: Ninoska Maneiro 2001.
- En la universidad Nacional sede Manizales en el
programa de ingeniería industrial se debería
trabajar más en las ciencias
informáticas, con el fin, de profundizar en áreas
de la inteligencia artificial aplicadas a la ingeniería
industrial. - Con el desarrollo de este trabajo se han obtenido
resultados satisfactorios a nivel de investigación
teórica, ya que con la documentación obtenida se conocieron
avances en las ciencias
informáticas que en algunos casos eran desconocidos para
los autores. - Los grandes avances de I.A aplicada a sistemas de
producción han hecho que día a día la
industria en su constante búsqueda por mejorar su
competitividad logren dicho objetivo, pero en
muchos de los casos desplazar gran cantidad de mano de obra que
llevan consigo un deterioro social que se ve reflejado en los
indicadores
globales de desempleo y
niveles de pobreza.
- Elaine Rich. Knight Kevin. Inteligencia Artificial.
Segunda Edición. Mc Graw Hill. México 1994. - Stuart Rusell. Norving Meter. Inteligencia Artificial
un Enfoque Moderno. Printice Hall. México 1996. - Revista La Ventana Informática. Edición
N0 9. Universidad de Manizales. Pág. 56
– 57. Mayo 2003. - Delgado Alberto. Inteligencia Artificial y Mini
robots. Segunda Edición. Ecoe Ediciones. Julio
1998. - Delgado Alberto. Inteligencia Artificial y Mini
robots. VII Congreso Nacional de Estudiantes de
Ingeniería Industrial, Administrativa y de
Producción Universidad Nacional Sede Manizales. Memorias
Congreso. Octubre 4 – 10 de 1998. - Enciclopedia Informática y Computación. Ingeniería del
Software e Inteligencia artificial. Julio 1992. - Nebendah Dieter. Sistemas Expertos. Ingeniería
y Comunicación. Editores Marcombo.
Barcelona 1988. - Marr D.C. Artificial Intelligence: a Personal View,
Artificial Intelligence. EEUU 1977. - Rolston W. David. Principios de
Inteligencia Artificial y Sistemas Expertos. Mc Graw Hill.
México 1992. - Mompin P. José. Inteligencia Artificial:
Conceptos, Técnicas y aplicaciones. Marcomobo S.A
Ediciones. España
1987. - Revista Iberoamericana de Inteligencia Artificial.
Aplicación de Inteligencia Artificial en Sistemas
Automatizados de Producción. Llata, J.R. , Sarabia,
E.G., Fernández, D., Arce J., Oria, J.P.. Numero 10,
páginas 100-110. Disponible en (http://www.aepia.org/).
<>
PRESENTADO POR:
Alejandro Humberto Vargas R
Leonardo Hernández
MANIZALES
<>