Monografias.com > Economía
Descargar Imprimir Comentar Ver trabajos relacionados

Aplicaciones de la inteligencia artificial




Enviado por alevar99



    1. <>
    2. Resumen
    3. Historia de la inteligencia
      artificial
    4. Definiciones de inteligencia
      artificial
    5. Tendencias de los sistemas de
      inteligencia artificial
    6. Aplicaciones de la inteligencia
      artificial y las técnicas que usan
    7. Aplicación de la
      inteligencia artificial en los sistemas
      productivos
    8. Aplicaciones de la
      inteligencia artificial en la solución de problemas
      específicos de producción
    9. Conclusiones
    10. Bibliografía

    1.
    RESUMEN

    Este documento está centrado en analizar
    más a fondo la inteligencia
    artificial con sus diferentes paradigmas,
    siendo los más relevantes las redes
    neuronales, algoritmos
    genéticos, sistemas de
    lógica
    difusa y autómatas programables, con sus diferentes
    aplicaciones en la vida cotidiana y más
    específicamente aplicados a las soluciones de
    problemas
    relacionados con la ingeniería
    industrial.

    Se considera que la producción en nuestros días puede
    estar muy apoyada en las nuevas
    tecnologías, como es la inteligencia
    artificial ya sea como soporte para una toma de
    decisiones más eficaz o en la ayuda de labores,
    tareas, que exijan gran demanda de
    tiempo o
    representen un alto grado de peligrosidad al ser
    humano.

    Palabras claves: Inteligencia artificial,
    redes neuronales,
    algoritmos
    genéticos, sistemas de
    lógica
    difusa, producción.

    2.
    INTRODUCCIÓN

    La inteligencia
    artificial es un área de la investigación donde se desarrollan
    algoritmos para controlar cosas, y es así que en 1956 se
    establecen las bases para funcionar como un campo independiente
    de la informática.

    Son muchos los estudios y aplicaciones que se han
    logrado con el desarrollo de
    esta ciencia ,
    entre las cuales tenemos redes
    neuronales aplicadas al control de la
    calidad donde
    la red evalúa
    si determinado producto
    cumple o no con las especificaciones demandadas, control del
    proceso
    químico en el grado de acidez, algoritmos genéticos
    aplicados al problema cuadrático de asignación de
    facilidades que trata de la asignación de N trabajos en M
    máquinas, los autómatas programables
    que se usan para la optimización de sistemas de
    producción, en fin, todavía queda mucho por
    descubrir con respecto a las aplicaciones de esta ciencia.

    3.
    HISTORIA DE LA
    INTELIGENCIA ARTIFICIAL

    Se podría situar los orígenes de la
    inteligencia artificial con la definición de la neurona formal
    dada por McCulloch & Pitts [1943], como un dispositivo
    binario con varias entradas y salidas.

    Ya en el año de 1956 se volvió a tocar el
    tema de inteligencia artificial (IA) en el instituto de tecnología de
    Massachussets por John McCarthy donde se celebró la
    conferencia de
    Dartmouth en Hanover (Estados Unidos).
    En este certamen McCarthy, Marvin Minsky, Nathaniel Rochester y
    Claude E. Shannon establecieron las bases de la inteligencia
    artificial como un campo independiente dentro de la informática. Previamente, en 1950, Alan M.
    Turing había publicado un artículo en la revista Mind,
    titulado "Computing Machinery and Intelligence" ("Ordenador e
    inteligencia"), en el que reflexionaba sobre el concepto de
    inteligencia artificial y establecía lo que luego se
    conocería como el test de Turing,
    una prueba que permite determinar si un ordenador o computadora se
    comporta conforme a lo que se entiende como artificialmente
    inteligente o no.

    La inteligencia artificial en los años sesenta,
    como tal no tuvo muchos éxitos ya que requería
    demasiada inversión para ese tiempo y la
    mayoría de tecnologías eran propias de grandes
    centros de investigación. En los años 70 a 80
    se lograron algunos avances significativos en una de sus ramas
    llamada Sistemas
    Expertos, con la introducción de PROLOG LISP.
    Básicamente lo que pretende la inteligencia artificial es
    crear una maquina secuencial programada que repita
    indefinidamente un conjunto de instrucciones generadas por un ser
    humano.

    En la actualidad mucho se sigue investigando en los
    grandes laboratorios tecnológicos educativos y privados;
    sin dejar de lado los notables avances en sistemas de
    visión por computadora
    (aplicados por ejemplo, para la clasificación de
    artículos revueltos -tornillería o piezas marcadas
    por códigos de colores, por
    citar un caso-), control robótico autónomo (Sony,
    con sus robots capaces de moverse en forma casi humana y
    reaccionar a presiones tal como lo hace una persona al
    caminar), aplicaciones de lógica difusa (aplicación
    del tracking automático en nuestras video caseteras,
    por citar una aplicación), etc. Sin embargo, la
    Inteligencia Artificial sigue en su gran mayoría acotado
    por su dominio
    tecnológico, y poco ha podido salir al mercado del
    consumidor final
    o a la industria.

    4.
    DEFINICIONES DE INTELIGENCIA ARTIFICIAL

    Con respecto a las definiciones actuales de inteligencia
    artificial se encuentran autores como Rich & Knight [1994],
    Stuart [1996], quienes definen en forma general la IA como la
    capacidad que tienen las máquinas
    para realizar tareas que en el momento son realizadas por seres
    humanos; otros autores como Nebendah [1988], Delgado [1998],
    arrojan definiciones más completas y las definen
    cómo el campo de estudio que se enfoca en la
    explicación y emulación de la conducta
    inteligente en función de
    procesos
    computacionales basadas en la experiencia y el
    conocimiento continuo del ambiente.

    Hay más autores como Marr [1977], Mompin [1987],
    Rolston [1992], que en sus definiciones involucran los
    términos de soluciones a
    problemas muy complejos.

    A criterio de los autores las definiciones de Delgado y
    Nebendan son muy completas, pero sin el apoyo del juicio formado,
    emocionalidad del ser humano pueden perder peso dichas
    soluciones, por eso, hay que lograr un ambiente
    sinérgico entre ambas partes para mayor efectividad de
    soluciones.

    5.
    TENDENCIAS DE LOS SISTEMAS DE INTELIGENCIA
    ARTIFICIAL

    Actualmente según Delgado [1998], Stuart [1996],
    existen tres paradigmas en
    cuánto al desarrollo de
    la IA.

    • Redes Neuronales.
    • Algoritmos genéticos.
    • Sistemas de Lógica difusa.

    Pero se han venido destacando otros paradigmas como lo
    son los agentes de decisión inteligente y autómatas
    programables, con respecto a estos últimos se suelen
    emplear en gran medida en procesos
    industriales de acuerdo a necesidades a satisfacer como, espacio
    reducido, procesos de producción periódicamente
    cambiantes, procesos secuenciales, maquinaria de procesos
    variables,
    etc.

    A juicio de los autores se determina que todos estos
    desarrollos acortan bastante el proceso de
    decisiones y optimizan las mismas, pero ahí que tener
    mucho cuidado ya que hay que analizar los diferentes impactos ya
    sean ambientales, sociales, políticos y
    económicos.

    5.1 Redes
    neuronales

    A grandes rasgos, se recordará que el cerebro humano se
    compone de decenas de billones de neuronas interconectadas entre
    sí formando circuitos o
    redes que desarrollan funciones
    específicas.

    Una neurona
    típica recoge señales procedentes de otras neuronas
    a través de una pléyada de delicadas estructuras
    llamadas dendritas. La neurona emite impulsos de actividad
    eléctrica a lo largo de una fina y delgada capa denominada
    axón, que se escinde en millares de
    ramificaciones.

    Las extremidades de estas ramificaciones llegan hasta
    las dendritas de otras neuronas y establecen conexión
    llamada sinapsis, que transforma el impulso eléctrico en
    un mensaje neuroquímico mediante liberación de unas
    sustancias llamadas neurotransmisores que excitan o inhiben sobre
    la neurona, de esta manera la información se transmite de neuronas a
    otras y va siendo procesada a través de las conexiones
    sinápticas y el aprendizaje
    varía de acuerdo a la efectividad de la
    sinapsis.

    Figura 1. Neuronas y conexiones
    sinápticas.

    Fuente: Sandra Patricia Daza, Universidad
    Militar Nueva Granada, 2003.

    Un psicólogo D Hebb [1949], introdujo dos ideas
    fundamentales que han influido de manera decisiva en el campo de
    las redes neuronales. La hipótesis de Hebb, basadas en investigaciones
    psicofisiológicas, presentan de manera intuitiva el modo
    en que las neuronas memorizan información y se plasman
    sintéticamente en la famosa regla de aprendizaje de
    Hebb ( también conocida como regla de producto).
    Esta regla indica que las conexiones entre dos neuronas se
    refuerza si ambas son activadas. Muchos de los algoritmos
    actuales proceden de los conceptos de este
    psicólogo.

    Widrow [1959], publica una teoría
    sobre la adaptación neuronal y unos modelos
    inspirados en esta teoría,
    el Adaline (Adaptative Linear Neuron) y el Madaline
    (Múltiple Adaline). Estos modelos fueron
    usados en numerosas aplicaciones y permitieron usar, por primera
    vez, una red neuronal
    en un problema importante del mundo real: filtros adaptativos que
    eliminan ecos en las línea telefónicas.

    Hopfield [1980], elabora un modelo de
    red consistente
    en unidades de proceso interconectadas que alcanzan
    mínimos energéticos, aplicando los principios de
    estabilidad desarrollados por Grossberg. El modelo
    resultó muy ilustrativo sobre los mecanismos de almacenamiento y
    recuperación de la memoria. Su
    entusiasmo y claridad de presentación dieron un nuevo
    impulso al campo y provocó el incremento de las investigaciones.

    Otros desarrollos destacables de esta década son
    la máquina de Boltzmann y los modelos Bam (Bi-directinal
    Associative Memory).

    Analogía de redes neuronales biológicas
    y artificiales

    Según Herrera Fernandez

    Las neuronas se modelan mediante unidades de proceso,
    caracterizadas por una función de
    actividades que convierte la entrada total recibida de otras
    unidades en un valor de
    salida, el cual hace la función de tasa de disparo de la
    neurona.

    Las conexiones sinápticas se simulan mediante
    conexiones ponderadas, la fuerza o peso
    de la conexión cumple el papel de la
    efectividad de la sinapsis. Las conexiones determinan si es
    posible que una unidad influya sobre otra.

    Una unidad de proceso recibe varias entradas procedentes
    de las salidas de otras unidades de proceso de entrada total de
    una unidad de proceso y se suele calcular como la suma de todas
    las entradas ponderadas, es decir, multiplicadas por el peso de
    la conexión. El efecto inhibitorio o excitatorio de la
    sinapsis se logra usando pesos negativos o positivos
    respectivamente

    Tabla 1. Comparativo entre neuronas reales y las
    unidades de proceso empleadas en los modelos
    computacionales.

    Fuente: Francisco Herrera Fernández

    Redes
    neuronales

    biológicas

    Redes
    neuronales

    artificiales

    Neuronas

    Unidades de proceso

    Conexiones
    sinápticas

    Conexiones ponderadas

    Efectividad de la
    sinapsis

    Peso de las conexiones

    Efecto excitatorio o
    inhibitorio

    Signo del peso de una
    conexión

    Estimulación
    total

    Entrada total
    ponderada

    Activación (tasa de
    disparo)

    Función de
    activación (salida)

    Las redes neuronales deben tener como estructura
    varias capas las cuales son: primera capa como buffer de entrada,
    almacenando la información bruta suministrada en la red
    ó realizando un sencillo preproceso de la misma, la
    llamamos capa de entrada; otra capa actúa como interfaz o
    buffer de salida que almacena la respuesta de la red para que
    pueda ser leída, la llamamos capa de salida; y las capas
    intermedias, principales encargadas de extraer, procesar y
    memorizar la información, las denominan capas
    ocultas.

    Figura 2. Modelo de red en cascada de
    varias capas.

    Fuente: Sandra Patricia Daza, Universidad
    Militar Nueva Granada, 2003.

    5.2 Sistemas de lógica difusa

    A concepto de
    Delgado [1998] es la segunda herramienta que permite emular el
    razonamiento humano. Los seres humanos pensamos y razonamos por
    medio de palabras y en grados entre dos estados por ejemplo
    blanco y negro ó frío y caliente, etc. Estos
    sistemas de lógica difusa son una mejora a los sistemas
    experto tradicionales, en el sentido de que permiten utilizar
    lenguaje
    humano como nosotros razonamos

    Ya hablando de sistemas
    expertos tradicionales, estos intentan reproducir el
    razonamiento humano de forma simbólica. Es un tipo de
    programa de
    aplicación informática que adopta decisiones o
    resuelve problemas de un determinado campo, como los sistemas de
    producción, las finanzas o la
    medicina,
    utilizando los conocimientos y las reglas analíticas
    definidas por los expertos en dicho campo. Los expertos
    solucionan los problemas utilizando una combinación de
    conocimientos basados en hechos y en su capacidad de
    razonamiento. En los sistemas expertos, estos dos elementos
    básicos están contenidos en dos componentes
    separados, aunque relacionados: una base de conocimientos y una
    máquina de deducción, o de inferencia. La base de
    conocimientos proporciona hechos objetivos y
    reglas sobre el tema, mientras que la máquina de
    deducción proporciona la capacidad de razonamiento que
    permite al sistema experto
    extraer conclusiones. Los sistemas expertos facilitan
    también herramientas
    adicionales en forma de interfaces de usuario y los mecanismos de
    explicación. Las interfaces de usuario, al igual que en
    cualquier otra aplicación, permiten al usuario formular
    consultas, proporcionar información e interactuar de otras
    formas con el sistema. Los
    mecanismos de explicación, la parte más fascinante
    de los sistemas expertos, permiten a los sistemas explicar o
    justificar sus conclusiones, y también posibilitan a los
    programadores verificar el funcionamiento de los propios
    sistemas. Los sistemas expertos comenzaron a aparecer en la
    década de 1960. Sus campos de aplicación son la
    química,
    la geología,
    la medicina, la
    banca e inversiones y
    los seguros.

    A experiencia de uno de los autores, el hardware en que se
    fundamentan estos sistemas que son circuitos
    integrados digitales son muy eficaces y de durabilidad de por
    vida si se les da correcto uso.

    5.3 Algoritmos genéticos:

    Según Delgado [1998] son una técnica
    inspirada en aspectos biológicos, el proceso de la
    evolución del que Charles Darwin hace
    referencia se puede aplicar para optimizar dispositivos de
    control o robots o cualquier otro tipo de aspectos que sean
    susceptibles de ser optimizados como líneas de
    producción.

    En general es aceptado que cualquier algoritmo
    genético para resolver un problema, debe tener cinco
    componentes básicos como se vera a
    continuación:

    • Se necesita una codificación o
      representación del problema, que resulte adecuada al
      mismo.
    • Una manera de crear una población inicial de
      soluciones.
    • Una función de ajuste ó
      adaptación al problema, también llamada
      función de evaluación, la cual asigna un
      número real a cada posible solución
      codificada.
    • Durante la ejecución del algoritmo,
      los padres – dos individuos pertenecientes a la población inicial, que son soluciones
      factibles del problema- deben ser seleccionados para la
      reproducción; a continuación
      dichos padres seleccionados se cruzarán generando dos
      hijos, nuevas soluciones al problema, sobre cada uno de los
      cuales actuará un operador de mutación de acuerdo
      con una cierta

    probabilidad. El resultado de la combinación de
    las anteriores funciones
    será un conjunto de individuos (posibles soluciones al
    problema), los cuales en la evolución del Algoritmo Genético
    formarán parte de la siguiente
    población.

    • Valores para los parámetros: tamaño de
      la población, probabilidad de
      aplicación de los operadores
      genéticos.

    6.
    APLICACIONES DE LA INTELIGENCIA ARTIFICIAL Y LAS TÉCNICAS
    QUE USAN

    Dentro del enfoque de la ingeniería de la Inteligencia Artificial,
    se clasifican las técnicas
    que pueden ser usadas como herramientas
    para solucionar problemas en las siguientes
    categorías:

    1. Técnicas básicas, así llamadas
    por encontrarse a la base de diversas aplicaciones de IA. Entre
    otras se encuentran Búsqueda Heurística de
    Soluciones, Representación del Conocimiento,
    Deducción Automática, Programación Simbólica (LISP) y
    Redes Neuronales. Estas técnicas son las bases de las
    aplicaciones. En su mayoría, no necesita conocerla el
    usuario final, sino los profesionales que se dedican a su
    aplicación y la generación de aplicaciones
    comerciales.
    2. Tecnologías, o combinaciones de varias técnicas
    básicas, orientadas a resolver familias de problemas. Las
    tecnologías son más especializadas que las
    técnicas básicas y están más cerca de
    las aplicaciones finales. Se pueden mencionar a la Robótica y
    Visión, Lenguaje
    Natural, Sistemas Expertos
    3. Clases o tipos de aplicaciones: Diagnóstico, Predicción (sistemas de
    autocontrol de reactores atómicos), Secuenciamiento de
    operaciones
    ("Scheduling"), Diseño,
    Interpretación de datos. Todas
    ellas son familias de problemas tipo. Por ejemplo, el diagnóstico se refiere a encontrar las
    causas de fallas, ya sea que se trate de fallas en una
    línea de producción o de enfermedades en una persona.
    4. Campos de aplicación: Ingeniería, Medicina, Sistemas de Manufactura,
    Administración, Apoyo a la Toma de
    Decisiones Gerenciales, etc. Todas caen dentro de las
    áreas de los sistemas computacionales, pero que se
    consideran como clientes de la
    Inteligencia Artificial.

    7. APLICACIÓN DE LA INTELIGENCIA
    ARTIFICIAL EN LOS SISTEMAS PRODUCTIVOS

    La incorporación de agentes de decisión
    inteligente, redes neuronales, sistemas expertos, algoritmos
    genéticos y autómatas programables para
    optimización de sistemas de producción es una
    tendencia activa en el ambiente industrial de países con
    alto desarrollo tecnológico y con una gran inversión en investigación y
    desarrollo. Dichos componentes de la Inteligencia Artificial
    tienen como función principal controlar de manera
    independiente, y en coordinación con otros agentes, componentes
    industriales tales como celdas de manufactura o
    ensamblaje, y operaciones de
    mantenimiento,
    entre otras.

    Existe una tendencia creciente a la
    implementación de sistemas de manufactura/ensamblaje
    más autónomos e inteligentes, debido a las
    exigencias del mercado por
    obtener productos con
    niveles muy altos de calidad; lo cual
    con operaciones manuales se hace
    complicada y hace que los países subdesarrollados como el
    nuestro no alcance niveles competitivos a nivel mundial. Al
    diseñar un sistema de producción integrado por
    computadora se debe dar importancia a la supervisión, planificación, secuenciación
    cooperación y ejecución de las tareas de
    operación en centros de trabajo, agregado al control de
    los niveles de inventario y
    características de calidad y confiabilidad
    del sistema. Los factores mencionados determinan la estructura del
    sistema y su coordinación representa una de las
    funciones más importantes en el manejo y control de la
    producción.

    Muy frecuentemente, la razón para construir un
    modelo de simulación
    es para encontrar respuestas a interrogantes tales como
    ¿Cuáles son los parámetros óptimos
    para maximizar o minimizar cierta función objetivo? En
    los últimos años se han producido grandes avances
    en el campo de la optimización de sistemas de
    producción. Sin embargo, el progreso en el desarrollo de
    herramientas de análisis para resultados de modelos de
    simulación ha sido muy lento. Existe una
    gran cantidad de técnicas tradicionales de
    optimización que sólo individuos con gran conocimiento
    estadístico y de conceptos de simulación han
    logrado aportes significativos en el área.

    Debido al auge de los algoritmos de búsqueda
    meta-heurísticos, se ha abierto un nuevo campo en el
    área de optimización con simulación. Nuevos
    paquetes de software, tales como
    OptQuest (Optimal Technologies), SIMRUNNER (Promodel Corporation)
    y Evolver (Palisade Software), han salido al
    mercado brindando soluciones amigables de optimización de
    sistemas que no requieren control
    interno sobre el modelo construido, sino sobre los resultados
    que dicho modelo arroja bajo diferentes condiciones.
    Además, nuevas técnicas de inteligencia artificial
    aplicadas a problemas de optimización estocástica,
    han demostrado su eficiencia y
    capacidad de cómputo y aproximación.

    El Aprendizaje
    Reforzado (Reinforcement Learning) es un conjunto de
    técnicas diseñadas para dar solución a
    problemas cuya base son los procesos de decisión
    markovianos. Los procesos markovianos son procesos
    estocásticos de decisión que se basan en el
    concepto de que la acción a tomar en un estado
    determinado, en un instante determinado, depende sólo del
    estado en que
    se encuentre el sistema al momento de tomar la
    decisión.

    Una de las áreas que puede tener mayor incidencia
    directa en los procesos productivos de la industria
    nivel mundial, es el diseño de
    sistemas de soporte para la toma de decisiones basados en la
    optimización de los parámetros de operación
    del sistema. Para tal efecto, el uso de técnicas
    inteligentes paramétricas y no paramétricas para el
    análisis de datos es de gran
    interés.

    Sin embargo, a juicio de los autores en la
    mayoría de las arquitecturas propuestas hasta el momento
    para manufactura integrada por computadora, carecen de un factor
    de integración fundamental. La
    comunicación entre los diversos niveles
    jerárquicos de una planta de producción es muy
    poca, ya que cada departamento se limita a realizar su
    función sin buscar una integración de toda la planta productiva a
    excepciones de empresas como ABB
    con su software Baan, etc.

    8. APLICACIONES DE LA INTELIGENCIA ARTIFICIAL EN LA
    SOLUCION DE PROBLEMAS ESPECIFICOS DE
    PRODUCCION
    Operación automática de control de
    calidad usando un sistema
    de visión por computador
    (Royman López Beltrán, Edgar Sotter Solano, Eduardo
    Zurek Varela. Laboratorio de
    Robótica y
    Producción Automática. Universidad del
    Norte)

    Todo proceso industrial es evaluado por la calidad de su
    producto final, esto hace de la etapa de control de
    calidad una fase crucial del proceso. Los mecanismos
    utilizados para establecer la calidad de un producto
    varían dependiendo de los parámetros que tengan
    relevancia en el mismo. Cuando el parámetro relevante es
    la geometría
    o forma del objeto fabricado se suele dejar a la vista del
    operario que lleve a cabo tal función tanto de
    inspección como de verificación para el control de
    calidad, sin embargo pueden existir errores en la geometría
    de un objeto que escapen de la vista de un operario y que luego
    impidan el buen funcionamiento de dicho objeto. En un caso como
    éste, surge como una buena alternativa el utilizar un
    sistema de visión artificial capaz de detectar aquellos
    errores que un operario pudiera pasar por alto. El sistema de
    visión artificial Robot Visión PRO, es capaz de
    ejecutar de manera totalmente automática las labores de
    identificación de objetos y de control de calidad de los
    mismos.

    El sistema Robot Visión PRO es un paquete de
    software de visión que permite la adquisición de
    imágenes, preprocesamiento y segmentación. Además realiza
    procesamiento de
    datos de alto nivel que brinda filtrado de imágenes,
    elaboración de clusters y patrones, e
    identificación de objetos. Este sistema cuenta con una
    videocámara y un monitor
    encargado de identificar cada una de las piezas salientes del
    proceso y hacer una comparación con piezas de 100% calidad
    para luego determinar si el empaque puede
    salir al mercado o debe desecharse.

    A continuación se presentan algunas
    imágenes suministradas por el sistema Robot Visión
    PRO Para la ejecución de la operación de control de
    calidad. Fueron dispuestos los empaques de tal forma que las
    geometrías quedaran plenamente contenidas en el programa, y se
    procedió posteriormente a realizar de forma individual el
    control de calidad para cada uno de los empaques.

    Para ver el gráfico seleccione la
    opción "Descargar" del menú superior

    Figura 3.empaque bueno con
    100% de calidad

    En las dos figuras posteriores se muestra empaques
    defectuosos porque no cumple con las especificaciones necesarias
    y por ende el sistema de calidad rechaza el producto.

    Para ver el gráfico seleccione la
    opción "Descargar" del menú superior

    <> Figura 4. Empaque rechazado por mala
    calidad

     Para ver el
    gráfico seleccione la opción "Descargar" del
    menú superior

    Figura 5. Empaque rechazado por mala calidad

    El sistema de visión por computador
    Robot Visión PRO después de ser evaluado
    en la empresa
    resultó eficiente para la detección de defectos
    geométricos en los empaques de compresores
    centrífugos, ya que la flexibilidad del software
    permitió ajustar las condiciones del proceso al sistema
    de calidad requerido para la apropiada medición de los empaques. Este sistema es
    lo bastante didáctico como para desarrollar expresiones
    que permitan realizar de manera totalmente automática
    mediciones del objeto, labores de reconocimiento y de control
    de calidad.

    Los autores opinan que es muy adecuado el uso de esta
    tecnología en empresas donde
    el acabado superficial de una pieza sea muy exigente ó
    estrechas tolerancias como por ejemplo repuestos de carros,
    instrumentación industrial,
    etc.

    1. JAT (Sistema Inteligente de despacho y Control
      para el Transporte Publico): su idea principal es
      mejorar el servicio
      de transporte urbano de la ciudad de Manizales
      a través de despacho y control inteligente que
      permita mejorar la calidad del servicio
      y reduzca los costos
      de operación. El parte inteligente se encarga de
      programar el despacho de rutas buscando todas las busetas
      las cubran de manera equitativa.

      Sistema inteligente de Vigilancia y Monitoreo
      Remoto: se busca implementar sistemas de circuito cerrado
      de TV, que incluyan la capacidad de monitoreo remoto a
      través de un computador y una línea
      telefónica desde cualquier lugar del mundo y a
      través de Internet.

    2. Proyectos en vía de desarrollo por la
      línea de investigación y desarrollo de
      inteligencia artificial (grupo de
      investigación de la Universidad de
      Manizales)

      Este estudio está centrado en la
      identificación global de ambientes ejecutada por un
      robot móvil con base en el entrenamiento de una red
      neuronal que recibe la información captada del
      medio
      ambiente por el sistema sensorial del robot
      (ultrasonido). Se considera que el robot, a través
      de la red neuronal, tiene como única tares maximizar
      el
      conocimiento del ambiente que se le presenta. De esta
      forma este modela y explora el ambiente eficientemente
      mientras ejecuta algoritmos de evasión de
      obstáculos.

      El resultado de este estudio es de gran
      importancia en el campo de la robótica móvil
      debido a que: el robot adquiere una mayor autonomía
      del movimiento, se optimiza el uso del
      ultrasonido como detector de obstáculos y es una
      herramienta importante para el desarrollo de planificadores
      de trayectoria y controladores
      ´´inteligentes´´.

      Usando una arquitectura: 2 – 2 -1

      Nih: Número de neuronas de
      entrada(2).

      Nhid: Número de neuronas de la capa
      intermedia(1).

      Nout: Número de neuronas de
      salida(2).

      Se va a mostrar a groso modo uno de los ejemplos
      con los cuáles fue entrenada la red (para mayor
      detalle consultar investigación de Rivera &
      Gauthier [1995] Universidad de los Andes).

      Los parámetros usados en el entrenamiento fueron constante de
      aprendizaje de 0.2 y constante de momento de 0.9

      Para ver el gráfico
      seleccione la opción "Descargar" del menú
      superior

      Fuente: Claudia Rivera
      1995

      Figura 6. ambiente de entrenamiento
      de tres obstáculos

      Se ubica el robot en ocho posiciones diferentes y
      en cada una de estas se hizo un barrido y de esta manera se
      formaron ocho archivos
      con los cuales se entreno la red, y esta ya reconociendo el
      ambiente no se estrellará con ningún
      obstáculo.

      En la red neuronal a medida que se aumenten las
      capaz internas tendrá más capacidad y
      velocidad de aprender diversos
      ambientes.

      A intervención de los autores, determinan
      que es muy importante el uso de la robótica
      móvil en procesos productivos donde el
      hombre no pueda soportar ambientes de altas
      temperaturas o bajas temperaturas por intervalos largos de
      tiempo, como por ejemplo en MEALS, donde se podría
      entrenar un robot y a medida que se perfeccione su
      entrenamiento prepararlo posteriormente como transportador
      de carga.

    3. Reconocimiento de ambientes en robótica
      móvil por medio de redes neuronales
    4. Algoritmos genéticos aplicados al
      problema cuadrático de asignación de
      facilidades QAP (
      Departamento de Investigación
      Operativa, Escuela de
      Ingeniería Industrial, Universidad de
      Carabobo, Valencia, Venezuela.
      Ninoska Maneiro. Algoritmo Genético Aplicado a
      Problemas de Localización de Facilidades. Año
      2001 www.cemisid.ing.ula.ve/area3
      ).

    El QAP es un problema combinatorio, considerado por
    algunos autores como NP-completo. El objetivo del
    QAP es encontrar una asignación de facilidades a sitios,
    a fin de minimizar una función que expresa costos o
    distancias.

    La localización y distribución de facilidades es uno de los
    tópicos más importantes en la formación de
    profesionales en el área de Ingeniería Industrial
    y de todos aquellos

    profesionales que se encargan de la planificación, organización y crecimiento
    sistemático de las ciudades. En la vida cotidiana y
    profesional de todo individuo, se presentan una gran variedad
    de problemas de localización de facilidades.

    Los problemas de localización y distribución de facilidades son
    estratégicos para el éxito
    de cualquier operación de manufactura. La principal
    razón es que los costos de manejo al de materiales
    comprenden entre el 30 y el 75% de los costos totales de
    manufactura. Una buena solución problema de
    asignación de facilidades contribuiría a la
    eficiencia
    total de las operaciones, una pobre distribución puede
    conducir a la acumulación de inventario de
    producto en proceso, sobrecarga de los sistemas de manejo de
    materiales, puestas a punto ineficientes y largas colas.
    Dentro de esta amplia clase de problemas que pueden ser
    catalogados como QAP se encuentra el problema de flujo en
    línea generalizado, que es una línea de flujo en
    la cual las operaciones fluyen hacia adelante y no se procesan
    necesariamente en todas las máquinas de la línea.
    Un trabajo en tal clase de línea puede comenzar a
    procesarse y completar su proceso en cualquier máquina,
    moviéndose siempre hacia delante (downstream) por
    operaciones sucesivas de acuerdo con la secuencia de trabajo
    del proceso. Cuando la secuencia de operaciones para un trabajo
    no especifica una máquina colocada delante de su
    localización actual, el trabajo
    tiene que viajar en sentido contrario (upstream) a fin
    de completar la operación requerida. Este
    <>"viaje en reversa" de las
    operaciones, es llamado backtracking, y se desvía
    de una línea de flujo ideal para un trabajo
    específico, resultando en una estructura de trabajo
    menos eficiente, como se muestra en la
    siguiente figura.

    Al parecer de los autores, este problema de
    asignación cuadrática debería tratarse en
    la clase de taller de producción por su relevancia al
    analizar secuencias N / M.

    Fig. 7. Una línea de flujo
    generalizada Fuente: Ninoska Maneiro 2001.

    9.
    CONCLUSIONES

    • En la universidad Nacional sede Manizales en el
      programa de ingeniería industrial se debería
      trabajar más en las ciencias
      informáticas, con el fin, de profundizar en áreas
      de la inteligencia artificial aplicadas a la ingeniería
      industrial.
    • Con el desarrollo de este trabajo se han obtenido
      resultados satisfactorios a nivel de investigación
      teórica, ya que con la documentación obtenida se conocieron
      avances en las ciencias
      informáticas que en algunos casos eran desconocidos para
      los autores.
    • Los grandes avances de I.A aplicada a sistemas de
      producción han hecho que día a día la
      industria en su constante búsqueda por mejorar su
      competitividad logren dicho objetivo, pero en
      muchos de los casos desplazar gran cantidad de mano de obra que
      llevan consigo un deterioro social que se ve reflejado en los
      indicadores
      globales de desempleo y
      niveles de pobreza.

    10.
    BIBLIOGRAFIA

    • Elaine Rich. Knight Kevin. Inteligencia Artificial.
      Segunda Edición. Mc Graw Hill. México 1994.
    • Stuart Rusell. Norving Meter. Inteligencia Artificial
      un Enfoque Moderno. Printice Hall. México 1996.
    • Revista La Ventana Informática. Edición
      N0 9. Universidad de Manizales. Pág. 56
      – 57. Mayo 2003.
    • Delgado Alberto. Inteligencia Artificial y Mini
      robots. Segunda Edición. Ecoe Ediciones. Julio
      1998.
    • Delgado Alberto. Inteligencia Artificial y Mini
      robots. VII Congreso Nacional de Estudiantes de
      Ingeniería Industrial, Administrativa y de
      Producción Universidad Nacional Sede Manizales. Memorias
      Congreso. Octubre 4 – 10 de 1998.
    • Enciclopedia Informática y Computación. Ingeniería del
      Software e Inteligencia artificial. Julio 1992.
    • Nebendah Dieter. Sistemas Expertos. Ingeniería
      y Comunicación. Editores Marcombo.
      Barcelona 1988.
    • Marr D.C. Artificial Intelligence: a Personal View,
      Artificial Intelligence. EEUU 1977.
    • Rolston W. David. Principios de
      Inteligencia Artificial y Sistemas Expertos. Mc Graw Hill.
      México 1992.
    • Mompin P. José. Inteligencia Artificial:
      Conceptos, Técnicas y aplicaciones. Marcomobo S.A
      Ediciones. España
      1987.
    • Revista Iberoamericana de Inteligencia Artificial.
      Aplicación de Inteligencia Artificial en Sistemas
      Automatizados de Producción. Llata, J.R. , Sarabia,
      E.G., Fernández, D., Arce J., Oria, J.P.. Numero 10,
      páginas 100-110. Disponible en (http://www.aepia.org/).

    <>

    PRESENTADO POR:

    Alejandro Humberto Vargas R

    Leonardo Hernández

    MANIZALES

    <>

    Nota al lector: es posible que esta página no contenga todos los componentes del trabajo original (pies de página, avanzadas formulas matemáticas, esquemas o tablas complejas, etc.). Recuerde que para ver el trabajo en su versión original completa, puede descargarlo desde el menú superior.

    Todos los documentos disponibles en este sitio expresan los puntos de vista de sus respectivos autores y no de Monografias.com. El objetivo de Monografias.com es poner el conocimiento a disposición de toda su comunidad. Queda bajo la responsabilidad de cada lector el eventual uso que se le de a esta información. Asimismo, es obligatoria la cita del autor del contenido y de Monografias.com como fuentes de información.

    Categorias
    Newsletter