Monografias.com > Ingeniería
Descargar Imprimir Comentar Ver trabajos relacionados

Mejora del proceso de fabricación de electrodos mediante el desarrollo de un modelo de simulación



Partes: 1, 2, 3, 4

    Monografias.com

    Mejora del proceso de fabricación de electrodos mediante el desarrollo de un modelo de simulación
    y la aplicación de técnicas de diseño de experimentos y optimización
    1.
    2.
    3.
    4.
    5.
    6.
    7.
    8.
    Resumen
    Introducción
    Generalidades
    Fundamento teórico
    Descripción y validación del modelo de simulación
    Aplicación de diseño de experimentos
    Optimización del proceso
    Conclusiones y recomendaciones
    RESUMEN
    El ambiente laboral que afecta hoy en día a las empresas es tremendamente exigente y dinámico, por lo
    que la capacidad de tomar decisiones de forma inmediata se ha vuelto un requerimiento imprescindible para
    la supervivencia de las empresas.
    Para mantenerse a la par de la demanda y las exigencias de los clientes, cuando se trata de la toma
    decisiones emergentes, muchas compañías han dejado a un lado los estudios técnicos previos para darle
    todo el trabajo a la intuición, corriendo el riesgo que tales decisiones afecten el desempeño de la línea de
    producción en lugar de mejorarlo.
    Esto ocurre debido a que técnicas como la experimentación en muchos casos toman demasiado tiempo en
    realizarse y tienen un costo considerablemente alto; interrumpiendo además, las actividades normales del
    proceso productivo de la empresa. Esto a pesar de ser excelentes para encontrar el ajuste necesario que
    permita mejorar el desempeño de un proceso.
    Los modelos matemáticos de optimización por otro lado, son demasiado complejos para las actividades
    diarias de la empresa, o toman demasiado tiempo en emplearse y requieren una persona con una
    preparación académica de alto nivel para resolverlos e interpretarlos.
    Sin embargo, la simulación es el complemento sobre el cual es posible aplicar estas técnicas de forma
    rápida, sencilla y con bajos costos de preparación, permitiendo de esta forma la integración de una
    herramienta técnicamente sofisticada con el proceso de toma de decisiones de una compañía.
    Actualmente en la mayoría de los paquetes de simulación, se incluye una herramienta de optimización que
    permite al usuario interactuar entre diferentes parámetros con el fin de encontrar la mejor solución. El único
    problema es que a mayor cantidad de parámetros en estudio, mayor tiempo demora el computador en
    procesar los datos. La simulación también ofrece la capacidad de experimentar sin tener que interrumpir las
    actividades de la empresa, ni influir en sus costos, obteniendo resultados en muy poco tiempo. Además,
    mediante un estudio previo de Diseño de Experimentos se pueden obtener los factores que tienen mayor
    impacto en el desempeño de la línea de producción ahorrando tiempo valioso durante el proceso de
    optimización.
    Al aplicar en conjunto las fortalezas de estas técnicas: simulación, diseño de experimentos y optimización,
    se eliminan las debilidades individuales de cada una de ellas, obteniendo así una opción eficiente y efectiva
    que se ajusta a las exigencias actuales para la toma de decisiones. Esta combinación será precisamente
    aplicada a una fábrica de electrodos para soldadura, la cual tiene un serio problema debido a su elevado
    tiempo de ciclo de un lote de electrodos producidos. Esto ha provocado que el producto en proceso se eleve
    entre algunas estaciones de trabajo, pasando días sin ser procesados; y ha generado como consecuencia
    la disminución de la tasa de producción y por ende el incremento de las horas extras, exigiendo por tanto a
    sus trabajadores laborar fines de semana y mantener doble turno de trabajo durante los días hábiles.
    Bajo estas circunstancias el objetivo principal de esta investigación es determinar los principales factores
    que influyen en el desempeño del proceso productivo de fabricación de electrodos para soldadura, y
    establecer los niveles óptimos de operación de los mismos con el fin de minimizar el tiempo de ciclo
    productivo actual. Utilizando para ello técnicas de Diseño de Experimentos y de Optimización.
    En el primer capítulo de esta Tesis se encuentra con mayor detalle los antecedentes de la fábrica objeto de
    estudio y los objetivos perseguidos. El segundo capítulo describe en que consisten las técnicas que serán
    aplicadas para encontrar el mejor escenario, parámetros y sus niveles, para mejorar el desempeño de la
    línea productiva. En el capítulo número tres se describe en detalle el proceso productivo de esta fábrica, así
    como el modelo de simulación de este sistema y su validación. Dentro del capítulo cuatro se encuentra la
    ejecución del Diseño de Experimentos aplicando los datos obtenidos del modelo de simulación y su

    Monografias.com

    respectiva evaluación de resultados. El quinto capítulo contiene la ejecución de la Optimización de
    parámetros más influyentes determinados en el capítulo anterior. Esto será realizado con la ayuda del
    software de optimización SimRunner. Finalmente, las conclusiones y recomendaciones de esta
    investigación se presentan en el sexto capítulo.
    Al obtener los resultados se espera determinar con Diseño de Experimentos los principales factores o
    parámetros que tienen mayor influencia en el desempeño de la línea de fabricación de electrodos para
    soldadura, y encontrar mejores niveles para estos parámetros; permitiendo así, plasmar un escenario
    eficiente y productivo para esta empresa.
    INTRODUCCIÓN
    Muchas de las técnicas tradicionales para mejorar el rendimiento de un proceso de manufactura, desarrollar
    nuevos procesos o conseguir la información necesaria para tomar una correcta decisión para adaptar la
    empresa ante un problema o cambio de preferencias del mercado, se han vuelto obsoletas debido a su
    complejidad y cantidad de tiempo y recursos necesarios a invertir para obtener lo deseado. Pero así mismo,
    existen técnicas que han vuelto a resurgir trabajando en conjunto con las técnicas modernas de
    mejoramiento de procesos y toma de decisiones; creando una alianza beneficiosa en la que sus debilidades
    se complementan con las fortalezas de la otra técnica.
    Este es el caso del Diseño de Experimentos, una técnica desarrollada por sir Ronald A. Fischer y empleada
    en el campo industrial en la década de 1930; la cual es aplicada, en esta investigación, en conjunto con la
    Simulación, que ha probado ser no sólo una excelente herramienta estratégica para las empresas y sino
    que también puede ser utilizada como una herramienta táctica en el día a día de cualquier compañía. Esta
    combinación de técnicas permite a los tomadores de decisiones obtener suficiente información
    fundamentada en datos reales y estudios estadísticos para poder escoger la mejor solución a sus
    problemas.
    Este estudio se realiza en base a datos obtenidos de una fábrica de electrodos para soldadura, para lograr
    determinar los principales factores que influyen en el desempeño del proceso productivo de fabricación de
    electrodos para soldadura y establecer los niveles óptimos de operación de los mismos con el fin de
    maximizar la tasa de producción semanal de empaques finales de electrodos para soldar; utilizando para
    ello las técnicas de Diseño de Experimentos y de Optimización.
    El procedimiento de este estudio tiene tres puntos principales; el primero de ellos es crear y validar el
    modelo de simulación del sistema, en este caso de la fábrica de electrodos para soldadura, el cuál será
    adaptado para realizar diferentes pruebas y experimentos. El segundo paso es la aplicación de la técnica de
    Diseño de Experimentos, cuyo objetivo es encontrar los niveles preliminares de los factores y entre ellos,
    definir los que más influyen a la variable de respuesta escogida; en este caso, maximizar la tasa de
    producción. El tercer y último paso es la aplicación de la técnica de Optimización, donde se hace un estudio
    más detallado de los niveles de los factores, partiendo de los establecidos durante el Diseño de
    Experimentos, obteniendo así, el mejor escenario para mejorar el desempeño de la fábrica.
    CAPÍTULO 1
    1. GENERALIDADES
    1.1. Antecedentes
    En la ciudad de Guayaquil existe una empresa manufacturera que, entre sus distintas líneas de producción,
    mantiene una fábrica de electrodos para soldar con alrededor de 19 operarios y 5 administradores. Esta
    fábrica de electrodos revestidos para soldar mantiene un sistema productivo continuo MaketoStock con una
    sola línea de producción distribuida por producto, ya que tiene un alto volumen de fabricación y una baja
    variedad. Produce 23 ítems diferentes de electrodos para soldar, de los cuales, el electrodo llamado C13 es
    el que abarca cerca del 90% de su producción total.
    Esta fábrica en sus 15 años de funcionamiento se ha interesado poco o nada en la optimización de su línea
    para llegar a obtener una utilización eficiente de sus recursos; su personal desconoce el significado y la
    importancia de ciertos parámetros que pueden determinar el desempeño de su línea, como es el tiempo de
    ciclo (CT), el producto en proceso (WIP) y la tasa de producción (TH); además, aún no tienen correctamente
    definido cual es la estación que dirige su producción, es decir, no reconocen su cuello de botella. De igual
    forma, no han realizado un correcto estudio sobre el número de máquinas que requieren en su línea de
    producción, por esta razón hay estaciones con poca capacidad para satisfacer las necesidades de ingreso

    Monografias.com

    de la estación siguiente, así mismo existen estaciones con una sobrecapacidad que ayudan al crecimiento
    del producto en proceso entre estaciones. Esto indica que la línea no se encuentra correctamente
    balanceada.
    Actualmente la fábrica tiene un serio problema con la determinación del tiempo de ciclo de un lote de
    electrodos producido, y por lo tanto, en la reducción del mismo. Esto ha provocado que el producto en
    proceso se elevara entre algunas estaciones de trabajo, pasando días sin ser procesado; y que la tasa de
    producción disminuyera exigiendo a sus trabajadores laborar fines de semana y mantener doble turno de
    trabajo durante los días hábiles.
    Para encontrar la solución a este problema utilizaremos dos técnicas que permiten encontrar los parámetros
    y sus condiciones para mejorar y alcanzar nuestro objetivo, ya sea maximizando el beneficio
    o minimizando el problema según sea lo requerido. Estás técnicas son: El Diseño de Experimentos y la
    Optimización. Estás técnicas tendrán como base un modelo de simulación del proceso productivo de la
    fábrica de electrodos, utilizando el software ProModel, el cuál proporcionará los datos necesarios de los
    diferentes escenarios planteados para su posterior análisis mediante las técnicas antes mencionadas.
    1.2. Objetivo General
    Determinar los principales factores que influyen en el desempeño del proceso productivo de fabricación de
    electrodos para soldadura y establecer los niveles óptimos de operación de los mismos con el fin de
    maximizar la tasa de producción semanal de empaques finales de electrodos para soldar; utilizando para
    ello, técnicas de Diseño de Experimentos y de Optimización.
    1.3. Objetivos Específicos
    ? Realizar un modelo de simulación del proceso productivo de la fábrica de electrodos de soldadura.
    ? Efectuar un estudio y análisis de un modelo de Diseño de Experimentos para determinar los principales
    factores y sus respectivos niveles que afectan la variable objetivo, la tasa de producción.
    ? Identificar los niveles óptimos de operación de los factores encontrados con el fin de maximizar la tasa
    de producción semanal de empaques finales de electrodos para soldar, a través de la aplicación de técnicas
    de optimización.
    ? Exponer un conjunto de herramientas que facilitan la toma de decisiones gerenciales para mejorar el
    desempeño de la planta de producción.
    1.4. Metodología
    Este trabajo comienza, como se observa en este primer capítulo, detallando los antecedentes de la fábrica
    objeto de estudio, sus principales características y planteando el problema al que se desea encontrar una
    solución. Además se exponen los objetivos, general y específicos, que se persiguen al realizar este estudio.
    El segundo capítulo describe en que consiste la herramienta empleada para la obtención de datos: el
    paquete de simulación ProModel; y las técnicas aplicadas para encontrar el mejor escenario, estableciendo
    los parámetros y sus respectivos niveles, para mejorar el desempeño de la línea productiva: el Diseño de
    Experimentos y la Optimización con el software SimRunner.
    En el capítulo número tres se describe en detalle el proceso productivo de esta fábrica, las actividades que
    realizan, los recursos que intervienen y el proceso de transformación que se realiza. Así mismo se describe
    el modelo de simulación de este sistema con su respectiva validación; indicando las principales asunciones
    que fueron empleadas y las diferentes programaciones lógicas realizadas para poder modelar con mayor
    exactitud la realidad.
    Dentro del capítulo cuatro se encuentra la ejecución de la técnica de Diseño de Experimentos, planteando
    inicialmente una variable de respuesta; posteriormente se establecen los primeros parámetros o factores
    con sus respectivos niveles, así como el diseño experimental en el que se aplican los datos obtenidos del
    modelo de simulación y realizar su respectiva evaluación de resultados, para encontrar los factores más
    influyentes en el desempeño de la línea de producción.
    Una vez obtenidos los principales factores con sus respectivos niveles, en el quinto capítulo se ejecuta la
    técnica de Optimización, que con la ayuda del software SimRunner, se logra encontrar niveles más óptimos
    para un mejor desempeño de la línea de producción.
    Finalmente, las conclusiones obtenidas de este estudio y las diferentes recomendaciones planteadas para
    esta fábrica de electrodos, las empresas en general e investigadores interesados en realizar futuros trabajos
    a partir de esta tesis, se presentan en el sexto capítulo.
    CAPÍTULO 2

    Monografias.com

    2. FUNDAMENTO TEÓRICO
    2.1. Simulación con ProModel
    En años recientes, el advenimiento de nuevos y mejores desarrollos en le área de la computación ha traído
    consigo innovaciones igualmente importantes en los terrenos de la toma de decisiones y el diseño de
    procesos y productos [3]. En este sentido, una de las técnicas de mayor impacto es la simulación.
    Hoy en día, el analista tiene a su disposición una gran cantidad de software de simulación que le permite
    tomar decisiones en temas muy diversos, como determinar la mejor localización de una nueva planta,
    diseñar un nuevo sistema de trabajo o efectuar el análisis productivo de un proceso ya existente pero que
    requiere mejoras. Cada vez resulta más sencillo encontrar paquetes de software con gran capacidad de
    análisis, así como mejores animaciones y características para generación de reportes. En general, dichos
    paquetes nos proveen de una enorme diversidad de herramientas estadísticas que permiten un manejo más
    eficiente de la información relevante bajo análisis, y una mejor presentación e interpretación de la misma [3].
    Al simular se busca predecir aspectos del comportamiento de un sistema creando un modelo apegado a la
    realidad. Estos modelos dan al analista y a los tomadores de decisiones la capacidad de probar diferentes
    escenarios del tipo “¿Que pasaría si…?” y cual es el impacto de ellos en el negocio. Cualquier proceso
    puede ser simulado de una forma precisa de acuerdo con la realidad permitiendo examinar los más
    complejos sistemas, con altos niveles de aleatoriedad e interdependencia entre los componentes
    individuales del sistema [8].
    El modelo de simulación de un sistema puede ser utilizado para predecir el impacto en indicadores claves y
    reducir significativamente el riesgo asociado con las decisiones empresariales. Gracias a la simulación se
    puede experimentar todo tipo de cambios o pruebas en una ambiente libre de riesgos, con la confianza de
    obtener con el más alto nivel de certeza los resultados anticipadamente.
    Es por esto que la simulación se ha convertido en una poderosa y eficiente herramienta para tomar
    decisiones en comparación con las técnicas tradicionales como son el empleo de las hojas de cálculo las
    cuales son estáticas y a menudo no ofrecen variabilidad e interdependencias. La simulación es dinámica y
    permite que indicadores claves sean monitoreados con el tiempo.
    ProModel es uno de los paquetes de software comercial para simulación más usados en el mercado.
    Cuenta con herramientas de análisis y diseño que, unidas a la animación de los modelos bajo estudio,
    permiten al analista conocer mejor el problema y alcanzar resultados confiables con respecto de las
    decisiones a tomar [3].
    ProModel permite simular cualquier tipo de sistema de manufactura, logística, manejo de materiales, entre
    otros. Pueden simularse bandas de transporte, grúas viajeras, actividades de ensamble, corte, talleres, y
    muchos más recursos empleados [8]. Básicamente, este producto se enfoca a procesos de fabricación de
    uno o varios productos, líneas de ensamble y de transformación, entre otros.
    ProModel es un paquete de simulación que no requiere programación, aunque sí lo permite. Funciona en
    equipos 486 en adelante y utiliza la plataforma Windows®. Tiene la combinación perfecta entre facilidad de
    uso y flexibilidad para aplicaciones complejas [8]. Actualmente existe una séptima versión de ProModel,
    mejorada, que facilita la navegación sobre el programa y la interpretación de los resultados; pero para la
    elaboración de este estudio se ha aplicado la versión 4.22, que funciona estadísticamente igual, obteniendo
    los mismos resultados y permitiéndonos realizar el mismo análisis e interpretación.
    Una vez realizado un modelo de simulación del sistema en estudio, éste puede ser manipulado con el fin de
    ser optimizado para encontrar los niveles o valores de los factores o parámetros claves del modelo, que
    permitan acercarse al valor óptimo de cierta variable respuesta. Algunos ejemplos incluyen determinar la
    mejor combinación de factores para maximizar producción minimizando costo, minimizar el número de
    camiones sin penalizar el servicio, o cualquier otro resultado que se desee optimizar o mejorar. El módulo
    de optimización nos ayuda a encontrar rápidamente la solución más óptima, en lugar de solamente hacer
    prueba y error [8].
    Los beneficios claves del uso del paquete simulación de ProModel
    son:
    ? Es el único software de simulación con Optimización plenamente integrada
    ? La creación de modelos es rápida, sencilla y flexible.
    ? Los modelos realizados son optimizables.
    ? Incluye elementos de Logística, Manejo de Materiales, y Operaciones. (Bandas de transporte, Grúas
    Viajeras, Operadores).
    ? Los resultados son probados.
    ? Permite la importación del Layout de Autocad, o cualquier herramienta de CAD / CAE / Diseño, así como
    de fotografías digitales. ? Permite la integración con Excel, Lotus, Visual Basic y herramientas de Microsoft.

    Monografias.com

    ? Genera en automático las gráficas en 3 dimensiones para tener una visualización en el espacio
    tridimensional [8].
    2.2. Diseño de Experimentos y Simulación
    La experimentación juega un papel fundamental en virtualmente todos los campos de la investigación y el
    desarrollo. El objetivo de la experimentación es obtener información de calidad. Información que permita
    desarrollar nuevos productos y procesos, comprender mejor un sistema (un proceso industrial, un
    procedimiento analítico) y tomar decisiones sobre como optimizarlo y mejorar su calidad, comprobar
    hipótesis científicas, entre otros [2].
    Obviamente la experimentación se debe planificar (diseñar) cuidadosamente para que proporcione la
    información buscada. Dicha planificación debe considerar dos aspectos importantes relacionados con toda
    experimentación:
    1. 1.
    La experimentación es normalmente cara. La capacidad de experimentar está limitada por el coste
    en tiempo y en recursos. Por lo tanto, una organización óptima de la experimentación deberá contemplar el
    menor número de experimentos que permita obtener la información buscada.
    2. 2.
    El resultado observado de un experimento (y) tiene incertidumbre:
    y=?+edonde ?es el resultado “verdadero” (desconocido) del experimento y ees una contribución aleatoria,
    que varía cada vez que se repite el experimento. Por ello, la Estadística, disciplina que proporciona las
    herramientas para trabajar en
    ambientes de incertidumbre, juega un papel fundamental en el diseño de los experimentos y en la
    evaluación de los resultados experimentales [2].
    El análisis de los resultados experimentales permitirá obtener conclusiones sobre el sistema en estudio y
    decidir actuaciones futuras. Tanto por la importancia de las decisiones que se pueden tomar, como por el
    coste elevado de la experimentación no parece adecuado dejar la elección de los experimentos y la
    evaluación de los resultados a la mera intuición del experimentador. Parece más razonable utilizar una
    metodología matemática y estadística que indique como planificar (diseñar, organizar) la secuencia de
    experimentos de una forma óptima, de modo que se minimice tanto el coste de la experimentación como la
    influencia del error experimental sobre la información buscada. Dicha planificación y análisis es el principal
    objetivo del Diseño de Experimentos [2].
    La experimentación forma parte natural de la mayoría de las investigaciones científicas e industriales, en
    muchas de las cuales, los resultados del proceso de interés se ven afectados por la presencia de distintos
    factores, cuya influencia puede estar oculta por la variabilidad de los resultados muestrales. Es fundamental
    conocer los factores que influyen realmente y estimar esta influencia. Para conseguir esto es necesario
    experimentar, variar las condiciones que afectan a las unidades experimentales y observar la variable
    respuesta. Del análisis y estudio de la información recogida se obtienen las conclusiones [12].
    La forma tradicional que se utilizaba en la experimentación, para el estudio de estos problemas, se basaba
    en estudiar los factores uno a uno, esto es, variar los niveles de un factor permaneciendo fijos los demás.
    Esta metodología presenta grandes inconvenientes: ? Es necesario un gran número de pruebas. ? Las
    conclusiones obtenidas en el estudio de cada factor tiene un
    campo de validez muy restringido. ? No es posible estudiar la existencia de interacción entre los factores.
    ? No es viable, en muchos casos, por problemas de tiempo o costo [12].
    Las técnicas de Diseño de Experimentos se basan en estudiar simultáneamente los efectos de todos los
    factores de interés, son más eficaces y proporcionan mejores resultados con un menor coste [12].
    Los modelos de Diseño de Experimentos son modelos estadísticos clásicos cuyo objetivo es averiguar si
    unos determinados factores influyen en la variable de interés y si existe influencia de algún factor,
    cuantificarla.
    La metodología del diseño de experimentos se basa en la experimentación. Es conocido que si se repite un
    experimento, en condiciones indistinguibles, los resultados presentan variabilidad que puede ser grande o
    pequeña. Si la experimentación se realiza en un laboratorio donde la mayoría de las causas de variabilidad
    están muy controladas, el error experimental será pequeño y habrá poca variación en los resultados del
    experimento. Pero si se experimenta en procesos industriales, administrativos, la variabilidad es grande en
    la mayoría de los casos [12].
    El objetivo del diseño de experimentos es estudiar si utilizar un determinado tratamiento produce una mejora
    en el proceso o no. Para ello se debe experimentar utilizando el tratamiento y no utilizándolo. Si la
    variabilidad experimental es grande, sólo se detectará la influencia del uso del tratamiento cuando éste
    produzca grandes cambios en relación con el error de observación [12].
    Los modelos de diseño de experimentos se fundamentan en el correcto análisis de los resultados que se
    obtienen de un experimento bien planificado. En muy pocas ocasiones es posible utilizar estos métodos a

    Monografias.com

    partir de datos disponibles o datos históricos, aunque también se puede aprender de los estudios realizados
    a partir de datos recogidos por observación, de forma aleatoria y no planificada. En el análisis estadístico de
    datos históricos se pueden cometer diferentes errores, los más comunes son los siguientes: ? Inconsistencia
    de los datos. Los procesos cambian con el
    tiempo, por ejemplo, se producen cambios en el personal, o cambios en las máquinas. Estos cambios tienen
    influencia en los datos recogidos, lo que hace que los datos históricos sean poco fiables, sobre todo si se
    han recogido en un amplio espacio de tiempo.
    ? Variables con fuerte correlación. Puede ocurrir que en el proceso existan dos o más variables altamente
    correlacionadas que pueden llevar a situaciones confusas. Por ejemplo, en el proceso hay dos variables X1
    y X2 fuertemente correlacionadas que influyen en la respuesta, pero si en los datos que se tiene aumenta al
    mismo tiempo el valor de las dos variables no es posible distinguir si la influencia es debida a una u otra o a
    ambas variables (confusión de los efectos). Otra situación problemática se presenta si solo se dispone de
    datos de una variable (por ejemplo de X1 y no de X2), lo que puede llevar a pensar que la variable
    influyente es la X1 cuando, en realidad, la variable influyente es la X2 (variable oculta).
    ? El rango de las variables controladas es limitado. Si el rango de una de las variables importantes e
    influyentes en el proceso es pequeño, no se puede saber su influencia fuera de ese. Esto suele ocurrir
    cuando se utilizan los datos recogidos al trabajar el proceso en condiciones normales y no se experimenta
    para observar el comportamiento del proceso en situaciones nuevas [12].
    Uno de los principales objetivos de los modelos estadísticos y, en particular, de los modelos de diseño de
    experimentos, es controlar la variabilidad de un proceso estocástico que puede tener diferente origen. De
    hecho, los resultados de cualquier experimento están sometidos a tres tipos de variabilidad cuyas
    características son las siguientes: ? Variabilidad sistemática y planificada.
    Esta variabilidad viene originada por la posible dispersión de los resultados debida a diferencias
    sistemáticas entre las distintas condiciones experimentales impuestas en el diseño por expreso deseo del
    experimentador. Es el tipo de variabilidad que se intenta identificar con el diseño estadístico.
    ? Variabilidad típica de la naturaleza del problema y del experimento. Es la variabilidad debida al ruido
    aleatorio. Este término incluye, entre otros, a la componente de variabilidad no planificada denominada error
    de medida. Es una variabilidad impredecible e inevitable. Sin embargo, bajo el aparente caos, existe un
    patrón regular de comportamiento en esas medidas: todas ellas tenderán a fluctuar en torno a un valor
    central y siguiendo un modelo de probabilidad que será importante estimar. Esta variabilidad es inevitable
    pero, si el experimento ha sido bien planificado, es posible estimar su valor, lo que la hace tolerable.
    ? Variabilidad sistemática y no planificada. Esta variabilidad produce una variación sistemática en los
    resultados y es debida a causas desconocidas y no planificadas. La presencia de esta variabilidad supone
    la principal causa de conclusiones erróneas y estudios incorrectos al ajustar un modelo estadístico.
    Existen dos estrategias básicas para tratar de evitar la presencia de este tipo de variabilidad: la
    aleatorización y la técnica de bloques [12].
    El hecho de poder incluir principalmente la variabilidad del sistema en el estudio, hace del Diseño de
    Experimentos una herramienta muy atractiva para la toma de decisiones de mejora a un sistema,
    característica comúnmente pasada por alto por los tomadores de decisiones, ya que la mente humana no
    está acostumbrada a percibirla. Pero uno de los obstáculos más grandes del Diseño de Experimentos es la
    complejidad y el costo implicado para recopilar datos exactos y actuales, ya que eso implica salir de los
    parámetros normales de funcionamiento del sistema en estudio, y dependiendo de la cantidad de factores
    se incrementa considerablemente la cantidad de experimentos a realizar.
    La solución a este obstáculo, manteniendo la cualidad más atractiva del Diseño de Experimentos, se lo
    encontró en la simulación. Un modelo de simulación estocástico de un sistema puede mantener y producir
    la misma variabilidad que ocurre dentro de su entorno real; y permite realizar cualquier tipo de variación o
    alteración al modelo de simulación sin tener que dedicarle mucho tiempo, recursos, ni esfuerzo; facilitando
    así, la incursión a una mayor cantidad de experimentos permitiendo un mejor entendimiento de las
    reacciones de la variable de interés provocadas por diferentes factores. En los últimos años se han
    realizado muchas investigaciones en procesos productivos, utilizando estos dos instrumentos a la vez.
    Algunas de estas investigaciones científicas se han hecho públicas y de esta forma la aplicación del Diseño
    de Experimentos con Simulación se ha hecho cada vez más popular y la información respecto a este tema
    así como su aplicación, es muy variada.
    Existen varios autores y documentos respaldando y fomentando la combinación de estas dos poderosas
    herramientas como es el caso, de Daniel Villareal, Director de Decisiones Inteligentes, SA DE CV y
    representante exclusivo de ProModel Corporation en México, en su ensayo “Simulación y Optimización de
    Procesos Discretos y Continuos: Estado del Arte y Tendencias” [13], donde menciona explícitamente que
    deben incluirse, hoy en día, el Diseño de Experimentos en conjunto de la Simulación dentro del pensum

    Monografias.com

    académico de las Universidades e Instituciones que se ocupan del campo de la Ingeniería Industrial.
    En cuanto a papers que han tratado este tema existe “Designing Simulation Experiments” [1], donde Russell
    R. Barton propone algunas técnicas para la planeación de una serie de corridas, con el objetivo de tener
    cierta intuición sobre el comportamiento del sistema. Barton en conjunto con W. David Kelton introducen
    ideas, temas, retos, soluciones y oportunidades para decidir como experimentar con modelos de simulación
    y aprender sobre su comportamiento, en su ensayo “Experimental Design for Simulation” [6], ellos aseguran
    que la planeación y el diseño de una simulación experimental ahorra mucho tiempo, esfuerzo proveyendo
    una eficiente forma para estimar efectos de la información de salida provocados por los cambios de datos
    de entrada.
    Susan M. Sánchez en su ensayo “Work Smarter, Not Harder: Guidelines for Designing Simulation
    Experiments” [11], menciona la importancia actual del uso de la simulación para el diseño experimental, ya
    que permite al analista examinar muchos más factores que lo que hubiera logrado bajo otros métodos,
    mientras permite hacerse una idea que comúnmente no podrían ser concebidos a prueba y error o mediante
    muestreos de un solo factor a la vez.
    Cada vez la aplicación de estas dos herramientas se hace más común y necesaria para lograr una correcta
    toma de decisiones, en cualquier aspecto y bajo cualquier circunstancia; como lo demuestran Kaushik
    Balakrishnam, Sam Anand y David Kelton en su ensayo “Integrating Simulation and Design of Experiments
    to Identify Factors for Layout Design” [5], donde su objetivo es diseñar eficientemente un layout llevando a
    cabo un diseño experimental factorial full entre los diferentes factores que pudieran afectar su productividad.
    Su análisis ayuda a identificar los factores más significativos que afecten al tiempo de una parte en el
    sistema y finalmente diseñar las nuevas instalaciones de la planta eficientemente.
    Actualmente existe una gran variedad de información y aplicaciones, promoviendo el empleo de esta
    relativa nueva tendencia; usando estos dos métodos de forma simultánea, aprovechando las ventajas de un
    método para superar los obstáculos del otro, y así optimizar los recursos para lograr tomar decisiones de
    forma más confiable y eficiente.
    2.3. Simulación y Optimización
    Las herramientas de simulación son comúnmente empleadas para predecir y mejorar el desempeño de un
    sistema o para establecer las relaciones entre varios elementos del sistema. Al modelar la situación actual
    de unas instalaciones o un sistema, uno puede llevar acabo análisis de prueba y error, para determinar la
    forma más óptima para mejorar el desempeño del sistema. A esto se le llama, proceso de optimización [10].
    Optimización es el proceso de probar diferentes combinaciones de valores para ciertas variables que
    puedan ser controladas, para buscar la combinación de valores que provea la mejor salida deseada del
    modelo de simulación [4].
    El modelo de simulación puede ser considerado como una caja negra que imita un sistema real. Cuando se
    presentan entradas a la caja negra, esta produce salidas que estiman cómo responderá el sistema real. Las
    entradas son comúnmente llamadas Variables de Decisión o Factores. La medida de desempeño de interés
    se calcula de las salidas estocásticas del modelo de simulación cuando las variables de decisión se
    encuentran fijadas a ciertos valores específicos. La medida del desempeño es comúnmente llamada la
    Función Objetivo [4].
    El valor esperado de la Función Objetivo es estimado promediando las salidas del modelo obtenidas de
    múltiples réplicas o grupos de intervalo. El problema de Optimización de una simulación se encuentra
    formalmente establecida como:
    MIN ó MAX E[f(X1, X2, …, Xn)] Sujeto a: Limite Inferiori = Xi = límite Superiori ; para i = 1, 2, …, n donde
    E[f(X1, X2, …, Xn)] es el valor esperado de la función objetivo [4].
    La búsqueda de la solución óptima puede llevarse a cabo de forma manual o automática, con algoritmos
    específicamente diseñados para buscar la solución óptima sin tener que evaluar todas las posibles
    soluciones.
    Relacionar algoritmos de optimización que pueden generar soluciones automáticamente y evaluarlas en
    modelos de simulación es un esfuerzo que vale la pena porque: ? Automatiza parte del proceso de análisis,
    ahorrando una gran
    cantidad de tiempo al analista.
    ? Se utiliza un método lógico para explorar eficientemente el conjunto de posibles soluciones, encontrando
    la mejor de ellas. ? El método generalmente encuentra varias soluciones ejemplares
    para ser consideradas por el analista [4].
    Si la salida del modelo de simulación para todos los posible valores de las variables de decisión son
    registradas y graficadas, el gráfico resultante se llamaría superficie de respuesta. Para problemas con uno o
    dos variables de decisión, la solución óptima sería fácilmente identificada. Sin embargo, cuando existen más

    Monografias.com

    de dos variables de decisión, es mucho más complicado visualizar la superficie de respuesta, debido a que
    hay demasiadas soluciones a evaluar en una cantidad de tiempo razonable. Por esto, se debe encontrar un
    balance entre encontrar la solución óptima y el tiempo empleado para realizar la búsqueda [4].
    Debido a esto, se han llevado a cabo numerosas investigaciones para encontrar métodos de optimización
    que puedan encontrar la solución óptima de forma rápida, segura y sin tener que enumerar cada una de las
    posibles alternativas; lo cual ha sido un poco complicado debido a la complejidad y aleatoriedad de los
    problemas de la vida real. Las superficies de respuesta producidas por modelos de simulación estocásticos
    pueden ser nolineales, multimodales y con mucho ruido; pueden contener variables de decisión tanto
    discretas como continuas y puede no proveer observaciones independientes e idénticamente distribuidas
    [4].
    Existen Técnicas Heurísticas que proveen buenas soluciones o incluso unas muy cercanas a la óptima,
    dentro de una cantidad de tiempo razonable; pero el problema es que puede no siempre encontrar la
    solución óptima a un problema.
    Las Técnicas Directas trabajan, como su nombre lo dice, directamente con las salidas generadas desde el
    sistema de interés y no requiere información adicional sobre las funciones que generan estas salidas. Estas
    técnicas son ideales para optimización cuando no se tienen los modelos matemáticos del sistema, cuyos
    gradientes pueden ser calculados para guiar la búsqueda de la solución óptima;
    o cuando el costo de estimar o calcular dicho gradiente es elevado. Lo cual es comúnmente el caso de un
    modelo de simulación estocástico [4].
    Los investigadores inmediatamente notaron los beneficios de combinar la simulación y las técnicas directas
    de búsqueda. Por ejemplo, Pegden y Gately (1977) desarrollaron un módulo de optimización para el
    software de simulación GASP IV. Su paquete de optimización estaba basado en una variante del método de
    búsqueda directa desarrollada por Hooke y Jeeves (1961) [4].
    Los algoritmos de búsqueda directa han mejorado considerablemente en la actualidad para la optimización
    de modelos de simulación. Usando estos nuevos algoritmos, la herramienta de optimización para modelos
    de simulación SimRunner fue desarrollada en 1995, cuyo diseño del módulo de optimización está basado en
    algoritmos evolutivos, la cuál es una técnica de búsqueda directa; e inmediatamente otros dos vendedores
    de software de simulación añadieron el paquete de optimización a sus productos, estos son OptQuest96
    introducido en 1996 usado con modelos de simulación construidos con el software Micro Saint, y
    actualmente con modelos desarrollados con ProModel; y Witness Optimizer introducido en 1997 y usado
    con modelos de simulación desarrollados en el software Witness [4].
    2.4. SimRunner como Herramienta de Optimización
    En 1995, ProModel Corporation y Decision Science, Incorporated, desarrollaron SimRunner basados en las
    investigaciones del Dr. Royce Bowden (1992) sobre modernos algoritmos de optimización, para
    optimización basada en simulación y aprendizaje de máquinas. SimRunner ayuda a utilizar conceptos
    avanzados de optimización para buscar la mejor solución partiendo del modelo de simulación, utilizando el
    método basado en algoritmos evolutivos [4].
    2.4.1. Algoritmos Evolutivos
    Un algoritmo evolutivo es una técnica de optimización numérica basada en la evolución de la simulación. Se
    lo llama evolutivo debido a que la forma en que trabaja esta técnica está basada en el concepto de la teoría
    evolutiva de las especies, en la que se manifiesta que las especies deben adaptarse a su medio para
    sobrevivir. El algoritmo evolutivo manipula una población de soluciones a un problema de tal forma que las
    malas soluciones van desapareciendo y las buenas soluciones evolucionan continuamente en busca de la
    respuesta óptima [10].
    Los Algoritmos Evolutivos difieren de las tradicionales técnicas de optimización nolineal en varios aspectos.
    La diferencia más significativa es que buscan la superficie de respuesta usando una población de
    soluciones, en lugar de una simple solución. Esto le permite a los Algoritmos Evolutivos recoger información
    acerca de la superficie de respuesta desde varios puntos diferentes de forma simultánea. Los Algoritmos
    Evolutivos usan la información registrada de múltiples lugares de la superficie de respuesta, en lugar de un
    simple punto, para guiar la búsqueda de la solución óptima. Esta aproximación de la población incrementa
    las oportunidades de encontrar la solución óptima global. Diferentes investigaciones se han llevado a cabo
    para demostrar la característica convergente de los Algoritmos Evolutivos y para desarrollar pruebas
    matemáticas para la convergencia global (por ejemplo ver Bäck y Schwefel 1993) [4].
    El funcionamiento de los Algoritmos Evolutivos puede ser descrito de forma general en estos cuatro pasos:
    Paso 1: Generar una población inicial de soluciones al problema distribuyéndolas a través de todo el
    espacio de soluciones. Paso 2: Calcular con precisión la concordancia de cada solución. Paso 3: Basado en
    la concordancia de las soluciones, seleccionar las mejores y aplicar operadores genéticos tipo idealizados

    Monografias.com

    para producir una nueva generación de soluciones. Paso 4: Regresar al Paso 2 mientras el algoritmo siga
    encontrando mejores respuestas [4].
    Para ayudar a entender el funcionamiento del proceso de optimización de SimRunner se utilizará la
    siguiente analogía de unos exploradores que tratan de encontrar la cima de una montaña. Si un grupo de
    exploradores se encuentra en las faldas de la montaña, en la oscuridad, sin nada más que radios y
    altímetros, ¿cómo se encontraría la cima? [10] El primer paso sería establecer la altitud actual de cada uno
    de los exploradores, registrando la lectura de lo altímetros de cada uno [10].
    Después, se ordenaría a los exploradores a deambular en cualquier dirección por una cierta distancia,
    después se detienen y se registran los nuevos valores del altímetro. En la segunda lectura se verá que
    algunos exploradores ahora se encuentran más abajo y algunos más arriba que antes [10].
    Comparando las lecturas de cada uno de los altímetros, se puede determinar la dirección general por la cual
    seguir. Ya que se quiere llegar a la cima de la montaña, se sigue la dirección general de aquel que haya
    tenido la lectura más alta (en este caso el explorador número 2). Nuevamente, después que todos se
    movieron una cierta distancia, se vuelven a detener y se registras las nuevas lecturas del altímetro [10].

    Monografias.com

    Si se promedian las nuevas lecturas de los altímetros de cada uno de los exploradores, se verá que lectura
    grupal ha aumentado. Esto confirma que se están moviendo en la dirección correcta, pero sólo para
    asegurarse se repite el proceso y se toman nuevas lecturas [10].
    Se puede notar, en este ejemplo, que todo el grupo de exploradores está empezando a converger en un
    solo punto. Mientras más se repita el proceso de recolección de lectoras (información), más cerca estará el
    grupo uno de otro, y con mayor certeza se estará sobre la cima o por llegar a ella. Y sólo para asegurar que
    se está en el lado indicado, se enviarán miembros del grupo a partes remotas del terreno para asegurarse
    que no hay otro lugar más alto que el que ya se ha identificado [10].
    Una vez que el promedio de las lecturas grupales iguala a la mejor lectura del grupo, es porque se ha
    encontrado la cima y se puede asegurar que se ha alcanzado la meta [10].

    Monografias.com

    Conceptualmente, esta es la forma en que funciona SimRunner, sólo la terminología es diferente. En lugar
    de altímetros, exploradores y pruebas, se utilizan funciones objetivo, factores de entrada y réplicas. Cada
    vez que los exploradores se mueven, SimRunner llama a esto una generación[10].
    Por su forma de operación, varios investigadores, entre ellos, Biethahn y Nissen (1994), Bäck et al. (1995), y
    Bäck y Schwefel (1993), reportaron que los Algoritmos Evolutivos son muy apropiados para la optimización
    por las siguientes razones:
    ? No requieren asunciones o conocimiento previo sobre la topología de la superficie de respuesta que está
    siendo buscada; haciéndolos así, técnicas ampliamente aplicables.
    ? Son muy apropiadas para problemas con superficies de respuesta que son altamente dimensionales,
    multimodales, discontinuas, nodiferenciables, y estocásticos, e incluso para problemas con superficies de
    repuesta móviles o dinámicas.
    ? Son técnicas de búsqueda muy fiables y relativamente fáciles de usar [4].
    Una potencial desventaja de usar Algoritmos Evolutivos para la optimización de simulación es que algunas
    veces requiere evaluar muchas soluciones; esto significa realizar un nuevo enlace con el modelo de
    simulación, lo que podría ser un obstáculo si el tiempo para los cálculos computacionales es limitado. Y
    existe una remota posibilidad que el algoritmo se confunda converja prematuramente a uno de los varios
    óptimos locales, debido al ruido de la superficie de respuesta.
    A pesar que SimRunner es un optimizador fácil de usar y una herramienta muy fiable para encontrar la
    solución óptima, no hay que caer en la trampa de dejarlo convertir en el tomador de las decisiones; se
    debería estudiar y analizar las mejores soluciones presentadas por el software, ya que no existe una
    perfecta ni completa garantía que la mejor solución encontrada por SimRunner es de hecho la solución
    óptima al problema. Por lo tanto, hay que recordar siempre que los optimizadores no son los tomadores de
    decisión, sólo sugieren una posible ruta para la acción y es responsabilidad del analista tomar la decisión
    final [4].

    CAPÍTULO 3

    3. DESCRIPCIÓN Y VALIDACIÓN DEL MODELO DE SIMULACIÓN
    3.1. Descripción del Proceso
    La fábrica de electrodos produce actualmente nueve tipos de electrodos de diferentes diámetros, uno de
    ellos es del tipo celulósico, ya que su revestimiento es a base de celulosa; y los restantes son denominados
    especiales, ya que utilizan comp

    Partes: 1, 2, 3, 4

    Página siguiente 

    Nota al lector: es posible que esta página no contenga todos los componentes del trabajo original (pies de página, avanzadas formulas matemáticas, esquemas o tablas complejas, etc.). Recuerde que para ver el trabajo en su versión original completa, puede descargarlo desde el menú superior.

    Todos los documentos disponibles en este sitio expresan los puntos de vista de sus respectivos autores y no de Monografias.com. El objetivo de Monografias.com es poner el conocimiento a disposición de toda su comunidad. Queda bajo la responsabilidad de cada lector el eventual uso que se le de a esta información. Asimismo, es obligatoria la cita del autor del contenido y de Monografias.com como fuentes de información.

    Categorias
    Newsletter