Descargar

Mejora del proceso de fabricación de electrodos mediante el desarrollo de un modelo de simulación


Partes: 1, 2, 3, 4

    edu.red

    Mejora del proceso de fabricación de electrodos mediante el desarrollo de un modelo de simulación y la aplicación de técnicas de diseño de experimentos y optimización 1. 2. 3. 4. 5. 6. 7. 8. Resumen Introducción Generalidades Fundamento teórico Descripción y validación del modelo de simulación Aplicación de diseño de experimentos Optimización del proceso Conclusiones y recomendaciones RESUMEN El ambiente laboral que afecta hoy en día a las empresas es tremendamente exigente y dinámico, por lo que la capacidad de tomar decisiones de forma inmediata se ha vuelto un requerimiento imprescindible para la supervivencia de las empresas. Para mantenerse a la par de la demanda y las exigencias de los clientes, cuando se trata de la toma decisiones emergentes, muchas compañías han dejado a un lado los estudios técnicos previos para darle todo el trabajo a la intuición, corriendo el riesgo que tales decisiones afecten el desempeño de la línea de producción en lugar de mejorarlo. Esto ocurre debido a que técnicas como la experimentación en muchos casos toman demasiado tiempo en realizarse y tienen un costo considerablemente alto; interrumpiendo además, las actividades normales del proceso productivo de la empresa. Esto a pesar de ser excelentes para encontrar el ajuste necesario que permita mejorar el desempeño de un proceso. Los modelos matemáticos de optimización por otro lado, son demasiado complejos para las actividades diarias de la empresa, o toman demasiado tiempo en emplearse y requieren una persona con una preparación académica de alto nivel para resolverlos e interpretarlos. Sin embargo, la simulación es el complemento sobre el cual es posible aplicar estas técnicas de forma rápida, sencilla y con bajos costos de preparación, permitiendo de esta forma la integración de una herramienta técnicamente sofisticada con el proceso de toma de decisiones de una compañía. Actualmente en la mayoría de los paquetes de simulación, se incluye una herramienta de optimización que permite al usuario interactuar entre diferentes parámetros con el fin de encontrar la mejor solución. El único problema es que a mayor cantidad de parámetros en estudio, mayor tiempo demora el computador en procesar los datos. La simulación también ofrece la capacidad de experimentar sin tener que interrumpir las actividades de la empresa, ni influir en sus costos, obteniendo resultados en muy poco tiempo. Además, mediante un estudio previo de Diseño de Experimentos se pueden obtener los factores que tienen mayor impacto en el desempeño de la línea de producción ahorrando tiempo valioso durante el proceso de optimización. Al aplicar en conjunto las fortalezas de estas técnicas: simulación, diseño de experimentos y optimización, se eliminan las debilidades individuales de cada una de ellas, obteniendo así una opción eficiente y efectiva que se ajusta a las exigencias actuales para la toma de decisiones. Esta combinación será precisamente aplicada a una fábrica de electrodos para soldadura, la cual tiene un serio problema debido a su elevado tiempo de ciclo de un lote de electrodos producidos. Esto ha provocado que el producto en proceso se eleve entre algunas estaciones de trabajo, pasando días sin ser procesados; y ha generado como consecuencia la disminución de la tasa de producción y por ende el incremento de las horas extras, exigiendo por tanto a sus trabajadores laborar fines de semana y mantener doble turno de trabajo durante los días hábiles. Bajo estas circunstancias el objetivo principal de esta investigación es determinar los principales factores que influyen en el desempeño del proceso productivo de fabricación de electrodos para soldadura, y establecer los niveles óptimos de operación de los mismos con el fin de minimizar el tiempo de ciclo productivo actual. Utilizando para ello técnicas de Diseño de Experimentos y de Optimización. En el primer capítulo de esta Tesis se encuentra con mayor detalle los antecedentes de la fábrica objeto de estudio y los objetivos perseguidos. El segundo capítulo describe en que consisten las técnicas que serán aplicadas para encontrar el mejor escenario, parámetros y sus niveles, para mejorar el desempeño de la línea productiva. En el capítulo número tres se describe en detalle el proceso productivo de esta fábrica, así como el modelo de simulación de este sistema y su validación. Dentro del capítulo cuatro se encuentra la ejecución del Diseño de Experimentos aplicando los datos obtenidos del modelo de simulación y su

    edu.red

    respectiva evaluación de resultados. El quinto capítulo contiene la ejecución de la Optimización de parámetros más influyentes determinados en el capítulo anterior. Esto será realizado con la ayuda del software de optimización SimRunner. Finalmente, las conclusiones y recomendaciones de esta investigación se presentan en el sexto capítulo. Al obtener los resultados se espera determinar con Diseño de Experimentos los principales factores o parámetros que tienen mayor influencia en el desempeño de la línea de fabricación de electrodos para soldadura, y encontrar mejores niveles para estos parámetros; permitiendo así, plasmar un escenario eficiente y productivo para esta empresa. INTRODUCCIÓN Muchas de las técnicas tradicionales para mejorar el rendimiento de un proceso de manufactura, desarrollar nuevos procesos o conseguir la información necesaria para tomar una correcta decisión para adaptar la empresa ante un problema o cambio de preferencias del mercado, se han vuelto obsoletas debido a su complejidad y cantidad de tiempo y recursos necesarios a invertir para obtener lo deseado. Pero así mismo, existen técnicas que han vuelto a resurgir trabajando en conjunto con las técnicas modernas de mejoramiento de procesos y toma de decisiones; creando una alianza beneficiosa en la que sus debilidades se complementan con las fortalezas de la otra técnica. Este es el caso del Diseño de Experimentos, una técnica desarrollada por sir Ronald A. Fischer y empleada en el campo industrial en la década de 1930; la cual es aplicada, en esta investigación, en conjunto con la Simulación, que ha probado ser no sólo una excelente herramienta estratégica para las empresas y sino que también puede ser utilizada como una herramienta táctica en el día a día de cualquier compañía. Esta combinación de técnicas permite a los tomadores de decisiones obtener suficiente información fundamentada en datos reales y estudios estadísticos para poder escoger la mejor solución a sus problemas. Este estudio se realiza en base a datos obtenidos de una fábrica de electrodos para soldadura, para lograr determinar los principales factores que influyen en el desempeño del proceso productivo de fabricación de electrodos para soldadura y establecer los niveles óptimos de operación de los mismos con el fin de maximizar la tasa de producción semanal de empaques finales de electrodos para soldar; utilizando para ello las técnicas de Diseño de Experimentos y de Optimización. El procedimiento de este estudio tiene tres puntos principales; el primero de ellos es crear y validar el modelo de simulación del sistema, en este caso de la fábrica de electrodos para soldadura, el cuál será adaptado para realizar diferentes pruebas y experimentos. El segundo paso es la aplicación de la técnica de Diseño de Experimentos, cuyo objetivo es encontrar los niveles preliminares de los factores y entre ellos, definir los que más influyen a la variable de respuesta escogida; en este caso, maximizar la tasa de producción. El tercer y último paso es la aplicación de la técnica de Optimización, donde se hace un estudio más detallado de los niveles de los factores, partiendo de los establecidos durante el Diseño de Experimentos, obteniendo así, el mejor escenario para mejorar el desempeño de la fábrica. CAPÍTULO 1 1. GENERALIDADES 1.1. Antecedentes En la ciudad de Guayaquil existe una empresa manufacturera que, entre sus distintas líneas de producción, mantiene una fábrica de electrodos para soldar con alrededor de 19 operarios y 5 administradores. Esta fábrica de electrodos revestidos para soldar mantiene un sistema productivo continuo MaketoStock con una sola línea de producción distribuida por producto, ya que tiene un alto volumen de fabricación y una baja variedad. Produce 23 ítems diferentes de electrodos para soldar, de los cuales, el electrodo llamado C13 es el que abarca cerca del 90% de su producción total. Esta fábrica en sus 15 años de funcionamiento se ha interesado poco o nada en la optimización de su línea para llegar a obtener una utilización eficiente de sus recursos; su personal desconoce el significado y la importancia de ciertos parámetros que pueden determinar el desempeño de su línea, como es el tiempo de ciclo (CT), el producto en proceso (WIP) y la tasa de producción (TH); además, aún no tienen correctamente definido cual es la estación que dirige su producción, es decir, no reconocen su cuello de botella. De igual forma, no han realizado un correcto estudio sobre el número de máquinas que requieren en su línea de producción, por esta razón hay estaciones con poca capacidad para satisfacer las necesidades de ingreso

    edu.red

    de la estación siguiente, así mismo existen estaciones con una sobrecapacidad que ayudan al crecimiento del producto en proceso entre estaciones. Esto indica que la línea no se encuentra correctamente balanceada. Actualmente la fábrica tiene un serio problema con la determinación del tiempo de ciclo de un lote de electrodos producido, y por lo tanto, en la reducción del mismo. Esto ha provocado que el producto en proceso se elevara entre algunas estaciones de trabajo, pasando días sin ser procesado; y que la tasa de producción disminuyera exigiendo a sus trabajadores laborar fines de semana y mantener doble turno de trabajo durante los días hábiles. Para encontrar la solución a este problema utilizaremos dos técnicas que permiten encontrar los parámetros y sus condiciones para mejorar y alcanzar nuestro objetivo, ya sea maximizando el beneficio o minimizando el problema según sea lo requerido. Estás técnicas son: El Diseño de Experimentos y la Optimización. Estás técnicas tendrán como base un modelo de simulación del proceso productivo de la fábrica de electrodos, utilizando el software ProModel, el cuál proporcionará los datos necesarios de los diferentes escenarios planteados para su posterior análisis mediante las técnicas antes mencionadas. 1.2. Objetivo General Determinar los principales factores que influyen en el desempeño del proceso productivo de fabricación de electrodos para soldadura y establecer los niveles óptimos de operación de los mismos con el fin de maximizar la tasa de producción semanal de empaques finales de electrodos para soldar; utilizando para ello, técnicas de Diseño de Experimentos y de Optimización. 1.3. Objetivos Específicos ? Realizar un modelo de simulación del proceso productivo de la fábrica de electrodos de soldadura. ? Efectuar un estudio y análisis de un modelo de Diseño de Experimentos para determinar los principales factores y sus respectivos niveles que afectan la variable objetivo, la tasa de producción. ? Identificar los niveles óptimos de operación de los factores encontrados con el fin de maximizar la tasa de producción semanal de empaques finales de electrodos para soldar, a través de la aplicación de técnicas de optimización. ? Exponer un conjunto de herramientas que facilitan la toma de decisiones gerenciales para mejorar el desempeño de la planta de producción. 1.4. Metodología Este trabajo comienza, como se observa en este primer capítulo, detallando los antecedentes de la fábrica objeto de estudio, sus principales características y planteando el problema al que se desea encontrar una solución. Además se exponen los objetivos, general y específicos, que se persiguen al realizar este estudio. El segundo capítulo describe en que consiste la herramienta empleada para la obtención de datos: el paquete de simulación ProModel; y las técnicas aplicadas para encontrar el mejor escenario, estableciendo los parámetros y sus respectivos niveles, para mejorar el desempeño de la línea productiva: el Diseño de Experimentos y la Optimización con el software SimRunner. En el capítulo número tres se describe en detalle el proceso productivo de esta fábrica, las actividades que realizan, los recursos que intervienen y el proceso de transformación que se realiza. Así mismo se describe el modelo de simulación de este sistema con su respectiva validación; indicando las principales asunciones que fueron empleadas y las diferentes programaciones lógicas realizadas para poder modelar con mayor exactitud la realidad. Dentro del capítulo cuatro se encuentra la ejecución de la técnica de Diseño de Experimentos, planteando inicialmente una variable de respuesta; posteriormente se establecen los primeros parámetros o factores con sus respectivos niveles, así como el diseño experimental en el que se aplican los datos obtenidos del modelo de simulación y realizar su respectiva evaluación de resultados, para encontrar los factores más influyentes en el desempeño de la línea de producción. Una vez obtenidos los principales factores con sus respectivos niveles, en el quinto capítulo se ejecuta la técnica de Optimización, que con la ayuda del software SimRunner, se logra encontrar niveles más óptimos para un mejor desempeño de la línea de producción. Finalmente, las conclusiones obtenidas de este estudio y las diferentes recomendaciones planteadas para esta fábrica de electrodos, las empresas en general e investigadores interesados en realizar futuros trabajos a partir de esta tesis, se presentan en el sexto capítulo. CAPÍTULO 2

    edu.red

    2. FUNDAMENTO TEÓRICO 2.1. Simulación con ProModel En años recientes, el advenimiento de nuevos y mejores desarrollos en le área de la computación ha traído consigo innovaciones igualmente importantes en los terrenos de la toma de decisiones y el diseño de procesos y productos [3]. En este sentido, una de las técnicas de mayor impacto es la simulación. Hoy en día, el analista tiene a su disposición una gran cantidad de software de simulación que le permite tomar decisiones en temas muy diversos, como determinar la mejor localización de una nueva planta, diseñar un nuevo sistema de trabajo o efectuar el análisis productivo de un proceso ya existente pero que requiere mejoras. Cada vez resulta más sencillo encontrar paquetes de software con gran capacidad de análisis, así como mejores animaciones y características para generación de reportes. En general, dichos paquetes nos proveen de una enorme diversidad de herramientas estadísticas que permiten un manejo más eficiente de la información relevante bajo análisis, y una mejor presentación e interpretación de la misma [3]. Al simular se busca predecir aspectos del comportamiento de un sistema creando un modelo apegado a la realidad. Estos modelos dan al analista y a los tomadores de decisiones la capacidad de probar diferentes escenarios del tipo “¿Que pasaría si…?” y cual es el impacto de ellos en el negocio. Cualquier proceso puede ser simulado de una forma precisa de acuerdo con la realidad permitiendo examinar los más complejos sistemas, con altos niveles de aleatoriedad e interdependencia entre los componentes individuales del sistema [8]. El modelo de simulación de un sistema puede ser utilizado para predecir el impacto en indicadores claves y reducir significativamente el riesgo asociado con las decisiones empresariales. Gracias a la simulación se puede experimentar todo tipo de cambios o pruebas en una ambiente libre de riesgos, con la confianza de obtener con el más alto nivel de certeza los resultados anticipadamente. Es por esto que la simulación se ha convertido en una poderosa y eficiente herramienta para tomar decisiones en comparación con las técnicas tradicionales como son el empleo de las hojas de cálculo las cuales son estáticas y a menudo no ofrecen variabilidad e interdependencias. La simulación es dinámica y permite que indicadores claves sean monitoreados con el tiempo. ProModel es uno de los paquetes de software comercial para simulación más usados en el mercado. Cuenta con herramientas de análisis y diseño que, unidas a la animación de los modelos bajo estudio, permiten al analista conocer mejor el problema y alcanzar resultados confiables con respecto de las decisiones a tomar [3]. ProModel permite simular cualquier tipo de sistema de manufactura, logística, manejo de materiales, entre otros. Pueden simularse bandas de transporte, grúas viajeras, actividades de ensamble, corte, talleres, y muchos más recursos empleados [8]. Básicamente, este producto se enfoca a procesos de fabricación de uno o varios productos, líneas de ensamble y de transformación, entre otros. ProModel es un paquete de simulación que no requiere programación, aunque sí lo permite. Funciona en equipos 486 en adelante y utiliza la plataforma Windows®. Tiene la combinación perfecta entre facilidad de uso y flexibilidad para aplicaciones complejas [8]. Actualmente existe una séptima versión de ProModel, mejorada, que facilita la navegación sobre el programa y la interpretación de los resultados; pero para la elaboración de este estudio se ha aplicado la versión 4.22, que funciona estadísticamente igual, obteniendo los mismos resultados y permitiéndonos realizar el mismo análisis e interpretación. Una vez realizado un modelo de simulación del sistema en estudio, éste puede ser manipulado con el fin de ser optimizado para encontrar los niveles o valores de los factores o parámetros claves del modelo, que permitan acercarse al valor óptimo de cierta variable respuesta. Algunos ejemplos incluyen determinar la mejor combinación de factores para maximizar producción minimizando costo, minimizar el número de camiones sin penalizar el servicio, o cualquier otro resultado que se desee optimizar o mejorar. El módulo de optimización nos ayuda a encontrar rápidamente la solución más óptima, en lugar de solamente hacer prueba y error [8]. Los beneficios claves del uso del paquete simulación de ProModel son: ? Es el único software de simulación con Optimización plenamente integrada ? La creación de modelos es rápida, sencilla y flexible. ? Los modelos realizados son optimizables. ? Incluye elementos de Logística, Manejo de Materiales, y Operaciones. (Bandas de transporte, Grúas Viajeras, Operadores). ? Los resultados son probados. ? Permite la importación del Layout de Autocad, o cualquier herramienta de CAD / CAE / Diseño, así como de fotografías digitales. ? Permite la integración con Excel, Lotus, Visual Basic y herramientas de Microsoft.

    edu.red

    ? Genera en automático las gráficas en 3 dimensiones para tener una visualización en el espacio tridimensional [8]. 2.2. Diseño de Experimentos y Simulación La experimentación juega un papel fundamental en virtualmente todos los campos de la investigación y el desarrollo. El objetivo de la experimentación es obtener información de calidad. Información que permita desarrollar nuevos productos y procesos, comprender mejor un sistema (un proceso industrial, un procedimiento analítico) y tomar decisiones sobre como optimizarlo y mejorar su calidad, comprobar hipótesis científicas, entre otros [2]. Obviamente la experimentación se debe planificar (diseñar) cuidadosamente para que proporcione la información buscada. Dicha planificación debe considerar dos aspectos importantes relacionados con toda experimentación: 1. 1. La experimentación es normalmente cara. La capacidad de experimentar está limitada por el coste en tiempo y en recursos. Por lo tanto, una organización óptima de la experimentación deberá contemplar el menor número de experimentos que permita obtener la información buscada. 2. 2. El resultado observado de un experimento (y) tiene incertidumbre: y=?+edonde ?es el resultado “verdadero” (desconocido) del experimento y ees una contribución aleatoria, que varía cada vez que se repite el experimento. Por ello, la Estadística, disciplina que proporciona las herramientas para trabajar en ambientes de incertidumbre, juega un papel fundamental en el diseño de los experimentos y en la evaluación de los resultados experimentales [2]. El análisis de los resultados experimentales permitirá obtener conclusiones sobre el sistema en estudio y decidir actuaciones futuras. Tanto por la importancia de las decisiones que se pueden tomar, como por el coste elevado de la experimentación no parece adecuado dejar la elección de los experimentos y la evaluación de los resultados a la mera intuición del experimentador. Parece más razonable utilizar una metodología matemática y estadística que indique como planificar (diseñar, organizar) la secuencia de experimentos de una forma óptima, de modo que se minimice tanto el coste de la experimentación como la influencia del error experimental sobre la información buscada. Dicha planificación y análisis es el principal objetivo del Diseño de Experimentos [2]. La experimentación forma parte natural de la mayoría de las investigaciones científicas e industriales, en muchas de las cuales, los resultados del proceso de interés se ven afectados por la presencia de distintos factores, cuya influencia puede estar oculta por la variabilidad de los resultados muestrales. Es fundamental conocer los factores que influyen realmente y estimar esta influencia. Para conseguir esto es necesario experimentar, variar las condiciones que afectan a las unidades experimentales y observar la variable respuesta. Del análisis y estudio de la información recogida se obtienen las conclusiones [12]. La forma tradicional que se utilizaba en la experimentación, para el estudio de estos problemas, se basaba en estudiar los factores uno a uno, esto es, variar los niveles de un factor permaneciendo fijos los demás. Esta metodología presenta grandes inconvenientes: ? Es necesario un gran número de pruebas. ? Las conclusiones obtenidas en el estudio de cada factor tiene un campo de validez muy restringido. ? No es posible estudiar la existencia de interacción entre los factores. ? No es viable, en muchos casos, por problemas de tiempo o costo [12]. Las técnicas de Diseño de Experimentos se basan en estudiar simultáneamente los efectos de todos los factores de interés, son más eficaces y proporcionan mejores resultados con un menor coste [12]. Los modelos de Diseño de Experimentos son modelos estadísticos clásicos cuyo objetivo es averiguar si unos determinados factores influyen en la variable de interés y si existe influencia de algún factor, cuantificarla. La metodología del diseño de experimentos se basa en la experimentación. Es conocido que si se repite un experimento, en condiciones indistinguibles, los resultados presentan variabilidad que puede ser grande o pequeña. Si la experimentación se realiza en un laboratorio donde la mayoría de las causas de variabilidad están muy controladas, el error experimental será pequeño y habrá poca variación en los resultados del experimento. Pero si se experimenta en procesos industriales, administrativos, la variabilidad es grande en la mayoría de los casos [12]. El objetivo del diseño de experimentos es estudiar si utilizar un determinado tratamiento produce una mejora en el proceso o no. Para ello se debe experimentar utilizando el tratamiento y no utilizándolo. Si la variabilidad experimental es grande, sólo se detectará la influencia del uso del tratamiento cuando éste produzca grandes cambios en relación con el error de observación [12]. Los modelos de diseño de experimentos se fundamentan en el correcto análisis de los resultados que se obtienen de un experimento bien planificado. En muy pocas ocasiones es posible utilizar estos métodos a

    edu.red

    partir de datos disponibles o datos históricos, aunque también se puede aprender de los estudios realizados a partir de datos recogidos por observación, de forma aleatoria y no planificada. En el análisis estadístico de datos históricos se pueden cometer diferentes errores, los más comunes son los siguientes: ? Inconsistencia de los datos. Los procesos cambian con el tiempo, por ejemplo, se producen cambios en el personal, o cambios en las máquinas. Estos cambios tienen influencia en los datos recogidos, lo que hace que los datos históricos sean poco fiables, sobre todo si se han recogido en un amplio espacio de tiempo. ? Variables con fuerte correlación. Puede ocurrir que en el proceso existan dos o más variables altamente correlacionadas que pueden llevar a situaciones confusas. Por ejemplo, en el proceso hay dos variables X1 y X2 fuertemente correlacionadas que influyen en la respuesta, pero si en los datos que se tiene aumenta al mismo tiempo el valor de las dos variables no es posible distinguir si la influencia es debida a una u otra o a ambas variables (confusión de los efectos). Otra situación problemática se presenta si solo se dispone de datos de una variable (por ejemplo de X1 y no de X2), lo que puede llevar a pensar que la variable influyente es la X1 cuando, en realidad, la variable influyente es la X2 (variable oculta). ? El rango de las variables controladas es limitado. Si el rango de una de las variables importantes e influyentes en el proceso es pequeño, no se puede saber su influencia fuera de ese. Esto suele ocurrir cuando se utilizan los datos recogidos al trabajar el proceso en condiciones normales y no se experimenta para observar el comportamiento del proceso en situaciones nuevas [12]. Uno de los principales objetivos de los modelos estadísticos y, en particular, de los modelos de diseño de experimentos, es controlar la variabilidad de un proceso estocástico que puede tener diferente origen. De hecho, los resultados de cualquier experimento están sometidos a tres tipos de variabilidad cuyas características son las siguientes: ? Variabilidad sistemática y planificada. Esta variabilidad viene originada por la posible dispersión de los resultados debida a diferencias sistemáticas entre las distintas condiciones experimentales impuestas en el diseño por expreso deseo del experimentador. Es el tipo de variabilidad que se intenta identificar con el diseño estadístico. ? Variabilidad típica de la naturaleza del problema y del experimento. Es la variabilidad debida al ruido aleatorio. Este término incluye, entre otros, a la componente de variabilidad no planificada denominada error de medida. Es una variabilidad impredecible e inevitable. Sin embargo, bajo el aparente caos, existe un patrón regular de comportamiento en esas medidas: todas ellas tenderán a fluctuar en torno a un valor central y siguiendo un modelo de probabilidad que será importante estimar. Esta variabilidad es inevitable pero, si el experimento ha sido bien planificado, es posible estimar su valor, lo que la hace tolerable. ? Variabilidad sistemática y no planificada. Esta variabilidad produce una variación sistemática en los resultados y es debida a causas desconocidas y no planificadas. La presencia de esta variabilidad supone la principal causa de conclusiones erróneas y estudios incorrectos al ajustar un modelo estadístico. Existen dos estrategias básicas para tratar de evitar la presencia de este tipo de variabilidad: la aleatorización y la técnica de bloques [12]. El hecho de poder incluir principalmente la variabilidad del sistema en el estudio, hace del Diseño de Experimentos una herramienta muy atractiva para la toma de decisiones de mejora a un sistema, característica comúnmente pasada por alto por los tomadores de decisiones, ya que la mente humana no está acostumbrada a percibirla. Pero uno de los obstáculos más grandes del Diseño de Experimentos es la complejidad y el costo implicado para recopilar datos exactos y actuales, ya que eso implica salir de los parámetros normales de funcionamiento del sistema en estudio, y dependiendo de la cantidad de factores se incrementa considerablemente la cantidad de experimentos a realizar. La solución a este obstáculo, manteniendo la cualidad más atractiva del Diseño de Experimentos, se lo encontró en la simulación. Un modelo de simulación estocástico de un sistema puede mantener y producir la misma variabilidad que ocurre dentro de su entorno real; y permite realizar cualquier tipo de variación o alteración al modelo de simulación sin tener que dedicarle mucho tiempo, recursos, ni esfuerzo; facilitando así, la incursión a una mayor cantidad de experimentos permitiendo un mejor entendimiento de las reacciones de la variable de interés provocadas por diferentes factores. En los últimos años se han realizado muchas investigaciones en procesos productivos, utilizando estos dos instrumentos a la vez. Algunas de estas investigaciones científicas se han hecho públicas y de esta forma la aplicación del Diseño de Experimentos con Simulación se ha hecho cada vez más popular y la información respecto a este tema así como su aplicación, es muy variada. Existen varios autores y documentos respaldando y fomentando la combinación de estas dos poderosas herramientas como es el caso, de Daniel Villareal, Director de Decisiones Inteligentes, SA DE CV y representante exclusivo de ProModel Corporation en México, en su ensayo “Simulación y Optimización de Procesos Discretos y Continuos: Estado del Arte y Tendencias” [13], donde menciona explícitamente que deben incluirse, hoy en día, el Diseño de Experimentos en conjunto de la Simulación dentro del pensum

    edu.red

    académico de las Universidades e Instituciones que se ocupan del campo de la Ingeniería Industrial. En cuanto a papers que han tratado este tema existe “Designing Simulation Experiments” [1], donde Russell R. Barton propone algunas técnicas para la planeación de una serie de corridas, con el objetivo de tener cierta intuición sobre el comportamiento del sistema. Barton en conjunto con W. David Kelton introducen ideas, temas, retos, soluciones y oportunidades para decidir como experimentar con modelos de simulación y aprender sobre su comportamiento, en su ensayo “Experimental Design for Simulation” [6], ellos aseguran que la planeación y el diseño de una simulación experimental ahorra mucho tiempo, esfuerzo proveyendo una eficiente forma para estimar efectos de la información de salida provocados por los cambios de datos de entrada. Susan M. Sánchez en su ensayo “Work Smarter, Not Harder: Guidelines for Designing Simulation Experiments” [11], menciona la importancia actual del uso de la simulación para el diseño experimental, ya que permite al analista examinar muchos más factores que lo que hubiera logrado bajo otros métodos, mientras permite hacerse una idea que comúnmente no podrían ser concebidos a prueba y error o mediante muestreos de un solo factor a la vez. Cada vez la aplicación de estas dos herramientas se hace más común y necesaria para lograr una correcta toma de decisiones, en cualquier aspecto y bajo cualquier circunstancia; como lo demuestran Kaushik Balakrishnam, Sam Anand y David Kelton en su ensayo “Integrating Simulation and Design of Experiments to Identify Factors for Layout Design” [5], donde su objetivo es diseñar eficientemente un layout llevando a cabo un diseño experimental factorial full entre los diferentes factores que pudieran afectar su productividad. Su análisis ayuda a identificar los factores más significativos que afecten al tiempo de una parte en el sistema y finalmente diseñar las nuevas instalaciones de la planta eficientemente. Actualmente existe una gran variedad de información y aplicaciones, promoviendo el empleo de esta relativa nueva tendencia; usando estos dos métodos de forma simultánea, aprovechando las ventajas de un método para superar los obstáculos del otro, y así optimizar los recursos para lograr tomar decisiones de forma más confiable y eficiente. 2.3. Simulación y Optimización Las herramientas de simulación son comúnmente empleadas para predecir y mejorar el desempeño de un sistema o para establecer las relaciones entre varios elementos del sistema. Al modelar la situación actual de unas instalaciones o un sistema, uno puede llevar acabo análisis de prueba y error, para determinar la forma más óptima para mejorar el desempeño del sistema. A esto se le llama, proceso de optimización [10]. Optimización es el proceso de probar diferentes combinaciones de valores para ciertas variables que puedan ser controladas, para buscar la combinación de valores que provea la mejor salida deseada del modelo de simulación [4]. El modelo de simulación puede ser considerado como una caja negra que imita un sistema real. Cuando se presentan entradas a la caja negra, esta produce salidas que estiman cómo responderá el sistema real. Las entradas son comúnmente llamadas Variables de Decisión o Factores. La medida de desempeño de interés se calcula de las salidas estocásticas del modelo de simulación cuando las variables de decisión se encuentran fijadas a ciertos valores específicos. La medida del desempeño es comúnmente llamada la Función Objetivo [4]. El valor esperado de la Función Objetivo es estimado promediando las salidas del modelo obtenidas de múltiples réplicas o grupos de intervalo. El problema de Optimización de una simulación se encuentra formalmente establecida como: MIN ó MAX E[f(X1, X2, …, Xn)] Sujeto a: Limite Inferiori = Xi = límite Superiori ; para i = 1, 2, …, n donde E[f(X1, X2, …, Xn)] es el valor esperado de la función objetivo [4]. La búsqueda de la solución óptima puede llevarse a cabo de forma manual o automática, con algoritmos específicamente diseñados para buscar la solución óptima sin tener que evaluar todas las posibles soluciones. Relacionar algoritmos de optimización que pueden generar soluciones automáticamente y evaluarlas en modelos de simulación es un esfuerzo que vale la pena porque: ? Automatiza parte del proceso de análisis, ahorrando una gran cantidad de tiempo al analista. ? Se utiliza un método lógico para explorar eficientemente el conjunto de posibles soluciones, encontrando la mejor de ellas. ? El método generalmente encuentra varias soluciones ejemplares para ser consideradas por el analista [4]. Si la salida del modelo de simulación para todos los posible valores de las variables de decisión son registradas y graficadas, el gráfico resultante se llamaría superficie de respuesta. Para problemas con uno o dos variables de decisión, la solución óptima sería fácilmente identificada. Sin embargo, cuando existen más

    edu.red

    de dos variables de decisión, es mucho más complicado visualizar la superficie de respuesta, debido a que hay demasiadas soluciones a evaluar en una cantidad de tiempo razonable. Por esto, se debe encontrar un balance entre encontrar la solución óptima y el tiempo empleado para realizar la búsqueda [4]. Debido a esto, se han llevado a cabo numerosas investigaciones para encontrar métodos de optimización que puedan encontrar la solución óptima de forma rápida, segura y sin tener que enumerar cada una de las posibles alternativas; lo cual ha sido un poco complicado debido a la complejidad y aleatoriedad de los problemas de la vida real. Las superficies de respuesta producidas por modelos de simulación estocásticos pueden ser nolineales, multimodales y con mucho ruido; pueden contener variables de decisión tanto discretas como continuas y puede no proveer observaciones independientes e idénticamente distribuidas [4]. Existen Técnicas Heurísticas que proveen buenas soluciones o incluso unas muy cercanas a la óptima, dentro de una cantidad de tiempo razonable; pero el problema es que puede no siempre encontrar la solución óptima a un problema. Las Técnicas Directas trabajan, como su nombre lo dice, directamente con las salidas generadas desde el sistema de interés y no requiere información adicional sobre las funciones que generan estas salidas. Estas técnicas son ideales para optimización cuando no se tienen los modelos matemáticos del sistema, cuyos gradientes pueden ser calculados para guiar la búsqueda de la solución óptima; o cuando el costo de estimar o calcular dicho gradiente es elevado. Lo cual es comúnmente el caso de un modelo de simulación estocástico [4]. Los investigadores inmediatamente notaron los beneficios de combinar la simulación y las técnicas directas de búsqueda. Por ejemplo, Pegden y Gately (1977) desarrollaron un módulo de optimización para el software de simulación GASP IV. Su paquete de optimización estaba basado en una variante del método de búsqueda directa desarrollada por Hooke y Jeeves (1961) [4]. Los algoritmos de búsqueda directa han mejorado considerablemente en la actualidad para la optimización de modelos de simulación. Usando estos nuevos algoritmos, la herramienta de optimización para modelos de simulación SimRunner fue desarrollada en 1995, cuyo diseño del módulo de optimización está basado en algoritmos evolutivos, la cuál es una técnica de búsqueda directa; e inmediatamente otros dos vendedores de software de simulación añadieron el paquete de optimización a sus productos, estos son OptQuest96 introducido en 1996 usado con modelos de simulación construidos con el software Micro Saint, y actualmente con modelos desarrollados con ProModel; y Witness Optimizer introducido en 1997 y usado con modelos de simulación desarrollados en el software Witness [4]. 2.4. SimRunner como Herramienta de Optimización En 1995, ProModel Corporation y Decision Science, Incorporated, desarrollaron SimRunner basados en las investigaciones del Dr. Royce Bowden (1992) sobre modernos algoritmos de optimización, para optimización basada en simulación y aprendizaje de máquinas. SimRunner ayuda a utilizar conceptos avanzados de optimización para buscar la mejor solución partiendo del modelo de simulación, utilizando el método basado en algoritmos evolutivos [4]. 2.4.1. Algoritmos Evolutivos Un algoritmo evolutivo es una técnica de optimización numérica basada en la evolución de la simulación. Se lo llama evolutivo debido a que la forma en que trabaja esta técnica está basada en el concepto de la teoría evolutiva de las especies, en la que se manifiesta que las especies deben adaptarse a su medio para sobrevivir. El algoritmo evolutivo manipula una población de soluciones a un problema de tal forma que las malas soluciones van desapareciendo y las buenas soluciones evolucionan continuamente en busca de la respuesta óptima [10]. Los Algoritmos Evolutivos difieren de las tradicionales técnicas de optimización nolineal en varios aspectos. La diferencia más significativa es que buscan la superficie de respuesta usando una población de soluciones, en lugar de una simple solución. Esto le permite a los Algoritmos Evolutivos recoger información acerca de la superficie de respuesta desde varios puntos diferentes de forma simultánea. Los Algoritmos Evolutivos usan la información registrada de múltiples lugares de la superficie de respuesta, en lugar de un simple punto, para guiar la búsqueda de la solución óptima. Esta aproximación de la población incrementa las oportunidades de encontrar la solución óptima global. Diferentes investigaciones se han llevado a cabo para demostrar la característica convergente de los Algoritmos Evolutivos y para desarrollar pruebas matemáticas para la convergencia global (por ejemplo ver Bäck y Schwefel 1993) [4]. El funcionamiento de los Algoritmos Evolutivos puede ser descrito de forma general en estos cuatro pasos: Paso 1: Generar una población inicial de soluciones al problema distribuyéndolas a través de todo el espacio de soluciones. Paso 2: Calcular con precisión la concordancia de cada solución. Paso 3: Basado en la concordancia de las soluciones, seleccionar las mejores y aplicar operadores genéticos tipo idealizados

    edu.red

    para producir una nueva generación de soluciones. Paso 4: Regresar al Paso 2 mientras el algoritmo siga encontrando mejores respuestas [4]. Para ayudar a entender el funcionamiento del proceso de optimización de SimRunner se utilizará la siguiente analogía de unos exploradores que tratan de encontrar la cima de una montaña. Si un grupo de exploradores se encuentra en las faldas de la montaña, en la oscuridad, sin nada más que radios y altímetros, ¿cómo se encontraría la cima? [10] El primer paso sería establecer la altitud actual de cada uno de los exploradores, registrando la lectura de lo altímetros de cada uno [10]. Después, se ordenaría a los exploradores a deambular en cualquier dirección por una cierta distancia, después se detienen y se registran los nuevos valores del altímetro. En la segunda lectura se verá que algunos exploradores ahora se encuentran más abajo y algunos más arriba que antes [10]. Comparando las lecturas de cada uno de los altímetros, se puede determinar la dirección general por la cual seguir. Ya que se quiere llegar a la cima de la montaña, se sigue la dirección general de aquel que haya tenido la lectura más alta (en este caso el explorador número 2). Nuevamente, después que todos se movieron una cierta distancia, se vuelven a detener y se registras las nuevas lecturas del altímetro [10].

    edu.red

    Si se promedian las nuevas lecturas de los altímetros de cada uno de los exploradores, se verá que lectura grupal ha aumentado. Esto confirma que se están moviendo en la dirección correcta, pero sólo para asegurarse se repite el proceso y se toman nuevas lecturas [10]. Se puede notar, en este ejemplo, que todo el grupo de exploradores está empezando a converger en un solo punto. Mientras más se repita el proceso de recolección de lectoras (información), más cerca estará el grupo uno de otro, y con mayor certeza se estará sobre la cima o por llegar a ella. Y sólo para asegurar que se está en el lado indicado, se enviarán miembros del grupo a partes remotas del terreno para asegurarse que no hay otro lugar más alto que el que ya se ha identificado [10]. Una vez que el promedio de las lecturas grupales iguala a la mejor lectura del grupo, es porque se ha encontrado la cima y se puede asegurar que se ha alcanzado la meta [10].

    edu.red

    Conceptualmente, esta es la forma en que funciona SimRunner, sólo la terminología es diferente. En lugar de altímetros, exploradores y pruebas, se utilizan funciones objetivo, factores de entrada y réplicas. Cada vez que los exploradores se mueven, SimRunner llama a esto una generación[10]. Por su forma de operación, varios investigadores, entre ellos, Biethahn y Nissen (1994), Bäck et al. (1995), y Bäck y Schwefel (1993), reportaron que los Algoritmos Evolutivos son muy apropiados para la optimización por las siguientes razones: ? No requieren asunciones o conocimiento previo sobre la topología de la superficie de respuesta que está siendo buscada; haciéndolos así, técnicas ampliamente aplicables. ? Son muy apropiadas para problemas con superficies de respuesta que son altamente dimensionales, multimodales, discontinuas, nodiferenciables, y estocásticos, e incluso para problemas con superficies de repuesta móviles o dinámicas. ? Son técnicas de búsqueda muy fiables y relativamente fáciles de usar [4]. Una potencial desventaja de usar Algoritmos Evolutivos para la optimización de simulación es que algunas veces requiere evaluar muchas soluciones; esto significa realizar un nuevo enlace con el modelo de simulación, lo que podría ser un obstáculo si el tiempo para los cálculos computacionales es limitado. Y existe una remota posibilidad que el algoritmo se confunda converja prematuramente a uno de los varios óptimos locales, debido al ruido de la superficie de respuesta. A pesar que SimRunner es un optimizador fácil de usar y una herramienta muy fiable para encontrar la solución óptima, no hay que caer en la trampa de dejarlo convertir en el tomador de las decisiones; se debería estudiar y analizar las mejores soluciones presentadas por el software, ya que no existe una perfecta ni completa garantía que la mejor solución encontrada por SimRunner es de hecho la solución óptima al problema. Por lo tanto, hay que recordar siempre que los optimizadores no son los tomadores de decisión, sólo sugieren una posible ruta para la acción y es responsabilidad del analista tomar la decisión final [4].

    CAPÍTULO 3

    3. DESCRIPCIÓN Y VALIDACIÓN DEL MODELO DE SIMULACIÓN 3.1. Descripción del Proceso La fábrica de electrodos produce actualmente nueve tipos de electrodos de diferentes diámetros, uno de ellos es del tipo celulósico, ya que su revestimiento es a base de celulosa; y los restantes son denominados especiales, ya que utilizan comp

    Partes: 1, 2, 3, 4
    Página siguiente