ESCUELA SUPERIOR DE INGENIEROS DE SEVILLA
ESTUDIO DE LA SITUACIÓN ACTUAL EN ESPAÑA DEL
DISEÑO ROBUSTO, Y APLICACIÓN DE SU METODOLOGÍA A
UNA EMPRESA DEL SECTOR AERONÁUTICO A TRAVÉS DE
LAS HERRAMIENTAS VMEA Y DISEÑO DE EXPERIMENTOS
Autor: María Cristina Ramiro González
Tutor: Juan Manuel González Ramírez
ÍNDICE
1. Marco del Proyecto 1 2. Antecedentes 3 3. Objetivos 6 4. El Método del Diseño Robusto 7 4.1. La Variación en la Industria 8 4.2. Definición de Diseño Robusto 9 4.3. Marco Histórico del Diseño Robusto 13 4.4. Objetivo del Diseño Robusto 15 4.5. Situación actual del RDM en España 16 4.5.1. Encuesta del RDM 16 4.5.2. Método 17 4.5.3. Estado del RDM en España 19 4.5.3.1. Introducción 19 4.5.3.2. Resultados de la encuesta 20 4.5.3.3. Conclusiones 46 4.5.4. Estado del RDM en Europa 47 4.5.4.1. Resultado de la encuesta 47 4.5.4.2. Conocimiento y uso del RDM 48 4.5.4.3. Factores que soporta el RDM 50 4.5.4.4. Uso de Métodos de soporte 52 4.5.4.5. Variación en las características del producto 55 4.5.4.6. Discusión de resultados 59 4.6. Variación y características del producto 60 5. Six Sigma 62 5.1. Marco histórico 62 5.2. Objetivo 65 5.3. Definición 67 5.4. Formación y entrenamiento 73 5.5. Medición de la calidad 78 5.6. Beneficios 85 6. El Análisis Modal de Variaciones y Efecto 86 6.1. Introducción 86 6.2. Objetivo 89 6.3. Análisis Modal de Variaciones y Efectos 90 6.3.1. Paso 1 93 6.3.2. Paso 2 97 6.3.3. Paso 3 98 6.3.4. Paso 4 99 6.4. Justificación formal del VMEA: Método de los Momentos 101 6.5. Una aplicación industrial 106 6.6. Discusión del Método 112
7. El Diseño de Experimentos 113 7.1. Antecedentes 113 7.2. El Análisis del Proceso 114 7.2.1. Hoja de Control: Construcción 118 7.3. El Control Estadístico del Proceso 124 7.3.1. La Distribución Normal 126 7.3.2. Límites de control y especificaciones. Exactitud y Precisión 130 7.4. La Capacidad del Proceso 133 7.5. Diseño de Experimentos: Taguchi 138 7.5.1. Introducción 138 7.5.2. Objetivos 140 7.5.3. El Método Taguchi 141 7.5.4. Beneficios 149 8. Caso Práctico 150 8.1. Introducción 150 8.2. Antecedentes y Objetivo 156 8.3. Causas de la Variación 157 8.4. Implantación 158 8.4.1. Equipo de trabajo 158 8.4.2. Formación 160 8.4.3. Implantación VMEA 161 8.4.4. Implantación DoE 183 8.5. Estudio de resultados y conclusiones 206 9. Beneficios 210 10. Bibliografía 212 11. Anexo: Formación 213 11.1. VMEA 214 11.2. DoE 222 11.3. Tabla de la Normal 246
Marco del Proyecto 1
1. MARCO DEL PROYECTO Este proyecto forma parte de un proyecto europeo, que a su vez está dentro del marco
de un proyecto internacional en el que tienen una participación muy fuerte Estados
Unidos y Japón. El europeo está integrado por 15 participantes de 6 países, y suponen
una representación diversificada de compañías, universidades e institutos de
investigación de la UE.
La Metodología del Diseño Robusto para reducir la variación es originaria de Japón y
ha sido aplicada ampliamente allí y cada vez más en Estados Unidos. En cambio en
Europa su uso es limitado, el método tal y como se ha desarrollado en Japón y EEUU
no ha sido capaz de adaptase a las compañías europeas. Sería importante desarrollar una
metodología mejorada que se adapte a las necesidades de los procesos de desarrollo del
producto europeo.
El objetivo entonces del proyecto es proveer a la industria europea con una
metodología para reducir la sensibilidad a las variaciones en los productos y los
procesos. La meta es desarrollar nuevas herramientas innovadoras de la ingeniería de
diseño.
El esquema de trabajo de este proyecto, (ver Figura 1) se viene desarrollando desde
hace año y medio y aún le queda un año para finalizar, de forma que mi participación en
él está enfocada en una parte, concretamente en el estudio de la situación actual en
España del Diseño Robusto y la elección de una empresa para aplicar dichos
conocimientos y dos de sus herramientas más comunes, VMEA y Diseño de
Experimentos.
Marco del Proyecto 2
Figura 1. Esquema de trabajo en el tiempo del proyecto europeo.
Material
VMEA DOE
Simulación y Tests
Gestión de las tolerancias
Modelo de desarrollo de Integración
Operadores
Equipos Entorno
Clientes
Nuevas herramientas de análisis
Antecedentes 3
2. ANTECEDENTES En los últimos años la reducción de la variabilidad de cualquier característica de calidad
(longitud, peso, temperatura, concentración, etc.), se ha convertido en la preocupación
de los ingenieros de diseño, fabricación y cualquier profesional de la calidad. Hay una
razón para ello: al cliente, tanto externo como interno, no le basta con que los valores de
un determinado parámetro del producto que recibe estén dentro de los límites de
especificación; el cliente exige uniformidad del producto, no unidades que varíen de una
a otra aunque estén dentro de dichos límites. Cuanto más se aleja la característica del
producto de los límites inferior y superior de especificación, mayor es la insatisfacción
del cliente. Estamos refiriéndonos entonces a que al producto se le exige exactitud y
precisión.
Sólo cuando la característica de calidad alcanza su valor objetivo la insatisfacción del
cliente es nula. Y sólo entonces se puede hablar de Calidad Total.
Por otra parte, la indiferencia ante la variabilidad por parte de la empresa origina
desechos, reparaciones y reprocesados que son necesarios para mantener el producto
dentro de especificación. Ambos factores: insatisfacción del cliente y los costes
derivados de esos desechos y reprocesados, determinan un bajo valor de los productos
que es imprescindible mejorar.
Actualmente, los desafíos que deben afrontar las compañías en un ambiente competitivo
son muchos:
• El impulso para minimizar el tiempo de preparación del producto hasta que sale
al mercado (TTM-Time to Market). Los ciclos de vida del producto se están
acortando, llevando a la necesidad de lanzar productos más rápidamente. Esto es
una verdad particular de los productos tecnológicos.
• La necesidad de robustez en los productos y los procesos, la habilidad de ser
capaz de hacer entrega de productos y procesos con un nivel de calidad Six
Sigma consistente.
• El cliente no quiere ninguna variación entre diferentes unidades del mismo
producto. Así que es importante producir productos que siempre cumplan con
las características especificadas. Esto será un problema siempre que al producto
Antecedentes 4
le afecten las fuentes de variación, a las que nos referiremos como ruido o
factores de ruido (NFs, Noise Factors), y que pueden causar variaciones en las
características.
Estos desafíos requieren algunas iniciativas tecnológicas, sociales y de gestión para
dirigirlos.
Por el momento disponemos de la metodología del Six Sigma y de la Metodología del
Diseño Robusto (RDM, Robust Design Methodology), la diferencia entre ellas es que la
primera hasta ahora se ha centrado principalmente en minimizar la variación en la
producción, y la segunda está principalmente enfocada en minimizar la variación
durante el diseño de los productos y los procesos. Sin embargo un concepto
relativamente nuevo relacionado con la Six Sigma, llamado Diseño para la Six sigma
(DFSS), ha aparecido y guarda una gran semejanza con la Metodología de Diseño
Robusto. La Six Sigma se usa para reaccionar ante eventos no deseados y solucionarlos,
mientras que el DFSS se usa para prevenir eventos no deseados. Lo que ocurre es que es
un concepto nuevo y aún falta por desarrollarlo, sobre todo es conceptual. Es por eso
que el Diseño Robusto se debe realizar siempre desde un marco de trabajo como el de la
Six Sigma.
Por otro lado, hay dos estrategias básicas para controlar el efecto de los factores de
ruido. El primero es controlar los factores de ruido, y el segundo es crear un diseño
robusto en el que los factores de ruido no tengan efecto sobre el funcionamiento. Un
fundamento para usar la segunda estrategia más que la primera es que los factores de
ruido algunas veces son imposibles de controlar o resulta demasiado caro. Una
herramienta de la que disponemos para lograr esta insensibilidad ante las variaciones es
el Análisis Modal de variaciones y Efectos (VMEA, Variation Mode and Effects
Analysis). Básicamente consiste en que las Características Clave del Producto (KPCs,
Key Product Characteristics) y las Sub-Características Clave (Sub-KPCs) son elegidas
por los expertos en ingeniería, también son definidos los factores de ruido o fuentes de
variación, además del tamaño de su variación. Para cada Sub-KPC se calcula un Valor
de la Prioridad del Riesgo de la Variación (VRPN) y de ahí se deducirá la Sub-KPC
más importante o crítica del proceso en cuestión.
Antecedentes 5
Finalmente, en orden a descubrir la influencia de las variaciones de los parámetros de
entrada en la respuesta, es necesario combinar técnicas de simulación con métodos
estadísticos. Un planteamiento es usar métodos clásicos como el Diseño de
Experimentos (DoE, Design of Experiments) como diseño factorial en asociación con
técnicas de simulación para evaluar la influencia de diferentes parámetros de entrada en
los resultados de la simulación. Primero, los parámetros de entrada críticos y los
parámetros de salida más relevantes son identificados con el VMEA, después de esto,
el enfoque del DoE propondrá un número de experimentos que necesitarán ser
evaluados. Por lo general se combinan valores altos y bajos para los parámetros de
entrada por razones prácticas: los parámetros de entrada normalmente no pueden ser
controlados con mucha precisión, pero sí se pueden ajustar el valor más alto y más bajo.
Como los parámetros de salida están relacionados con los parámetros de entrada,
después de realizar las pruebas, estudiando los resultados se tratará de diseñar el
proceso a través de la elección de las variables de entrada que den los mejores datos de
salida, o lo que es lo mismo, el producto más robusto y uniforme y que se ajuste mejor a
las especificaciones de calidad.
Objetivo 6
3. OBJETIVO La variación es común en todos los procesos de fabricación y en todos los ambientes de
trabajo. Gestionar la variación es el principio fundamental que respalda la filosofía Six
Sigma, y que a su vez es el marco de trabajo del que parte el Diseño Robusto.
El Diseño Robusto es un Metodología (RDM, Robust Design Methodology)
encaminada a encontrar la mejor combinación posible de los parámetros de diseño,
haciendo el funcionamiento del producto (entiéndase las características clave del
producto, KPCs) tan insensible como sea posible a la acción de los factores de ruido,
NFs. En este contexto, el VMEA permite a los ingenieros centrarse en los NFs, sus
magnitudes y traspasarlas a las KPCs por una secuencia de sensibilidades
interrelacionadas.
Esto facilitará una planificación experimental para el diseño robusto, como es el caso
del uso del Diseño de Experimentos, que nos llevará a poder diseñar el proceso que dé
el producto óptimo, exacto y preciso.
Resumiendo, el propósito de este proyecto es desarrollar una metodología del diseño
robusto a través del uso de herramientas como el VMEA y el DoE, con la idea de
diseñar un proceso que nos lleve hacia un producto robusto, insensible ante las
variaciones de los parámetros de entrada, y conseguir la uniformidad de éste dentro de
una misma partida. Como consecuencia tendremos:
� La satisfacción del cliente.
� La reducción de costes por reparaciones, desechos y reprocesados de los
productos defectuosos.
Para ello, antes de implantar ninguna metodología, presento un estudio sobre la
situación actual en España del Diseño Robusto.
La Metodología del Diseño Robusto 7
4. LA METODOLOGÍA DEL DISEÑO ROBUSTO 4.1 La Variación en la Industria Desde siempre, la sensibilidad de los procesos y los productos a la variación ha causado
grandes gastos en la industria y en la sociedad, un estudio muestra que los costes
debidos a la variación y a las deficiencias en la calidad suponen una pérdida en las
ventas totales de un 20-30 %.
En la industria una variación no deseada es un problema serio. De esto ya se dio cuenta
Walter A. Shewhart en los años treinta, pero todavía hoy es una realidad como queda
reflejado en la cantidad de ahorros que hacen numerosos programas de reducción de la
variación. En estos programas, siempre llevados a cabo bajo la dirección de las Six
Sigma, se ahorran billones de dólares al año, además de una mejora de la fiabilidad y un
aumento de la satisfacción del cliente. Aunque tradicionalmente el principal enfoque de
estos programas ha sido la reducción de la variación en la fabricación, en los últimos
años se ha observado un creciente interés en gestionar la variación en fases más
tempranas del desarrollo del producto. Para lograr esto con éxito, los factores de ruido
deberían ser identificados y examinados en términos de sus impactos en las
características principales del producto.
Una identificación sistemática de los factores de ruido juega un papel crítico en el
diseño de productos robustos. Para facilitar los procesos e identificación y valoración,
se requiere un método estructurado. A pesar del hecho de que hay un número de
métodos sistemáticos, incluyendo el Análisis del Modo de Fallo y Efecto (FMEA),
Análisis del Árbol de Fallo (FTA), y el Desarrollo hacia abajo de las Característica
Clave (KFC) usados en diferentes industrias, todos tienen sus limitaciones cuando se
trata de gestionar la variación no deseada en el desarrollo de un producto robusto. Por
ejemplo, lo que ocurre con el Análisis Modal de Fallos y Efecto (FMEA, Failure Mode
and Effects Analysis) tiene un efecto limitado, donde se estudia un tipo de variación
específico, el fallo de una parte o de un componente. El Diseño Robusto toma la
filosofía básica del FMEA y la transforma radicalmente a través del desarrollo del
Análisis Modal de Variaciones y Efectos (VMEA, Variation Mode and Effects
Análisis). Este investigará cómo las fuentes de variación hacen impacto sobre la
robustez de los productos y los procesos. Se desarrolla una metodología y se comprueba
y experimenta con ella, y como consecuencia se usará el VMEA como herramienta de
La Metodología del Diseño Robusto 8
trabajo que puede ser aplicada ampliamente en la industria para mejorar su
productividad.
La Metodología del Diseño Robusto 9
4.2 Definición de Diseño Robusto Taguchi llama ruido a cualquier cosa que causa que una característica de la calidad se
desvíe de su objetivo, el cual a su vez causa una pérdida de la calidad. Ruido es
variabilidad.
Factores de ruido son los factores que causan variaciones, son generalmente
incontrolables. Ej. La temperatura, altura, nivel de combustible, son considerados
factores externos de ruido porque ocurren fuera del producto; partes críticas de la
maquinaria que se deterioran, y la variabilidad pieza a pieza en los componentes
fabricados de un coche.
Un buen diseño es aquel que traslada completamente y con éxito las
especificaciones y necesidades del cliente a las características de funcionamiento del
producto o proceso. En este sentido, un buen ingeniero de diseño debería ser capaz de
desarrollar el traslado de características comentado y de hacer cumplir con su función al
producto/ proceso según las necesidades del cliente, a pesar del ruido esperado.
Un artículo con buena calidad es aquel que realiza sus funciones intencionales sin
variabilidad, y causa pequeñas pérdidas a través de los defectos de tipo dañinos, incluso
el costo de usarlo. Si el control de costo se preocupa por reducir las diferencias antes de
que el producto sea enviado, el control de calidad se preocupa por reducir los dos tipos
de pérdidas que puede causar a la sociedad después de que se envía.
El modo más efectivo de evitar los efectos perjudiciales de la variación y su
habilidad para afectar a las expectativas de los clientes, es diseñar productos y procesos
de forma que disminuya la sensibilidad de éstos productos a la variación y sin incurrir
en gastos extra. La Metodología del Diseño Robusto (RDM, Robust Design
Methodology) es una forma de hacerlo.
El Diseño Robusto es la sostenibilidad de las salidas (Ys) a través del control basado en
las variaciones (Xs).
Con objeto de utilizar el RDM de una manera más efectiva para lograr esta meta,
es importante conocer las fuentes de variación de importancia para la satisfacción y la
insatisfacción del cliente.
La Metodología del Diseño Robusto 10
El Diseño Robusto tiene dos dimensiones:
1) Comprender las necesidades del cliente y lo que espera.
2) Conocimiento del riesgo que se corre cuando se toman ciertas decisiones
(elemento de compensación entre la calidad y los costes). Brevemente, esto
consiste en lograr los objetivos de calidad fijados teniendo en cuenta los costes
admisibles.
La influencia de las fuentes de variación en las características del producto puede
ser minimizada por dos estrategias principales. La primera es eliminar las fuentes de
variación. Sin embargo, esto es a menudo caro y algunas veces imposible, porque puede
que se desconozcan las fuentes de variación o sean incontrolables. La segunda estrategia
es diseñar productos insensibles a la variación. La última estrategia es el principio
subyacente del RDM. Esta metodología es un marco de trabajo para el diseño del
producto y el proceso más que un método específico. El marco está basado en la
conciencia de la variación y la importancia de diseñar productos y procesos que sean
insensibles a la variación.
Un diagrama en bloque facilita la comprensión del diseño robusto como concepto, ver
Figura 2. El diagrama de bloque muestra factores que afectan a un producto y a menudo
se refieren al diagrama-P. El diagrama modela el producto como una caja afectada por
tres tipos de parámetros (o factores): factores de señal, factores de ruido y factores de
control. Estos factores afectan a la respuesta del producto, i.e. cómo el producto lleva a
cabo su función deseada. Dos tipos de factores en la Figura 2 son controlables: factores
de señal, fijados por el usuario a un nivel que corresponda con la respuesta deseada, y
factores de control que son fijados por el diseñador. Los factores de ruido, por otro lado,
son incontrolables en condiciones naturales de uso.
La Metodología del Diseño Robusto 11
Figura 2. Diagrama-P, de Phadke (1989)
La categorización de los factores de ruido es común en la literatura del RDM. Las
categorías propuestas por varios autores son bastante similares; los factores de ruido se
dividen en tres grupos: variaciones en las condiciones de uso, variación en la
producción y deterioro. Ejemplos de variaciones en las condiciones de uso pueden ser
la temperatura, la presión del aire o la humedad del aire; la variación de la producción
puede ser ilustrada por el cambio de los operadores o variaciones en los materiales de
entrada; y el deterioro por el uso o envejecimiento del material.
Taguchi describe dos formas de controlar la variación, llamadas on-line y off-line. Los
esfuerzos On-Line se refieren a una medida contra los factores de ruido aplicada en la
producción y fabricación de productos, Ej. Desechar productos que varían demasiado en
términos de sus características. Por otro lado los esfuerzos Off-Line se aplican durante
el diseño de los productos y los procesos. En la tabla se refieren estos diferentes tipos de
esfuerzos a su utilidad como medidas contra las tres categorías de factores de ruido
antes mencionados. Aunque los esfuerzos on-line y off-line son complementarios, las
medidas off-line son preferibles porque permiten conseguir la robustez para todo tipo de
categorías de factores de ruido, como se muestra en la Tabla 1.
Producto O
Proceso
Factores de ruido
Factores de señal
Factores de control
Respuesta
La Metodología del Diseño Robusto 12
Categorías de Ruido
Variaciones
en la
Producción
Variaciones en las
condiciones de
uso
Deterioro
Diseño de Producto X X X Off-Line
Diseño de Procesos X
On-Line Producción X
Tabla 1. Categoría de Factores de Ruido
En términos de los factores discutidos, el propósito del diseño robusto es hacer las
respuestas insensibles a los factores de ruido seleccionando unos niveles apropiados de
los factores de control. De ahí que la conciencia y el conocimiento de los factores de
ruido que afectan al producto sean tan importantes cuando se desarrollan productos
robustos.
La Metodología del Diseño Robusto 13
4.3 Marco Histórico del Diseño Robusto La Metodología del Diseño Robusto (RDM) está logrando una atención creciente.
Genichi Taguchi desarrolló inicialmente el RDM en Japón en los años cincuenta,
basándose en las ideas del Diseño de Experimento y en una nueva percepción de que la
Variación es una variable de respuesta al menos tan importante o incluso más que la
Media. Las primeras aplicaciones aparecieron en la industria estadounidense a
principios de los ochenta, donde con el tiempo se integró en las principales corrientes
estadísticas usadas en la industria. Este proceso de integración está en curso y
recientemente está siendo objeto de una amplia atención debido a los programas de
mejora usados en la industria, como la Six Sigma y el Diseño para la Six Sigma. Ha
llegado a ser más y más claro para los líderes de la industria el hecho de que la robustez
tiene que ser introducida en una fase temprana del los procesos de desarrollo del
producto. Un marco de trabajo para el Diseño Robusto generalmente reconocido es el
que desarrollaron Clausing y Cohen (2000), llamado Ingeniería de Sistemas
Comerciales (Comercial Systems Engineering). Este identifica 3 fases en el desarrollo
del sistema: Requisito, Concepto, y Mejora (RCI- Requirement, Concept,
Improvement).
El enfoque de Taguchi está en el diseño del sistema, el diseño de parámetros y el diseño
de tolerancias, que se relacionan ante todo con el aspecto de la Mejora del RCI.
Han habido algunos trabajos teóricos en la aplicación del RDM a los aspectos del
Requisito y el Concepto del RCI, sin embargo los procesos de desarrollo de la
industria actual están aún muy verdes. Hay una necesidad de investigación empírica y
de desarrollo para superar las aparentes dificultades para la industria a la hora de
asimilar estas ideas.
Además de Taguchi, Phadke, Kackar , Box y Jones han contribuido de forma
significativa a establecer el RDM como una metodología para mejorar la calidad del
producto y el proceso. Como argumentaron Nair, Fowlkes y Creveling, el RDM es un
marco de trabajo más que un método específico. Este marco está basado en la
conciencia de la variación y la importancia de diseñar productos y procesos insensibles
a la variación.
La Metodología del Diseño Robusto 14
En la tradición europea, esta nueva percepción ha tenido problemas a la hora de
penetrar en los procedimientos de operación de las compañías europeas. Algunas
razones posibles son:
• Nunca estuvieron en la agenda de trabajo de los ingenieros de desarrollo,
dejando ésto como algo para el especialista.
• Síndrome del “no inventado aquí”, “algo para los japoneses”.
• Fue pensado para ser demasiado matemático y enfocado en parámetros limitados
que pierden la visión total.
La naturaleza de los métodos es probablemente una de las razones por la que son más
aceptados en la cultura industrial japonesa, más estructurada, y por qué son más
desatendidos en Europa.
Otro ejemplo de la insuficiente cobertura de la Metodología del Diseño Robusto para el
proceso de desarrollo es la ausencia de herramientas prácticas simples para analizar un
nuevo producto en sus fases tempranas de desarrollo. Se podrá hacer un análisis con
nuestro método propuesto en este documento, el Análisis Modal de variaciones y Efecto
(VMEA).
La Metodología del Diseño Robusto 15
4.4 Objetivo del Diseño Robusto La robustez se evalúa en las compañías de forma interna de acuerdo con el nivel de
calidad fijado como meta y con el objetivo fijado, la sostenibilidad de la calidad y la
estrategia de la compañía. Más aún, también es evaluada externamente según la
reducción de los costes.
Como veníamos diciendo, supone un marco de trabajo para mejorar la calidad del
producto y el proceso ante la variación. El propósito del Diseño Robusto es asegurar
que el producto cumple con su función requerida de forma consistente, a pesar de las
distintas formas de uso y de la variabilidad.
Como resultado de la aplicación de esta metodología se pretende conseguir una
disminución de costes del desarrollo del producto, un aumento de la productividad,
fiabilidad y satisfacción del cliente, y por lo tanto un aumento de la competitividad.
Para una compañía supondrá: Éxito a largo plazo de la organización por una
satisfacción continua y equilibrada de las necesidades y expectativas de todos los
grupos (clientes, sociedades y alianzas, y toda la cadena desde lo más alto hasta los
operarios), todo ello gracias a una alta calidad y tecnología basada en la innovación.
VMEA DoE INSENSIBILIDAD
La Metodología del Diseño Robusto 16
4.5 Situación actual del RDM 4.5.1 Encuesta del RDM El RDM ha sido discutido ampliamente y han sido presentadas varias aplicaciones
industriales de la metodología. Esto quizá se dirija a la idea de que el RDM se usa
frecuentemente en la industria. Sin embargo, los estudios del uso industrial o los
conocimientos del RDM revelan que las aplicaciones prácticas son relativamente raras.
Los resultados de un estudio de la aplicación de las herramientas de desarrollo del
producto en Reino Unido mostraron que sólo el 18% de las compañías usan el RDM.
Un estudio similar en Estados Unidos mostró que el nivel de uso del RDM es del 38%
en las compañías comerciales.
Este informe explora el estado actual del RDM considerando la extensión de su uso
en España, y luego se engloba con otros cinco países europeos: Alemania, Irlanda,
Holanda, España y Suecia. El informe está basado en un estudio dirigido a tópicos
como: conciencia industrial de la variación, uso y conocimiento del RDM y métodos de
soporte, y finalmente, factores que afectan el uso del RDM.
El estudio comienza con una sección que introduce el método usado en recoger los
datos. En la sección posterior se presentan los resultados de la encuesta. En un primer
bloque los resultados obtenidos en España, y seguidamente los junto con los del resto de
Europa para tener una visión más global. La parte principal de los resultados de la
investigación se representa gráficamente, centrándose en los datos empíricos más que en
análisis teóricos. El capítulo concluye con un pequeño informe de los resultados.
La Metodología del Diseño Robusto 17
4.5.2 Método Este informe está basado en una encuesta llevada a cabo como parte de un paquete de
trabajo del proyecto europeo en el que está enmarcado mi proyecto; más concretamente
como parte de la tarea :‘’Estado del diseño robusto’’. La encuesta ha sido llevada a cabo
en Alemania, Irlanda, Holanda, España y por la Universidad Tecnológica de Chalmers
en Suecia. Se usó un esquema de entrevista idéntico en todos los países, en total el
informe contiene 226 compañías, principalmente compañías manufactureras, y la
persona encuestada el encargado de desarrollo del producto. Si una persona con este
cargo no era accesible, entonces nos dirigíamos al jefe de calidad. El número de
respuestas de los cinco países se muestra en la Tabla 2.
País Respuestas
Holanda 30
Alemania 12
Irlanda 42
España 55
Suecia 87
Total 226
.
Tabla 2. Sumario de las respuestas
Como se indicó en el apartado anterior, el informe cubre las siguientes áreas; conciencia
de la variación, conocimiento y uso del RDM y métodos de soporte, y finalmente,
factores que afectan al uso del RDM. El orden de aparición de estas áreas en el
cuestionario se ilustra en la Figura 3 de abajo.
La Metodología del Diseño Robusto 18
Figura 3. Esquema del cuestionario
Como se ve en la Figura 3 hay dos rutas principales en el cuestionario, el factor decisivo
dependerá de si la persona que responde el cuestionario está familiarizada o no con el
RDM. Más aún, la razón para incluir una sección sobre la conciencia de la variación es
porque se trata de un importante prerrequisito para comprender y aplicar el RDM.
Información base
Visión del papel de la variación
Familiaridad con el RDM
Uso de métodos adecuados en el marco del RDM
Uso de métodos adecuados en el marco
del RDM
Factores que afectan al uso del RDM
La Metodología del Diseño Robusto 19
4.5.3 Estado del RDM en España 4.5.3.1 Introducción
El propósito de esta encuesta y, por consiguiente, del estudio que aquí presento es saber
más sobre el uso actual del Diseño Robusto y los métodos de calidad aplicados en los
procesos de desarrollo del producto por las industrias manufactureras en España.
La encuesta fue enviada por e-mail en una primera fase a 121 empresas de diferentes
tipos y que operaban en distintos sectores como el del automóvil, aeronáutica, metal y
sector mecánico. En la segunda fase, 83 de las 121 compañías fueron contactadas por
teléfono. Las entrevistas tuvieron un gran nivel de respuesta, 53 compañías (un 64% de
las compañías) aceptaron ser entrevistadas y recibir una copia de los resultados. El 26%
de las que no tomaron parte en el estudio fue debido a que el responsable de calidad no
estaba disponible en ese período de tiempo o porque no estaba interesado en participar.
Las 53 compañías que participaron son fabricantes de distintos tamaños y regiones de
España: Madrid, Cataluña, País Vasco, Cantabria, Galicia, Navarra, Comunidad
Valenciana, Castilla León y Andalucía, de forma que todas ellas suponen una
representación de todos los sectores.
Para la evaluación de la encuesta he anotado los datos obtenidos en la encuesta
telefónica, y he analizado cada cuestión usando un gráfico circular, aparte de algunos
comentarios sobre los mismos. Al final también se presentan las conclusiones
principales.
La Metodología del Diseño Robusto 20
4.5.3.2 Resultados de la encuesta
0. Certificación de la compañía en un sistema de gestión de la calidad como la ISO
9000 o similar.
El 92 % de las compañías entrevistadas están certificadas en un sistema de gestión de la
calidad. Sin embargo, debo señalar que el 75 % de las que no están aún certificadas,
tiene intenciones de hacerlo. El 90% de las certificaciones son de la ISO 9000.
92%
8%
S
1. Diferencias entre muestras del mismo producto.
Grandes No diferncias
1 2 3 4 5
Número de compañías: (53) 18 15 8 5 7
El 36% de las compañías no ve diferencias significativas entre muestras de un mismo
producto, el 64% sí las ve. Sin embargo, el 13% de los encuestados considera que las
muestras de un mismo producto se diferencian bastante en ciertas características.
36%
28%
15%
8%
13%
La Metodología del Diseño Robusto 21
2. La importancia de que todas las muestras del producto tengan características
idénticas.
No imp. Muy imp.
1 2 3 4 5
Número de compañías: (53) 5 0 6 7 35
El 91% de las compañías considera importante el hecho de que todos los productos
tengan características idénticas. El 73% lo considera muy importante y sólo el 9%
afirma que no es muy importante debido a la naturaleza de sus trabajos.
9%
0%
9%
13%69%
3. El conocimiento de las causas de las diferencias en las características..
Buen No Conocimiento
1 2 3 4 5
Número de compañías: (53) 1 1 8 20 23
El 98% de las compañías afirma saber las causas de estas diferencias entre las muestras.
Sólo el 2% no lo sabe. Además, la mayoría de las compañías que afirman saberlo,
consideran que tienen buen conocimiento o muy bien conocimiento del problema.
La Metodología del Diseño Robusto 22
2%
2%
17%
38%
41%
4. Trabajar activamente para asegurar la conformidad entre muestras.
Nada Bastante
1 2 3 4 5
Número de compañías: (53) 1 5 11 16 20
El 98% de las compañías trabaja activamente para asegurar la conformidad entre las
muestras, solo el 2% no lo hace. El 68% asegura que además lo hace con mucho
empeño.
2% 9%21%
30%
38%
5. Cómo trabaja la compañía para lograr la conformidad.
a. Separa los productos que no cumplen las especificaciones y los rechaza.
b. b. Diseñamos productos que hagan sus características insensibles a la línea de
fabricación o a las condiciones de los usuarios.
Afirmación a b c
Número de compañías: (53) 32 25 7
La Metodología del Diseño Robusto 23
El 66% de las compañías separa los productos para encontrar aquellos que no cumplen las
especificaciones y así rechazarlos, o diseña los productos de forma que las características del
producto sean insensibles a la fabricación o a las condiciones de los usuarios. El 21% usa una
combinación de ambos y el 13% usa otra forma de trabajar para lograr la conformidad.
40%
26%
21%
13%
6. Metodología del Diseño Robusto
No Bastante
1 2 3 4 5
Número de compañías: (53) 35 5 4 4 5
Según el número de respuestas, el 64% de las compañías nunca ha oído hablar del
RDM. Sólo un 17% lo ha hecho. El resto han oído hablar pero no saben muy bien lo que
es.
64%11%
8%
8% 9%
7. La aplicación del RDM en la compañía.
No Bastante
1 2 3 4 5
Número de compañías: (18) 7 3 1 1 6
La Metodología del Diseño Robusto 24
De las 53 compañías, sólo 18 conocían el RDM, un 34%, y a ellas se les preguntó sobre
su aplicación. De éstas, solo el 38% lo aplican con gran extensión. El 23% lo usa
ocasionalmente, y el 39% afirma que nunca lo ha aplicado.
0%
0%
9% 9%
18%64%
8a. Métodos que usan las compañías usuarias del RDM para conseguir que sus
productos sean insensibles ante la variación.
Ocasionalmente Regularmente
Número de
compañías:
Sin
uso
1 2 3 4 5
a. SPC (Proceso de control estadíastico)
11 0 0 1 1 2 7
Todas las compañías que han oído hablar del método del Diseño Robusto han
hecho algún uso del SPC. El 64% de las empresas lo usan regularmente.
0%0% 9% 9%
18%64%
La Metodología del Diseño Robusto 25
Ocasionalmente Regularmente
Número de
compañías:
Sin
uso
1 2 3 4 5
b. DoE (Diseño de Experimentos) 11 2 1 1 2 3 2
El 18% de las empresas usan el DOE regularmente, el 9% lo usa algunas veces y el 18%
nunca lo ha usado. Este parece ser el menos popular entre las compañías que usan SPC.
18%
9%
9%18%
28%
18%
Ocasionalmente Regularmente
Número de
compañías:
Sin
uso
1 2 3 4 5
c. Herramientas de simulación (Producto o proceso)
11 3 0 0 2 3 3
El 27% de las empresas usan herramientas de simulación (tanto para productos como
para procesos) regularmente, ninguna lo usa ocasionalmente y el 28% nunca usa este
método.
28%
0%
0%
18%
27%
27%
La Metodología del Diseño Robusto 26
Ocasionalmente Regularmente
Número de
compañías:
Sin
uso
1 2 3 4 5
c. Herramientas de simulación (Producto o proceso)
11 1 0 1 0 3 6
Casi todas las compañías conocen y usan este método y la mayoría lo aplica
regularmente. El 55% declara usar el DFMEA regularmente.
9%0%9%0%
27%55%
Ocasionalmente Regularmente
Número de
compañías:
Sin
uso
1 2 3 4 5
e. PFMEA (Proceso a prueba de fallos y análisis de efectos).
11 0 0 1 0 2 8
El 73% de las compañías usan el proceso de modo de fallos y análisis de efecto
regularmente y ninguna de ellas lo usa regularmente.
0%0% 9%0%18%
73%
La Metodología del Diseño Robusto 27
Ocasionalmente Regularmente
Número de
compañías:
Sin
uso
1 2 3 4 5
f. Estudios de capacidad (Proceso de capacidad)
11 1 0 0 1 3 6
La mayoría de las empresas usan los estudios de capacidad (proceso de capacidad). Un
55% usan habitualmente este método. Ninguna de ellas lo usa ocasionalmente y el 9%
nunca usa este método.
9%0%0%9%
27%55%
Ocasionalmente Regularmente
Número de
compañías:
Sin
uso
1 2 3 4 5
g. DFM/DFA (Diseño de Manufacturación/ensamblaje)
11 4 0 0 1 1 5
El 46% de las empresas regularmente usan el diseño para manufactura/ensamblaje,
ninguna de ellas lo utiliza ocasionalmente y el 36% nunca usa este método.
36%
0%
0%
9%
9%
46%
La Metodología del Diseño Robusto 28
Ocasionalmente Regularmente
Número de
compañías:
Sin
uso
1 2 3 4 5
h. Métodos Taguchi(Una versión de DOE)
11 3 0 1 3 1 3
El 27% de las empresas regularmente usa los métodos Taguchi (una versión del DOE),
ninguna de ellas lo usa ocasionalmente y el 28% nunca lo ha usado.
28%
0%
9%27%9%
27%
Ocasionalmente Regularmente
Número de
compañías:
Sin
uso
1 2 3 4 5
j. FTA (Análisis de árbol de fallos) 11 2 0 2 1 2 4
El 37% de las empresas usan regularmente el Análisis del árbol de fallos (FTA),
ninguna de ellas lo usa ocasionalmente y el 18% nunca usa este método.
18%
0%
18%
9%18%
37%
La Metodología del Diseño Robusto 29
Nota: Las compañías entrevistadas no usan otros métodos para insensibilizar sus
productos ante la variación, y sólo aplican los anteriores.
8b. Métodos usados por las compañías (que no utilizan el Diseño Robusto) para
hacer los productos menos sensibles a la variación.
Ocasionalmente Regularmente
Número de
compañías:
Sin
uso
1 2 3 4 5
a. SPC (Proceso de control estadístico)
42 2 4 4 9 7 16
Un 37% de las compañías encuestadas usan el proceso de control estadístico
(SPC), el 10% lo usa ocasionalmente y el 5% nunca usa este método.
5% 10%
10%
21%17%
37%
Ocasionalmente Regularmente
Número de
compañías:
Sin
uso
1 2 3 4 5
b. DoE (Diseño de Experimentos) 42 17 8 5 4 3 5
El 12% de las compañías regularmente usan el Diseño de Experimentos (DOE),
el 19% lo usan ocasionalmente y el 40% nunca usa este método.
La Metodología del Diseño Robusto 30
40%
19%12%
10%
7% 12%
Ocasionalmente Regularmente
Número de
compañías:
Sin
uso
1 2 3 4 5
c. Herramientas de simulación
(Producto o proceso) 42 16 6 3 3 4 10
El 24% de las empresas usan regularmente las herramientas de simulación (para
productos o procesos), el 14% lo usa ocasionalmente y el 38% nunca usa este método.
38%
14%7%7%
10%
24%
Ocasionalmente Regularmente
Número de
compañías:
Sin
uso
1 2 3 4 5
d. Herramientas de simulación (Producto o proceso)
42 15 1 0 5 6 15
El 36% de las empresas regularmente usan el diseño a prueba de fallos y análisis de
efectos, solo el 2% lo hace ocasionalmente y el 36% nunca usa este método.
36%
2%
0%
12%
14%
36%
La Metodología del Diseño Robusto 31
Ocasionalmente Regularmente
Número de
compañías:
Sin
uso
1 2 3 4 5
e. PFMEA (Proceso a prueba de fallos y análisis de efectos).
42 6 5 0 7 5 19
Un 45% de las compañías regularmente usa el proceso a modo de fallos y análisis de
efectos, el 12% ocasionalmente y el 14% nunca lo usa.
14%12%
0%
17%12%
45%
Ocasionalmente Regularmente
Número de
compañías:
Sin
uso
1 2 3 4 5
f. Estudios de capacidad (Proceso de capacidad)
42 4 3 3 3 10 19
El 45% de las empresas usan regularmente los estudios de capacidad (capacidad del
proceso), el 7% lo hace ocasionalmente y el 10% nunca usa este método.
10% 7%
7%
7%
24%
45%
La Metodología del Diseño Robusto 32
Ocasionalmente Regularmente
Número de
compañías:
Sin
uso
1 2 3 4 5
g. DFM/DFA (Diseño de Manufacturación/ensamblaje)
42 16 3 1 5 8 9
El 21% de las empresas regularmente usan el diseño para manufacturación/ensamblaje,
el 7% lo hacen ocasionalmente y el 39% nunca usa este método.
39%
7%
2%12%
19%
21%
Ocasionalmente Regularmente
Número de
compañías:
Sin
uso
1 2 3 4 5
h. Métodos Taguchi(Una versión de DOE)
42 25 5 5 3 2 2
Un 5% de las compañías regularmente usan los métodos Taguchi (una versión del
DOE), el 12% lo hacen ocasionalmente y el 59% nunca usa este método. Parece ser el
más impopular de todos.
59%12%
12%
7%
5%5%
La Metodología del Diseño Robusto 33
Ocasionalmente Regularmente
Número de
compañías:
Sin
uso
1 2 3 4 5
j. FTA (Análisis de árbol de fallos) 42 15 4 2 7 8 6
El 14% de las compañías regularmente usan el Análisis del árbol de fallos
(FTA), el 10% lo hace ocasionalmente y el 35% nunca usa este método.
35%
10%5%17%
19%
14%
8c. Por lo tanto, considerando a todas las compañías entrevistadas, los resultados
según los métodos son los siguientes:
Ocasionalmente Regularmente
Número de
compañías:
Sin
uso
1 2 3 4 5
a. SPC (Proceso de control estadístico)
53 2 4 5 10 9 23
El 43% de las empresas regularmente usan el proceso de control estadístico
(SPC), un 8% lo usa ocasionalmente y el 4% nunca usa este método.
4% 8%9%
19%17%
43%
La Metodología del Diseño Robusto 34
Ocasionalmente Regularmente
Número de
compañías:
Sin
uso
1 2 3 4 5
b. DoE (Diseño de Experimentos) 53 19 9 6 6 6 7
El 13% de las empresas usan normalmente el diseño de experimentos (DOE), un 17% lo
hace ocasionalmente y el 37% nunca usa este método.
37%
17%11%
11%
11%13%
Ocasionalmente Regularmente
Número de
compañías:
Sin
uso
1 2 3 4 5
c. Herramientas de simulación (Producto o proceso)
53 19 6 3 5 7 13
El 25% de las compañías encuestadas usan habitualmente herramientas de simulación
(para productos o procesos), el 11% lo hace ocasionalmente y el 36% nunca usa este
método.
36%
11%6%9%13%
25%
La Metodología del Diseño Robusto 35
Ocasionalmente Regularmente
Número de
compañías:
Sin
uso
1 2 3 4 5
d. PFMEA (Proceso a prueba de fallos y análisis de efectos).
53 16 1 0 5 7 24
El 46% de las compañías regularmente usan en método de prueba de fallos y análisis de
efectos (DFMEA), sólo un 2% lo usa ocasionalmente y el 30% nunca usa este método.
30%
2%
0%
9%
13%
46%
Ocasionalmente Regularmente
Número de
compañías:
Sin
uso
1 2 3 4 5
e. PFMEA (Proceso a prueba de fallos y análisis de efectos).
53 6 5 1 7 7 27
Un 52% de las compañías regularmente usan el método a prueba de fallos y análisis de
efectos (PFMEA), un 9% lo hace ocasionalmente y el 11% nunca usa este método.
11% 9%
2%
13%13%
52%
La Metodología del Diseño Robusto 36
Ocasionalmente Regularmente
Número de
compañías:
Sin
uso
1 2 3 4 5
f. Estudios de capacidad (Proceso de capacidad)
53 5 3 3 4 13 25
Un 46% de las compañías regularmente usan los estudios de capacidad (proceso de
capacidad), un 6% lo hace ocasionalmente y el 9% nunca usa este método.
9%6%
6%
8%
25%
46%
Ocasionalmente Regularmente
Número de
compañías:
Sin
uso
1 2 3 4 5
g. DFM/DFA (Diseño de Manufacturación/ensamblaje)
53 20 3 1 6 9 14
El 26% de las empresas usan regularmente el diseño de manufactura/ensamblaje, un 6%
lo hace ocasionalmente y el 3% nunca usa este método.
38%
6%
2%11%
17%
26%
La Metodología del Diseño Robusto 37
Ocasionalmente Regularmente
Número de
compañías:
Sin
uso
1 2 3 4 5
h. Métodos Taguchi(Una version de DOE)
53 28 5 6 6 3 5
El 9% de las empresas normalmente usan los métodos Taguchi (una versión del DOE),
el 9% lo hace ocasionalmente y el 54% nunca usa este método.
54%
9%11%
11%
6% 9%
Ocasionalmente Regularmente
Número de
compañías:
Sin
uso
1 2 3 4 5
j. FTA (Análisis del árbol de fallos) 53 17 4 4 8 10 10
El 19% de las empresas regularmente usan el Análisis del árbol de fallos (FTA),
el 8% lo hace ocasionalmente y el 31% nunca lo usa.
31%
8%8%15%
19%
19%
Nota: En términos generales, las compañías no usan otros métodos que les ayuden a
hacer sus productos menos sensibles a la variación, y solo aplican los métodos
anteriores.
La Metodología del Diseño Robusto 38
9a. La opinión de las compañías sobre el uso del Diseño Robusto.
Totalmente Totalmente
en desacuerdo de acuerdo Número de
compañías 1 2 3 4 5
a. Usar el Diseño Robusto incrementa la competitividad de la empresa.
11 1 0 1 1 8
Un 73% de las empresas están totalmente de acuerdo en que el uso del Diseño
Robusto mejora la competitividad de una compañía, el 9% no lo cree en absoluto.
9%
0%
9%
9%
73%
Totalmente Totalmente en desacuerdo de acuerdo Número de
compañías 1 2 3 4 5
b. Usar el Diseño Robusto mejora la satisfacción del cliente.
11 0 0 2 2 7
Un 64% de las empresas esta totalmente de acuerdo en que el uso del Diseño
Robusto acrecienta la satisfacción del cliente. Ninguna esta en desacuerdo con esto.
0%
0%
18%
18%64%
La Metodología del Diseño Robusto 39
Totamente Totalmente en desacuerdo de acuerdo
Número de compañías
1 2 3 4 5
c. Usar el Diseño Robusto disminuye el coste de desarrollo del producto.
11 0 1 2 3 5
El 46% de las empresas están totalmente de acuerdo en que el uso del Diseño Robusto minora el coste de desarrollo de productos. Ninguna está en desacuerdo con esto.
0% 9%18%
27%
46%
Totamente Totalmente en desacuerdo de acuerdo
Número de compañías
1 2 3 4 5
d. El apoyo administrativo es un importante requisito para el uso del Diseño Robusto.
11 0 0 0 1 10
El 91% de las empresas están totalmente de acuerdo en que el apoyo
administrativo es un importante factor para el éxito del Diseño Robusto. Ninguno está
en desacuerdo con esto.
0%0%0% 9%
91%
La Metodología del Diseño Robusto 40
Totamente Totalmente en desacuerdo de acuerdo Número de
compañías 1 2 3 4 5
e. Para tener éxito con el Diseño Robusto es importante que la metodología sea incorporada en el proceso de desarrollo del producto.
11 0 0 0 2 9
El 82 % de las compañías están totalmente de acuerdo que para tener éxito en el Diseño
Robusto, es importante que la metodología sea incorporada en el proceso de desarrollo
del producto. Ninguna de las companías están en desacuerdo.
0%0%0% 18%
82%
Totamente Totalmente en desacuerdo de acuerdo Número de
compañías 1 2 3 4 5
f. Las quejas de los clientes, devoluciones y feedback son importantes razones para aplicar el Diseño Robusto.
11 1 0 1 2 7
El 64% de las compañías están totalmente de acuerdo en que las quejas del cliente,
devoluciones y feedback son importantes razones para aplicar el Diseño Robusto, el 9%
de las compañías no están de acuerdo.
9%
0%
9%
18%64%
La Metodología del Diseño Robusto 41
Totamente Totalmente en desacuerdo de acuerdo Número de
compañías 1 2 3 4 5
g. Es importante que alguien que tenga conocimientos del Diseño Robusto sea el responsable de la implementación y uso de este método.
11 0 0 0 1 10
El 91% de las compañías están totalmente de acuerdo en que es importante que el
conocimiento de alguien en el diseño Robusto sea el responsable de llevar la
implementación y el uso de esta metodología. Como puede verse, ninguna esta en
desacuerdo con esto.
0%0%0% 9%
91%
Totamente Totalmente en desacuerdo de acuerdo Número de
compañías 1 2 3 4 5
h. La principal razón para usar el Diseño Robusto es que nuestros clientes nos lo requieren.
11 4 3 1 1 2
Un 27% de las empresas no están de acuerdo que la principal razón para usar el Diseño
Robusto es que el consumidor quiera que la empresa lo haga. El 37% esta de acuerdo
con esta afirmación.
37%
27%9%
9%
18%
La Metodología del Diseño Robusto 42
Totamente Totalmente en desacuerdo de acuerdo Número de
compañías 1 2 3 4 5
i. Los clientes insatisfechos son una razón para aplicar el Diseño Robusto.
11 2 2 2 2 3
Un 28% de las empresas están totalmente de acuerdo con que el hecho de que los
clientes estén insatisfechos es una razón para aplicar el Diseño Robusto, el 18% no está
de acuerdo con esto.
18%
18%
18%18%
28%
9b. Razones por las que las compañías que han oído hablar de Six sigma, no la
usan.
Número de compañías
Verdadero
Falso Sin opinión
a. Usaríamos Diseño Robusto si la diferencia entre los ejemplos de los mismos productos fuesen percibidas como un problema.
5 2 2 1
Un 40% de las compañías usarían el Diseño Robusto si las diferencias entre
ejemplos de los mismos productos fuesen percibidos como un problema. De todas
maneras esta no es la razón por la que el otro 40% no lo usa.
40%
40%
20%
La Metodología del Diseño Robusto 43
Número de compañías
Verdadero
Falso Sin opinión
b. Usaríamos Diseño Robusto si fuese parte de nuestro proceso de desarrollo de producto.
5 3 1 1
El 60% de las compañías usarían el Diseño Robusto si fuese parte del proceso
del desarrollo de su producto. El 20% no considera esta razón.
Número de compañías
Verdadero
Falso Sin opinión
c. Usaríamos Diseño Robusto si fuese un requisito de nuestros clientes.
5 3 2 0
El 60% de las companías usarían el Diseño Robusto si fuese un requisito de los clientos.
Esta no es ta razón por la que el 40% restante no lo usaría.
60%
40%
0%
Número de compañías
Verdadero
Falso Sin opinión
d. Una de las razones por la que no usamos el Diseño Robusto es que no vemos ninguna ventaja en su metodología.
5 1 4 0
Sólo un 20% de las compañías no usan el Diseño Robusto porque no ve ninguna ventaja
en la metodología. El 80% no esta de acuerdo con esta afirmación.
20%
80%
0%
La Metodología del Diseño Robusto 44
Número de compañías
Verdadero
Falso Sin opinión
e. Una de las razones por las que no usamos el Diseño Robusto es que consume demasiado tiempo.
5 1 3 1
El 20% de las empresas que no usan el Diseño Robusto es porque les consume
demasiado tiempo, el 60% no esta de acuerdo con esto.
20%
60%
20%
Número de compañías
Verdadero
Falso Sin opinión
f. Usaríamos el Diseño Robusto si alguien de nuestra compañía tuviera suficiente conocimiento de la metodología.
5 4 1 0
El 80% de las empresas usarían el Diseño Robusto si alguien en su empresa tuviese
suficiente conocimiento de la metodología. De todas formas el 20% restante no lo usaría
aunque contasen con un experto.
80%
20% 0%
10. Six Sigma
El 79% de las empresas han oído hablar de Six-Sigma, un 21% nunca ha oído hablar de
este programa.
La Metodología del Diseño Robusto 45
11. Implementación de un programa Six Sigma.
El 77% de las compañías no han implementado un programa Six-Sigma. Por otra parte,
un 10% ya lo han implementado y otro 10% tienen planes para implementar un
programa Six-Sigma.
10%
77%
3%
10%
La Metodología del Diseño Robusto 46
4.5.3.3 Conclusiones
Podemos destacar algunos puntos de toda la información recogida tras las entrevistas,
para así tener la visión general sobre el estado actual en España.
• La utilización del método del Diseño Robusto entre las empresas españolas es
limitada, ya que un 64% de las empresas nunca han oído hablar de esta metodología.
Por otra parte, solo el 39% de las compañías que han oído hablar de este lo aplican.
• Es una sensación común entre las empresas que es importante que la administración
apoye a que alguien con conocimientos del Diseño Robusto que lidere y guíe la
implementación y uso de esta metodología para conseguir el éxito del Diseño
Robusto.
• Las empresas que conocen el Método del Diseño Robusto están de acuerdo en que
su uso aumenta la competitividad de la compañía, incrementa la satisfacción del
cliente y disminuye el coste de desarrollo del producto.
• La utilización del programa Six-Sigma es también limitado ya que a pesar de que un
79% ha oído hablar del programa, solo un 10% lo ha implementado en la compañía.
• Comparando el uso de diferentes métodos para reducir variaciones, es recalcable
que SPC, PFMEA y los estudios de Capacidad son los métodos más comunes
usados en empresas que jamás han oído hablar de la metodología del diseño robusto,
siendo los métodos Taguchi los menos usados.
La Metodología del Diseño Robusto 47
4.5.4 Estado del RDM en Europa 4.5.4.1 Resultados de la encuesta
Los resultados se presentan en cuatro subsecciones:
1. Conocimiento y Uso del RDM,
2. Factores que soportan el RDM,
3. Uso de Métodos de Soporte, que incluye explicación de la elección de las
herramientas de soporte y ejemplos de cómo pueden estar relacionadas con el
diseño robusto, y
4. Variación en las Características del Producto.
La principal parte de los datos se representa en diagramas. En conexión con los
diagramas, se da la cuestión subyacente, la escala de respuestas y el número de
encuestados. Además, en la mayoría de los casos hay dos versiones del diagrama, una
para la muestra completa y otra dónde se muestra las respuestas para cada país.
Centrándonos en el último tipo de diagramas es importante destacar que la muestra
difiere entre los países, así que los resultados entre diferentes países no se pueden
comparar estrictamente. Sin embargo, la división basada en los países se incluye todavía
porque puede ser de valor para el lector.
La Metodología del Diseño Robusto 48
4.5.4.2 Conocimiento y uso del RDM Como el mayor propósito de este informe es dar una idea del estado del RDM en la
industria europea, un buen lugar para empezar es el nivel existente del RDM. En la
Figura 4 se muestran las respuestas a la pregunta ¿Es el diseño robusto una metodología
conocida para usted?, en una escala de 1 (nada) al 5 (muy conocida).
Figura 4. Conocimiento de la metodología del diseño robusto en la industria
manufacturera europea; 1 = nada y 5= muy bien. Número de respuestas: 226
La Figura 4 revela que menos del 50% de los encuestados conocen el RDM, y un poco
menos del 10% asegura conocerlo muy bien. Sin embargo, una cuestión más interesante
es qué extensión de las compañías que lo conocen, lo aplican. Así que se expuso otra
pregunta concerniente al uso del RDM: ¿Con qué extensión aplica su compañía el
RDM? La respuesta a esta pregunta se muestra en la Figura 5. Se indica que un 75% de
los encuestados que conocían el RDM aplican esta mitología (de 2 a 5), y menos del
20% lo usan con un gran alcance (valoración 5). Comparado con el total de encuestados,
el 34% usa el RDM.
Figura 5. Extensión del uso del RDM; 1= nada y 5= un uso amplio. Número de
respuestas: 103
Suecia Alemania Holanda España Irlanda
Suecia Alemania Holanda España Irlanda
La Metodología del Diseño Robusto 49
Durante las últimas décadas, los programas de Six Sigma han aumentado su
popularidad. Una reciente tendencia entre las compañías es expandir los esfuerzos para
incluir el desarrollo de los productos; este esfuerzo es a menudo etiquetado como
Diseño para las Six Sigma (DFSS). La base del DFSS y del RDM es más o menos la
misma, i.e., diseñar productos insensibles a la variación. Es por lo tanto interesante ver
cuántos encuestados están familiarizados con el Six Sigma, el nivel de familiaridad se
muestra en la Figura 6.
Figura 6. Conocimiento de Six Sigma por país; sí o no. Numero de respuestas: 226
En total, el 77% de los encuestados afirmaron que han oído hablar del Six Sigma. El
resultado por país se muestra en la Figura 6. Se investigó también cuántas de las
compañías que conocían el Six Sigma estaban involucrados en un programa de Six
Sigma o habían planeado introducir un programa de este tipo en sus compañías. El 13%
de las compañías indicaron que habían implementado un programa Six Sigma, y además
un 12% planeaba hacerlo. Considerando que el Six Sigma es una iniciativa más reciente
que el RDM, es interesante saber que cerca de un 80% de las compañías conocen el Six
Sigma mientras que menos del 50% conocen el RDM.
Si
Suecia Alemania Holanda España Irlanda
No
La Metodología del Diseño Robusto 50
4.5.4.3 Factores que soportan el RDM Se hizo una serie de preguntas al 75% de los usuarios del RDM concernientes a los
factores cuyo uso podían afectar a la metodología. Estas preguntas fueron formuladas
como afirmaciones relacionadas con el alcance del uso del RDM. Se pidió a los
encuestados que puntuaran en una escala de 1 (en desacuerdo) al 5 (completamente de
acuerdo), cuánto estaban de acuerdo con las afirmaciones. Antes de comentar los
resultados, en la Figura 7, se da una lista de las afirmaciones y su correspondiente letra
en el diagrama. Las declaraciones son las siguientes:
a) El uso del RDM aumenta la competitividad de una compañía
b) El uso del RDM aumenta la satisfacción del cliente
c) El uso del RDM disminuye el coste del desarrollo del producto
d) La ayuda a la gestión es un requisito muy importante para el éxito del uso del RDM
e) De acuerdo para tener éxito con el RDM, es importante que la metodología se
incorpore en el proceso de desarrollo del producto
f) Las quejas del cliente, devoluciones y realimentaciones son razones importantes para
aplicar el RDM
g) Es importante que nuestros ingenieros de diseño tengan un buen conocimiento del
RDM
h) La razón principal para usar el RDM es que nuestros clientes nos dicen que lo
hagamos, y,
i) Unos clientes insatisfechos son una razón para aplicar el RDM.
Figura 7. Opiniones sobre afirmaciones del RDM; 1= desacuerdo y 5= totalmente
de acuerdo. Número de respuestas: 77
La Metodología del Diseño Robusto 51
La figura 7 muestra que aproximadamente un 80% de los que usan el RDM están de
acuerdo con que el uso del RDM incrementa la competitividad de la compañía y la
satisfacción del cliente. Así que quizá deba concluirse que los esfuerzos dentro del
RDM son considerados exitosos por un gran número de usuarios. Otra opinión
igualmente común era que es importante que los ingenieros de diseño tengan un buen
conocimiento del RDM. Finalmente, cerca de un 90% de las compañías pensaron que el
RDM debía ser incorporado al proceso de desarrollo del producto y que la devoción de
de la dirección es un prerrequisito para un amplio uso del RDM. Si la dirección no se
interesa, existe el riesgo de que las cuestiones relacionadas con la reducción de la
variación tengan una prioridad muy baja en la organización.
La Metodología del Diseño Robusto 52
4.5.4.4 Uso de Métodos de Soporte Como se discutió anteriormente, vimos el RDM como un marco de trabajo más que un
método específico. Sin embargo, hay ciertos métodos que forman una asociación con el
RDM. Esta sección discute el nivel industrial de uso de una selección de estos métodos,
unos más y otros menos asociados con el RDM. Hay que indicar que los métodos
incluidos no forman la lista completa de todos los métodos apropiados con el RDM. La
razón para la limitación es que era esencial reducir el número de preguntas para evitar
que el entrevistado se cansara.
Métodos incluidos en la investigación El número de métodos investigados se limitó a nueve. Los métodos eran:
Control de Proceso Estadístico (SPC), Diseño de Experimentos (DoE), Técnicas de
Simulación (Sim), Diseño del Análisis del Modo de Fallo y Efectos (DFMEA), Proceso
del Análisis del Modo de Fallo y Efectos (PFMEA), Medidas de Capacidad (Cap),
Diseño para Fabricación/ Ensamblado (DFM/ DFA), Métodos de Taguchi (Tag), y
Análisis de l Árbol de Fallos (FTA).
Si los factores de ruido son incluidos en un experimento diseñado, las interacciones
entre los factores de ruido y los factores de control pueden ser exploradas. Esto hace
posible encontrar niveles de factores de control que hacen el producto robusto a los
factores de ruido. Reducir la variación en las características de los productos es también
el objetivo del Método de Taguchi, quizá el método más fuertemente relacionado con el
RDM. Otro método muy útil en el desarrollo de los productos robustos es la simulación,
llevada a cabo para incrementar el hecho de comprender cómo los factores de ruido
afectan a las características del producto. Más aún, DFMEA y FTA pueden ser
empleados para identificar componentes donde la variación tiene efectos severos en el
producto final. De ahí que los resultados puedan ser usados como una base para dar
prioridad dónde los esfuerzos del RDM deberían enfatizarse.
En relación con la variación de la producción, PFMEA puede ser usado para identificar
operaciones en el proceso de producción dónde las variaciones tengan un impacto
severo en la calidad de los productos producidos. Además, las medidas de capacidad
pueden ser útiles en identificar procesos de producción dónde sea importante reducir la
variación. El SPC da una posibilidad de descubrir variaciones de la producción
La Metodología del Diseño Robusto 53
inusuales antes de que un gran número de productos de calidad inaceptable sean
fabricados. Las fuentes de estas variaciones inusuales quizá sean identificadas y
eliminadas, creando de este modo un proceso más estable. Finalmente, usando el DFA/
DFM, la robustez también puede ser lograda. Como el ensamblado y la producción
están simplificados, esto debería disminuir la variación de la producción.
Nivel de uso de los Métodos
Esta sección va dirigida a qué extensión de los encuestados usan métodos que puedan
dar soporte al desarrollo de productos robustos. Para cada método, la pregunta era
formulada como ¿Usa su compañía el método X? La extensión del uso fue medida en
una escala de 1 (ocasionalmente) a 5 (frecuentemente). Si era necesario, el que
respondía tenía la posibilidad de no responder a la pregunta. En la figura 8, está
explicado el porcentaje de no- usuarios, y de usuarios de bajo y alto nivel. Los usuarios
de ‘bajo nivel’ son aquellos que marcaron su nivel de uso entre 1 y 3, los de ‘alto nivel’
son los correspondientes de 4 a 5.
Figura 8. Utilización de los métodos. Azul= Alto nivel; Granate= Bajo nive;
Blanco= No lo usan. Número de respuestas: 226
Como se ve en la figura 8, el nivel de uso de los nueve métodos de investigación es en
general bastante alto. Todos los métodos excepto el de Taguchi lo usan más de un 60%
de las compañías. Sin embargo, los datos no revelan el propósito del uso de esos
métodos. Por ejemplo, el DoE puede ser usado tanto para encontrar soluciones de
diseño que mejoren el nivel de funcionamiento del producto como para reducir la
La Metodología del Diseño Robusto 54
variación del funcionamiento. Una investigación del propósito del uso de los métodos
habría requerido unas preguntas abiertas y sin fin, las cuales no son adecuadas para
encuestas telefónicas, debido a las restricciones de tiempo. Una manera posible de de
obtener una indicación de si los métodos son o no usados para lograr la robustez es
comparar el nivel de uso entre las compañías que usan el RDM y las compañías que no
lo hacen.
La Metodología del Diseño Robusto 55
4.5.4.5 Variación en las características del producto El propósito de un diseño robusto en términos del Diagrama-P, ver Figura 9, es hacer la
respuesta de un producto insensible a la influencia de los factores de ruido. De ahí que
sea importante ser consciente y comprender el efecto de los factores de ruido en un
producto, en orden a lograr esta robustez. Esta conciencia de la variación y su efecto en
las características del producto es tratada en esta sección.
Figura 9. Diagrama-P del diseño robusto
Conciencia de la Variación
La conciencia de la variación comienza a un nivel más básico que el hecho de tener
conocimiento de los factores de ruido que afectan a un producto específico. Este nivel
básico de conciencia se dirigía a una de las primeras cuestiones planteadas a cada
compañía. La cuestión era: ¿Ve usted diferencias entre muestras de un mismo
producto? La escala de respuesta estaba entre 1 (no) y 5 (amplio contraste). Los
resultados de la pregunta se indican en la Figura 10 de abajo.
Producto O
Proceso
Factores de ruido
Factores de señal
Factores de control
Respuesta
La Metodología del Diseño Robusto 56
Figura 10. Diferencias entre muestras; 1= ninguna y 5= muy grande. Número de
respuestas: 225.
La Figura 10 muestra que sólo el 25% no han experimentado ninguna diferencia entre
las muestras de sus productos, es decir, dieron la respuesta 1. Una pregunta que
entonces cabría preguntarse sería saber qué conocimiento sobre las causas de estas
diferencias entre las muestras tienen las compañías usuarias del RDM (eran un 75% de
compañías usuarias). El nivel de conocimiento de estas posibles fuentes de variación se
muestra en la Figura 11.
Figura 11. Conocimiento de las causas de las diferencias entre las características de
las muestras; 1= no y 5= muy bueno. Número de respuestas: 225.
Como se vio en la Figura 11, un 70% de las compañías tienen buen o muy buen
conocimiento de las causas de las variaciones en las características del producto. Una
pregunta adicional relacionada con el conocimiento de la variación y sus efectos
concernía a la importancia de lograr ajuste, amoldarse. La pregunta era: ¿Cómo es de
importante el hecho de que todos los productos tengan características idénticas? y la
respuesta fue dada en una escala de uno a cinco. Los resultados mostrados en la Figura
Suecia Alemania Holanda España Irlanda
Suecia Alemania Holanda España Irlanda
La Metodología del Diseño Robusto 57
12, muestran que el 60% de los encuestados piensa que es muy importante lograr el
ajuste o amoldamiento entre muestras del mismo producto.
Figura 12. Importancia de características idénticas; 1= no importante y 5= muy
importante. Número de respuestas: 225.
Resumiendo, esta sub-sección ha revelado que la conformidad entre distintas muestras
está clasificada como importante por las compañías, y que hay bastante buen
conocimiento de las fuentes de variación en las características del producto.
Trabajo dirigido a controlar la Variación
Como los resultados presentados arriba indican que una pequeña variación en las
características de funcionamiento entre distintas muestras es vista como importante, una
pregunta interesante sería: ¿Con que extensión y de que manera las compañías trabajan
para lograr la conformidad entre las muestras? En la Figura 13 se representan las
respuestas a la pregunta: ¿Trabaja usted de una forma activa para asegurar la
conformidad entre las muestras?
Figura 13. Trabajo para asegurar la conformidad entre muestras; 1= ninguno y 5=
muy amplio. Número de respuestas: 225.
Suecia Alemania Holanda España Irlanda
Suecia Alemania Holanda España Irlanda
La Metodología del Diseño Robusto 58
Los resultados de la Figura 13 indican que aproximadamente un 75% de los encuestados
trabajan activamente para producir muestras con una variación tan pequeña como sea
posible en las características del producto. Estos encuestados definieron el alcance de su
trabajo encaminado a lograr la conformidad entre productos del mismo tipo con un 4 o
un 5, donde 5 corresponde a ‘’ un gran alcance’’. En el cuestionario, se pidió a las
empresas que dieran su opinión sobre las dos declaraciones que mejor describen cómo
lograr muestras lo más similares posibles del mismo producto. Las dos declaraciones
eran:
A: Nosotros separamos los productos que no cumplen las especificaciones y los
rechazamos
B: Nosotros diseñamos productos de tal forma que haga las características del
producto insensible a la línea de fabricación o las condiciones de los usuarios
La respuesta podía ser una de las afirmaciones, ambas o ninguna. Los resultados se
muestran en la Figura 14.
Figura 14. Diferentes formas de lograr la conformidad entre muestras; A =
separar y rechazar y B = diseño para insensibilizar, C = ninguno de ellos. Número
de respuestas: 225.
La literatura del Diseño Robusto, y en general el trabajo de la calidad, enfatiza la
importancia de aplicar esfuerzos de calidad durante el diseño y no sólo en la
producción. En el área del diseño robusto se discute que la robustez frente a la variación
en condiciones de uso y deterioro sólo puede ser lograda durante el diseño. A pesar de
este énfasis, la Figura 14 revela que un 20% de los encuestados declararon que su
compañía logra la conformidad rechazando los productos que no cumplen las
especificaciones. Además, otro 20% arregla los productos e intenta diseñar productos
robustos.
Suecia Alemania Holanda España Irlanda
La Metodología del Diseño Robusto 59
4.5.4.6 Discusión de resultados
Para lograr la robustez frente a las fuentes de variación o los factores de ruido, es
importante estar alerta de la variación y sus efectos en las características del producto.
Los resultados de la encuesta revelan que las compañías dedican una gran pare de su
trabajo a minimizar la variación en las características del producto. Más aún, esta
minimización se considera importante, y las compañías afirman que tienen un buen
conocimiento de las fuentes de variación. Esto indicaría que hay una conciencia
industrial de la variación en las características del producto y la necesidad de
minimizarla, por lo que, en otras palabras, debería haber una necesidad de un marco de
trabajo como el RDM. Sin embargo, los resultados de la encuesta muestran que el
RDM no se conoce mucho entre las compañías. Más concretamente, el 55% no
reconoce el RDM como un concepto y sólo el 8% declara tener un buen conocimiento
del RDM. El porcentaje de compañías que lo usa es el 34%.
Como el RDM tiene pocos usuarios, a pesar de que parezca haber una necesidad de
un marco de trabajo similar, un asunto para estudiar más profundamente, es el uso de
métodos que podrían dar soporte al diseño de productos robustos. El uso de métodos
investigados es bastante alto, Ej., un 70% usan el DoE y más del 80% usa el SPC.
Incluso aunque no podamos decir que los métodos se usan para lograr robustez, no
debería ser irrealizable para un usuario de un determinado método, el hecho de poder
empezar a utilizarlo con un propósito adicional. Un propósito podría ser lograr la
robustez.
Resumiendo, parece haber una necesidad de un marco de trabajo como el RDM, y
se usan métodos adecuados en una gran extensión. Así que parece importante hacer
hincapié en todo el marco del RDM, construido con una conciencia de variación, y no
sólo enfocarlo en el desarrollo de métodos aplicables a ese marco de trabajo.
La Metodología del Diseño Robusto 60
4.6 Variación y Características del Producto En las fases tempranas al desarrollo del producto se requiere una adquisición de
información sobre lo que el cliente necesita y quiere. Estoas necesidades se expresan
normalmente en términos subjetivos y por lo tanto no son directamente útiles para los
ingenieros. Por consiguiente, estas demandas deberían primero ser transformadas para
que se correspondieran con características del producto.
La calidad del cliente es la calidad expresada por el cliente, en su propio lenguaje. El
término voz del cliente se usa frecuentemente para describir este nivel de calidad. Para
satisfacer las necesidades de nuestros clientes, los ingenieros intentan a menudo
convertir a voz del cliente en características específicas de calidad, es decir, la calidad
especificada. La calidad especificada se refiere a las especificaciones de los diseños de
ingeniería. Son características de calidad, que constituyen objetivos para los ingenieros,
y a partir de las cuales se desarrollan los productos. Las siguientes características de
calidad se usan frecuentemente para el análisis de las muestras:
- Pasa/ No Pasa
- Fracción defectuosa
- Número de Defectos
- Producción
- Exactitud de una Función
- Apariencia
- La calidad en ppm
La calidad funcional será la calidad de conseguir la función pretendida de un producto.
La función del producto existe antes que la voz del cliente. Y es imprescindible que la
función del producto sea optimizada antes de emitir los planos de ingeniería.
Con este propósito de traducir las necesidades del cliente en características funcionales
se usa siempre el Despliegue de la Función de la Calidad (QFD, Quality Function
deployment). Una vez se hayan convertido los requerimientos subjetivos del cliente en
Características del Producto (PC) objetivas, obtenemos un número de PCs. En general
algunas características del producto son más sensibles a la variación que otras y por lo
La Metodología del Diseño Robusto 61
tanto requieren más atención. El sistema de Designación de Características Clave de
General Motors distingue entre dos tipos de características del producto:
� SPC o Características Estándar del Producto
� KPC o Características Clave del Producto, que son las que se utilizan para
desarrollar el VMEA. Además una KPC puede ser dividida en Sub-KPC y éstas
a su vez en Factores de Ruido NFs.
Esta última asignación será la que tendremos en cuenta para el desarrollo del Análisis
Modal de Variaciones y Efectos y que explicaré con detalle más adelante.
Six Sigma 62
5. SIX SIGMA 5.1 Marco histórico En la década de los ochenta Philip Crosby popularizó el concepto de Cero Defecto
como orientación para el control de calidad. Este enfoque establece la meta de unos
resultados que carezcan de errores al 100 por ciento. Crosby sostiene que si se establece
un nivel “aceptable” de defectos, ello tiende a provocar que dicho nivel (o uno más alto)
se conviertan en una profecía que se cumple; si los empleados saben que está “bien”
trabajar dentro de un nivel determinado de errores, llegarán a considerar que ese nivel es
la “norma”. Es evidente que dicha “norma” está por debajo de lo óptimo. Crosby
sostiene que a las personas se le establecían estándares de desempeño mucho más
holgados en sus trabajos que lo que regían sus vidas personales, en los negocios se les
fijaban “niveles aceptables de calidad”, márgenes de variación y desviaciones.
En aquellos tiempos, se podían encontrar maneras de justificar estadísticamente los
fallos humanos, sosteniendo que nadie podía ser posiblemente perfecto. De modo que si
el 100% es inalcanzable, ¿por qué no conformarse con el 99%, e incluso con el 95%? La
cuestión es que el 96,642% significa que de 100.000 transacciones efectuadas por un
servicio, 3.358 resultarían desfavorables. Los clientes insatisfechos, aquellos que
habrían estado fuera del porcentaje de transacciones perfectas, no regresarían jamás.
¿Qué pasaría si nos apartáramos de esa norma de calidad y estableciéramos una
ambiciosa meta del 99,9%? ¿Sería aceptable? En un informe especial sobre calidad,
publicado en 1991 en la revista Training, se aplicó esa norma a una serie de actividades.
Las cifras que obtuvieron fueron sorprendentes. Si el 99,9% fuera la verdadera norma
de rendimiento alcanzada en algunas actividades corrientes: (datos correspondientes a
USA)
- Las guarderías de hospitales entregarían 12 bebés por día a padres que no
corresponden.
- Las instituciones financieras descontarían 22.000 cheques de cuentas bancarias
equivocadas....cada 60 minutos.
- Los servicios de telecomunicaciones transmitirían 1.314 llamadas
erróneas.....cada 60 minutos.
Six Sigma 63
- Los productores cinematográficos utilizarían 811.000 rollos de películas
defectuosos para filmar escenas.
Por suerte las cosas funcionan mejor de lo previsto, así los informes reales muestran que
de los 67.000 pacientes quirúrgicos diarios, solamente 25 no lograrían salir del trance en
la actualidad. Esto significa un 0,037%, lo que equivale a un promedio de éxito del
99,963% (15 veces mejor que la norma del 99,9%). En el caso de las aerolíneas, si se
consideran los accidentes como defectos, su nivel actual sería de 6,5 Sigma. Pero en el
manejo del equipaje, el nivel es apenas del 3,5 Sigma.
Al igual que en la industria de los semiconductores, otras como la textil, la
siderúrgica, las máquinas herramientas, la electrónica, y la automotriz entre otras tantas
han visto perder competitividad, mercado y utilidades día a día por haber estado
ancladas a paradigmas que ya no eran válidos dentro del nuevo esquema mundial.
La empresa de finales de los ochenta parece haber encontrado su nuevo credo: el de la
calidad total. Las empresas que se limitaban a hacer el control a posteriori de su única
calidad presentaron la quiebra una tras otra. Las empresas de hoy si quieren sobrevivir,
deben trabajar para sus clientes más que para sí misma.
Algunos de los motivos que justifican la adopción de la calidad total como proyecto de
gestión son:
- El hecho de la llegada de una economía globalizada;
- La competencia desenfrenada en un mundo más interconectado e
interdependiente, i.e., la relación de fuerzas entre una demanda menos creciente
y una oferta múltiple, de aquí que los consumidores se vuelvan más exigentes y
reclamen mejor calidad a precios siempre más bajos;
- Que en occidente se haya ido observando un menor compromiso de los
trabajadores para con la empresa;
- La velocidad tecnológica y, en particular, la aceleración de la renovación
informática, la difusión de la información en todas las organizaciones y la
creciente capacidad de acceso a la misma de un número cada vez más importante
de personas; y
Six Sigma 64
- Que existe un proceso de calidad total y que ciertas economías lo han adoptado,
por lo que todas aquellas que no lo han hecho han visto abrirse a toda velocidad
un abismo en su competitividad.
En los años ochenta la TQM (Gestión de Calidad Total) fue muy popular, pero sufrió un
proceso de desgaste. Era menester generar un método que motivará un liderazgo por la
calidad. Esto se dio con la Six Sigma en función de tres características:
1. Six Sigma está enfocada en el cliente.
2. Los proyectos Six Sigma producen grandes retornos sobre la inversión. En un
artículo de la Harbara Budines Rebién, Passer y Reichheld señalan que las
compañías pueden ampliar sus ganancias en casi un 100% si retienen sólo un 5%
más de sus clientes gracias al logro de un alto grado de calidad.
3. Six Sigma cambia el modo que opera la dirección. Six Sigma es mucho más que
proyectos de mejora. La dirección y los supervisores aprenden nuevos enfoques
en la forma de resolver problemas y adoptar decisiones.
Así como en Japón empresas como Toyota, Honda, Mazda, Fujitsu, Cannon y NEC
entre otras fueron base del desarrollo del Just in Time y del Kaizen, en el caso de Six
Sigma empresas como Motorola, General Electric, Honeywell, Sears Roebuck,
American Express, Johnson & Johnson, Federal Express y Ford Motor le han servido
como plataforma de investigación y desarrollo.
Bases del éxito:
La nueva piedra filosofal de la calidad total permite a la empresa satisfacer siempre
mejor al cliente y siempre más barato. Se demuestra que la calidad no cuesta más caro;
al contrario, rinde porque permite vender. Lo que cuesta caro es la no-calidad, es decir,
el fracaso, los costes inútiles, los retrasos; todo esto es producto de una mala
organización que se le factura como multa al cliente y que le sorprende, le disgusta y
finalmente le desvía hacia otros proveedores, porque tienen de ahora en adelante el
dilema de elegir.
Six Sigma 65
5.2 Objetivo Llegar a los Seis Ceros: cero defectos, cero stocks, cero averías, cero plazos, cero
papeles y cero accidentes.
El objetivo global es a largo plazo, pero en las organizaciones nos vemos obligados a
presentar resultados a corto plazo también, mientras trabajamos en el largo plazo; Six
Sigma permite cumplir simultáneamente con ambos objetivos a la vez.
Los objetivos se pueden englobar en 3.
1. Mejora de procesos: Medir es necesario pero no suficiente a la larga, para
estimular a las personas a que realicen cambios. El análisis de los defectos por
millón y de sus correspondientes valores sigma dará una orientación acerca de
cuales son los procesos que tienen mayores potenciales de mejora; una vez hemos
detectado donde están los potenciales de mejora hemos de poner en práctica los
instrumentos y capacidades para mejorar estos procesos.
2. Mejora de productos: Six Sigma permite establecer una sistemática de mejora
continua de productos; pero con Six Sigma podemos ir mucho más allá, pues es un
apoyo excelente para el diseño robusto de productos y para una dinámica de
simplificación de productos.
Los ingenieros de diseño para desarrollar sus productos robustos y simplificados
necesitan conocer la capacidad de los procesos, con ello pueden reducir los costes de
fabricación al tiempo que diseñan productos con menor variabilidad en su proceso
de fabricación.
3. Una sistemática para la resolución de problemas: Cuando se presenta un
problema en un proceso, lo normal es que en primer lugar acudamos a nuestra
experiencia pasada para encontrar soluciones o buscar causas, luego acudimos a
procedimientos de análisis tipo Ishikawa, Pareto, etc. Estos métodos no siempre nos
llevan a soluciones óptimas.
Six Sigma nos aporta una sistemática más precisa y concluyente con la aplicación
del diseño de experimentos, la utilización adecuada del análisis de regresión, SPC y
otros muchos métodos estadísticos. La sistemática de medida y resolución de
problemas utilizando probadas técnicas estadísticas junto con una adecuada
Six Sigma 66
organización y entrenamiento de las personas es lo que en conjunto garantizan los
éxitos de Six Sigma.
Six Sigma 67
5.3 Definición Six Sigma implica tanto un sistema estadístico como una filosofía de gestión.
Podemos definir Six Sigma como:
• Una medida estadística del nivel de desempeño de un proceso o producto.
• Un objetivo de lograr casi la perfección mediante la mejora del desempeño.
• Un sistema de dirección para lograr un liderazgo duradero en el negocio y un
desempeño de primer nivel en un ámbito global.
La letra griega minúscula sigma (σ) se usa como símbolo de la desviación estándar,
siendo ésta una forma estadística de describir cuánta variación existe en un conjunto de
datos.
Técnicamente, calidad Six Sigma equivale a un nivel de calidad con menos de
0,000003 defectos por oportunidad (3 defectos por millón de oportunidades).
Desafortunadamente, no hay una regla, inmediata, sencilla y fácil para alcanzar tal nivel
de calidad. Six Sigma es una metodología que ayudara a alcanzar tal objetivo.
En la terminología de Six Sigma, los requerimientos y expectativas de los clientes
se llaman CTQs (Críticos para la Calidad).
A corto plazo aporta soluciones rápidas a problemas sencillos o repetitivos; a largo
plazo aporta una metodología de diagnóstico, diseño robusto, establecimientos de
tolerancias, al tiempo que aporta un medio sencillo de comunicación y establecimiento
de metas.
Aporta herramientas de mejora: diseño de experimentos, análisis de regresión,
tolerancias, diseño robusto y otros métodos sistemáticos para reducir la varianza.
No menos importante es la estructura organizativa que utiliza Six Sigma con los
Black Belt, empleados especialmente entrenados para mover a la organización a la
consecución de los objetivos marcados.
Six Sigma 68
El proceso iterativo de estos agentes de cambio y su método de resolución de
problemas se representa mediante el método DMAMC (Definir-Medir-Analizar-
Mejorar-Controlar), ver Figura 15:
Figura 15. Esquema método DMAMC Definir el problema
Debe definirse claramente en qué problema se ha de trabajar, ¿por qué se trabaja en ese
problema en particular?, ¿cuáles son los requerimientos del cliente?, ¿cómo se lleva a
cabo el trabajo en la actualidad?, ¿cuáles son los beneficios de realizar una mejora?
Enfocarse en el cliente. Las necesidades y requerimientos del cliente son fundamentales.
Siempre debe tenerse en cuenta que definir correctamente un problema implica tener un
50% de su solución.
Medir
El medir persigue dos objetivos fundamentales:
1. Tomar datos para validar y cuantificar el problema o la oportunidad de mejora.
Siempre es menester tener una clara noción de los defectos que se están produciendo
en cantidades y expresarlos también en valores monetarios.
DEFINIR
Six Sigma 69
2. Nos permiten y facilitan identificar las causas reales del problema.
El conocimiento de estadística se hace fundamental. “La calidad no se mejora, a no ser
que se la mida”.
Analizar
Verificar la causa raíz. Es menester llegar hasta la razón fundamental, evitando quedarse
solo en los síntomas. Para ello se hará uso de las distintas herramientas de gestión de la
calidad y estadísticas clásicas.
Mejorar
En esta etapa tiene mucha importancia la participación de todos los integrantes del
proceso, así como también la capacidad creativa.
La fase de mejora implica tanto el diseño como la implementación. En esta fase de
diseño es muy importante la actividad de benchmarking a efecto de detectar en otras
unidades de la misma empresa o en otras empresas (competidoras o no) formas más
efectivas de llevar a cabo un proceso.
Hay que romper los malos hábitos. Un cambio de verdad requiere soluciones creativas.
Controlar
Es necesario confirmar los resultados de las mejoras realizadas. Debe por tanto definirse
claramente unos indicadores que permitan visualizar la evolución del proyecto. Los
indicadores son necesarios pues no podemos basar nuestras decisiones en la simple
intuición. Los indicadores nos mostrarán los puntos problemáticos de nuestro negocio y
nos ayudarán a caracterizar, comprender y confirmar nuestros procesos, ver su impacto
real.
Mediante el control de resultados lograremos saber si estamos cubriendo las
necesidades y expectativas de nuestros clientes.
Sostener el cambio. La clave final es lograr que el cambio perdure.
Six Sigma 70
Las dos piedras angulares de Six Sigma:
1. Metodología sistemática
Six Sigma es una metodología sistemática para reducir costes de forma preactiva,
concentrándose en la mejora de los procesos más que reaccionando corrigiendo
fallos una vez ocurridos. Six Sigma se basa en mediciones más que en experiencias
pasadas, por ello es una metodología aplicable a un amplio campo de actividades
empresariales. Conceptualmente Six Sigma exige que cada problema se resuelva a
partir de una relación de la forma:
Y=f(x,y,...z); donde Y es la variable dependiente ;
x,y,..z: variables independientes.
Six Sigma aporta las enseñanzas para encontrar dicha ecuación, y requerirá ayuda
estadística.
2. Black Belts
Son los agentes de cambio, entrenados en el uso de métodos estadísticos. Hay quien
los llama "comandos infiltrados”, están bien entrenados y se les asignan objetivos
ambiciosos.
Estos agentes de cambio conocen bien la propia organización, los productos y las
personas y se les enseña la metodología Six Sigma.
Los dos dinamizadores de la Six Sigma:
1. El primero es la reducción de los costes ocasionados por la deficiente calidad. Six
Sigma se orienta hacia resultados concretos, beneficios en la cuenta de resultados,
que son beneficios a largo plazo; pero con la metodología Six Sigma se enfatizan
resultados a corto plazo mientras trabajamos para obtener resultados a largo plazo.
Se trata de reducir los costes mejorando la calidad, específicamente luchamos contra
las equivocaciones, los fallos, no solo los que se detectan en el banco de pruebas,
sino incluyendo, por ejemplo el de aceptar márgenes demasiado amplios con el
consiguiente aumento de coste, defectos que provocan repetición de trabajos,
Six Sigma 71
defectos administrativos, trabajos innecesarios, etc. Todos los defectos, son por
supuesto, trabajos sin valor añadido. Actualmente el nivel de defectos oscila entre el
15 y 20 % de la facturación, esto es una buena indicación del potencial de ahorro
que tenemos en nuestras manos.
2. El segundo dinamizador es la ruptura de la complacencia. Six Sigma impulsa hacia
una sensación de urgencia y necesidad de situarse en los niveles de estándar
mundial. Six Sigma es un instrumento esencial para crear tal concienciación, con el
propósito último de mejorar la rentabilidad y competitividad.
Los seis principios de Six Sigma:
Principio 1: Enfoque al cliente
El enfoque principal es dar prioridad al cliente. Las mejoras Six Sigma se evalúan por el
incremento en los niveles de satisfacción y creación de valor para el cliente.
Principio 2: Dirección basada en datos y hechos
El proceso Six Sigma se inicia estableciendo cuales son las medidas claves a medir,
pasando luego a la recolección de los datos para su posterior análisis. De tal forma los
problemas pueden ser definidos, analizados y resueltos de una forma más efectiva y
permanente, atacando las causas raíces o fundamentales que los originan, y no sus
síntomas.
Principio 3: Los procesos están donde está la acción
Six Sigma se concentra en los procesos.
Principio 4: Dirección preactiva
Ello significa adoptar hábitos como por Ej. definir metas ambiciosas y revisarlas
frecuentemente, fijar prioridades claras, enfocarse en la prevención de problemas y
cuestionarse por qué se hacen las cosas de la manera en que se hacen.
Six Sigma 72
Principio 5: Colaboración sin barreras
Debe ponerse especial atención en derribar las barreras que impiden el trabajo en equipo
entre los miembros de la organización, logrando de tal forma mejor comunicación y un
mejor flujo en las labores.
Principio 6: Búsqueda de la perfección
Las compañías que aplican Six Sigma tienen como meta lograr una calidad cada día más
perfecta, estando dispuestas a aceptar y manejar reveses ocasionales.
Six Sigma 73
5.4 Formación y Entrenamiento
No cabe duda de que un aspecto imprescindible de una iniciativa como Six Sigma se
sustenta en una formación adecuada de todas las personas que intervienen en el proceso.
Una empresa que ha decidido incorporar en sus procesos de desarrollo la Six Sigma
debe de tener adecuadamente informados a todos sus empleados y aportarles la
formación necesaria en función de su nivel de participación.
Mucho se ha dicho acerca de la importancia del papel de la dirección en
cualquier actividad de una empresa, esto es tan evidente que no haría falta decirlo; pero
muchas iniciativas de mejoras, lentas o rápidas, a largo plazo o a corto, con muchos
recursos o pocos, han fracasado por falta de actuación de la dirección. Cuando
acudimos a reuniones de calidad siempre se cita la importancia de la participación de la
dirección. Six Sigma facilita esta comunicación con la dirección ya que enseña a
cuantificar los costes y beneficios de las iniciativas de mejora.
También es importante informar al cliente de nuestras iniciativas o al menos de
explotar las ventajas adquiridas, obteniendo la evaluación de los resultados por parte del
cliente.
Los esfuerzos de Six Sigma se dirigen a tres áreas principales:
- Mejorar la satisfacción del cliente
- Reducir el tiempo del ciclo
- Reducir los defectos
Las mejoras en estas áreas representan importantes ahorros de costes, oportunidades
para retener a los clientes, capturar nuevos mercados y construirse una reputación de
empresa de excelencia.
En la Tabla 3 se resume el tipo de formación que se imparte en una empresa grande y a
quien.
Six Sigma 74
Six Sigma para directivos �Blancos� �Amarillos�
�Verdes� �Black Belt� Ingeniería
Contenido principal
Requisitos del BB Muy básico Básico Normal Completo Avanzado
Duración 2 días 1 día 2 días 4 días 13 días 15 días Directores generales, de planta, división..
X
Directores de ingeniería, producción, calidad
X
Otros directores X O Ingenieros de diseño, de producción
X O O
Ingenieros de calidad X O
Gestión de aprovisionamiento X O
Contabilidad, personal, planificación
X O
Pruebas, marketing X
Tabla 3. Formación Six Sigma en una empresa.
Fases de implantación
Un plan exitoso de Six Sigma comprende cuatro etapas fundamentales, cada una de las
cuales esta constituidas por sub-etapas (las cuales pueden desarrollarse en forma
paralela)
1º Decisión del Cambio
2º Despliegue de Objetivos y Capacitación
Estrategia de implantación
3º Desarrollo del Proyecto
4º Evaluación de Beneficios
Six Sigma 75
Desarrollando las fases:
1. Identificación y selección de proyectos. La dirección considera los diversos
proyectos de mejora presentados, seleccionando los más prometedores en función de
posibilidades de implementación y de los resultados obtenibles. El proyecto tiene
que tener un beneficio tanto para el negocio, como para los clientes. El uso del
Diagrama de Pareto es una herramienta beneficiosa para dicha selección.
2. Se procede a la formación de los equipos, entre los cuales se encuentra el Líder del
grupo (Cinturón Negro), para lo cual se involucrarán a aquellos individuos que
posean las cualidades necesarias para integrarse al proyecto en cuestión.
3. Desarrollo del documento marco del proyecto. El documento marco es clave como
elemento en torno al cual se suman las voluntades del grupo, sirviendo de guía para
evitar desvíos y contradicciones. El mismo debe ser claro, fijar claramente los
límites para los recursos y plazos, y el objetivo a lograr.
4. Capacitación de los miembros del equipo. Los mismos son capacitados, de no
contar ya con conocimientos y/o experiencia en Six Sigma, en estadísticas y
probabilidades, herramientas de gestión, sistema de resolución de problemas y toma
de decisiones, creatividad, pensamiento lateral, métodos de creatividad,
planificación y análisis de procesos.
5. Ejecución del DMAMC e implementación de soluciones. Los equipos deben
desarrollar los planes de proyectos, la capacitación a otros miembros del personal,
los procedimientos para las soluciones y son responsables tanto de ponerlos en
práctica como de asegurarse de que funcionan (midiendo y controlando los
resultados) durante un tiempo significativo.
6. Traspaso de la solución. Después de cumplidos los objetivos para los cuales fueron
creados, los equipos se disuelven y sus miembros vuelven a sus trabajos regulares o
pasan a integrar equipos correspondientes a otros proyectos.
Antes de que esto ocurra habrá que evaluar los beneficios generados a nivel de
rendimiento, sigma, ahorros y Dpmo.
Six Sigma 76
Cinturones y Líderes
Como una forma de identificar a determinados miembros del personal que cumplen
funciones específicas en el proceso de Six Sigma, e inspirados en las artes marciales
como filosofía de mejora continua y elevada disciplina, se han conferido diversos
niveles de cinturones para aquellos miembros de la organización que lideran y ayudan a
liderar los proyectos de mejoras.
Así con el Cinturón Negro (Black Belt) tenemos a aquellas personas que se dedican a
tiempo completo a detectar oportunidades de cambios críticas y a conseguir que logren
resultados. El Cinturón negro es responsable de liderar, inspirar, dirigir, delegar,
entrenar y cuidar de los miembros de su equipo. Debe poseer firmes conocimientos
tanto en materia de calidad, como en temas relativos a estadística, resolución de
problemas y toma de decisiones.
El Cinturón Verde (Green Belt) está formado en la metodología Six Sigma, sirviendo
como miembro de equipo, sirviendo de apoyo a las tareas del Cinturón Negro. Sus
funciones fundamentales consisten en aplicar los nuevos conceptos y herramientas de
Six Sigma a las actividades del día a día de la organización.
El Primer Dan (Máster Black Belt o Maestro Cinturón Negro) sirve de entrenador,
mentor y consultor para los Cinturones Negros que trabajan en los diversos proyectos.
Debe poseer mucha experiencia en el campo de acción tanto en Six Sigma como en las
operatorias de fábrica, administrativas y de servicios.
Espónsor (Champion), es un ejecutivo o directivo que inicia y patrocina a un Black Belt
o a un equipo de proyecto. Una especie de mecenas. El mismo forma parte del Comité
de Liderazgo, siendo sus responsabilidades: garantizar que los proyectos están alineados
con los objetivos generales del negocio y proveer dirección cuando eso no ocurra,
mantener informados a los otros miembros del Comité de Liderazgo sobre el progreso
del proyecto, proveer o persuadir a terceros para aportar al equipo los recursos
necesarios, tales como tiempo, dinero, y la ayuda de otros. Conducir reuniones de
revisión periódicas y negociar conflictos y efectuar enlaces con otros proyectos Six
Sigma.
Six Sigma 77
Líder de Implementación, a cargo de la figura máxima y cercana a ese nivel máximo, es
responsable de la puesta en práctica del sistema Six Sigma y de los resultados que este
arroje para la organización, siendo el estratega fundamental del sistema.
Six Sigma 78
5.5 Medición de la Calidad
La calidad es cuantificable y debe de cuantificarse. Para cuantificar la calidad hay que
expresar la calidad en números y actuar en función de los valores medidos. Cuantificar
la calidad en números y llevar a cabo acciones concretas para su mejora nos asegura una
metodología de mejora continua de la calidad.
Esto es válido tanto para la calidad de productos fabricados como para la prestación
de servicios y para el diseño de nuevos productos. Para la mejora continua de los
diseños es imprescindible que los ingenieros de diseño conozcan cómo evoluciona la
calidad del producto diseñado.
Empresas que adoptan la sistemática Six Sigma obligan que en sus procesos de
fabricación se midan un mínimo de parámetros para determinar con ellos el valor sigma
de la planta. Cuando en una planta se tiene establecida un sistema de medida Six Sigma,
se obtienen el Valor Sigma de toda la planta, de cada uno de los procesos principales, de
los productos individuales, de los proveedores más representativos, de las distintas
secciones de la planta, etc. Y todos estos valores se pueden determinar para cada uno de
los intervalos de tiempo que se desee. Es de gran utilidad expresar estos valores en una
gráfica en función del tiempo.
¿Qué debemos medir: ?
La respuesta nos lo dará la experiencia y el conocimiento del proceso específico que
estamos estudiando.
Algunas reglas generales para seleccionar las variables de medida que se deben de
medir:
• Variables importantes para el negocio (características del producto, contenido de
mano de obra y materiales incluyendo chatarra y tiempo de ciclo...).
• Aquello que es rentable mejorar y aquellas variables que deseas modificar con los
programas de mejora.
• Aquellas variables que tienen que garantizar que los programas en marcha den
resultados.
• Las necesarias para garantizar que las mejoras son duraderas.
Six Sigma 79
Debemos tener en cuenta que un cliente insatisfecho contará su desafortunada
experiencia a entre nueve y diez personas, o incluso más si el problema es serio. Y por
otro lado el mismo cliente sólo se lo dirá a tres personas si el producto o servicio lo ha
satisfecho. Ello implica que un alto nivel de fallos y errores son una fácil ruta hacia la
pérdida de clientes actuales y potenciales.
NIVELES DE DESEMPEÑO EN SIGMA
Tabla 4. Distintos niveles de sigma La meta de Six Sigma es especialmente ambiciosa cuando se tiene en cuenta que
antes de empezar con una iniciativa de Six Sigma, muchos procesos operan en niveles
de 1, 2 y 3 sigma, especialmente en áreas de servicio y administrativas.
A continuación se detallará cómo se calculan los valores sigma a partir de las medidas
de defectos por millón. Antes de iniciar la sistemática de medida debe de informarse a
todos los empleados de la sistemática, los planes y metas.
Sigma (σ) es un parámetro estadístico de dispersión que expresa la variabilidad de un
conjunto de valores respecto a su valor medio, de modo que cuanto menor sea sigma,
menor será el número de defectos. Sigma cuantifica la dispersión de esos valores
respecto al valor medio.
Así pues cuando más cercanos estén los valores de las mediciones al Valor Central
Optimo, más pequeño será es valor de sigma, (y habrá menos defectos) y de tal forma
mayor números de sigmas entrarán dentro de los límites de especificación.
Nivel de sigma
Defectos por millón de oportunidades
6 3,40 5 233,00 4 6.210,00 3 66.807,00 2 308.537,00 1 690.000,00
Six Sigma 80
En un nivel 6 sigma entran en el espacio existente entre la Tolerancia Superior (USL,
Upper Specific Limit) y la Tolerancia Inferior (LSL, Lower Specific Limit) un total de
12 sigmas.
Figura 16. Nivel 3 sigma: controlado y apenas capaz de satisfacer los requerimientos del cliente. Producirá 66 807 defectos por millón de oportunidades.
Figura 17. Nivel 6 sigma: controlado y muy capacitado para cumplir las especificaciones del cliente. Producirá 3.4 defectos por millón de oportunidades.
Siempre que la medición esté dentro del intervalo USL-LSL diremos que el
producto o servicio es conforme o de calidad. En este caso se siguen las ideas de
Crosby, quien considera la calidad como sinónimo de cumplimiento de las
especificaciones.
Cómo cuantificamos la calidad en cifras:
Calcular el nivel de sigmas para la mayoría de los procesos es bastante fácil. Dado un
determinado producto o servicio, se determina los factores críticos de calidad (FCC o
CTQs), luego se multiplican estos por la cantidad de artículos producidos obteniéndose
el total de defectos factibles (oportunidades de fallos). Si dividimos los fallos detectados
Límites especificación cliente
Límites especificación cliente
Six Sigma 81
(con los distintos sistemas de medición en función del tipo de bien o servicio) por el
total de defectos factibles (CTQ) y luego lo multiplicamos por un millón obtenemos los
defectos por millón de oportunidades (DPMO). Luego revisando la tabla de sigma se
tienen los niveles de sigma.
Cada uno de los parámetros que vayamos a medir puede implicar una o varias
oportunidades.
CTQ × Nº artículos producidos = Total defectos factibles = Oportunidades de fallo
Dpmo= (factiblesdefectosTotal
dectadosFallos) × 1.000.000
Cuando se contabilizan varios dpmo de puede calcular un dpmo global y este dpmo se
puede convertir en valor sigma
DPMO
0
100.000
200.000
300.000
400.000
500.000
600.000
700.000
800.000
900.000
1.000.000
0,00 1,00 2,00 3,00 4,00 5,00 6,00 7,00
Figura 18. Nivel de Sigma.
Six Sigma 82
Estadística básica:
La mayoría de los procesos productivos siguen una distribución normal, con una
distribución de frecuencias siguiendo la campana de Gauss y con una probabilidad de
que algunos valores queden fuera de los límites superior e inferior; esta probabilidad es
lo que entendemos por "probabilidad de defecto"
Nuestro proceso será tanto más fiable cuanto mas centrada respecto a los límites y
cuanto mas estrecha y alta sea la campana. Una campana achatada y descentrada es
consecuencia de grandes probabilidades de defectos. De forma gráfica, el área de la
campana de Gauss que queda fuera de la zona marcada por los límites superior e
inferior es precisamente la probabilidad de defecto. Por ejemplo, en la Figura 19, las
zonas señaladas por las flechas naranjas son las que no cumplen con los requerimientos.
Figura 19. Probabilidad de no cumplir las especificaciones.
Para calcular el porcentaje de productos que cae fuera de las especificaciones, p1 y p2, se
usa el valor Z y la tabla de la distribución normal estándar.
• El porcentaje que no llega al límite de especificación inferior: p1
Zlower = X –LSE / σ
p1 p2
Six Sigma 83
El resultado, con dos decimales, indica que el LSE está situado a una distancia
Zlowerσ de la media total. Introduciendo este valor de Z en la tabla de la normal
obtendremos la probabilidad de que ocurra esto.
• El porcentaje que sobrepasa el límite de especificación superior: p2
Zupper = USL– X / σ
Indica cuántas desviaciones estándar estimadas existen entre la media total y el
límite de especificación superior. Introduciendo este dato en la tabla de la
normal obtendremos la probabilidad p2 de fabricar productos que estén por
encima de la especificación superior.
• p1 + p2 nos da el porcentaje de productos fabricados que no cumplen las
especificaciones o requerimientos del cliente.
Figura 20. Suma de p1 + p2
Es frecuente que se den dos límites en las especificaciones LSL y USL, por tanto hemos
de considerar ambas áreas que quedan fuera de la curva. Ver Figura 20. La probabilidad
total de defecto será la suma de la probabilidad de exceder el límite superior más la de
exceder el limite inferior. En este caso, para el cálculo del valor Z se suman ambas
probabilidades.
El número Z es lo que en Six Sigma denominamos valor sigma cuando
únicamente tenemos un límite superior, como es el caso de la Figura 21.
Six Sigma 84
Figura 21. Un solo límite.
A corto plazo únicamente influyen fenómenos aleatorios. Cuando hablamos a largo
plazo intervienen fenómenos aleatorios y perturbaciones, o más conocido como ruido.
En Six Sigma lo que en primer lugar nos interesa eliminar es el ruido, al igual que en el
Diseño Robusto, de ahí que para conseguir productos y procesos robustos se deba
trabajar con un marco de trabajo como el Six Sigma.
Six Sigma 85
5.6 Beneficios
Podemos considerar a la Six Sigma como la nueva piedra filosofal de la calidad total
que permite a la empresa satisfacer mejor al cliente y siempre más barato. Esto ha sido
la clave de su éxito. Se demuestra que la calidad no cuesta más caro; al contrario, rinde
porque permite vender. Lo que cuesta caro es la no-calidad, es decir, el fracaso, los
costes inútiles, los retrasos; todo esto es producto de una mala organización que se le
factura como multa al cliente y que le sorprende, le disgusta y finalmente le desvía hacia
otros proveedores, porque tienen de ahora en adelante el dilema de elegir.
Las mejoras producidas se evalúan después de la implementación de los cambios
resultantes del desarrollo de los diversos proyectos. Ello se manifiesta tanto en niveles
de rendimientos, como en niveles de sigma, DPMO y ahorros obtenidos. Además, será
conveniente hacer un seguimiento constante de los niveles de satisfacción tanto de los
clientes internos como externos.
Objetivos difíciles pero alcanzables son los que mejores resultados dan. No se debe
esperar que en un año podamos pasar de un nivel de calidad de 3 a 4 Valor Sigma, el
valor global tardará probablemente más tiempo en alcanzarse.
VMEA 86
6. ANÁLISIS MODAL DE VARIACIONES Y EFECTOS
Es esencial para las grandes compañías gestionar las variaciones no deseadas para poder
mejorar la calidad y la fiabilidad de sus productos y procesos (de ahora en adelante
usaremos el término producto tanto para producto como para un proceso). Con ese
propósito, numerosos proyectos de mejora de la calidad son llevados a cabo. Estos
proyectos, siempre conducidos bajo el marco de trabajo de la Six Sigma, han
proporcionado ahorros significativos en los costes, han mejorado la fiabilidad y han
aumentado la satisfacción del cliente. De hecho, es bien sabido que la variación causa
pérdidas económicas.
La variación en el funcionamiento o desarrollo del producto puede ser atribuida a
diferentes fuentes, generalmente conocidas como factores de ruido (NFs). Los factores
de ruido son las fuentes de variación que afectan al funcionamiento del producto y no
pueden ser controladas generalmente por los diseñadores. Una forma de controlar la
variación indeseada es dirigirse a la fase del diseño del producto y hacer las
características del producto insensibles a los factores de ruido. Esta metodología hace
referencia a un diseño robusto.
El uso del Diseño de experimentos (DoE) es aconsejable para lograr un diseño
robusto de una forma científica y eficiente. Sin embargo, sin un buen conocimiento del
producto bajo estudio, el uso directo del DoE quizá requiera un gran número de pruebas
experimentales. Los altos costes de los experimentos siempre desaniman a los
ingenieros y directores a hacer experimentos encaminados a lograr un diseño robusto.
Así que se necesita un trabajo preparatorio antes de comenzar las pruebas.
Un procedimiento sugerido para planificar y dirigir el diseño de experimentos es
mantener una sesión de ‘brainstorming’ para así identificar los factores controlables y
las fuentes de variación antes de que se lleve a cabo el experimento. Algunos de los
siguientes pasos a realizar serían definir el problema, elegir los factores y niveles y
elegir la respuesta. También sería recomendable usar una guía de pre-diseño para
facilitar la planificación y el diseño, y documentar el experimento industrial de forma
sistemática. Sin embargo ningún autor comenta como valorar y priorizar los factores de
6.1 Introducción
VMEA 87
ruido y estimar su impacto en las variables de respuesta importantes, especialmente
antes de desarrollar el experimento.
Aunque abordar los riesgos relacionados con la variación a través de un desarrollo
del producto es de gran importancia para entregar productos de gran calidad y
confianza, sólo un número limitado de publicaciones han sido dedicados a este asunto
durante los pasados años. Thornton presenta la Gestión del Riesgo de la Variación como
una nueva disciplina, en particular da un interesante marco de trabajo para gestionar la
variación en sistemas complejos. Pero tiene dos limitaciones:
1) Conlleva factores de coste y especialmente coeficientes relacionados con los costes
que son difíciles de calcular
2) Se refiere a las herramientas y técnicas esencialmente útiles en la fabricación como el
principal medio par reducir la variación.
Presentamos aquí un método práctico disponible para gestionar la variación, el
Análisis Modal de Variaciones y Efectos o VMEA, encaminado a abordar la variación
en todo el desarrollo del producto, un método de ingeniería basado en la estadística y
cuyo propósito es hacer una valoración sistemática de los factores que afectan a las
características clave del producto (KPCs), a través de un estudio de las fuentes de
variación y una valoración de sus efectos en las KPCs. El procedimiento del VMEA fue
inicialmente inspirado por el Análisis Modal de Efectos y Fallos (FMEA) y el Análisis
del Árbol de Fallos (FTA), métodos que están bien expandidos actualmente en la
industria gracias a su simplicidad y su utilidad.
El Análisis Modal de Variaciones y Efecto puede ser usado en situaciones donde la
función de transferencia, i.e. la relación entre la KPC y los factores que las afectan, es
desconocida. Inversamente, cuando la expresión analítica de la función de transferencia
es conocida, el VMEA se corresponde con el bien conocido Método de los Momentos.
El VMEA es particularmente útil para apoderarse de información de la función de
transferencia normalmente dominada por los expertos en el producto bajo estudio. Los
resultados del VMEA entonces sirven como base para lograr un diseño robusto usando
el DoE tradicional en las fases de ‘diseño de los parámetros y la tolerancia’.
VMEA 88
Este estudio tiene la siguiente estructura:
• Método VMEA
• El VMEA para establecer una teoría estadística, i.e. el Método de los Momentos
• Discusión del método
• Conclusión
Este capítulo describe un método de ingeniería basado en la estadística, el VMEA, que
facilita una comprensión de la variación y señala las áreas del producto/proceso a las
que se debe dirigir los esfuerzos de mejora. Una aplicación industrial también es
descrita para ilustrar cómo el VMEA puede ser usado para propósitos de mejora de la
calidad.
VMEA 89
6.2 Objetivo El Análisis Modal de Variaciones y Efecto (VMEA) es un método de ingeniería
desarrollado para buscar de forma sistemática los factores de ruido que afectan a las
características clave del producto (KPCs). Dirigido por unas bases regulares, el
propósito del VMEA es identificar y priorizar los factores de ruido que contribuyen de
una forma más significativa a la variabilidad de las KPCs y que podrían ocasionar
consecuencias indeseadas respecto a la seguridad, la conformidad con regulaciones
gubernamentales, y requerimientos funcionales. Como resultado del análisis, se calcula
un Número de la Prioridad del Riesgo de la Variación (VRPN), dirigiendo la atención a
áreas donde una variación podría ser perjudicial. Basándose en los resultados obtenidos
con el VMEA, se puede formular una estrategia del ruido mejorada, facilitando los
consecuentes esfuerzos para obtener productos robustos y fiables.
Sensibilidad VRPN
Prioridad Areas
Críticas
KPCs Sub-KPC
NFs
VMEA 90
6.3 Análisis Modal de Variaciones y Efectos
El VMEA es un método de ingeniería basado en la estadística y encaminado a guiar a
los ingenieros a encontrar áreas críticas en términos de los efectos de una variación no
deseada. Antes de hacer un VMEA, es necesario definir un conjunto de Características
del Producto (PCs) y seleccionar aquella o aquellas que sean de particular interés desde
el punto de vista de la variación. Se definen las Características del Producto Clave
(KPCs) como las características donde una variación indeseada puede tener un impacto
sustancial en la seguridad, coste final, conformidad con las leyes gubernamentales o los
requerimientos funcionales. Algunas técnicas sistemáticas, como el despliegue de la
función de la calidad, son adecuadas para generar Características del producto. Aparte
de esto, un equipo de ingenieros puede hacer una lista de PCs en una sesión de
brainstorming, y seleccionar una o más KPCs. La Figura 22 es una ilustración gráfica
del proceso de selección de KPC seguido en una sesión de VMEA.
Figura 22. Proceso de selección de las KPCs y VMEA
Necesidades y requerimientos del
cliente
PCs KPCs
VMEA
1. Desglose de KPCs 2. Valoración de la
sensibilidad 3. Valoración del
tamaño de la variación
4. Calculo del riesgo de la variación
Brainstorming
VMEA 91
El procedimiento del VMEA consiste en cuatro pasos:
Paso 1: Desglose detallado y causal de las Características Clave del Producto
Paso 2: Valoración de la sensibilidad
Paso 3: Valoración del tamaño de la variación
Paso 4: Valoración del Riesgo de la Variación y Prioritización
Los próximos cuatro apartados describen cada paso en detalle.
Glosario de Términos
VMEA-Variation Mode and Effects Analysis-Análisis Modal de Variaciones y
Efectos
Método para analizar los efectos causados en un producto por las variaciones
producidas por diferentes causas. Método de fácil uso para obtener una vista general
“estratégica” de los riesgos que diferentes parámetros pueden implicar en el desarrollo
total del proyecto. El FMEA (Análisis Modal de Fallos y Efectos) ha sido la base de
este nuevo método.
KPC-Característica clave del producto/proceso – Key Product/Process
Characteristic)
Una KPC es una característica clave del producto/proceso para la que las variaciones no
deseadas podrían tener un efecto importante en la seguridad del producto/proceso, en la
satisfacción de regulaciones gubernamentales o sobre requisitos de funcionamiento.
Sub-KPC
Un Sub-KPC es un elemento del producto/proceso mediante el cual se transmiten las
variaciones a las KPCs. Un Sub-KPC normalmente puede ser controlado por el
diseñador.
NF-Factor de Ruido-Noise Factor
Los factores de ruido son fuentes de variación que afectan al producto/proceso. Un
factor de ruido no puede ser controlado normalmente por el diseñador. Ejemplos típicos
son aquellos ruidos originados por el uso del producto y variaciones en la producción.
VMEA 92
VRPN-Valor de la Prioridad de Riesgo de la Variación- Varition Risk Priority
Number
El Valor de la Prioridad de Riesgo de la Variación indica el orden en el cual las
actividades destinadas a la reducción de la variación deberían llevarse a cabo.
VMEA 93
6.3.1 Paso 1: Desglose Causal de las Características Clave del Producto Una vez se ha seleccionado una KPC, normalmente se puede descomponer en un
número de sub-elementos llamados Sub-KPCs. Las Sub-KPCs son características de
cada producto o componentes del producto o del proceso de fabricación cuyos valores
afectan a la KPC. Por lo general son conocidas y controlables. Además, cada Sub-KPC
puede estar afectada a su vez por un número de Factores de Ruido (NFs).
Una clasificación muy común distingue los NFs que se manifiestan y actúan durante
la producción de aquellas que actúan durante el uso del producto. El primer tipo
determina las diferencias entre productos fabricados para cumplir con las mismas
especificaciones (variación uno-a-uno). El segundo tipo resulta de los diferentes
comportamientos de una misma muestra de un producto cuando se usa repetidamente
(variación en-uso). Los NFs que se presentan durante el uso pueden a su vez dividirse
en: causados por fuentes internas o externas. Las fuentes externas pueden ser
condiciones del entorno/ de operación que cambian con el tiempo y con le lugar cuando
se usa el producto. Las fuentes internas pueden ser las condiciones del producto en si
mismas, que cambian con el tiempo cuando es usado, debido a la acción de procesos
físicos que causan desgaste o degradación.
Otra clasificación de los NFs también es posible, basada en el grado de conocimiento
sobre ellos y su manejabilidad. En la Figura 23 se muestra un plan resumido de las dos
clasificaciones de NFs.
VMEA 94
Figura 23. Dos posibles clasificaciones de los Factores de Ruido
El desglose causal de la KPC es el primer paso en facilitar un entendimiento de la
variación. Se representa gráficamente en la Figura 24 en un diagrama causa-efecto.
NFs
Desconocidas
Conocidas
Inobservables
Observables
Incontrolabl
Controlables
NF
Producción Variación uno a uno
en uso
Externo (entorno/ condiciones operación)
Interno (desgaste/ degradación)
VMEA 95
Figura 24. Desglose de la KPC en Sub-KPCs y Factores de Ruido
De hecho, puede haber diferentes niveles de Sub-KPCs (Ej. Sub-Sub-KPCs). Sin
embargo, por propósitos de ilustración, nos referimos sólo a las Sub-KPCs en esta
sección, i.e. al primer nivel. Además se asume que los NFs sólo pueden afectar a las
KPCs a través de las Sub-KPCs. Una formulación más general del problema se discutirá
en la Sección 3.
Los pasos a seguir para la construcción de un Diagrama Causa-Efecto o de la Espina de
Pescado son:
1. Definir el resultado o efecto a analizar. KPC. Esta función debe estar hecha en
términos operativos, lo suficientemente concretos para que no exista duda sobre
qué se pretende, de manera que el efecto estudiado sea comprendido
satisfactoriamente por los miembros del equipo.
2. Situar el efecto o característica a examinar en el lado derecho de lo que será el
diagrama, enmarcado en un recuadro. En éste debe aparecer, al menos, una
breve descripción del efecto.
3. Trazar una línea hacia la izquierda, partiendo del recuadro.
4. Identificar las causas principales que inciden sobre el efecto .Sub-KPC. Éstas
serán las ramas principales del diagrama y constituirán las categorías bajo las
cuales se especificarán otras posibles causas.
VMEA 96
Para cada problema u objetivo, se definirán las que se consideren más relevantes
en cada caso. Sí es conveniente que sean más de dos y menos de seis.
5. Situar cada una de las categorías principales de causa en sendos recuadros
conectados con la línea central. Mediante un conjunto de líneas inclinadas.
6. Identificar, para cada rama principal, otros factores específicos que puedan ser
causa del efecto. NF. Estos factores conformarán las ramas de segundo nivel. A
su vez, éstas podrán expandirse en otras de tercer nivel, y así sucesivamente.
Para esta expresión recurrente será útil emplear series de preguntas iniciadas
con: por qué. Así mismo, para desplegar las ramas y sus distintos niveles, puede
usarse el método de Tormenta de Ideas o Brainstorming.
El número de niveles no está limitado de forma que puede darse la circunstancia
de que sea necesario seccionar el diagrama en otros pequeños diagramas si
aparece un elevado número de niveles e una o más ramas.
7. Verificar la inclusión de factores. Será preciso repasar el diagrama para asegurar
que se han incluido en él todos los factores causales posibles.
8. Analizar el diagrama. El análisis debe ayudar a identificar las causas reales. Un
Diagrama Causa-Efecto identifica únicamente causas potenciales. Por tanto, será
preciso llevar a cabo una recordatorio de datos posterior, y su pertinente análisis,
para llega a conclusiones sólidas sobre las causas principales del efecto. En esta
fase, el Diagrama de Pareto puede ser utilizado como valiosa herramienta.
VMEA 97
6.3.2 Paso 2: Valoración de la Sensibilidad En el segundo paso del procedimiento, los ingenieros valoran la sensibilidad de la KPC
a la acción de cada Sub-KPC y la sensibilidad de cada Sub-KPC a la acción de los NFs.
Para valorar la sensibilidad, los ingenieros pueden usar medidas objetivas o
valoraciones subjetivas basadas en su experiencia y conocimientos teóricos. Como no
siempre es posible obtener medidas objetivas, especialmente en las fases más tempranas
del desarrollo, nosotros proponemos utilizar criterios de valoración subjetivos para
tomar el conocimiento de los ingenieros sobre las sensibilidades. La valoración está en
una escala de 1 a 10, donde el 1 corresponde con una sensibilidad muy baja y 10 se
corresponde con una sensibilidad muy alta. El criterio se explica en la Tabla 5.
Criterio 1: Criterio de evaluación de la sensibilidad
Puntuación
Muy baja sensibilidad. Un cambio en un parámetro es muy poco probable que cause cambios sustanciales en el otro.
1-2
Baja sensibilidad. Un cambio en un parámetro es poco probable que cause cambios sustanciales en el otro.
3-4
Sensibilidad moderada. Un cambio en un parámetro es probable que cause cambios sustanciales en el otro.
5-6
Sensibilidad alta. Un cambio en un parámetro es bastante probable que cause cambios sustanciales en el otro.
7-8
Sensibilidad muy alta. Un cambio en un parámetro es muy probable que cause cambios sustanciales en el otro.
9-10
Tabla 5. Criterio de valoración de la sensibilidad.
VMEA 98
6.3.3 Paso 3: Valoración del Tamaño de la Variación En el tercer paso, los ingenieros examinan los NFs y estiman la magnitud de su
variación en las condiciones de operación. En la Tabla 6, proponemos un criterio de
valoración subjetivo para medir el conocimiento de los ingenieros sobre la magnitud de
una variación del factor de ruido. La valoración está basada en una escala del 1 al 10,
donde el 1 corresponde a una variación muy baja y el 10 corresponde a una variación
muy alta.
Criterio 2: Criterio del evaluación de la variación del factor de ruido
Puntuación
Muy poca variabilidad del factor de ruido en condiciones de operación, es decir , a pesar de las condiciones de operación la dispersión del factor de ruido continua siendo muy pequeña.
1-2
Poca variabilidad del factor de ruido en condiciones de operación, es decir, a pesar de las condiciones de operación la dispersión del factor de ruido continua siendo bastante pequeña.
3-4
Moderada variabilidad del factor de ruido en condiciones de operación, es decir, a pesar de las condiciones de operación, la dispersión del factor de ruido continua siendo pequeña.
5-6
Alta variabilidad del factor de ruido en condiciones de operación, es decir, la dispersión del factor de ruido es grande.
7-8
Gran variabilidad del factor de ruido en las condiciones de operación, es decir, la dispersión del factor de ruido es muy grande.
9-10
Tabla 6. Cálculo de variación del factor de ruido.
VMEA 99
6.3.4 Paso 4: Valoración del Riesgo de la Variación y Prioritización Basándose en la valoración hecha en los tres pasos previos, se calcula el Número de la
Prioridad del Riesgo de Variación (VRPN) para los factores de ruido y teniendo en
cuenta cada Sub-KPC.
VRPN NF/ Sub-KPC =S12 S2
2 V2 (1)
Aquí:
S1, es la sensibilidad de la KPC a la acción de la Sub-KPC que está influenciada a su vez
por el NF (valorado en el paso 2);
S2, es la sensibilidad de la Sub-KPC a la acción del NF (valorado en el paso 2);
V, es el tamaño de la variación del NF (valorado en el paso 3).
Si uno y el mismo Sub-KPC está influenciado por varios NFs, es posible calcular el
Número de Prioridad del Riesgo de la Variación (VRPN) para Sub-KPC sumando los
VRPN NF/Sub-KPC calculados respecto a esa Sub-KPC.
VRPN Sub-KPC = ∑ VRPN NF/ Sub-KPC (2)
Los fundamentos de las fórmulas (1) y (2) vienen de una teoría estadística establecida,
que se explicará en la siguiente sección. Además, si uno y el mismo NF afecta a varias
Sub-KPCs, es posible calcular el VRPN NF/Total total para ese NF sumando sus
respectivos VRPNNF/Sub-KPCs para los diferentes Sub-KPCs.
VMEA 100
Ver criterio 2
Ver criterio 1
VMEA 101
6.4 Justificación formal del VMEA: Método de los Momentos Por el bien de una buena ilustración, consideremos una función
z= f (x,y) (3)
Uniendo una salida o variable dependiente z a dos variables de entrada x e y (evitamos
el término independiente que puede confundirse con la propiedad de independencia
estocástica usada más abajo). Ahora, consideremos el desarrollo de Taylor de segundo
orden de la función f alrededor de un punto dado (x 0 , y 0 ).
≅z ƒ (x 0 , y 0 ) + x
f
∂
∂│x 0 y 0 · (x- x 0 ) +
y
f
∂
∂│x 0 y 0 · (y- y0) +
2
2
x
f
∂
∂│x 0 y 0 ·
2
2)( 0xx − +
2
2
y
f
∂
∂x0, y0 ·
( )2
20yy −
+ yx
f
∂∂
∂ 2
00 yx .( )( )
200 yyxx −−
Si x e y son variables aleatorias, la relación (3) se transforma en:
Z = f (X, Y) (4)
Y se refiere a una transformación de variables aleatorias. Indiquemos ahora:
E {X}= µx , E{Y}=µy , Var {X}=σx2, Var{Y}= σy
2
Más aún nosotros asumimos que X e Y son independientes. El desarrollo de Taylor de
orden dos de la transformación (4) alrededor del valor esperado de X e Y da:
VMEA 102
Z ( )yzf µµ ,.≅ + yz
X
fµµ
∂
∂ . ( )XX µ− + XZ
Y
fµµ
∂
∂. ( )
yY µ− + yZY
fµµ
2
2
∂
∂ .
( )2
2XY µ−
+ yzY
fµµ
2
2
∂
∂ .
( )2
2yY µ−
+ yzYX
fµµ
∂∂
∂ 2
.( )( )
2yZ YX µµ −−
(5)
Que en lo sucesivo escribiremos como
1α = xzX
fµµ
∂
∂ , 2α = YZ
Y
fµµ
∂
∂ , yz
Y
fµµβ
2
2
1 2
1
∂
∂= , 2β =
2
1yz
Y
fµµ
2
2
∂
∂ (6)
Usando la fórmula (5), ahora ya es posible calcular los dos primeros momentos de la
variable aleatoria Z. Para el valor esperado, se usará la aproximación de segundo orden
completa. Para el cálculo de la varianza, sólo se considerarán los términos de primer
orden para conseguir así una formulación simple. Obtenemos:
E { }z ≅ f ( yz µµ , ) + 21 xσβ + 2
2 yσβ (7)
Var { } 222
221 yxZ σσσσ +≅ (8)
La extensión de los resultados (7) y (8) a una relación con cualquier número de
variables independientes aleatorias es sencilla.
Las fórmulas (7) y (8) constituyen la mayor parte del método de los momentos.
También se les llama fórmulas de propagación del error y se usan sobre todo en el
campo de las tolerancias.
Procediendo con este ejemplo ilustrativo, ahora asumimos que la aleatoriedad de
las variables X e Y está causada por varias fuentes de variación. Concretamente,
llamamos N1, N2, N3,...Nm a las fuentes de variación que afectan a X y M1, M2,...Mn
aquellas que afectan a Y.
VMEA 103
Por las mismas razones que con (8), justificamos lo siguiente:
221
2211
2 ...1 mNmNx σασασ ++= (9)
222
2221
2 ...1 nMnMy σασασ ++= (10)
Donde:
i
iN
X
∂
∂=1α Para i=1,…,m y
j
iM
Y
∂
∂=2α para j=1,…,n.
Evaluadas en Ni, y Mj son valores.
Por lo tanto, sustituyendo (9) y (10) en (8) obtenemos:
Var { }Ζ = ( ) ( )222
2221
22
221
2211
21 ......
11 nMnMmmn σασαασασαα +++++ (11)
La fórmula (11) expresa la varianza de Z como la suma de dos términos, el primero
debido a la acción de X y el segundo a la acción de Y. Además, simplificando (11)
obtenemos:
Var { } 222
22
2221
22
221
21
2211
21 ......
11 nm MmMNmN σαασαασαασαα +++++=Ζ (12)
Cada término de la varianza de Z es el producto de tres elementos, dos derivadas
parciales cuadradas y una varianza.
Ahora unimos los conceptos generales ilustrados anteriormente al método
VMEA. Haremos esto presentando primero la situación matemáticamente, descrita con
un diagrama de Ishikawa, ver Figura 25.
VMEA 104
Figura 25. Diagrama de Ishikawa para el modelo matemático descrito.
La conexión entre el VMEA y el Método de los Momentos es evidente: la variable de
salida Z es la KPC, y las variables X e Y son dos Sub-KPcs, cada una afectada por
factores de ruido. Lo que es también evidente para nuestra descripción es que
consideramos los factores de ruido como las únicas fuentes de variación, mientras que
las Sub-KPC tienen sólo la función de encauzar la variación (inducida por NFs) hacia la
KPC. La sensibilidad de la KPC, Z, a la variación de la Sub-KPC, X es medida por la
derivada parcial α1, mientras que la sensibilidad a la variación de Y es medida por α2.
Los coeficientes α 1i (i= 1,…, m) miden la sensibilidad de la Sub-KPC X a la acción de
los factores de ruido Ni, mientras que los coeficientes α2j (j= 1,…, n) miden la
sensibilidad de Y a la acción de los factores de ruido Mj. En el primer miembro de (11),
si identificamos la primera parte con VRPNx, y la segunda parte con VRPNy,
demostramos que los VRPNs son efectivamente sumables y que su suma da la variación
total de la KPC como resultado. Cada término de (12) es el VRPN para una
combinación específica ‘factor de ruido-Sub-KPC’. Es posible que el mismo factor de
ruido afecte a más de una Sub-KPC. Entonces, si todos los términos relacionados con
un mismo factor de ruido se suman, se obtienen los VRPNs relacionados con cada
VMEA 105
factor de ruido. Como resultado, se puede hacer una clasificación de los factores de
ruido para valorar su importancia relativa, i.e. su efecto relativo en la KPC seleccionada.
Los resultados previos pueden generalizarse fácilmente al caso de cualquier número de
KPCs y a cualquier nivel de Sub-KPCs. Por ejemplo, si el factor de ruido Mijkl afecta a
la SubSub-KPCijk de la Sub-KPCij de la KPCi , entonces su VRPN será evaluado como:
VRPNMijkl = α2ij α2
ijk α2 ijkl σ2
Mijkl
VMEA 106
6.5 Una Aplicación Industrial El VMEA es una herramienta desarrollada recientemente, pero ya ha provocado el
interés de la industria debido a su simplicidad y a la sencillez de uso. Se hizo
recientemente una aplicación en una pequeña compañía de Inglaterra especializada en la
estampación en metal y en productos forjados (especialmente en aluminio, latón y
cobre).
Un grupo de representantes de cuatro compañías (ingenieros de diseño y producción),
dos de los autores y una consultora se reunieron para discutir un proyecto de mejora de
la calidad relacionado con la gestión de la variación no deseada. El proyecto trataba de
una válvula de latón forjado en un sistema de refrigeración industrial. Desde que este
componente tiene un papel crítico en el sistema de refrigeración, el cliente hace una
gran demanda en términos de calidad y confianza. En particular, el cliente indicó
algunas dimensiones críticas en las que se fijaban unas tolerancias rigurosas. Para una
de ellas, el diámetro del agujero interno, la compañía quiere asegurar que el proceso de
fabricación es robusto. La Figura 26 muestra un dibujo esquemático del componente.
Figura 26. Dibujo esquemático del componente fabricado.
El diámetro del agujero interno es la dimensión más crítica. Si éste se desvía de su valor
nominal, el funcionamiento del sistema de refrigeración se degradará. Por lo tanto, esta
dimensión ha sido elegida como una KPC para la aplicación del VMEA.
El agujero interno es mecanizado a lo largo de un proceso de perforación de dos fases,
el cual consiste en la ‘fase del desbaste’ y un ‘ciclo de acabado’. Se identificaron seis
sub-KPCs ya que tienen un efecto potencial y transfieren variación a la KPC elegida.
Sus descripciones se dan en la Tabla 7.
VMEA 107
Además de señalar las sub-KPCs, se pidió a los ingenieros que identificaran un número
de factores de ruido (NFs) que afectan a cada sub-KPC. Estos incluían dilución, flujo
refrigerante, ajuste de la máquina, desgaste de la máquina, variabilidad del proveedor,
daño de la herramienta, desgaste de la herramienta y electricidad. El diagrama final de
Ishikawa de este ‘case study’ se muestra en la Figura 27. Como puede entenderse de la
Tabla 7 y de la Figura 27, esta ilustración sólo aborda el problema de la gestión de la
variación no deseada en la fabricación, cuando las variaciones causadas por el desgaste
y el envejecimiento no están presentes.
Tabla 7. Sub-KPCs para la KPC Sub-KPC Descripción Profundidad de la Máquina Herramienta La máquina herramienta se usa en la primera
fase de perforación (desbaste). Su profundidad es un factor importante.
Diámetro de la Maquina Herramienta La máquina herramienta se usa en la primera fase de perforación (desbaste). Su diámetro es un factor importante.
Diámetro de la Herramienta de acabado La herramienta de acabado se usa en la segunda fase de perforación (acabado). Su diámetro es un factor importante.
Alimentación de la Herramienta de acabado La alimentación de la herramienta de acabado es la velocidad vertical de la herramienta en su movimiento de traslación durante la fase de acabado. Se considera un factor importante.
Velocidad de la Herramienta de acabado La velocidad de la herramienta de acabado es la velocidad de rotación de la herramienta en la fase de acabado. Se considera un factor importante.
Sistema refrigerante Este sistema se activa durante ambas fases del proceso. Es un factor muy importante para un buen resultado de la operación.
Diá
met
ro
Inte
rno
Ref
rige
rant
e A
lim
enta
ción
Hta
. A
caba
do
Diá
met
ro M
áq.
Hta
.
Vel
ocid
ad H
ta.
Aca
bado
P
rofu
ndid
ad M
áq.
Hta
. D
iám
etro
M
áq. H
ta.
Flu
jo
Dilu
ción
Des
gast
e M
áqui
na
Ele
ctri
cida
d
Aju
ste
Máq
.
Aju
ste
Máq
.
Aju
ste
Máq
.
Aju
ste
Máq
. A
just
e M
áq.
Des
gast
e M
áqui
na
Des
gast
e M
áqui
na
Des
gast
e M
áqui
naD
esga
ste
Máq
uina
Var
iabi
lidad
pr
ovee
dor
Var
iabi
lidad
pr
ovee
dor
Var
iabi
lidad
pr
ovee
dor
Dañ
o H
ta.
Dañ
o H
ta.
Dañ
o H
ta.
Ele
ctri
cida
d
Des
gast
e H
ta.
Des
gast
e H
ta.
Des
gast
e H
ta.
VMEA 109
Los ingenieros también calcularon la sensibilidad de la KPC respecto a las sub-KPC, y
de las sub-KPCs respecto de los NFs. Además del tamaño de la variación de cada ruido,
como se describió en la Sección 2. Los datos generados se introdujeron en una
herramienta de software, facilitando el cálculo y la presentación de los resultados. El
resultado final de la aplicación de un VMEA se resume en la Tabla 8.
Tabla 8. Resumen aplicación VMEA
KPC Sub-KPC Sensibilidad
KPC a Sub-KPC
NF Sensibilidad Sub-KPC a
NF
Tamaño Variación
NF
VRPN (NF)
VRPN (Sub-KPC)
Dilución 2 2 64 Refrigerante 2
Flujo 9 3 2916 2980
Ajuste Máq. 2 2 1600 Desgaste Máq. 8 2 25600 Variabilidad proveedor
8 2 25600
Daño Hta. 10 2 40000
ø Hta. Acabado 10
Desgaste Hta. 10 6 360000
452800
Electricidad 3 1 225 Ajuste Máq. 6 2 3600
Alimentación Hta. acabado 5
Desgaste Máq. 6 2 3600 7425
Electricidad 3 1 225 Ajuste Máq. 2 2 400
Velocidad Hta. acabado 5
Desgaste Máq. 2 2 400 1025
Ajuste Máq. 4 2 3136 Desgaste Máq. 1 2 196 Variabilidad proveedor
1 2 196
Daño Hta. 10 2 19600
Profundidad corte 7
Desgaste Hta. 1 6 1764
24892
Ajuste Máq. 2 2 1024 Desgaste Máq. 8 2 16384 Variabilidad Proveedor
2 2 1024
Daño Hta. 10 2 25600
ø Interno
ø Hta. corte 8
Desgaste Hta. 2 6 9216
53248
VMEA 110
Como resultado final de la sesión de VMEA, mostramos la contribución relativa de
cada sub-KPC y de cada NF por medio de un diagrama de barras (Figuras 28a y 28b).
Esta representación gráfica demuestra que el Diámetro de la Herramienta de acabado
(sub-KPC) y el desgaste de la Herramienta (NF) son los que contribuyen más a la
variación del diámetro del agujero interno; por eso los esfuerzos de mejora de la calidad
deberían dirigirse a estas áreas. Más aún, podemos ver la contribución a la variabilidad
y el grado relativo de importancia de otras sub-KPCs y NFs.
Los ingenieros de la compañía consideraron como útil e interesante la aplicación del
VMEA en este case study. De hecho, terminado este case study, tuvieron la
oportunidad de discutir actividades que podrían mejorar la calidad. En algunas
ocasiones, no era inmediato un acuerdo en los pasos de valoración y requería más
discusiones técnicas e intercambios de experiencia.
Figura 28a. Contribución relativa de las Sub-KPCs
∅Máquina ∅Máquina Profund. Alimentac. Refriger. Velocidad Acabado Herramta. Máq. Hta. Máq. Acab. Máq. Acab.
SUB-KPC
VMEA 111
Factores de ruido
Figura 28b. Contribución relativa de los NFs
Desgaste Daño Desgaste Variab. Ajuste Flujo Electric Dilución Hta. Hta. Máquina Proveedor. Máq.
VMEA 112
6.6 Discusión del Método El Diseño Robusto es un Metodología encaminada a encontrar la mejor
combinación posible de los parámetros de diseño, haciendo el funcionamiento del
producto (entiéndase KPC) tan insensible como sea posible a la acción de los NFs. En
este contexto, el VMEA permite a los ingenieros centrarse en los NFs, sus magnitudes y
traspasarlas a las KPCs por una secuencia de sensibilidades interrelacionadas. De ahí
que esto facilite una planificación experimental para el diseño robusto.
Hemos hablado de la existencia de algunos métodos sistemáticos a la hora de
gestionar la variación, uno de ellos es el FMEA. La estructura del VMEA es similar a la
del FMEA, pero el concepto que conlleva es diferente. El FMEA se centra
principalmente en los fallos, mientras que el VMEA lo hace en la variación. Desviar la
atención desde los fallos hasta la variación es probablemente una forma de deducir el
número de fallos, la mayoría de ellos causados por variaciones no deseadas. Además, el
VMEA está enfocado desde arriba hacia abajo, que significa que primero se selecciona
la KPC y después se descompone en Sub-KPCs y NFs que los influencian.
Hasta ahora lo que hemos conseguido es que las compañías establezcan un modo
formalizado de asignar un orden de prioridad a las características Claves del Producto
en términos de importancia a la hora de reducir la variación.
Los resultados del VMEA entonces sirven como base para lograr un diseño robusto
desarrollando posteriormente el DoE en las fases de Diseño de los Parámetros y de la
Tolerancia.
FMEA Fallo
s
VMEA
Variación
Caso Práctico 113
7 EL DISEÑO DE EXPERIMENTOS 7.1 Antecedentes El Diseño de Experimentos (DoE) ha llegado a ser una de las técnicas estadísticas más
populares de los 90's. En 1920, el científico británico Ris R.A. Fisher, lo creó como un
método para maximizar el conocimiento obtenido de datos experimentales y ha ido
evolucionando durante los últimos 70 años. Desafortunadamente, la mayor parte del
desarrollo del DoE fue matemáticamente complejo y es por eso que su uso se ha
restringido a aquellos bien versados en matemáticas. La reciente popularidad alcanzada
por el DoE está asociada con los trabajos de Taguchi, un ingeniero japonés que se
enfocó en el uso práctico, en lugar de perfeccionar la técnica matemática. En corto
tiempo, el trabajo de Taguchi comenzó a revolucionar la presentación del material del
DoE y la teoría matemática fue casi ignorada, para alcanzar la claridad y practicabilidad
de éste. Es así como científicos, ingenieros, técnicos y administradores que no son
expertos en matemáticas son ahora los mayores practicantes del diseño experimental.
Para ello haremos primero un breve repaso sobre distintas técnicas estadísticas de
control y que se diferencian del Diseño de Experimentos en que todas ellas detectan
cuando hay un fallo en el proceso, cuando se sale de los límites, pero ninguna
recomienda cómo actuar y cuál es la solución óptima para mejorar dicho proceso o
diseño del producto.
Caso Práctico 114
7.2 El Análisis del Proceso Todo proceso varía. Esta tendencia inherente de los productos a no ser idénticos se
conoce como Variabilidad el Proceso, mientras que la habilidad de fabricar un producto
de forma que estén dentro de unos límites predecibles de similitud es la Capacidad del
Proceso.
Usar una y otra vez el mismo proceso dará lugar a muchas tandas de productos que
parezcan similares, pero alguna vez en algún momento se obtendrá una tanda que sea
bastante diferente. Cuando esto ocurre, el producto está fuera de la variabilidad normal
del resto, por eso se le llama fuera de límite.
Algo especial fuera de su proceso definido ocurrió y dio lugar a esos ‘fuera de límite’,
por ejemplo, el operario subió la temperatura del horno sin darse cuenta o empleó más
tiempo del necesario, se dice que su proceso se ha ido fuera de control debido a causas
asignables o especiales. Las causas especiales son impredecibles y deberían ser
evitadas. En procesos complejos el hecho de que ocurran incidentes fuera de control
puede ser muy costoso. En la fabricación de semiconductores, por ejemplo, un accidente
originado por una causa asignable puede significar pérdidas en cientos de miles de
euros. Esto es por lo que en la industria, es responsabilidad de todo el mundo mantener
el proceso controlado.
Esto sólo puede ser hecho si hay un determinado promedio de observaciones del
proyecto para detectar las anormalidades y se corrige la situación antes de que el
proceso vaya fuera de control. Observar cómo el proceso tiene lugar y cómo se
comporta es conocido como Análisis del Proceso, mientras que responder a los cambios
para mantener el proceso dentro de su variabilidad normal es conocido como Control
del Proceso.
El Análisis del Proceso consiste en observar y medir los parámetros críticos que afectan
a un proceso en los intervalos regulares y predefinidos, y registrar las observaciones y
resultados. Los parámetros críticos para monitorizar son escogidos de forma que
representen colectivamente el estado del proceso completo, pero como la
Caso Práctico 115
monitorización cuesta dinero, es necesario limitar el número de parámetros
monitorizados hasta el mínimo requerido para asegurar que el proceso está
consiguiendo los estándares de calidad de la compañía. Una forma de reducir los
parámetros que necesitan ser vigilados es ver las correlaciones entre los parámetros. Si
el comportamiento de un parámetro puede ser adecuadamente estimado por el
comportamiento de otro, entonces sólo hay que monitorizar uno de ellos. El propietario
del proceso debería eliminar todas las redundancias en la monitorización del proceso.
Los resultados del monitor quizá sólo se anoten en los libros de registro, pero la
simplicidad de este método tiene un gran inconveniente. Los números escritos en papel
son difíciles de analizar de forma visual y no llaman la atención del propietario del
proceso cuando se plantea una anomalía. Esto es por lo que muchas compañías
emplean las Hojas u Gráficos de Control en lugar de grabar las medidas de sus
monitores.
Las Hojas de Recogida de Datos, los Histogramas y los Diagramas de Pareto, son
instrumentos que, partiendo de un conjunto de datos recogidos durante un período de
tiempo, revelan valiosas informaciones de síntesis que permanecían ocultas en le
conjunto bruto de los datos. Pero se trata de información estática que no pone de
manifiesto los detalles de la evolución de los datos en le tiempo.
Para una empresa también es fundamental conocer cómo evoluciona cualquier
característica de calidad de los productos que fabrica a lo largo del tiempo. Sólo de ese
modo es posible llevar a cabo las acciones necesarias para corregir los defectos que
puedan originarse durante el proceso productivo. Por ello es necesario disponer de
herramientas de información dinámica. Las Hojas de Control son instrumentos gráficos
de información dinámica que pueden utilizarse tanto en el análisis como en el control
estadístico del proceso.
En condiciones normales de funcionamiento, cualquier variable de cualquier proceso, o
característica de calidad (peso, temperatura, longitud, concentración, etc.), presenta a lo
largo del tiempo una variabilidad natural. Esta se pone de manifiesto cuando los valores
medios de los datos de cada período de tiempo ( X ) y los recorridos del mismo período
de tiempo (R, diferencia entre los valores máximo y mínimo de dichos datos), se
Caso Práctico 116
mantienen comprendidos entre dos valores, uno máximo y otro mínimo que se
denominan límite superior e inferior de control.
Por ejemplo, supongamos que recogemos durante 25 días consecutivos 5 datos cada día
relativos a los valores de una característica de calidad del proceso en análisis y se
construye con los 125 datos un gráfico en el que se registra la media de los 5 datos
diarios, también haremos otro con los recorridos.
El gráfico completo, denominado X -R, revela la evolución día a día de ambos valores.
En el Análisis del Proceso todos los puntos ( X , R), estadísticos de las muestras, deben
estar comprendidos entre ambas líneas para poder asegurar que el proceso está
normalizado y estandarizado, no habiendo existido durante todo el período causas
estadísticas asignables que, de existir, originarían puntos fuera de los límites,
invalidando estos para el posterior control del proceso en períodos sucesivos. En
resumen, los límites calculados sólo son válidos si todos los puntos ( X , R) obtenidos,
quedan dentro de ellos durante el período (hora, turno, días, mes) de análisis del
proceso.
El objetivo del Análisis del Proceso es averiguar mediante los datos recogidos, si el
proceso está bajo control estadístico.
Tipos de hojas de control
1. Hojas de control de medidas variables: Son las denominadas hojas X -R,
aplicables a características de calidad tales como dimensiones, peso, dureza, etc.,
y parámetros de funcionamiento tales como temperatura, velocidad, tiempo, etc.
2. Hojas de control de atributos: Se emplean cuando el proceso de fabricación da
lugar a artículos que comparados con las especificaciones pueden clasificarse en
conformes y no conformes, aceptados o rechazados, defectuosos y no
defectuosos. No me centraré en éstas porque a la hora de hacer el diseño de
experimentos ocupan más tiempo, como se verá más tarde en el caso práctico.
Además los atributos pueden ser convertidos en variables.
Caso Práctico 117
Figura 29. Ejemplo de Hoja de Control X -R
Caso Práctico 118
7.2.1 Hoja de control: Construcción
En este apartado se expondrá el despliegue del gráfico por variables de media y
recorrido ( X - R), al aportar bastante información y ser, tal vez, el más utilizado.
El modo de trazar este tipo de hoja de control es el que sigue:
1. Determinar los datos a reunir. Que habrán de referirse a una variable del proceso
considerada relevante.
En el ejemplo que ilustrará esta exposición, los datos corresponderán a: “tiempo en
responder a una solicitud de servicios sociales comunitarios”.
2. Recoger los datos. La muestra ha de estar constituida por un número suficiente de
datos. Como mínimo 100 datos.
Los datos coleccionados se agrupan en subgrupos cuyo tamaño suele oscilar entre 4 y
10 observaciones. Cuanto mayor sea el tamaño de los subgrupos, más sensible será el
gráfico de control. En cuanto a su número, en procesos industriales es habitual contar
con 20 ó 25, si bien es admisible un número menor en función de las características del
proceso estudiado.
Lo que sí es fundamental es que los datos de los subgrupos se tomen secuencialmente,
en los momentos del proceso elegidos para ello. En el ejemplo de referencia se han
tomado 12 subgrupos, correspondientes a las respuestas emitidas a las solicitudes
efectuadas por los ciudadanos, en periodos de 15 días. Pues bien, cada periodo puede
considerarse como un “lote” y las 6 observaciones de cada uno de ellos corresponden a
solicitudes efectuadas consecutivamente. Tenemos 12 subgrupos (k=12) con 6
componentes cada uno(n=6).
Caso Práctico 119
3. Calcular la media para cada subgrupo de datos
.
n
nX...XXX
X 321 ++++=
Siendo n el número de componentes de cada subgrupo.
4. Calcular los recorridos para cada subgrupo.
R = (Valor máximo de x – Valor mínimo de x)
5. Calcular la gran media (media de medias) de los subgrupos.
. k
X...XXXX 321 n+++
=
Siendo k el número de subgrupos.
6. Calcular la media de los rangos de los subgrupo
.
k
R...RRRR n321 ++++
=
7. Calcular los límites de control para las medias y los rangos. Tanto los superiores
(UCL, Upper Control Limit) como los inferiores (LCL, Lower Control Limit)
Para el gráfico de control de las medias:
RAXUCL 2+=
RAXLCL 2−=
Caso Práctico 120
Para el gráfico de control de los recorridos:
UCL = D4 R LCL= D3 R
Los valores de A2 , D3 y D4 son constantes basadas en el tamaño de subgrupo (n) y
aparecen para distinto n en la tabla 9.
Tabla 9. Valores predeterminados para hallar los límites de control.
Obsérvese que para n < 7 no hay límite de control inferior.
La tabla 10 refleja las operaciones anteriores realizadas para el ejemplo.
Caso Práctico 121
8. Representar los gráficos de control.
Tabla 10. Hoja de control del ejemplo.
Caso Práctico 122
9. Análisis y evaluación. Para la interpretación de los gráficos de control, de medias y
recorrido, pueden seguirse las recomendaciones siguientes:
• En condiciones normales de funcionamiento, con una variabilidad natural del
proceso, se observará :
� Que todos los puntos X R se mantienen dentro de los límites.
� Que no hay grupo de puntos que, aún dentro de los límites, presenten
configuraciones particulares tales como series, tendencias, periodicidad, y
proximidad a los límites de control.
� Evidentemente, cuando todos los puntos estuvieran distribuidos a ambos
lados de la línea media, y cercanos a la misma.
En el análisis del proceso todos los puntos ( X R) deben cumplir estas
condiciones para poder asegurar que la variable del proceso está bajo control
estadístico, que se trata de in proceso estable referido a esta característica. Con
otras palabras, podemos confiar en la constancia de la distribución de la
población, o lo que es igual, en la de su media, cuya estimación viene dada por
X y en la de su recorrido cuya estimación se denota por R’.
• Por el contrario, cuando un sólo punto está fuera de los límites de control, puede
estar señalando la ausencia de control del proceso. No obstante, esta
probabilidad sería pequeña por lo que tal vez no sea oportuno efectuar cambios.
• Si al menos 2 ó 3 puntos sucesivos están en el mismo lado de la línea media y
más de dos unidades sigma alejadas de esta línea, estará indicada una falta de
control del proceso. Si el tercer punto consecutivo está alejado de la línea media
en la medida indicada, pero en el otro lado, la misma conclusión sería válida.
• En el caso de que 4 ó 5 valores sucesivos se situaran en el mismo lado, alejados
de la línea central más de 1 sigma, se apuntaría un déficit en la estabilidad o
control del proceso.
• Igualmente, estaría indicada esta falta de control cuando al menos 7 valores
sucesivos estuvieran situados en el mismo lado de la línea media. Esto mostraría
una inadecuada distribución de esos puntos.
En nuestro ejemplo, el proceso parece ser inestable. Aparecen dos puntos fuera de los
límites de control y, además, 2 puntos (15/4 y 30/4) están, en orden sucesivo, alejados
Caso Práctico 123
dos desviaciones tipo de la línea central. Esta situación hace sospechar la presencia de
causas asignables, o específicas, de variación en el proceso.
Caso Práctico 124
7.3 El Control Estadístico del Proceso A la hora de realizar el Control del proceso, el coste y la fiabilidad juegan un papel
importante en determinar qué controles del proceso implementar en su línea de
fabricación. Los sistemas informáticos necesitan un mantenimiento caro. Muchas
compañías hoy día prefieren usar el Control Estadístico del Proceso (SPC- Stadistic
Control Process), recordaremos en primer lugar algunos conceptos relativos al SPC que
serán muy útiles para comprender el significado y el alcance del Diseño de
Experimentos.
La información recogida en la hoja de control en condiciones normales de
funcionamiento del proceso, que muestra su variabilidad natural, nos permite llevar a
cabo el control del proceso. Para ello, una vez diseñada la hoja X -R, basta con calcular
para los días, o períodos sucesivos, y en las mismas condiciones horarias que se hizo
para el análisis del proceso, los valores correspondientes de X y R. La comparación
entre estos valores y los límites anteriores de estabilidad del proceso nos informará si
continúa o no bajo control. Si algunos puntos aparecen fuera de los límites, es muy
probable que se haya producido algún cambio en los factores que influyen en el proceso
y que son debidos a causas no estadísticas: defecto de máquinas, error de operarios,
diferentes materias primas, cambio en las condiciones ambientales, variación de la
destreza del trabajador, etc.
Hay que hacer notar lo siguiente:
- Una variación en la media del proceso sin cambio en el recorrido, se pone de
manifiesto sólo en el gráfico X .
- Una variación del recorrido del proceso sin cambio en la media se pone de
manifiesto en la hoja de control R y también se ve afectada la hoja de control X
aproximándose sus puntos a su línea central cuando el recorrido del proceso
disminuye, y alejándose de ella cuando el recorrido del proceso aumenta.
Pero es necesario hacer notar que para que la utilización de las hojas de control sea
eficaz, es fundamental el conocimiento detallado del proceso que se trata de controlar.
Los gráficos de control sólo informan de la existencia de un problema, pero no nos
dicen cuáles son las causas ni cómo evitarlas.
Caso Práctico 125
El Control de Proceso Estadístico (SPC) es un sistema para vigilar, controlar y mejorar
un proceso a través de un análisis estadístico. Tiene muchos aspectos, desde los gráficos
de control hasta los estudios de capabilidad del proceso y para mejora. No obstante, el
sistema SPC total de una compañía se podrá desglosar en cuatro pasos básicos:
- Medir el proceso.
- Eliminar las discrepancias dentro del proceso para hacerlo consistente.
- Vigilar el proceso.
- Mejorar el proceso.
Este ciclo de cuatro pasos quizá sea empleado una y otra vez para una mejora continua.
Gran cantidad de conceptos del SPC usados hoy en día fueron desarrollados basándose
en la premisa de que el parámetro del proceso que está siendo controlado sigue una
distribución normal. Cualquier profesional del SPC debe estar enterado de que el
parámetro primero debe confirmar seguir la normal antes de ser sujeto a análisis
basados en conceptos del comportamiento normal. Así que, cualquier discusión sobre el
SPC debe estar precedida por una discusión sobre qué tipo de normal es.
Caso Práctico 126
7.3.1 La Distribución Normal La Distribución Normal (ver Figura 30), la curva de la normal o la curva de la campana
de Gauss, es probablemente la distribución estadística más reconocida y más
ampliamente usada. La razón es que muchos parámetros sociales, biológicos y físicos
obedecen a una distribución normal. A estos parámetros se les dice entones que siguen
un comportamiento normal. Es importante para cada proceso de ingeniería tener un
conocimiento firme de lo que es un una distribución normal.
Aparte del hecho de que la distribución normal se encuentra frecuentemente en la vida
diaria, las matemáticas que rigen el comportamiento de la normal son bastante simples.
De hecho, solo se necesitan dos parámetros para describir una distribución normal,
llamados la media o su centro, y la desviación estándar o su variabilidad. Conocer
ambos parámetros es equivalente a saber qué aspecto tiene la distribución.
Figura 30. La distribución Normal.
La distribución normal tiene forma de campana, tiene su máximo en el centro y va
disminuyendo mientras permanece simétrica con el centro.
Lo que es notable de la distribución normal es que a pesar de los valores de su
desviación estándar, el % de datos que cae por debajo de un número dado de
desviaciones estándar es constante. Por ejemplo, decir que la desviación estándar del
proceso 1 es 100, y la desviación estándar del proceso 2 es 200. El proceso 1 y el 2
tendrán una forma de distribución de datos diferente (el proceso 1 es más estable), pero
Media
Caso Práctico 127
para ambos procesos, el 66% de datos bajo la curva de la normal caerá dentro de +/- una
desviación estándar de la media de la distribución (i.e. entre {MEDIA – 1 σ} y
{MEDIA + 1 σ}) y el 37% de los datos estará fuera de esto. La Tabla 11 muestra los
porcentajes de datos que caen bajo diferentes números de sigma.
# de Sigmas# de Sigmas# de Sigmas# de Sigmas % de datos cubiertos% de datos cubiertos% de datos cubiertos% de datos cubiertos % de datos fuera% de datos fuera% de datos fuera% de datos fuera
+/- 1 Sigma 66% 37%
+/- 2 Sigmas 95% 5%
+/- 3 Sigmas 99.73% 0.27%
+/- 4 Sigmas 99.9936% 0.0063%
+/- 5 Sigmas 99.99995% 0.00005%
Tabla 11. % de datos que caen bajo diferentes números de +/- σ
Figura 31. Distribución de datos.
68.26%
99.73% 95.46%
-3σ −2σ −1σ µ 1σ 2σ 3σ
Caso Práctico 128
Distribuciones asimétricas
Las curvas perfectamente normales son difíciles de conseguir con datos o muestras
finitas. Así que, algunas distribuciones de datos que son teóricamente normales quizá
no lo sean al dibujarlas, es decir, la media quizá no esté en el centro de la distribución o
haya una ligera falta de simetría. Si una distribución normal parece inclinarse hacia el
lado derecho de la distribución, se dice que es asimétrica a la izquierda. A una
distribución normal que se inclina hacia la izquierda se le llama asimétrica a la derecha.
El objetivo del SPC es producir distribuciones de datos que sean estables, predecibles y
buenas dentro de los límites especificados para el parámetro que se está controlando.
En relación con las discusiones precedentes, esto es equivalente a lograr distribuciones
de datos que estén centradas entre los límites de especificación, y tan estrechas como
sea posible. Un buen centrado entre los límites y una variación insignificante se traduce
en parámetros que están siempre entre las especificaciones, que es la verdadera esencia
del control del proceso.
Figura 32. Distribuciones asimétricas. Para calcular el porcentaje de productos que cae fuera de las especificaciones, p1 y p2, es
necesario encontrar cuántas desviaciones estándar existen entre la media total y cada
límite de especificación. El número de desviaciones estándar se conoce como el valor Z.
Los valores Z se usan con la Tabla de la distribución normal estándar:
• Encontrar el porcentaje que no llega al límite de especificación inferior: p1
Zlower = X –LSL / σ
El resultado, con dos decimales, indica que el LSE está situado a una distancia
Zlowerσ de la media total. Introduciendo este valor de Z en la tabla de la normal
Caso Práctico 129
obtendremos la probabilidad de que ocurra esto, i.e., el porcentaje de productos
que se producen sin llegar a la especificación inferior.
• Para encontrar el porcentaje que sobrepasa el límite de especificación superior:
p2
Zupper = USL– X / σ
Indica cuántas desviaciones estándar estimadas existen entre la media total y el
límite de especificación superior. Introduciendo este valor Z en la Tabla de la
normal, obtendremos la probabilidad p2 de fabricar productos que estén por
encima de la especificación superior.
3210-1-2-3
0.4
0.3
0.2
0.1
0.0
Normal
CD
F
Z
Figura 33. Valores que están por encima de la especificación.
• p1 + p2 nos da el porcentaje de productos fabricados que no cumplen las
especificaciones o requerimientos del cliente en total.
Caso Práctico 130
7.3.2 Límites de Control y Especificaciones. Exactitud y Precisión. El que un proceso esté bajo control estadístico no quiere decir que estemos
produciendo completamente de acuerdo con las necesidades del cliente. Estas
necesidades se expresan mediante especificaciones o tolerancias que, en el caso de una
característica de calidad con medidas variables, generalmente toman la forma de un
valor objetivo o centrado de diseño, y dos límites, uno máximo o Límite Superior de
Especificación (UCL-Upper Control Limit), y otro mínimo, Límite Inferior de
Especificación (LCL-Low Control Limit).
Los límites de control definen la frontera de un comportamiento normal del proceso.
Sus valores dependen sólo de los datos de salida generados por el proceso en un pasado
inmediato, son por lo tanto independientes de los límites de especificación. Sin
embargo, ambos límites se usan en la práctica del SPC, aunque de diferente forma.
El límite de control inferior LCL y el límite superior de control UCL pueden calcularse
de la media y la desviación estándar (o sigma) de los datos representados como sigue
una vez obtenidos X , R y n o tamaño de cada subgrupo:
LCL = Media - (3 σ)
UCL = Media + (3 σ)
Así que la distancia entre el LCL de un proceso y su UCL es 6 sigma, ver Figura 34. La
probabilidad de conseguir puntos fuera del rango de +/- 3 sigma es muy baja (ver la
Tabla 11). Encontrar una medida fuera de este margen debería por lo tanto advertir a un
ingeniero de que algo anormal está ocurriendo, i.e., el proceso quizá se esté yendo fuera
de control. Esta es la razón por la que estos límites se conozcan como límites de control.
Caso Práctico 131
Figura 34. Distancia entre LCL-UCL.
Una vez los límites de control hayan sido incluidos en los gráficos de control (también
en forma de líneas horizontales como los límites de especificación), el operario puede
comenzar a usar el gráfico de forma visual para detectar tendencias anómalas en el
proceso y que deberían notificarse al ingeniero.
Figura 35. Ejemplo de un gráfico de control con puntos ligeramente separados del
centro.
Por ejemplo, alguna medida fuera de los límites de control es causa automática de
alarma, porque la probabilidad de que ocurra es baja. Cuatro (4) o más puntos
consecutivos alineados de forma creciente o decreciente forman una tendencia que no es
normal, y por lo tanto también merecen atención. Seis (6) puntos consecutivos a un
mismo lado de la media también necesitan una investigación. Cuando estas
USL LSL
6 σ tolerancia
UCL LCL
Caso Práctico 132
anormalidades son observadas, el propietario del proceso debe tomar una
determinación para devolver el proceso a su comportamiento normal.
Los límites de control deben ser recalculados regularmente para asegurar que los
límites de control que está usando el operario son un reflejo del comportamiento actual
del proceso.
Dos aspectos que hay que considerar en el proceso son:
1. Su exactitud: es decir, la proximidad del valor medio del proceso de fabricación
al valor objetivo o centrado de diseño. En otras palabras, que el mayor
porcentaje de unidades producidas corresponda a aquellas cuya característica de
calidad tenga un valor igual al valor objetivo.
Ello se consigue con el centrado de la media, y manteniendo el proceso bajo
control estadístico. El centrado de la media a veces se consigue con un simple
ajuste de la máquina.
2. Su precisión: o variabilidad medida por el recorrido del proceso, R’, que debe
ser menor que la amplitud de la especificación, pues de ese modo todas las
unidades recibidas tendrán la característica de calidad no sólo dentro de los
límites de control sino también dentro de los límites de especificación.
La reducción de la variabilidad del proceso, aumento de la precisión, reducción de
causas no asignables o aleatorias, exige el empleo de técnicas más complicadas que se
conocen con la denominación general de Diseño de Experimentos (DoE-Degign of
Experiments).
Caso Práctico 133
7.4 La Capacidad del Proceso Antes de emplear ninguna técnica para reducir la variabilidad del proceso, es necesario
tener una medida de su capacidad para hacer frente a esa variabilidad.
Supongamos que mediante el empleo de alguno de los instrumentos ya mencionados
(hojas de control, análisis cusa-efecto, diagrama de Pareto, brainstorming, etc.) hemos
eliminado las causas asignables de variación del proceso en estudio; es decir, está bajo
control estadístico, y hemos conseguido identificar al proceso por su valor medio, X , y
por su recorrido, R . De otro modo: sólo hay una distribución normal de los valores de
la característica de calidad del proceso representativa de este.
El proceso así definido, ¿es capaz de dar lugar a un producto de acuerdo con las
especificaciones del cliente?
Ser capaz de seguir un proceso en situaciones que estén fuera de control es una cosa;
conocer cómo funciona realmente un proceso es otra. La forma en que se distribuyen los
datos nos puede dar una información rápida y útil de cómo el proceso correspondiente
se comporta, pero no es de gran ayuda cuantificando el funcionamiento ‘real y
potencial’ del proceso. Es por esta razón por la que los estadísticos han aportado
métodos para expresar el comportamiento y la capacidad de las distribuciones de un
proceso en términos de unos números llamados índices de capacidad de un proceso.
La capacidad de un proceso se refiere a la habilidad de un proceso para cumplir los
requerimientos del cliente o los límites de especificación, i.e., cómo de consistente es su
salida para lograr estar dentro de los límites específicos superior e inferior. Un índice de
capacidad del proceso debería por lo tanto ser capaz de indicar cómo de bien puede el
proceso satisfacer sus especificaciones.
Las Especificaciones o requerimientos son los objetivos o metas numéricas dentro de
los cuales se espera que opere el sistema, es decir, los valores mínimos y máximos
aceptables. A veces sólo hay uno. Los clientes, ingenieros, o jefes del proceso son los
que normalmente fijan las especificaciones. Es importante recordar que las
especificaciones no son lo mismo que los límites de control. Los Límites de control
vienen de los gráficos u hojas de control y están basados en los datos.
Caso Práctico 134
Indice Cp
El índice de capacidad del proceso más básico es conocido como “el índice de
capacidad del proceso simple”, con la notación ‘Cp’. Cp cuantifica la estabilidad de un
proceso, i.e., la consistencia de su salida. Como se mencionó antes, supondremos
siempre que el proceso es ‘normal’. Como tal, la inconsistencia del proceso puede ser
medida en términos de desviación estándar o sigma de los datos de salida del proceso.
Esto es lo que hace el Cp, usa la sigma para cuantificar la variación de un proceso, y la
compara con la distancia entre el límite superior específico (USL) y el límite específico
inferior (LSL) del proceso.
Matemáticamente:
Cp = (USL - LSL) / (6 σ)
La cantidad (USL - LSL) es básicamente la gama de salidas o resultados que debe
satisfacer el proceso, mientras que 6 sigma se corresponde con +/- 3 sigma de la media,
o un 99.73% de todos los datos de salida del proceso. Luego el Cp indica cuántas veces
cabe o se ajusta el proceso dentro de las especificaciones. Cuanto más pequeño sea el
valor de 6 sigma, más estrecha será la distribución de la salida del proceso, indicando
una gran estabilidad. Así que el Cp aumenta cuando la estabilidad del proceso aumenta.
- Cp = 1 indica que la amplitud del proceso y de las especificaciones son las
mismas, y que hay 6σ entre los límites.
- Cp < 1 indica que la amplitud del proceso es mayor que la especificación.
- Cp > 1 indica que la amplitud del proceso es menor que la de la especificación.
- Cp =2 indica que hay 12 σ entre los límites, esto es muy bueno, pero aún no
sabemos si estaría centrada la distribución.
6σ = USL-LCL 6σ > USL-LCL 6σ < USL - LSL
Figura 36. Distintos valores de Cp.
Caso Práctico 135
De ahí que un proceso necesite un Cp>1 para asegurar que es lo suficientemente
estrecha su distribución para satisfacer el rango específico de 99.73% del tiempo.
Inconveniente: Aunque Cp indica la estabilidad el proceso, tiene un inconveniente
mayor que lo hace menos útil, no considera el centro de la distribución del proceso
respecto a los límites de especificación. Un proceso con un Cp de 100 puede ser muy
estable, con todos sus datos de salida muy próximos unos a otros, pero puede estar fuera
de los límites de especificación en todo momento, i.e., si está centrado fuera de los
límites de especificación.
En el caso de que no estuviera centrada la distribución se puede calcular el tanto por
ciento de los productos que no cumplan estas especificaciones, con el fin de que el
equipo de ingenieros decida si merece la pena tomar una acción correctiva o si por el
contrario es un porcentaje muy pequeño el que no cumple los requisitos, Z,. (Ver
apartado 7.5.1 de la Normal)
Indice Cpk
Este punto débil del Cp es controlado por otro índice de capabilidad del proceso, Cpk, el
Cpk mide cómo está de centrada la salida del proceso entre los límites superior e inferior,
además de cómo de variable es la salida. El Cpk se expresa como el ratio de la distancia
de la media de los datos desde el límite de especificación más cercano (el centro del
proceso) hasta tres veces su desviación estándar (la variabilidad del proceso).
CPL = ( X - LSL) / (3σ): índice de capacidad del proceso para el lado del límite
de especificación inferior.
CPU = (USL - X ) / (3σ): índice de capacidad del proceso para el lado del
límite de especificación superior.
Cpk = min. {CPL, CPL}: índice de capacidad del proceso para ambos límites de
especificación.
Caso Práctico 136
Lo que estas formulas significan es: el Cpk toma el valor del C PL o del CPU, según al
que se aproxime más. Si la media de los datos del proceso está más cerca del LSL,
entonces Cpk = CPL, luego si la media de los datos del proceso está más próxima al USL,
entonces Cpk = CPU.
Un proceso ideal es aquel cuya salida está siempre justo entre los límites de
especificación, de forma que la media de los datos de salida se corresponde justo con el
centro y la desviación estándar es cero. El Cpk de este proceso ideal es infinito (entonces
es la Cpk de otros procesos cuya sigma = 0, con tal de que LSL< media < USL).
- Cpk = 1 indica que los límites de control y de especificación están a la misma
distancia de la media.
- Cpk > 1 indica que el sistema está produciendo dentro de las especificaciones.
- Cpk < 1 indica que el sistema está produciendo algunos productos fuera de las
especificaciones.
Las empresas que se propongan como objetivo de calidad la ausencia de defectos y
rechazos de sus productos deben disponer de procesos con capacidades Cpk = 2, como es
el caso de las que trabajan desde el marco de las Six Sigma. La medida de capacidad Cpk
si tiene valores próximos a 2, hará que se produzcan miles de unidades sin un solo
rechazo.
La Cpk disminuye si ocurre uno o ambos de los siguientes casos:
1. Los datos están menos centrados.
2. Los datos son más variables (la sigma aumenta).
Así que, el hecho de mejorar la capacidad de un proceso supone:
1. Centrar la salida entre los límites ; y
2. Disminuir la variación de los datos de salida para que quede alrededor del centro
de las especificaciones.
Advertencia: Si un proceso es inestable, es decir, se manifiestan en la hoja de control
causas especiales, entonces no se podrá realizar el análisis de capabilidad. Mientras
haya causas especiales el proceso será impredecible, haciendo que vaya dentro y fuera
de los requerimientos.
Caso Práctico 137
La esencia del SPC, por lo tanto, es ser capaz de reconocer si un Cpk bajo es debida a la
media del proceso o su sigma, y llevar a cabo las acciones necesarias para corregir el
problema, siendo esto centrar los datos o hacerlos menos variables. En cualquier
proceso, las acciones necesarias para centrar los datos de salida pueden ser diferentes
de las que se necesitan para hacer los datos menos variables. El conocimiento de los
principios básicos del SPC es por lo tanto necesario en todos los procesos de ingeniería.
Todo dependerá siempre de los límites de especificación que imponga el cliente en el
proceso de fabricación. Y es más, al final del día debería ser siempre un propósito del
fabricante centrar sus resultados entre estos límites de especificación de la manera más
consecuente que fuera posible.
Se ha visto que no basta con que el proceso esté bajo control estadístico, sino que es
necesario satisfacer las necesidades de los clientes, quienes requieren dos condiciones a
la característica de calidad del producto que reciben: exactitud y precisión, y, desde el
punto de vista de la empresa, reducir el coste del producto fabricado, lo que también se
consigue con un proceso exacto y preciso; en consecuencia, ambas condiciones
originarán un producto de alto valor.
Esquemáticamente, para mejorar el proceso habrá que:
� Centrar la campana
� Estrechar la campana
� Relajar especificaciones y restricciones internas que no son realmente necesarias
para que haya menos problemas de defecto
Caso Práctico 138
7.5 El Diseño de Experimentos: Taguchi 7.5.1 Introducción En el apartado anterior se midió la capacidad del proceso mediante los coeficientes Cp y
Cpk, pero no basta con medir la variabilidad, es necesario actuar para reducirla.
Una de las técnicas para conseguirlo se conoce con la denominación de Diseño de
Experimentos (DoE-Design of Experiments).
Cabe destacar el uso del diseño de experimentos para conocer y desarrollar procesos
que se centran en la mejora de la eficacia, el rendimiento y la productividad de sistemas
industriales. Este interés se remonta ya desde los años 30 en la industria textil y de la
lana británicas, y posteriormente a la segunda guerra mundial, en la década de los 50,
los métodos del diseño experimental se introdujeron en las industrias química y de
transformación de Estados Unidos y de Europa.
En el caso donde el proceso implica un producto, el diseño experimental se puede
utilizar para proporcionar el mejoramiento del producto o de la calidad. Un aspecto
importante de este esfuerzo de mejora de la calidad en los 80 y los 90, fue el diseño de
la calidad en procesos y productos en la etapa de investigación o en la etapa de diseño
del proceso. Gran parte de este fuerte impulso que tuvieron los métodos de mejora de la
calidad lo motivó el éxito que ingenieros y científicos japoneses tuvieron con el uso del
diseño experimental.
Las técnicas DoE son fundamentales especialmente durante los nuevos diseños puesto
que permiten prevenir problemas de calidad antes de que se presenten.
Hay varios tipos de diseño de experimentos, que se apoyan a su vez en otros tantos
métodos estadísticos:
El clásico, el de Taguchi y el de Shainin. El modo clásico está basado en los trabajos de
sir Ronald Fisher que aplicó las técnicas del DoE en el campo de la agricultura hacia
1930. El Dr. Taguchi de Japón adaptó el modo clásico para desarrollar la técnica de las
tablas ortogonales. El tercer tipo es una colección de técnicas concebidas por Dorian
Shainin consultor de muchas empresas líderes en EEUU. Cualquiera de estos enfoques
es mejor que los experimentos tradicionales en los cuales se hace variar un factor en el
Caso Práctico 139
tiempo, mientras todos los demás se mantienen constantes, lo que imposibilita separar
los efectos principales de los efectos de interacción.
Los métodos estadísticos son:
1. Diseños Factoriales Clásicos;
2. Arreglos Ortogonales o Fracciones Factoriales;
3. Superficies de Respuesta;
4. Diseños Mixtos; y
5. Diseño Robusto de Taguchi.
Se destaca este último, dentro de la Ingeniería de Calidad de Taguchi, ya que su impacto
ha sido sobresaliente en el plano internacional, sobre todo en Japón y los países del
primer mundo.
La exposición tan sólo medianamente detallada de cualquiera de los métodos se sale de
los límites de este proyecto, por eso sólo cabe detenerme en el de Taguchi, adelantando
que aparte de la teoría que aquí incluyo, para la aplicación del caso práctico en la
empresa considero de más valor y claridad la formación recibida sobre el diseño de
experimentos y cuyas diapositivas están adjuntas en el Anexo.
Caso Práctico 140
7.5.2 Objetivos El objetivo del Diseño de Experimentos en su primera fase, es dotar de los
conocimientos suficientes a los ingenieros y otras personas involucradas en el desarrollo
del producto y del proceso para que puedan mejorar la calidad de los mismos,
reduciendo su variabilidad desde el punto de vista del diseño robusto.
El método del Dr. Taguchi para el diseño de experimentos utiliza técnicas que implican
bajos costos y que son aplicables a los problemas y requerimientos de la industria
moderna. El propósito que se tiene en el diseño del producto es encontrar aquella
combinación de factores que nos proporcione el desempeño más estable y confiable al
precio de manufactura más bajo.
Dicha técnica permitirá:
- Una vez identificadas las variables influyentes a través del Análisis Modal de
Variaciones y Efectos, ya sean parámetros de producción o proceso, materiales o
factores medioambientale, o equipos de medida, aislar las variables más
importantes, generalmente no más de cuatro.
- Reducir su variabilidad, incluyendo el control de interacción, estableciendo
tolerancias estrechas, rediseños, mejora de los procesos de los proveedores, etc.
- Ampliar las tolerancias de las variables poco importantes para reducir
sustancialmente los costes y aumentar el valor.
Caso Práctico 141
7.5.3 El Método de Taguchi
En el principio de la década de los 80’s el Dr. Genichi Taguchi, Ingeniero Japonés,
introdujo un método en su país para utilizar el diseño experimental en el desarrollo de
productos y procesos, el cual empezó a producir importantes resultados.
Conceptos y Principios.
Este método define que la calidad de un producto debe ser medida en términos de
reducir al mínimo las pérdidas que ese producto trae a la empresa desde que se inicia su
fabricación hasta concluir su ciclo de vida, estas pérdidas sociales equivalen a las
pérdidas de la empresa en el mediano y largo plazo. Enfoque al cliente en vez de
enfoque al fabricante. Taguchi plantea que:
- Inspección y control de proceso no son suficientes para alcanzar una calidad
competitiva; y
- Niveles elevados de calidad solo pueden lograrse económicamente en las fases
de diseño (producto y proceso).
El objetivo del método de Taguchi es lograr productos y procesos "robustos" frente a las
causas de la variabilidad (ruidos) que hacen que las características funcionales de los
productos se desvíen de sus valores óptimos provocando costos de calidad.
La propuesta de Taguchi es una filosofía y un conjunto de métodos y
procedimientos que se ha dado en llamar Diseño Robusto de Parámetros cuyas
principales propiedades de producto o proceso son:
- Insensible a las condiciones del medio;
- Insensible a los factores que dificultan el control; y
- Proporciona variación mínima en su funcionamiento.
El término diseño en el nombre del método de Taguchi se refiere al diseño del proceso o
sistema, y el término parámetro se refiere a los parámetros del sistema, conocidos
comúnmente como factores o variables
Caso Práctico 142
Diseño de Parámetros.
Taguchi establece que pueden emplearse métodos de diseño experimental para hallar un
mejor diseño del producto y/o del proceso. Aunque la búsqueda de diseños robustos no
es algo nuevo, Taguchi merece el crédito por observar que el diseño experimental puede
utilizarse como una parte formal del proceso de diseño técnico, siendo la estrategia
clave de Taguchi la reducción de la variabilidad.
Los factores de entrada se han determinar mediante técnicas como la del Análisis Modal
de Variaciones y Efecto, que dan prioridad a las más críticas. Las de salida serán las
características clave del proceso o decisivas para el cumplimiento del producto con su
requerimiento. El resultado del experimento será dar los valores de los parámetros de
entrada que dan un producto o salida de mejor calidad que el anteriormente utilizado.
En relación con las estrategias de modelado, debería hacerse hincapié en que, en
general, la optimización de los procesos puede estar bastante sobreestimada. Un
ingeniero o científico puede encontrar siempre razones por las que las condiciones
óptimas dadas por el método no deben ser adoptadas, o deben analizarse primero, y
posteriormente guiarse entonces por la experiencia.
Función de Pérdida.
La función de pérdida o de costo social establece una medida financiera del
descontento del usuario con la actuación de un producto cuando se desvía de un valor
designado como meta (t=target). Esta se expresa algebraicamente según una
aproximación de una expansión de la serie de Taylor alrededor de dicho t:
L (y) = k (y-t)2 Cuando lo mejor es el valor nominal t.
L (y) = k y2 Cuando lo mejor es el valor más pequeño.
L (y) = k (1/ y2) Cuando lo mejor es conseguir el valor más alto.
Donde "y" es variable aleatoria de la característica de funcionamiento (característica de
calidad) en estudio de un proceso o producto. El pensamiento tradicional occidental
penaliza solo si está fuera de los límites inferior o superior de especificaciones, en
Caso Práctico 143
cambio el pensamiento Taguchi mediante la función de pérdida, penaliza todo "y"
diferente de la meta
Tabla ANOVA.
La tabla ANOVA o de Análisis de la Varianza (Análisis of Variance), utiliza la
descomposición de la varibilidad total en parte explicada (variabilidad entre las medias
y la media general) y variabilidad no explicada o residual (variabilidad dentro de los
grupos). La columna MS o de varianza se obtiene dividiendo la suma de cuadrados SS
por sus grados de libertad correspondientes.
De la tabla podemos obtener varios valores que nos ayudarán a sacar conclusiones:
• Squared Multiple R o R2: Determina con su valor *100 el % de variación que
está explicada, el resto es el % de variación que no tiene explicación debido a un
mal experimento donde no se han incluido a todos los factores debidos, o a
errores de medida, etc. Máximo 1. Si es > 0.8 indicará que nuestro experimento
es bueno, n hubo mucho ruido. R2 = 1 – (SS residual/ SS total)
• P(2 Tail): A partir de las funciones de pérdida y según el caso, se determina un
ratio Señal/Ruido que se obtiene de multiplicar (-10) por el logaritmo decimal de
(1/n) por la función de pérdida, siendo n el número de réplicas o número de
datos que se toman en una misma prueba. En nuestro caso práctico haremos 9
pruebas con una réplica de 4.
Este ratio señal/ ruido indica la importancia que tiene un factor en concreto
sobre la respuesta, lo que le afecta. Si es > 0.5 el factor no es significativo sobre
la respuesta. Este valor se corrobora con los diagramas de Pareto que dan los
factores que más influyen. (El desarrollo ded como se obtiene está en las
diapositivas de formación).
• F Ratio: Que debe ser >5 para que el experimento sea válido.
• También nos dará los coeficientes de la función de predicción del experimento,
donde cada coeficiente viene determinado por el valor ∆/2 del diagrama de
Pareto, y que define el peso de cada factor en el experimento, con su signo
correspondiente.
Caso Práctico 144
Reglas para seleccionar un Diseño Experimental.
¿Cuántosniveles para
cadafactor?
¿Cuántosfactores?
(k)
FACTORIAL COMPLETO
k=2..n reps > 9k=3 ..n reps >5k=4 ..n reps >3
FACTORIAL FRACCIONAL
2 5-1
n reps>3
PLACKETT-BURMAN o TAGUCHI Experimentos
n reps >4
Tipos de factores
¿MODELO O EXPERIMEN-
TACIÓN?¿Cuántosfctores?
(k)
FACTORIAL COMPLETO
k=2..n reps> 7k=3 ..n reps >3
TAGUCHI L18 Experim.
D-Optimal
n reps>4
Central Composite o BOX-BEHNKEN
k=2..n reps. > 9 (CCD)k=3 ..n reps. >5 (CCD/BB)k=4 ..n reps.>3 (CCD/BB)
Aclarar:el Problemael Contextolos Objetivos
Determinarqué medir
(Respuestas)
2 3 Sólo cuantitativos
No todoscuantitativos, al menos unocualitativoone
k=3
4<k<76<k<7
Experimenta-ción
Modelok<5
Reglas paraseleccionar un Diseño Experimental
Comienzo
K < 4
K= 5
6< k < 11
Considerar siempre el añadir puntoscentrales para:
- Mejorar las estimaciones del error- Detectar variaciones durante el
experimento- Detectar desviaciones de la
linealidad
En nuestro caso, siguiendo además los consejos sobre el método aplicar dependiendo de
la meta, como estamos en el caso de un diseño robusto, podemos usar el método de
Taguchi, además del Plackett-Burman y el Factorial Fraccional.
Factorial completo.
Tiene en cuenta todas las combinaciones posibles de los factores. Se usa cuando hay
pocos factores y sólo tienen dos niveles. Es el más básico.
Factoriales fraccionales.
A veces el número de puntos para el diseño puede ser demasiado elevado si hay más de
dos o tres factores de interés, para eso usamos el factorial fraccional.
Caso Práctico 145
Se tata de diseñar un experimento con un número reducido de pruebas de tal forma que
usemos todos los niveles de cada factor al menos una vez y en las mismas proporciones
que los demás, y que no se repita lógicamente ninguna de las combinaciones de
factores.
Hay que tener en cuenta que si disminuye el número de experimentos, disminuye el
tiempo empleado y el costo.
Plackett-Burnam.
Permite realizar un número intermedio de experimentos. Sirve para identificar los
factores más importantes de un grupo de factores numeroso, una vez que conocemos los
importantes podemos llevar a cabo otros tipos de experimentos. No da información
sobre interacciones entre factores.
Diseño factorial de tres niveles
A menudo en un caso real los factores tendrán más de dos niveles, como es el caso que
atañe a nuestro caso práctico.
Sin embargo hay que diferenciarlos de los puntos centrales (0) que son opcionales en el
caso de un diseño factorial de 2 niveles, que se entremezclan entra las pruebas
originarias, y que proporcionan:
- información mejorada sobre el ruido del experimento
- información sobre desviaciones del modelo lineal
Y que se caracterizan en que con ellos, la combinación de los factores está
predeterminada, Ej. En el caso de 4 factores sería (0 0 0 0).
Cuando estamos en el caso de 3 niveles, si se va a usar un factorial completo, el número
de factores está limitado por la práctica, ya que el número de pruebas aumenta
rápidamente conforme crece el número de factores. Por eso nos plantearemos utilizar
algún método alternativo al completo y donde las pruebas sean más selectivas y no por
ello de peor calidad, este es el caso del Taguchi, ideal para factores de tres niveles.
Caso Práctico 146
Cuando un factor tiene tres niveles, cada factor tendrá dos grados de libertad, y la
suma de cuadrados asociada se puede descomponer en dos componentes: una que
representa el efecto lineal del factor y el otro que representa el efecto cuadrático.
Interacciones.
Aunque en raras ocasiones la interacción entre dos factores puede ser de más interés
para el experimento que la acción del propio factor, por lo general elegiremos estudiar
los efectos principales antes que hacerlo sobre las interacciones, esto último estará más
relacionado con la experiencia del ingeniero de diseño. Cuando se estudian las
interacciones se recurre a los alias, es decir, las interacciones de factores se pueden
representar o estudiar por las acciones de factores individuales, como ocurre con el
Taguchi, y donde las interacciones entre tres factores son ya despreciables.
Arreglo Ortogonal.
Son un conjunto especial de cuadros en latín, construidos por Taguchi para planear los
experimentos del diseño del producto.
El arreglo ortogonal es una herramienta ingenieril que simplifica, y en algunos casos
elimina gran pare de los esfuerzos de diseño estadístico. Es una forma de examinar
simultáneamente muchos factores a bajo costo. El Dr. Taguchi recomienda el uso de
arreglos ortogonales para hacer matrices que contengan los controles y los factores de
ruido en el diseño de experimentos. Nosotros no estudiaremos estos últimos en el
experimento.
Mientras las interacciones sean relativamente suaves, el análisis de los efectos
principales nos proporcionará las condiciones óptimas y una buena reproducibilidad del
experimento.
Los arreglos ortogonales son herramientas que permiten al ingeniero evaluar cómo
de robusto es el diseño del proceso y del producto con respecto a los factores de ruido.
La serie L9 (3,4) permite estudiar en 9 pruebas, 4 factores con 3 niveles cada uno. Tiene
8 grados de libertad, a 2 por cada factor.
Caso Práctico 147
Según la disposición de la tabla ortogonal del Taguchi L9, que es el modelo que
usaremos en nuestro caso práctico y en el que nos centraremos para el desarrollo de
nuestra teoría, (debido a la extensión del Diseño de experimentos, como antes
mencioné) la combinación de los factores viene predeterminada por la Tabla 12.
Prueba A B C D
1 - - - -
2 - 0 0 0
3 - + + +
4 0 - 0 +
5 0 0 + -
6 0 + - 0
7 + - + 0
8 + 0 - +
9 + + 0 -
Tabla 12. Combinación de factores en L9. Denotación (- 0 +) o (1 2 3).
Ventajas.
Pueden ser aplicados al diseño experimental involucrando un gran número de factores.
Crítica a arreglos ortogonales.
Puede ser únicamente aplicado en la etapa inicial del diseño del sistema. Un arreglo
ortogonal permite asegurar que el efecto de B en A1 es el mismo que el efecto de B en
A2.así se asegura de que se está haciendo comparaciones entre efectos de niveles de un
factor.
Los diseños tienen estructuras de alias muy complejas particularmente el L12 y
todos aquellos que utilizan factores de 3 niveles implican relaciones de alias entre
efectos principales e interacciones bifactoriales, si estas últimas son grandes implica
situaciones donde el experimentador no obtiene la respuesta correcta, por eso es mejor
no tener en cuenta las interacciones entre factores para diseños de un gran número de
ellos, ya que el peso de ellos en la ecuación de predicción no será muy relevante, salvo
Caso Práctico 148
en casos especiales en que tras estudiar la tabla anova se vea que el alias ejerce un gran
peso sobre la respuesta.
Pasos a seguir en un DoE.
1. Definir el diseño: Factores, Respuestas, Réplicas, número de pruebas.
2. Introducción de datos.
3. análisis de gráfico de Pareto por efecto en la media y en la variabilidad:
seleccionar valores de los factores.
4. Encontrar el valor R2 del experimento.
5. Encontrar el valor p.
6. Encontrar los valores de los coeficientes de la ecuación de predicción.
Caso Práctico 149
7.3 Beneficios Lo que conseguiremos tras la aplicación de un experimento: - Eliminación de muchos rechazos y reprocesados, y con ello cero defectos y
rendimientos del 100%.
- La reducción drástica de las inspecciones y pruebas que no añaden valor.
- La eliminación de tiempos de paradas no programadas de equipos y procesos.
- La disminución apreciable de la duración del ciclo de fabricación, porque la
mejora de la calidad es un requisito previo para la reducción del ciclo.
- La mejora de la moral de los empleados porque el éxito crea éxitos y satisfacción.
- El aumento de los beneficios gracias a ala reducción sistemática de los costes de
no-calidad.
Caso Práctico 150
8. CASO PRÁCTICO 8.1 Introducción MEUPE S.L. (Mecanizados Eulogio Peña) es una empresa fundada en 1957, por D.
Eulogio Peña García, cuya actividad principal es el mecanizado de piezas de precisión.
Hoy en día trabaja para sectores tan exigentes como el aeronáutico y el de la
automoción.
Dispone de instalaciones de tratamientos térmico, como el revenido y maduración
de aceros, y montajes de conjuntos. Sus instalaciones están ubicadas el Polígono
industrial La Era Empedrada, Umbrete.
Cuenta con una superficie total de 5 400 m2 entre talleres de mecanizado y de
montajes, y con 700 m2 de oficinas.
La plantilla la forman 46 empleados, 18 son indirectos y 25 directos con una
producción anual de 90 000 horas.
La empresa consta de cuatro departamentos:
• Ingeniería
• Producción
• Calidad
• Económico financiero
Caso Práctico 151
Departamento de ingeniería
El Departamento de Ingeniería se encarga principalmente de la elaboración, control de
evoluciones y custodia de toda la documentación necesaria para el mecanizado de las
elementales, los procesos finales, y montajes de cada elemento, generando para ello
rutas de procesos, planos, instrucciones de verificación y asignando tiempos de
ejecución de cada operación hasta definir el proceso completo de cada producto.
Para ello cuentan con un eficaz software en constante evolución, diseñado y realizado
hasta adaptarse totalmente a sus necesidades, que proporciona un control de la
configuración del producto y sus evoluciones, con MRP II para la gestión del stock.
Para la parte del diseño y programación cuentan con sistemas de CAD-CAM
tales como UNIGRAPHIC y CATIA que les hacen totalmente compatibles y que
cubren las necesidades del mercado actual. Mediante el estudio de ofertas y
especificaciones técnicas de sus clientes o potenciales clientes, el
Departamento de Ingeniería ofrece una importante fuente de información para
la valoración del coste de los productos.
Departamento de Producción
Se encarga de llevar un estricto seguimiento de las partidas, tanto dentro de la empresa
como en nuestros subcontratistas.
Para conseguir los hitos de entrega de sus clientes se apoyan en un potente software de
control con MRP II y un sistema de seguimiento durante el proceso de fabricación
informatizado y en tiempo real.
Instalaciones de mecanizado: Cuentan con una gran variedad de Tecnología de
Mecanizado y con una zona perfectamente acondicionada y controlada en temperatura y
humedad para las máquinas de rectificado y lapeado.
Instalaciones de tratamiento térmico: Horno de vacío de revenido y maduración de
aceros.
Caso Práctico 152
Instalaciones de montaje: Nave destinada al montaje de conjuntos medianos y
pequeños con personal y medios certificados.
Están especializados en trabajos de torneado, fresado, lapeado, brochado, rectificado y
roscado por laminación, contando para ello con los más modernos equipos productivos
y tecnología avanzada de fabricación, como es la fabricación asistida por ordenador
CAM, tornos convencionales, tornos CNC, fresadoras convencionales y centros de
mecanizado de 5 ejes, talladoras, brochadotas, rectificadoras, roscadoras por
laminación, vertical y lapeadoras.
Caso Práctico 153
Caso Práctico 154
Departamento de Calidad
El Departamento de Calidad de MEUPE S.L. está constituido por un equipo profesional
formado por personal técnico altamente especializado debido a la gran exigencia técnica
que requiere el sector aeronáutico que es con el que principalmente trabajan.
Está certificada con la ISO 9002 desde 1999.
Cuenta con las instalaciones necesarias y equipos de medición dimensional de última
generación precisos para garantizar la correcta verificación de los elementos fabricados.
Para ello se dispone, entre otros aparatos de medida, de una máquina de medición de
coordenadas de puente.
Todo el proceso es controlado mediante un moderno sistema informático con el que es
posible, además, obtener información en tiempo real de la evolución de la Calidad
cuando se desee.
Actualmente está en proceso de adaptación a la nueva y exigente norma aeronáutica EN
9100 lo que va a hacer mejorar aún más el Sistema de Calidad de MEUPE S.L., y por lo
tanto, la Calidad que reciben los clientes.
Departamento Económico Financiero: Es el departamento responsable de la gestión
económica y administrativa de la empresa, donde atienden ante cualquier duda de tipo
administrativo.
Caso Práctico 155
Caso Práctico 156
8.2 Antecedentes y Objetivo Como mencioné anteriormente, Meupe está mejorando aún más su sistema de Calidad
para adaptarse a la normativa aeronáutica, y una de las acciones que tomó fue participar
en nuestra encuesta telefónica sobre sus conocimientos de diseño robusto y , tras ésta,
aceptar nuestra colaboración para que le proporcionáramos un método con el que
trabajar para lograr la conformidad del producto, es decir, que existan las mínimas
diferencias entre distintas muestras de un mismo producto.
Hasta nuestra llegada lograban la conformidad rechazando los productos que no
cumplían las especificaciones, o devolviéndolos a la cadena de montaje para reparar
aquellas piezas que podían reutilizarse. Pero todo esto supone un encarecimiento del
sistema de producción, no seguían un método sistemático que estudiara a través de la
experimentación cómo conseguir una producción óptima.
En otras palabras, buscan la implantación de una metodología del diseño robusto que le
ayude en la mejora de su Sistema de Calidad, para conseguir un producto:
� Que cumpla las especificaciones del cliente,
� Que además sea uniforme, es decir, que estando dentro de los límites de
especificación, haya muy poca variabilidad entre ellos,
� Que satisfaga al cliente, y
� Que todo ello no suponga grandes gastos.
Caso Práctico 157
8.3 Causas de la Variación Diariamente se hacía un análisis visual de supervisión de las piezas. Las causas de la
desviación se podían dividir en tres categorías:
1. Defecto de la maquinaria (de fabricación).
2. Acción humana (del operario).
3. Variaciones en las características de la materia prima (Ej. Variaciones en la
composición del metal, en nuestro caso, del acero).
Meupe destaca las variaciones causadas por la falta de fiabilidad mecánica como las
causas más fáciles de controlar. Asimismo, ellos señalan que las causas de variación
debida a acciones humanas son las más difíciles de dirigir por el componente de
variabilidad que es inherente al ser humano (una solución/ acción correctiva que tiene
éxito en un ambiente específico y/o situación quizá no sea exitosa cuando tratemos con
el mismo problema pero en diferente ambiente o con otras personas).
Además, el nivel de interacción entre los diferentes procesos es considerado como uno
de los factores que tiene un efecto directo en las variaciones del desarrollo del proceso,
por ejemplo, el hecho de que una pieza al entrar en un proceso venga ya defectuosa del
paso anterior.
Caso Práctico 158
8.4 Implementación 8.4.1 Equipo de trabajo En el caso de Meupe, la decisión de implementar una Metodología del diseño Robusto,
fue tomada por el director de la empresa en vistas a la variabilidad encontrada en las
piezas producidas y también como una metodología de gestión de la calidad, de forma
que se coordinaran todas las medidas de mejora en un único marco, el de la Six Sigma.
La robustez tiene mucha importancia para Meupe, y parte de su política estratégica. Se
evalúa de forma interna de acuerdo con el nivel de calidad fijado como meta y exigido
por el cliente de la industria aeronáutica. Con el objetivo fijado, se aseguran la
sostenibilidad de la calidad y la estrategia de la compañía. Más aún, también es
evaluada externamente según la reducción de costes.
La implementación comenzó a nivel de dirección, con nuestra formación, y se ha
desplegado desde lo alto hasta los niveles operativos, que son los que aplicarán todas las
propuestas de mejora sugeridas por los ingenieros para el proceso (proceso de
despliegue de arriba- abajo). La retroalimentación o feed-back desde los operarios
también fue de gran importancia, puesto que ellos tendrán que aportar sus
conocimientos y experiencia a la hora de tomar decisiones en el estudio previo al
despliegue del VMEA.
Según la experiencia de la propia empresa, la involucración y el apoyo de la dirección
son considerados como los principales factores de soporte para la implementación de la
metodología. Además, un entrenamiento apropiado, un equipo de trabajo, así como la
participación de los técnicos y otros empleados, son también importantes para la
implementación de la RDM y sus dos herramientas: VMEA y DoE.
Por otro lado, nuestra labor sería la de formar a los directivos, estudiar el proceso crítico
y proponer una mejora a través de las herramientas del Diseño Robusto, siempre con la
ayuda de la experiencia de la propia empresa, en este caso Meupe.
Caso Práctico 159
Respecto a los obstáculos para la implementación, algunos aspectos a destacar:
1) La enorme carga de trabajo de la gente responsable de los procesos durante la fase
de implementación. Esto supondría horas extras de formación, entrevistas,
desarrollo de los experimentos, a la vez que cumplían con los objetivos diarios de
producción.
2) La actitud de los directivos medios, el jefe de zona, que quizá percibió las nuevas
medidas y entrenamientos como una amenaza ante la rutina o para su propio puesto,
temeroso quizá de posibles remodelaciones en la plantilla por el hecho de estar
implantando un nueva metodología en la empresa.
Esto es normal siempre que se van a hacer remodelaciones y cambios en la empresa,
encontrarse con personal más reacio al cambio, ya sea por el propio carácter de la
persona o por temor a la pérdida de peso en su labor; o a ser dejado a un lado; o a
que el cambio suponga un aumento de la carga de trabajo que no está preparado a
sobrellevar. Son el modelo de persona que se oponen al avance de la empresa y por
lo mismo son los primeros a los que se debe dar la formación suficiente como para
que puedan apreciar los buenos resultados que supondrá la remodelación y los
nuevos cambios.
Caso Práctico 160
8.4.2 Formación El conocimiento de las técnicas y herramientas útiles para el RDM se obtuvieron
principalmente del exterior, en este caso el personal cualificado era nuestra empresa, el
IAT.
Previamente a la implantación de la metodología tuvimos una entrevista con ellos en
la que les informamos en líneas generales sobre el proyecto europeo en el que
tomábamos parte y en el que les invitábamos participar en el caso de que necesitaran
mejorar la calidad de su producto y no estuvieran contentos con la metodología que
llevaban aplicada hasta el momento. También fueron incluidos en la encuesta sobra la
situación actual del RDM en España. Pensamos en ellos por el hecho de trabajar para la
industria aeronáutica, que exige grandes niveles de calidad, e impone unas tolerancias
muy estrictas, aparte de porque la empresa había trabajado anteriormente con el IAT.
Posterior a esto fue la formación dada al director, personal colaborador con el
departamento de calidad y al ingeniero jefe; ésta versó principalmente en diapositivas
del Diseño Robusto, Six Sigma, VMEA, y en folletos sobre los mismos, donde
explicaban las distintas herramientas a utilizar y los pasos generales para su aplicación,
así como algunos ejemplos.
Sobre el Diseño de Experimentos, que abarca un gran campo y se introduce en el campo
estadístico, preferimos darle un ejemplo aplicado a una empresa similar a Meupe para
que vieran los resultados que se podían obtener tras la realización de un experimento
simple de toma de datos. De forma que fuimos nosotros los que recibimos la formación
sobre cómo aplicar el Diseño de Experimentos a Meupe a través de diapositivas que se
muestran también en el anexo, aparte de la documentación buscada en otras fuentes.
De todas formas, antes de dar un paso en la implantación de la metodología contamos
con el consejo y la sabiduría de los directivos e ingeniero jefe sobre la factibilidad o no
del siguiente paso.
Caso Práctico 161
8.4.3 Implantación VMEA
A la hora de ver a qué proceso aplicar el VMEA, fueron el director y el ingeniero jefe
de Meupe los que, según la formación recibida, nos propusieron 2 procesos sobre los
que les interesaba más aplicar la metodología del diseño robusto con vistas a obtener
una pieza final con más uniformidad en las especificaciones y menos fallo en su
fabricación, las propuestas fueron:
1. Talladora
2. Roscadora por laminación
La información dada por la empresa sobre sendos procesos fue:
TALLADORA
Descripción del proceso: según el operario Paco Lugo.
El proceso consiste en hacer un dentado sobre ejes.
Partimos de un redondo de distintos diámetros según el tipo de pieza que se quiera
fabricar.
Piezas que se fabrican:
- Árbol acanalado
- Flauta de titanio
- Flauta de acero
Caso Práctico 162
Uso de las piezas:
Seguimos especificaciones técnicas dadas por nuestros clientes mediante planos; las
operaciones a realizar sobre una misma pieza vendrán detalladas desde ingeniería según
la orden de fabricación S.I.C.O.P
Preparación de la máquina:
1) Según el número de dientes que posea la pieza habrá que utilizar unas ruedas u
otras; ruedas que se encuentran en el interior de la máquina.
2) Se instala el redondo o la pieza semiterminada sobre el plato giratorio, y se realiza el
centrado correspondiente de la pieza.
Mediante Nonios (rueda milimetrada decimalmente situada a la derecha de la
máquina) se va graduando con el fin de conseguir la medida exacta de la pieza.
El flanco o profundidad de la pieza se mide con varilla o micro.
Con la primera pieza se experimentan las medidas ajustando el nonio.
Principal característica del producto:
- Profundidad del flanco, la longitud del diente tiene menos importancia porque es
más fácil de conseguir y tiene unas tolerancias menos estrictas.
- Medidas. El cliente pide una exactitud centesimal. Y los nonios vienen en décimas.
Caso Práctico 163
Errores o fallos más frecuentes:
- Dificultad a la hora de programar las medidas, dado que el nonio viene en décimas y
el cliente solicita tolerancias en centésimas.
- Desgaste y duración de la herramienta. Jugar afila la herramienta. La herramienta no
tiene una vida determinada, el desgaste de la herramienta es una medida subjetiva
según considere el operario, las fresas se componen de dientes y el operario tiene
que comprobar que los dientes con los que trabaja están a filo vivo. Se trabaja con
dos dientes en cada fresado, con cinco posturas por fresa, cada arista de la fresa
tiene diez dientes, que tomados de dos en dos dan lugar a cinco posturas, y se
utilizan dos de ellos en cada operación.
- Dureza del material. El tipo de material utilizado es muy importante, el titanio por
ejemplo consigue un gran número de piezas sin fallos, porque no es un material duro
y no ofrece resistencia.
El acero PH 13 y PH 14 son mucho más duros.
ROSCADORA POR LAMINACIÓN
Descripción del proceso: Según la valoración del operario Manuel Aguilar.
Consiste en realizar una rosca por laminación, mediante dos rodillos por presión que
logran que se hundan unas partes y sobresalgan otras conformando así la rosca, a
diferencia del roscado a cuchilla o por arranque de viruta, ya que este no está permitido
en el sector aeronáutico.
Partimos de las especificaciones de nuestro cliente en cuanto a las medidas de la rosca
Ej. 10 × 1, que nos indica el diámetro exterior y el paso de la rosca. Igualmente nuestro
cliente nos suele proporcionar el bruto o el espárrago al cual se le realzará la rosca.
Piezas que se fabrican:
Rosca por laminación de Diámetro exterior 5. 88/ 5. 91
Flanco que se mide por el Diámetro medio 5. 27/ 5. 31
Caso Práctico 164
Detalles:
El diámetro de este espárrago suministrado por el cliente suele ser de 6, 7 y 8 y
mediante el proceso de prelaminado que se realiza en un proceso anterior al roscado por
laminación, usando una máquina rectificadora, se consigue una medida exacta del
diámetro Ej. 5.32 (porque mediante la presión el diámetro aumenta), este espárrago se
introduce en la máquina de roscado por laminación hasta conseguir medidas las
establecidas en tablas y las especificaciones del plano. Cada rosca de un métrico
determinado requiere unos rodillos.
Lo ideal es que cada métrico de rosca lleve sus rodillos, pero si las series a roscar no son
muy grandes y no hay disponibilidad del rodillo adecuado, un mismo rodillo puede
servir para roscas 2mm por encima o por debajo, dado que el trabajador que manipula la
máquina tiene una amplia experiencia en la realización de este proceso. El proveedor de
rodillos es RODIN.
Caso Práctico 165
Preparación de la máquina:
1) Cambio del rodillo
2) Buscar la presión adecuada del material
3) Buscar el paso del rodillo, como enfilar la pieza (alinear los rodillos uno con el otro)
4) Establecer el tiempo de laminado
Característica principal del producto:
Tolerancias del Diámetro exterior y del flanco. Acabado.
Errores o fallos más frecuentes:
Se dan en general si alguno de los parámetros anteriores no están bien definidos, por
ejemplo, si se trata de un material duro y no se pone la presión adecuada; o si el
operario se excede en el tiempo de laminación.
Caso Práctico 166
Entrevista a los operarios.
El siguiente paso a realizar fue hacer una entrevista a los operarios para que me
explicaran detalladamente el proceso y así poder identificar las KPCs, Sub-KPCs y
factores de ruido integrantes del VMEA y además conocer la importancia de cada paso
y de los componentes, necesarios para asignar valoraciones, sensibilidades y tamaños de
variación.
Respecto al obstáculo encontrado en la fase previa al VMEA:
A la hora de entrevistar a los operarios sobre todo el proceso de producción de las
piezas, nos encontramos con el hecho de que se basan más en su propia experiencia, que
en algunos casos es de hasta 30 años, y no solían acudir a las tablas donde están todos
los valores, tampoco se habían preguntado nunca qué pasaría si se cambiaran las
variables de entrada y se combinaran de otra forma, puesto que pensaban que su método
era el óptimo; y por último, lo que supuso una mayor barrera a la hora de preguntarles
para identificar las KPCs, Sub-KPCs y NFs, fue el sentimiento de ser imprescindibles
para la empresa, como si ellos fueran al único factor de ruido porque todo lo demás lo
controlan. Como por lo general un operario se ha dedicado durante muchos años a la
misma máquina, sólo ellos conocen bien su manejo y pequeños trucos para evitar
defectos y que el producto sea óptimo.
Fue una ardua tarea el hecho de entrevistarlos y saber sacar los elementos para poder
desplegar el VMEA.
Los resultados de las entrevistas a los dos operarios:
A. TALLADORA
� Operario Paco Lugo.
� Dentado sobre ejes.
� Los ejes de acero dan problemas porque la herramienta se gasta rápido (el director
elige la fresa).
� Las operaciones siguen un orden de fabricación y de especificación, están marcadas
por un código de barras.
� Según el número de dientes se utilizan unas ruedas y un engranaje concreto.
Caso Práctico 167
� Hay que conseguir que el diámetro exterior de la pieza una vez acabada tenga unas
medidas de 32+164 mm y 32-244 mm, (1.5 centésimas de tolerancia). De esta forma
se está controlando la profundidad del flanco.
� El eje sin acanalar lo dan ya normalizado y viene de un proceso anterior.
� La longitud de dentado no da problemas, la tolerancia es poco estricta, además la
parada es en vacío, nunca sobre la pieza y la controla el operario.
� Es necesario un buen centrado de la pieza para que encaje en la hembra.
� El acero y el titanio tienen la misma velocidad de avance hacia abajo y de giro.
� La velocidad de bajada la controla también el engranaje.
� En realidad el avance siempre es el mismo, 1 mm, lo que ocurre es que el dentado se
obtiene variando a la vez la velocidad de giro y de bajada.
� El nonio controla la aproximación de la fresadora, tiene precisión de décimas, y las
especificaciones viene en milésimas, el operario arregla esta precisión con
golpecitos en la máquina.
� Se usa un comparador para centrar, pero el centrado se va corrigiendo visualmente y
con pequeños golpecitos. Se puede corregir desde 2 centésimas hasta 0, están
permitidas hasta 3 centésimas de variación en el centrado de distintos puntos del
mismo espárrago.
� A veces los agujeros ya viene mal hechos y centrados y hay que devolverlo al
proceso anterior para arreglarlo, no da problema.
B. ROSCADORA POR LAMINACIÓN
� Operario Manuel Aguilar.
� Dos rodillos para hacer presión.
� El cliente entrega el espárrago y hay que conseguir que cumpla las especificaciones
de diámetro, flanco, paso y de rugosidad.
� Antes hay un proceso de prelaminado o rectificación.
� Cada rosca necesita unas medidas normalizadas.
� Los aceros se comportan más o menos igual pero hay de muchos tipos.
� La regleta para apoyar el espárrago está a una altura fija dada según la métrica, igual
que los rodillos, que también los da el fabricante.
Caso Práctico 168
� Según el material hay que tener en cuenta el enfilamiento del rodillo, la presión y el
tiempo de laminado, aunque si se excede este último tampoco ocurre nada porque la
maquina está ajustada con unos valores al inicio de la operación y no seguiría
avanzando, por mucho que pasara el tiempo.
� Hay que ver el desgaste del rodillo, si tiene mellas.
� Hay que tener en cuenta la velocidad de giro de los rodillos y el avance de éstos
hasta la profundidad buscada del flanco. Cuando los rodillos estén más desgastados
habrá que aumentar un poco más el avance correspondiente.
� Se enfila a ojo, esto afecta principalmente al paso.
� La presión se hace a ojo, afecta al flanco.
� Cada rosca que hace debe pasar las tolerancias, y la acepta o no, no es por muestreo
porque es para la industria aeronáutica.
� Según la dureza del material a cada uno hay que aplicarle una presión pero no hay
medidas, sino a ojo según la experiencia. Más presión menos pasadas.
� Hay un tope de control del flanco, lo miden el nonio y un micro interruptor.
� Sí hay un tiempo mínimo para conseguir el flanco y el paso buscado.
Primer borrador VMEA.
A partir de estos datos hice un primer borrador con las conclusiones y valoraciones del
VMEA. Ver Tabla 13.
VM
EA
:
A
nalis
is m
odal
del
fal
lo y
efe
cto
TA
LL
AD
OR
A
KP
CS
UB
-KP
C
KP
C
sen
sib
lea
la S
ub
-K
PC
NF
Tam
año
d
e la
va
riac
ión
Sen
sib
ilid
ad
de
Su
b-K
PC
a
NF
VR
PN
(NF
)
VR
PN
(Su
b-
KP
C)
Aju
ste
noni
o10
Per
icia
ope
rario
28
2560
035
600
Pre
cisi
ón n
onio
110
1000
0
Cen
trad
o pi
eza
10P
eric
ia o
pera
rio4
912
9600
Pre
cisi
ón h
ta. C
ompa
rado
ra2
1040
000
4245
00
Incl
inac
ión
de la
máq
uina
cen
trad
ora
17
4900
Est
ado
piez
a qu
e lle
ga a
l ope
rario
510
2500
00
Ang
ulo
de c
orte
5A
filad
o de
la h
erra
mie
nta
14
400
1025
Cal
idad
máq
. Afil
ador
a1
562
5
Vel
ocid
ad d
e gi
ro5
Eng
rasa
do d
e en
gran
aje
17
1225
Hol
gura
de
engr
anaj
e3
814
400
Aju
ste
de v
alor
es e
n m
áqui
na2
636
0021
250
Dur
eza
del t
ipo
de a
cero
33
2025
Vel
ocid
ad d
e av
ance
por
die
nte
6A
just
e de
val
ores
en
máq
uina
26
5184
1733
76
Dur
eza
del t
ipo
de a
cero
38
2073
6
Des
gast
e8
814
7456
Pro
fun
did
ad d
e ra
nu
ra,
flan
co
Tab
la 1
3. P
rim
er d
esar
rollo
del
VM
EA
.
VM
EA
:
A
nalis
is m
odal
del
fal
lo y
ef
ecto
KP
CS
UB
-KP
C
KP
C
sen
sib
le
a la
Su
b-
KP
CN
F
Tam
año
d
e la
va
riac
ión
Sen
sib
ilid
ad
de
Su
b-K
PC
a
NF
VR
PN
(NF
)V
RP
N(S
ub
-KP
C)
Diá
met
ro d
e la
mue
la10
Des
gast
e m
uela
69
2916
0029
1600
Altu
ra r
egle
ta6
Per
icia
ope
rario
26
5184
5184
Ref
riger
ante
mue
las
1C
auda
l1
636
40
Dilu
ción
tala
drin
a1
24
Enf
ilam
ient
o ro
dillo
s10
Des
trez
a op
erar
io4
1016
0000
1600
00
Tie
mpo
lam
inad
o m
ínim
o5
Cal
ibra
ción
de
máq
uina
23
900
900
Vel
ocid
ad g
iro r
odill
os4
Cal
ibra
ción
de
máq
uina
24
1024
8080
Dur
eza
del m
ater
ial
37
7056
Aju
ste
sepa
raci
ón e
ntre
rod
illos
6P
eric
ia o
pera
rio2
651
8451
84
Pre
sión
lam
inad
o10
Dur
eza
del m
ater
ial
410
1600
0016
0000
Tie
mpo
lam
inad
o m
ínim
o6
Cal
ibra
ción
de
máq
uina
23
1296
1296
Diá
met
ro d
el r
odill
o5
Des
gast
e ro
dillo
57
3062
530
625
Vel
ocid
ad g
iro r
odill
os5
Cal
ibra
ción
de
máq
uina
24
1600
9700
Dur
eza
del m
ater
ial
36
8100
Ava
nce
rodi
llos
9A
just
e no
nio
29
2624
472
900
Des
gast
e ro
dillo
s4
646
656
RO
SC
AD
OR
A P
OR
LA
MIN
AC
IÓN
Diá
met
ro d
el
esp
árra
go
(milé
sim
as)
Pas
o d
e la
ro
sca
Fla
nco
Caso Práctico 171
Versión definitiva VMEA.
Tras enviarlas a ellos y valorarlas, nos reunimos para comentarlas y además, teniendo
en cuenta que posteriormente habría que realizar un diseño de experimentos, estudiamos
cuál de los dos procesos ofrecía más posibilidades a la hora de cambiar los valores de
los parámetros de entrada para estudiar las salidas y ver cómo mejorar el proceso para
obtener un producto con más calidad y menos variabilidad. En base a esto decidieron
que nos centraríamos en la Roscadora por Laminación. Nos centramos en cuáles serían
las características principales del diseño y de qué dependían (ver Tabla 14), y llegamos
a una tabla final (Tabla 15) gracias a la experiencia y conocimientos más objetivos del
proceso y de los requerimientos del cliente que tienen el ingeniero jefe y el directivo, y
que el operario no nos había podido comentar simplemente por desconocimiento. De ahí
la importancia de obtener las dos versiones del proceso, una del operario más detallada
y enfocada en el día a día, y la otra del directivo, que maneja el proceso completo y que
es el encargado de estar en contacto con el cliente y adaptar su producto a la voz de éste.
Tabla 14. Sub-KPCs para la KPC Sub-KPC Descripción Altura regleta Debe estar a una altura fija según la métrica
de la rosca, esta altura la suministra el fabricante.
Enfilamiento de los rodillos Es la base para hacer la rosca y sólo depende de la destreza visual y manual del operario.
Tiempo laminado mínimo. El mínimo tiempo que debe estar la pieza en la roscadora para que se haga, dependerá del material, según este se calibra la máquina con unas coordenadas.
Velocidad de giro de rodillos. Velocidad de rotación de la herramienta, no es demasiado importante y dependerá del conocimiento del operario. Afectará más a la calidad superficial.
Ajuste de separación entre rodillos Distancia entre rodillos para dar la rosca adecuada, dependerá de la calibración del nonius.
Presión de laminado. La que se aplica al material para producir la rosca, muy importante. Depende del material.
Estado del rodillo Es el que hace la rosca, por lo tanto factor clave. Habrá que vigilar su desgaste y repararlo o reponerlo.
Velocidad penetración de los rodillos Influye en el avance de éstos hasta la profundidad buscada del flanco. si los rodillos están más gastados habrá que aumentar un poco el avance.
KP
CS
UB
-KP
CK
PC
sen
sib
le
a la
Su
b-K
PC
NF
Sen
sib
ilid
ad
de
Su
b-K
PC
a
NF
Tam
año
d
e la
va
riac
ión
VR
PN
(NF
)V
RP
N(S
ub
-KP
C)
desg
aste
72
1254
4
prov
eedo
r7
131
36
Enf
ilam
ient
o ro
dillo
s10
Des
trez
a op
erar
io8
164
0064
00
Tie
mpo
lam
inad
o m
ínim
o6
Cal
ibra
ción
de
máq
uina
11
3636
Vel
ocid
ad g
iro
rodi
llos
4C
onoc
imie
nto
oper
ario
48
1638
416
384
Per
icia
ope
rario
82
2560
0
Jueg
o en
Non
ius
22
1600
Dur
eza
del m
ater
ial
104
1024
00
Des
trez
a op
erar
io9
220
736
Equ
ipo
Hid
raul
ico
53
1440
0
Est
ado
rodi
llo10
Des
gast
e ro
dillo
64
5760
057
600
Dur
eza
del m
ater
ial
104
2560
0
Des
trez
a op
erar
io9
251
84
Equ
ipo
Hid
raul
ico
53
3600
desg
aste
22
64
prov
eedo
r2
116
Enf
ilam
ient
o ro
dillo
s10
Des
trez
a op
erar
io8
164
0064
00
Tie
mpo
lam
inad
o m
ínim
o2
Cal
ibra
ción
de
máq
uina
11
44
Vel
ocid
ad g
iro
rodi
llos
2C
onoc
imie
nto
oper
ario
28
1024
1024
Per
icia
ope
rario
22
64
Jueg
o en
Non
ius
22
64
Dur
eza
del m
ater
ial
24
256
Des
trez
a op
erar
io2
264
Equ
ipo
Hid
raul
ico
23
144
Est
ado
rodi
llo2
Des
gast
e ro
dillo
24
256
256
Dur
eza
del m
ater
ial
104
6400
Des
trez
a op
erar
io9
212
96
Equ
ipo
Hid
raul
ico
53
900
VM
EA
: A
nalis
is m
odal
del
fal
lo y
efe
cto
pas
o
280
212
8
Pre
sión
lam
inad
o2
Altu
ra r
egle
ta
Aju
ste
sepa
raci
ón e
ntre
ro
dillo
s
Vel
ocid
ad p
enet
raci
on
rodi
llos
2
1375
36P
resi
ón la
min
ado
Vel
ocid
ad p
enet
raci
on
rodi
llos
434
384
8596
464
RO
SC
AD
OR
A P
OR
LA
MIN
AC
IÓN
Altu
ra r
egle
ta15
680
1027
200
dia
met
ro
exte
rio
r
8
Aju
ste
sepa
raci
ón e
ntre
ro
dillo
s
8
de
sga
ste
72
12
54
4
pro
ve
ed
or
71
31
36
En
fila
mie
nto
ro
dill
os
10
De
stre
za o
pe
rari
o8
16
40
06
40
0
Tie
mp
o la
min
ad
o m
ínim
o6
Ca
libra
ció
n d
e m
áq
uin
a1
13
63
6V
elo
cid
ad
gir
o r
od
illo
s4
Co
no
cim
ien
to o
pe
rari
o4
81
63
84
16
38
4
Pe
rici
a o
pe
rari
o8
22
56
00
Jue
go
en
No
niu
s2
21
60
0
Du
reza
de
l ma
teri
al
10
41
02
40
0
De
stre
za o
pe
rari
o9
22
07
36
Eq
uip
o H
idra
ulic
o5
31
44
00
Est
ad
o r
od
illo
10
De
sga
ste
ro
dill
o6
45
76
00
57
60
0
Du
reza
de
l ma
teri
al
10
41
02
40
0
De
stre
za o
pe
rari
o9
22
07
36
Eq
uip
o H
idra
ulic
o5
31
44
00
de
sga
ste
72
12
54
4
pro
ve
ed
or
71
31
36
En
fila
mie
nto
ro
dill
os
10
De
stre
za o
pe
rari
o8
16
40
06
40
0
Tie
mp
o la
min
ad
o m
ínim
o8
Ca
libra
ció
n d
e m
áq
uin
a1
16
46
4V
elo
cid
ad
gir
o r
od
illo
s8
Co
no
cim
ien
to o
pe
rari
o4
86
55
36
65
53
6
Pe
rici
a o
pe
rari
o8
22
56
00
Jue
go
en
No
niu
s2
21
60
0
Du
reza
de
l ma
teri
al
10
41
29
60
0
De
stre
za o
pe
rari
o9
22
62
44
Eq
uip
o H
idra
ulic
o5
31
82
25
Est
ad
o r
od
illo
10
De
sga
ste
ro
dill
o6
45
76
00
57
60
0
Du
reza
de
l ma
teri
al
10
45
76
00
De
stre
za o
pe
rari
o9
21
16
64
Eq
uip
o H
idra
ulic
o5
38
10
0
fla
nc
o
8
27
20
0
13
75
36
15
68
0
10
Altu
ra r
eg
leta
Ve
loci
da
d p
en
etr
aci
on
ro
dill
os
67
73
64
ca
lid
ad
s
up
erf
icia
l
17
40
69
Pre
sió
n la
min
ad
o9
15
68
0
Aju
ste
se
pa
raci
ón
en
tre
ro
dill
os
10
27
20
0
8A
ltura
re
gle
ta
Pre
sió
n la
min
ad
o8
Aju
ste
se
pa
raci
ón
en
tre
ro
dill
os
Ve
loci
da
d p
en
etr
aci
on
ro
dill
os
81
37
53
6
Caso Práctico 174
Resultados del software.
A continuación, tras la aprobación de la última tabla de desarrollo del VMEA, procedí a
introducir los datos en el software de VMEA que tiene el coordinador del proyecto
europeo y que también muestra de forma estadística cuáles son los VRPN de los
factores de ruido y de las Sub-KPC. Estos valores son de gran ayuda a la hora de
efectuar medidas correctivas sobre el diseño del proceso, ya que nos dicen cuales son
las características más críticas, y sobre las que hay que prestar más atención.
En nuestro caso, no sólo hemos tenido en cuenta esto, sino que tratándose de un
caso real, la teoría se tiene que quedar en segundo término y adaptarse al modelo real,
por eso, aunque ofrezco los resultados de aplicar las fórmulas que ofrece el VMEA, para
dar el siguiente paso para realizar un diseño de experimentos, al elegir los factores o
Sub-KPC de entrada, nos hemos basado no sólo en las VRPN, sino en que el
experimento se pueda realizar, es decir, que podamos controlar las variables de entrada,
y además, creamos que puedan tener una influencia significativa en las salidas. Las
variables de entrada tomadas fueron las resaltadas en rojo en la tabla 15:
A. Tiempo laminado
B. Presión de laminado
C. Velocidad de giro de los rodillos
D. Velocidad de penetración de los rodillos
Resumiendo, ya teníamos realizados los siguientes pasos:
1. Definición del problema: Defectos en las calidades de la rosca
2. Objetivo: Minimizar o eliminar los defectos
3. Aplicación VMEA
4. Tormenta de ideas: análisis uno a uno de las Sub-KPCs más críticos para
ver su posible participación en le experimento
Caso Práctico 175
Ejecución del VMEA
Proyecto: VMEA en MEUPE, KPC: Diámetro externo
KPC Sub-KPC Sensibilidad KPC a Sub_KPC
NF Sensibilidad Sub-KPC
a NF
Tamaño variación
NF
VRPN(NF)
VRPN(Sub-KPC)
Tiempo laminado mín.
6 Calibración
máq. 1
1
36 36
Equipo hidráulico
5
3
3600
Dureza material
10
4
25600
Velocidad penetración
4
Destreza operario
9
2
5184
34384
Enfilamiento rodillos
10
Destreza operario
8
1
6400 6400
Estado rodillo
10
Desgaste rodillo
6
4
57600 57600
Velocidad giro rodillo
4 Conocimiento operario
4
8
16384 16384
Equipo hidráulico
5
3
14400
Dureza material
10
4
102400
Presión laminado
8
Destreza operario
9
2
20736
137536
Proveedor 7
1
3136
Altura regleta
8
Desgaste 7
2
12544
15680
Pericia operario
8
2
25600
Diámetro
externo [mm]
Ajuste entre rodillos
10 Juego nonius 2
2
1600
27200
Caso Práctico 176
Ejecución del VMEA
Proyecto: VMEA en MEUPE, KPC: Paso
KPC Sub-KPC Sensibilidad KPC a Sub-
KPC NF
Sensibilidad sub-KPC a
KPC
Tamaño variación
NF VRPN(NF)
VRPN(Sub-KPC)
Tiempo laminado mín.
2
Calibración Máq.
1
1
4 4
Equipo hidráulico
5
3
900
Dureza material
10
4
6400 Velocidad penetración
2
Destreza operario
9
2
1296
8596
Enfilamiento rodillos
10
Destreza operario
8
1
6400 6400
Estado rodillo
2
Desgaste rodillo
6
4
2304 2304
Velocidad giro rodillo
2 Conocimiento
operario 4
8
4096 4096
Equipo hidráulico
5
3
900
Dureza material
10
4
6400 Presión laminado
2
Destreza operario
9
2
1296
8596
Proveedor 7
1
196 Altura regleta
2
Desgaste 7
2
784 980
Pericia operario
8
2
1024
Paso [mm]
Ajuste entre rodillos
2 Juego nonius 2
2
64
1088
Caso Práctico 177
Ejecución del VMEA
Proyecto: VMEA en MEUPE, KPC: Diámetro medio o Flanco
KPC Sub-KPC
Sensibilidad KPC a Sub-KPC
NF Sensibilidad Sub-KPC
a NF
Tamaño variación
NF
VRPN(NF)
VRPN(Su-KPC)
Tiempo laminado min.
6
Calibrado Máq.
1
1
36 36
Equipo Hidráulico
5
3
14400
Dureza material
10
4
102400
Velocidad penetración
8
Destreza operario
9
2
20736
137536
Enfilamiento rodillo
10
Destreza operario
8
1
6400 6400
Estado rodillo
10
Desgaste rodillo
6
4
57600 57600
Velocidad giro rodillo
4
Conocimiento operario
4
8
16384 16384
Equipo hidráulico
5
3
14400
Dureza material
10
4
102400
Presión laminado
8
Destreza operario
9
2
20736
137536
Proveedor 7
1
3136
Altura regleta
8
Desgaste 7
2
12544
15680
Pericia operario
8
2
25600
Diámetro medio [mm]
Ajuste entre rodillos
10
Juego nonius 2
2
1600
27200
Caso Práctico 178
Ejecución del VMEA
Proyecto: VMEA en MEUPE, KPC: Calidad superficial
KPC Sub-KPC Sensibilidad KPC a Sub-
KPC NF
Sensibilidad Sub-KPC a
NF
Tamaño variación
NF VRPN(NF)
VRPN(Sub-KPC)
Tiempo laminado mín.
8
Calibración Máq.
1
1
64 64
Equipo hidráulico
5
3
8100
-Dureza material
10
4
57600 Velocidad penetración
6
Destreza operario
9
2
11664
77364
Enfilamiento rodillos
10
Destreza operario
8
1
6400 6400
Estado rodillo
10
Desgaste rodillo
6
4
57600 57600
Velocidad giro rodillos
8 Conocimiento
operario 4
8
65536 65536
Equipo hidráulico
5
3
18225
Dureza material
10
4
129600 Presión laminado
9
Destreza operario
9
2
26244
174069
Proveedor 7
1
3136 Altura regleta
8
desgaste 7
2
12544 15680
Pericia operario
8
2
25600
Calidad superficial
Ajuste entre rodillos
10 Juego nonius 2
2
1600
27200
Caso Práctico 179
Caso Práctico 180
Caso Práctico 181
Caso Práctico 182
Caso Práctico 183
8.4.3 Implantación DoE
Antecedentes.
En el proceso de producción de unas roscas se presentaba la siguiente problemática:
Algunas veces las roscas eran rechazadas por mala calidad, logrando pasar en un 76 %
de los casos, el resto se rechazaban o se reparaban para que cumplieran los
requerimientos impuestos por el cliente.
La rosca la realiza el operario de la línea correspondiente, de forma que es una
prueba subjetiva porque depende en parte del estado de ánimo del operario cada día.
Además intervenían otros parámetros y la gente de producción y calidad no lograban
ponerse de acuerdo en las causas del problema y mucho menos en las posibles acciones
correctoras. No se tenía claro que parámetros influían directamente, ni el criterio para
controlarlos. De ahí que se planteara la aplicación del VMEA, tras el cual obtuvimos los
parámetros más críticos del proceso, y sobre los que, variando sus valores de entrada,
podríamos experimentar y estudiar, para así obtener un producto óptimo y sin rechazos.
Determinación.
Ante todo esto se planteó aplicar la metodología del diseño de experimentos, esperando
que nos dijera qué parámetros influían directamente y con más peso, también nos
recomendaría combinaciones óptimas de los valores de entrada.
Las variables de entrada y sus rangos, serían:
A. Tiempo de laminado: 4,5,6 (segundos)
B. Presión de roscado: 70, 85, 100 (bares)
C. Velocidad de giro de rodillos: 32, 66, 100 (rpm)
D. Velocidad de penetración: rápido, medio, lento (cualitativa)
Y las variables de respuesta a medir:
1. Diámetro medio (mm). Dmáx= 5,31 D min= 5,27
2. Diámetro externo (mm). Dmáx = 5,91 Dmín = 5, 87
3. Rugosidad, se valoraría visualmente con 5= pobre; 7= aceptable; 10= perfecta
Caso Práctico 184
4. Geometría, se valoraría de la misma forma que la rugosidad.
De las salidas 1 y 2 nos interesa que no se desvíen mucho o nada de sus valores
nominales, y de las salidas 3 y 4 nos interesa que tengan el valor más alto posible. Esto
afectará a las funciones de pérdida.
¿Qué método usar?
Nos dirigimos al esquema dado en el capítulo del diseño de experimentos, teníamos 4
factores con 3 niveles y uno de ellos cualitativo. El resultado era obvio, usar un Taguchi
que en este caso sería un L9 (3, 4).
Según esto, también podíamos diseñar el experimento, cómo se combinarían los
factores, y lo haríamos con 4 réplicas puesto que no sabíamos a priori que los 4 factores
tuvieran la misma importancia, y tampoco sabíamos si las interacciones serían
significativas.
Con el experimento ya totalmente diseñado procedimos al diseño de la matriz, ver
Tabla 16, y posteriormente la Tabla 17 rellenada en el experimento, tras el cual
introdujimos los datos en el software desarrollado para ello. Los comentarios están
después de éste.
Prue
ba
Tiem
po
de
lam
inad
o
Pres
ión
de
rosc
ado
Velo
cida
d de
giro
de
rodi
llos
Velo
cida
d de
Pe
netra
ción
D Medio 1
D Medio 2
D Medio 3
D Medio 4
D Externo 1D Externo 2D Externo 3D Externo 4Rugosidad 1Rugosidad 2Rugosidad 3Rugosidad 4Geometría 1Geometría 2Geometría 3Geometría 4
14
7032
Ráp
ido
24
8566
Med
io3
410
010
0Le
nto
45
7066
Lent
o5
585
100
Ráp
ido
65
100
32M
edio
76
7010
0M
edio
86
8532
Lent
o9
610
066
Ráp
ido
VM
EA :
Anal
isis
mod
al d
el fa
llo y
efe
cto
T
abla
16.
Mat
riz
de p
rueb
as p
ara
un T
aguc
hi L
9 en
Meu
pe.
Pru
eba
Tie
mpo
de
la
min
ado
en
se
gund
os
Pre
sión
de
ro
scad
o
en b
ares
Vel
ocid
ad
de g
iro d
e ro
dillo
s
Vel
ocid
ad
de
Pen
etra
ción
D Medio 1
D Medio 2
D Medio 3
D Medio 4
D Externo 1
D Externo 2
D Externo 3
D Externo 4
Rugosidad 1
Rugosidad 2
Rugosidad 3
Rugosidad 4
Geometría 1
Geometría 2
Geometría 3
Geometría 4
14
7032
Ráp
ido
5,28
5,28
5,28
5,27
5,88
5,88
5,89
5,89
77
75
77
75
24
8566
Med
io5,
295,
35,
35,
315,
95,
95,
95,
97
77
75
77
7
34
100
100
Lent
o5,
35,
35,
295,
295,
95,
95,
95,
8910
107
710
710
7
45
7066
Lent
o5,
295,
295,
35,
35,
895,
895,
895,
8910
107
77
77
7
55
8510
0R
ápid
o5,
295,
295,
35,
35,
895,
895,
895,
97
77
107
57
7
65
100
32M
edio
5,29
5,29
5,3
5,3
5,88
5,88
5,88
5,89
55
77
77
77
76
7010
0M
edio
5,31
5,31
5,3
5,3
5,88
5,88
5,89
5,89
55
55
55
77
86
8532
Lent
o5,
35,
35,
35,
35,
895,
895,
895,
897
77
77
77
7
96
100
66R
ápid
o5,
285,
275,
275,
275,
915,
95,
885,
95
77
75
77
7
Dis
eño
de E
xper
imen
tos
T
abla
17.
Mat
riz
de d
atos
rel
lena
da t
ras
el e
xper
imen
to.
Caso Práctico 187
Caso Práctico 198
Caso Práctico 199
Caso Práctico 200
Caso Práctico 201
Caso Práctico 202
Caso Práctico 203
Caso Práctico 204
Caso Práctico 205
Caso Práctico 206
8.5 Estudio de resultados y conclusiones
Gráfica del ln(s) y Diagrama de Pareto de la varianza.
Nos interesa un valor del ln(s) lo más pequeño posible y negativo, puesto que esto
indica que s o la desviación típica respecto de la media es muy pequeña.
De ahí sacamos para cada variable de salida, para cada factor, cuál es el valor del mismo
que hace óptima la salida, es decir, con menos variabilidad.
Como esta variabilidad se mide con respecto al valor medio, interesará más estudiar
estos gráficos para el Dmedio y el Dexterno, ya que en la Geometría y la Rugosidad lo
que prima es el mayor valor.
Es de estos gráficos de donde sacaremos los valores ideales para los diámetros.
Además, en la representación de Pareto, los de mayor columna serán los factores que
ejerzan más peso sobre el resultado de las salidas.
Gráfica del Valor medio y Diagrama de Pareto del valor medio.
Para analizar los diámetros. De estas gráficas obtendremos la influencia o peso que
ejerce cada factor sobre la respuesta.
En cambio, para la Rugosidad y la Geometría, además de sacar estas fuerzas,
también obtendremos los valores de entrada de los factores que dan unas características
de acabado superficial óptimo.
Tabla 18. Comparativa de los resultados de las gráficas.
D medio D externo Rugosidad Geometría
Media Varianza Media Varianza Media Varianza Media Varianza
A _ X 5 _
X
cualquier X 6 XX XX 4 XX
B _ XX 70 _ XX 85
XX
85 _
X 85-
100 XXX
C _ _ 66 _ XX 66
XX
66 XX
XXX
100 _
D _
XX
lento _
XXX
lento
XXX
lento XX
XXX
lento XXX
Caso Práctico 207
La dificultad de este experimento está en que no sólo estamos analizando una respuesta,
sino varias, y lo que favorece a una puede que no haga ningún bien a otra, por eso juega
aquí un papel muy importante la experiencia del ingeniero n le proceso que está
diseñando. Puede que no haya una sola solución óptima, sino varias.
La que yo propongo haciendo un estudio de la tabla, y considerando que el estudio
de las varianza afecta más a los diámetros, son:
1. Un valor sí está clarísimo en todos, es la velocidad de penetración lenta.
2. Para el tiempo, depende de la característica de salida en al que quiera centrarme
más, si nos fijamos más en que los valores no cambien respecto al valor
nominal, entonces 5 segundos.
Si nos fijamos en obtener un buen acabado de la superficie y la geometría,
entonces hay que tener en cuenta que en la tabla Anova de la rugosidad, el
tiempo tiene un valor P= 0,859, i.e., que no ejerce influencia sobre la rugosidad,
pero sí en la geometría (P= 0,186), que recomienda 4 seg.
Ahora bien, los valores del ratio P para los diámetros son 0,08 y 0,02
respectivamente, es decir, que este factor tiempo realmente tiene una gran
actuación aquí.
Definitivamente nos quedamos con un tiempo de laminado de 5 segundos.
El valor (1- P) da el % de seguridad de que dicho factor ejerce influencia sobre
las no conformidades.
3. Para la presión de roscado, respecto a la variabilidad estaríamos entre 70 y 80
bares, y respecto al valor medio, nos movemos entre 85 y 100, teniendo más
peso 85 según el diagrama de Pareto. Una buena opción sería quedarnos con le
valor medio 85.
Comparando los valores P, el factor B no es significativo en la geometría, y lo es
poco en la rugosidad en comparación con su efecto sobre el diámetro medio y
externo, donde alcanza unos valores inferiores a 0,01.
Luego nos quedaríamos con una presión de roscado de 85 bares.
4. Por último, para la velocidad de giro, por la varianza tomaríamos 66rpm y por
los valores medios entre 66 y 100. analizando los valores P tenemos que para
los diámetros es menor a 0,02 y para las otras dos variables de salida, casi llega
a 0,5 en la rugosidad, en cambio tiene un valor de 0,032 para la geometría.
Caso Práctico 208
Definitivamente, optaríamos por uno de los dos valores de la velocidad de giro,
66 o 100 rpm.
Tabla ANOVA.
Ahora evaluaremos la importancia relativa de los factores y sus niveles.
Cuantificaremos cuánto nos queda por mejorar. Recordemos que conforme
estabilizamos nuestras variabilidades que nos indiquen el método Taguchi, podemos
seguir aplicando Taguchi sucesivamente hasta llegar al objetivo: variabilidad cero.
Recordemos que uno de los principios de Calidad Total es la mejora continua.
- La columna P representa la contribución porcentual de cada factor en la relación
señal/ ruido. Ya la hemos comentado en el apartado anterior.
- El ratio F, es la razón de la varianza. Debe tener un valor mayor de 5 para que se
trate de un buen experimento, que en le caso de el D Medio sí lo es, sobrepasa
con crece, en cambio casi no llega a 5 para el Diámetro Externo y la Rugosidad ,
y es bastante pequeño para la Geometría.
- Corroboramos estos resultados anteriores con el valor de Squared Multiple R,
donde una buena medida es mayor de 0,8.
Respecto al Diámetro medio un 81,20% de la variación tiene explicación,
mientras que un 18,8% de la variación está causada por factores que no se han
incluido, o errores de medida o en la realización de las 9 pruebas.
Para el Diámetro externo un valor de 0,582474 sugiere que sólo el 58,247% de
la variación está explicada; un 54,85% para la rugosidad; y un 41,42% con la
geometría. El resto es variación no justificada. Un valor por debajo de 0,8 indica
que el modelo no describe perfectamente los datos de respuesta, esto es
explicable, ya que como mencioné antes, el hecho de estudiar a la vez 4
respuestas de salida se preveía traería complicaciones, incluso tendríamos que
centrarnos en unas pocas solo.
Caso Práctico 209
Conclusión.
El hecho de haber querido medir un número considerable de respuestas a la vez,
concretamente 4, ha sido determinante a la hora de haber obtenido algunos resultadso
dudosos con le experimento,. Los resultados parecen apuntar a que se han dejado
circunstancias y consideraciones por el camino.
En cambio, sí que nos podemos centrar en el estudio de una sola respuesta, la del
Diámetro Medio, que caracteriza al flanco, que sí tiene unos valores bastante buenos y
se mueve dentro de los permitidos para un buen experimento. Teniendo en cuenta esto,
entonces los valores de entrada son: t= 5 seg, p= 85 bares, Vgiro = 66 rpm y
Vpenetración = lenta. serían los correctos para darnos un diámetro medio de salida
óptimo e insensible a la variación.
Ahora habría correspondido a Meupe tomar la decisión propia de hacer una
comparativa de resultados, pero lo dejarán para más tarde puesto que esto requiere un
tiempo y dedicación, y prefirieron comprobar con el día a día el hecho de que ya no
tendrían que rechazar tantas piezas o enviarlas a reparar.
Beneficios 210
9. BENEFICIOS Los beneficios que aporta la aplicación de la Metodología del Diseño Robusto, podemos
decir que son un compendio de los beneficios obtenidos de la aplicación de los distintos
métodos y herramientas que abarca, es decir:
� Six Sigma,
� Análisis Modal de Variaciones y Efectos
� Diseño de Experimentos
Está claro que al tener siempre presente la calidad total, los beneficios irán encaminados
tanto al cliente, que impone su voz o requerimientos más exigentes, como a la empresa,
que debe pensar en el exterior, puertas afuera de la compañía, pero también debe mirar
por su propio beneficio, que es el económico y temporal, estos dos a su vez deberían
influir sobre el beneficio del personal.
Los principales resultados vistos desde la implementación del RDM son los
resultados económicos:
� Reducción de costes e incremento de ventas. Como comentaba en apartados
anteriores, si un cliente está satisfecho con el servicio obtenido lo transmitirá
a dos o tres colegas, pero si no está contento la difusión será aún mayor para
evitar que otros tengan la misma mala experiencia, pero sobre todo por
despecho contra la compañía.
Otros resultados son:
� Reducción de la pérdida de clientes,
� Fomento de la gestión del conocimiento,
� Mejora de los factores clave para los clientes
� Liderazgo, y
� Aumento de la credibilidad.
Beneficios 211
Concretamente, en relación con los beneficios que obtuvo MEUPE, al estar aplicado
este proyecto sobre una empresa real, siempre depende de las decisiones últimas que
tome la propia empresa sobre lo que se va a aplicar, y además, teniendo en cuenta que
este proyecto está enmarcado en uno europeo con una duración aproximada de unos tres
años, y que aún queda un año para que finalice, una vez realizado el diseño de
experimentos y tras recomendarles cuáles eran los parámetros o factores de entrada
sobre los que tenían que actuar, y sus valores con los que se obtenía una producción
óptima, no se pudo hacer ninguna comparativa en cifras del porcentaje de piezas que se
tuvieron que rechazar o devolver a la cadena de fabricación para repararlas. Aunque es
evidente que ese porcentaje habrá disminuido en relación con el porcentaje defectuoso
que se obtenía antes de la aplicación de la metodología, y que era de un 24%.
Bibliografía 212
10. BIBLIOGRAFÍA
- Abraham, B. (2001): Variation Reduction and Robust Designs. Comm. Statistic.
- Anderson, P. (1996): A practical method for noise factor identification and failure
mode importance in robust design engineering. 3rd International Congress of
Project Engineering, Barcelona.
- Barrentine, Larry B. (1999): An introduction to Design of Experiments. A simple
approach. ASQ Quality Press.
- Documentación procedente de varios portales de Internet.
- Documentación aportadas por las universidades de Chalmers de Tecnología
(Suecia) y de Limerick (Irlanda).
- Hahn, G.J. (1999). The impact of Six Sigma Improvement- A glimpse into the
future of statistics. The American Statitian.
- Kackar, R. N. (1985): Off-Line Quality Control, Parameter Design, and the
Taguchi Method. Journal of Quality Technology.
- Peña, Daniel (2002): Regresión y diseño de experimentos. Alianza editorial.
- Ryan, Thomas P. (2000): Statistical Methods for Quality Improvement. Wiley-
Interscience Publication.
- Wheeler, Donald J. (1990): Understanding industrial experimentation. SPC Press,
Inc.
- Montgomery, Douglas C. (2002): Diseño y análisis de experimentos. Limusa
Valley.
Anexo: Formación 213
11. ANEXO: Formación
Anexo: Formación VMEA 214
2004-04-02 1
Análisis Modal de Variacionesy Efecto
2004-04-02 2
Variación y Seis Sigmas• La variación está en todos lados.Muchos problemas de
calidad y seguridad ocurren como resultado de una variación no deseada.
• Las Seis Sigmas suponen un marco de trabajo para herramientas estadísticas gracias a las cuales podemos controlar el problema de las variaciones no deseadas.
• Muchas compañías dan parte de sus ahorros en millones de dólares gracias a sus programas de las Seis Sigmas.
• Al mismo tiempo sabemos que podemos ser mucho más eficientes y efectivos si gestionamos la variación no deseada en una etapa temprana, justo en la fase de diseñodel producto/ proceso.
Anexo: Formación VMEA 215
2004-04-02 3
Metodologías dirigidas a la Reducción/ Control de la Variación
• Hay un número de marcos de trabajo y metodologías para gestionar la variación no deseada en diferentes etapas del desarrollo.
• Aparte de las Seis Sigmas, el Diseño Robusto y el Diseño para las Seis Sigmas han conseguido una popularidad razonable en la última década.
• También algunos métodos de mejora autónomos, como el Análisis Modal del Fallo y Efecto (FMEA) y el Análisis del Arbol de Fallos (FTA) han sido usados durante mucho tiempo como herramientas para mejorar la calidad y seguridad del producto/ proceso.
2004-04-02 4
Análisis Modal del Fallo y Efecto • El Análisis Modal del Fallo y Efectos (FMEA) –
un método sistemático estructurado para identificar posibles modos de fallo y calucar sus efectos o consecuencias.
• La estructura simple del FMEA y su procedimiento sistémico ha facilitado su amplia aplicación industrial.
• Sin embargo, el enfoque desde abajo (comienzo desde el modo de fallo) y su naturaleza discreta(pasa o falla) han creado algunas limitaciones para este método.
Anexo: Formación VMEA 216
2004-04-02 5
Análisis Modal de Variaciones y Efectos• Esta presentación introduce un método ded ingeniería basado en
la estadística, Análisis Modal de Variaciones y Efecos (VMEA), desarrollado para encontrar de forma sistemática las áreas del producto/ proceso a las que se deberían dirigir los esfuerzos de mejora.
• El VMEA hace esto identificando las fuentes de variación(factores de ruido) y evaluando sus efectos en las característicasclave del producto (KPCs).
• El VMEA también puede usarse dentro del Diseño Robusto o Diseño de las Seis Sigmas para un marco de trabajo de las Seis Sigmas ya que nos ayuda a identificar y priorizar las áreas donde las variaciones no deseadas pueden ser perjudiciales.
2004-04-02 6
Diagrama-P• Dentro del marco de un diseño robusto es común representar
un producto o un sistema con el Diagrama-P:
• El Diagrama-P es una herramienta muy útil, pero es1)básicamente para propósitos de ilustración 2)a veces es difícil encontrar áreas o sistemas para los que construir un diagrama-P
Factor de ruido (N)
Factor de señal (M) Respuestas (y)
Factores de control (z)
Anexo: Formación VMEA 217
2004-04-02 7
Diagrama-P y VMEA• VMEA es un intento para dirigir:
• El problema de encontrar la respuesta del sistema
– El problema de identificación y priorización de los factores de ruido
– El problema de localización de áreas (subsistemas) para los cuales puedan ser dañinos
• Antes de introducir el método VMEA, permitamos recordar unas pocas cosas que son importantes para su aplicación exitosa.
2004-04-02 8
Características del Producto y la Variación
Característicasdel
Producto(PCs)
Lo que el cliente
quiere y necesita
QFD
Características estandar del
Producto(SPC)
Características Clave del Producto(KPC)
Una KPC es una característica clave del producto para las cuales una variación razonablemente anticipada podría afectar de forma significativaa la seguridad del producto, o a la conformidad de los estándares o regulaciones gubernamentales, o afectar a la satisfacción del cliente con un producto, ver el Sistema de Designación de las Características Clave de la General Motors(1998).
Anexo: Formación VMEA 218
2004-04-02 9
Características del Producto y Factores de Ruido
Los factores de ruido son fuentes de variación que causan desviaciones en características importantes del producto. Pueden ser desconocidos; o inobservables, aunque conocidos (suobservación requiere un equipo demasiado caro o no disponible); o incontrolable, aunqueconocido y observable (si no es posible fijar los factores en algún valor específico previsto).
Las Sub-KPCs son características de un sistema o sub- sistema que afectan al KPC. En general se conocen y son controladas por los ingenieros.
Característica claveDel producto (KPC)
2004-04-02 10
1. Desglose causal de la KPC: Sub-KPCs y NFs• Una vez la KPC es seleccionada, puede ser normalmente descompuesta en un
número de elementos llamados sub-KPC y factores de ruido. Esto se suele hacer con un diagrama de Ishikawa.
2.Valoración de la sensibilidad• En el segundo paso del procedimiento los ingenieros evalúan la sensibilidad de la
KPC a la acción de cada Sub-KPC y la sensibilidad de cada Sub-KPC a la acciónde los factores de ruido de acuerdo con los criterios dados.
4. Cálculo del Riesgo de Variación y Priorización• Basada en la avaluación dada en los dos pasos anteriores, el Valor de la Prioridad
del Riesgo de la Variación (VRPN) se calcula para cada factor de ruido y luego paracada Sub-KPC.
Procedimiento VMEA-Los cuatro pasos básicos
3. Evaluación del tamaño de la Variación• En el tercer paso del procedimiento los ingenieros examinan los Factores de Ruido
y calculan el tamaño de su variación de acuerdo a los criterios dados.
Anexo: Formación VMEA 219
2004-04-02 11
Criterio de Valoración, Sensibilidad
Criterio PesoMuy baja sensibilidad. Un cambio en un parámetro es muy poco probable que cause una desviación sustancial en el otro.
1-2
Baja sensibilidad. Un cambio en un parámetro es poco probable que cause una desviación sustancial en el otro.
3-4
Sensibilidad moderada.Un cambio en un parámetro es bastante probable que cause una desviación sustancial en el otro.
5-6
Alta sensibilidad.Un cambio en un parámetro es probable que cause una desviación sustancial en el otro.
7-8
Muy alta sensibilidad.Un cambio en un parámetro es muy probable que cause una desviación sustancial en el otro.
9-10
2004-04-02 12
Criterio de Valoración, Tamañode la Variación
Criterio PesoMuy baja variabilidad el factor de ruido en condiciones de operación, i.e. a pesar de lascondiciones de operación la dispersión del factor de ruido es muy pequeña.
1-2
Baja variabilidad del factor de ruido en condiciones de operación, i.e. a pesar de las condiciones de operación la dispersión del factor de ruido permanece pequeña.
3-4
Moderada variabilidad del factor de ruido en condiciones de operación, i.e. a pesar de lascondiciones de operación la dispersión del factor de ruido permanece bastante pequeña.
5-6
Mucha variabilidad del factor de ruido en condiciones de operación, i.e. la dispersión delfactor de ruido es amplia.
7-8
Gran variabilidad del factor de ruido en condiciones de operación, i.e. La dispersión del factor de ruido es muy amplia.
9-10
Anexo: Formación VMEA 220
2004-04-02 13
Cálculo del VRPN• Valor de la Prioridad de Riesgo de la Variación
• Donde S1 indica la sensibilidad de la KPC a la acción de la Sub-KPC influenciada por el Factor de Ruido, y S2 indica la sensibilidad de la Sub-KPC a la acción del Factor de Ruido y finalmente V indica el tamaño de ruido de la Variación.
• Si un Sub-KPC está influenciado por varios Factores de Ruido, esposible calcular un VRPN relacionado con la Sub-KPC como suma de las VRPNs de los Factores de Ruido que actúan en esta:
2 2 2NF 1 2VRPN S S V=
Sub-KPC NFVRPN VRPN=∑
2004-04-02 14
Tabla de VMEA-EjemploKPC Sub-KPC
KPC sens. to
Sub-KPC NF
Sub-KPC sens. to
NF
NF variation
size
VRPN (NF)
VRPN (Sub-KPC)
Dilution 2
2
64 Coolant
2 Flow
9
3 2916
2980
Machine setting
2
2 1600
Machine wear
8
2 25600
Supplier variability
8
2 25600
Tool damage
10
2 40000
Finish. cut. diam.
10
Tool wear 10
6
360000
452800
Electricity 3
1
225
Machine setting
6
2 3600 Finish. cut.
feed 5
Machine
wear 6
2
3600
7425
Electricity 3
1
225
Inner diameter
Finish. cut. speed
5 Machine
setting 2
2
400 1025
a a Tamaño de variac.
Refrigerante
Ø Hta.acabado
AlimentaciónHta. acabado
VelocidadHta. acabado
Ø Interno
Dilución
Flujo
Ajuste de lamáquina
Desgaste de lamáquina
Variabilidad delproveedor
Daño de laherramienta
Desgaste de laherramienta
Electricidad
Ajuste de lamáquina
Desgaste de la máquina
Electricidad
Ajuste de la máquina
Anexo: Formación VMEA 221
2004-04-02 15
Estadísticas de VMEA-Ejemplo
Estadísticas del Factor de Ruido
Estadísticas de la Sub-KPC
Formación: DoE 222
Nov 2003 GREEN BELT
Diseño de experimentosMódulo 1
Junio 2004
Plan para una experimentación efectiva Plan para una experimentación efectiva
Objetivos:
Una vez terminado, usted debería ser capaz de ...
Objetivos:
Una vez terminado, usted debería ser capaz de ...
• Describir los objetivos de la experimentación y cómo
ellos relacionan su trabajo de ingeniería
• Aplicar un proceso “paso a paso” para planificar un experimento:
– Centrarse en el objetivo
– Diseño experimental y planificación de los
recursos
– Anticipar experimentos logísticos y análisis
• Usar software DOE para establecer un experimento
Formación: DoE 223
DOE Apoya la Gestión de Procesos
Descubrir el Proceso
Descubrir el Proceso
Control del Proceso
Control del Proceso
“Control del Procedimiento” de actuaciones estándar
Recolección e interpretación de medidasde diagnóstico.
- Plan de Mediciones
- Muestreo y Clasificación
- Estratificación y visualización
Determinar la actuación.
Mejora del Proceso
Mejora del Proceso
Entender las relacionesclaves del proceso:
-Reducción de defectos
-Resolución de Problemas (causa raíz)
-Reducción del tiempo de ciclo
-Salidas frente a Factores controlables y de ruido.
-Optimización
Gestión de ProcesosGestión de Procesos
Entender a clientes, suministradores y el entorno de uso
Analisis Funcional y de Requisitos
Mediciones del proceso y Objetivos
Flujo y diseño del Proceso
Capabilidad del Proceso
Enfoque del procesoEnfoque del proceso
Proceso
Factores de ruidoFactores de ruido
Variables del proceso
X3
X4
Y1Y1
Y2Y2
RespuestaRespuesta(Salidas)(Salidas)
X2X2
Factores
controlables
Factores
controlables
X1X1
(Entradas)(Entradas)
DiseñoDiseño
Formación: DoE 224
Distribuciones de Frecuencia y Probabilidad
Molded Ball DiameterBin
(Ball diameter at
Equator:
digits following
1.6____) Frequency
Cumulative Frequency
Relative Frequency
Cumulative Relative
Frequency720 0 0 0 0730 1 1 0.0025 0.0025740 1 2 0.0025 0.005750 5 7 0.0125 0.0175760 27 34 0.0675 0.085770 61 95 0.1525 0.2375780 67 162 0.1675 0.405790 73 235 0.1825 0.5875800 66 301 0.165 0.7525810 48 349 0.12 0.8725820 30 379 0.075 0.9475830 15 394 0.0375 0.985840 4 398 0.01 0.995850 1 399 0.0025 0.9975860 1 400 0.0025 1870 0 400 0 1
Histogram
01020304050607080
720
740 760
780
800
820
840 860
More
Bin
Fre
qu
en
cyDistribuciónde Frecuencia
Registro del muestreo
Media = 1.6787
Desviación Est. 0.0020 (σ)
Las Distribucionesde Probabilidad
modelan la relación entre las
muestrasobservadas y suprobabilidad de
que ocurran.
Media del
Proceso
Y
Tendencia Central
Frecuencia con la que cada medida característica del
proceso esobservada
0
1
Términos de Ingeniería de ProcesosTérminos de Ingeniería de Procesos
Medidas del Proceso (Y, s)Medidas del Proceso (Y, s)
68%
95%
99.7%Escala de medida
para característicasdel proceso (y)
0
Variación
Desviaciónestándar
(σσσσ or s)
Formación: DoE 225
La Voz del ClienteLa Voz del Cliente
Voz del Consumidor
Información en Continuo
Define los Límites de las Especificaciones y los ObjetivosDefine los Límites de las Especificaciones y los Objetivos
Defectos Defectos
OK
Límite Inferior de Especificaciones
LSL
Objetivo Límite Superior de Especificaiones
USL
Frecuencia
Medidas de Salidas del Proceso
Voz del proceso
Límite Inferior de Especificaciones
LSL
Límite Superior de Especificiones
USL
Objetivo (T)
Media delProceso Y
Características del procesomedidas (x)
FrecuenciaDesviación Estándar (σσσσ or s)
p1 p2
Medidas de la Capacidad del ProcesoMedidas de la Capacidad del Proceso
p1,p2 = proporción de las salidas del proceso que son ‘no-conformidades’ (fuera de límites de especificaciones)
Defectos por Millón: DPM = 106 * (p1 + p2)
Rendimiento de Primera Vez (FTY) =1.00 -(p1+p2)
Índice de Capacidad del Proceso:
Cp = (USL - LSL) / 6σ
Cpk = min(USL-Y, Y - LSL) / 3σ
Términos de Ingeniería de Procesos
Formación: DoE 226
LSL USL
Objetivo
Objetivos del proceso de mejoraObjetivos del proceso de mejora
Ilustración de 3 cosas que pueden ser hechas para mejorar el rendimiento de este proceso
Y
LSL USLLSL USL
Opciones de experimentación
Opciones de experimentación
No todos los experimentos se hacen igual ...
• “Un factor cada vez”
• Experimentación ‘’diseñada’’
Formación: DoE 227
A2 B2 C2 D2 E4
Para estudiar 5 factores: A, B, C, y D, cada 2 niveles, y factor E cada 4 niveles ¿Cómo maximizaríamos la respuesta del proceso(Y) cambiando un factor cada vez ?
Y
Experimentación: “Un factor cada vez”Experimentación: “Un factor cada vez”
Comenzar con todos los factores a nivel cero(codificado con un 1).
1) ¿Cómo sabemos que nuestros resultados son verdad absoluta?
2) ¿Podríamos predecir Y para algunos valores de A, B ,C, D, E no testados aquí ?
3)¿Qué información tenemos sobre las interacciones entre los factores?
2 1 1 1 1
2 2 1 1 1
2 1 2 1 1
2 1 2 2 12 1 2 1 22 1 2 1 32 1 2 1 4
1 1 1 1 1
Más allá de “Un factor cada vez”Más allá de “Un factor cada vez”
Una estrategia experimental mejorada nos daría:
• Un MODELO, para PREDECIR la respuesta a combinaciones de nuevos factores que no tomaron parte en el experimento.
• Una oportunidad para encontrar un valor MEJOR(max, min, etc.) entre todas las combinaciones de factores.
• Información de las INTERACCIONES entre factores.
Experimentos diseñadosCambios organizados en variables
independientes (factores) con el propósito de observar cambios
relacionados con las variables dependientes (respuestas).
Nos conduce a ...
Formación: DoE 228
Metas del DOE Metas del DOE
• Identificar el impacto de los FACTORES en las RESPUESTAS
ProcesoProcesoY1Y1Y2Y2
Factores controlables
(Entradas)
Factores controlables
(Entradas)Dentro
del proceso
Dentro del
proceso
X1X1
X2X2
X3X3
Factores de ruído
Factores de ruído
X4X4
RespuestasRespuestas(Salidas)(Salidas)
DiseñoDiseño
• Identificar las INTERACCIONES específicas entre FACTORES
• Reunir la máxima cantidad de información, dando cuenta del
correspondiente RUÍDO en el mundo real, usando mínimos recursos.
• RESPUESTAS PRONOSTICADAS en el ajuste de factores que no
estén directamente estudiadas en el experimento.
• OPTIMIZACIÓN mediante el AJUSTE DE FACTORES DETERMINADOS
que producirán una RESPUESTA DESEADA.
Objetivos de la ExperimentaciónObjetivos de la Experimentación
Metas
Métodos
Proponer Problemas
Orientación de Procesos
Buscar estrategias a bajo coste para tratar factores de ruido del mundo real
Estabilizar el seguimiento del proceso a un objetivo mientras se minimiza la variación.
Construir un modelo que relacione factores (e interacciones, efectos de alto rango) con las respuestas
Caracterizar el funcionamiento del proceso
Caracterizar mezclas
Usar un modelo para localizar la mejor zona de operación.
Factorial Completo
Factorial Fracional
D-Óptimo
Central Composite
Box-Behnken
(Redes Neuronales)
Gráficas de Conveniencia
Algoritmos de Búsquedas de Óptimos
Algoritmos Gnéticos
Diseños Taguchi
Diseños Clásicos con
Factores de ruido incluidos.
FactorialFracional
Plackett-Burman
D-Óptimo
Diseño RobustoModelado/
CaracterizaciónOptimizaciónProyección
¿Cómo se alinean estos objetivos con tu experiencia en ingenieria y producción ?
Formación: DoE 229
Beneficios de la Planificación DOE Paso a PasoBeneficios de la Planificación DOE Paso a PasoIngenieros:
• Tener un mapa/patrón que permite afrontar todas las preguntas adecuadas
• Desarrollar un lenguaje común para formular problemas en términos DOE. Esto puede ayudar a:
• Revisar los planes experimentales de los ingenieros de diseño y producción.
•Estructurar la resolución de problemas y optimización en otrastentativas.
• Crear una línea de pensamiento trazable desde la planificación a la ejecución. Esto puede reforzar el apoyo a (y el desarrollo del valor de) losresultados y recomendaciones de la experimentación.
Directores:
• Conseguir un marco eficiente para la revisión de de las metas y las necesidades de recursos para apoyar las decisiones en la planificación.
• Poder aprender a participar eficientemente en la interpretación del análisis y la planificación relacionada con los impactos de un experimento.
Pasos del DOE Pasos del DOE
Llevar a caboel experimento
Do
Determinar respuestas
Determinar factores . Rangos . Niveles
Combinación de líneas de
investigación
Determinar el orden de las
líneas
Determinar las necesidades
de réplica
Plan
Clarificar objetivos
Análisis
. Adecuación estadística
. Análisis gráfico
. Ecuación predictiva
Check
Confirmación Predicción
Capacidad del DOE Modelo
Integración de los
conocimientos
Act
Formación: DoE 230
Aclarar los Objetivos Aclarar los Objetivos
• ¿Qué objetivo del DOE es el más adecuado?
• Investigación
• Diseño Robusto
• Caracterización / modelado
• Optimización
• Describir el contexto para el experimento:
• Responder las cuestiones sobre el “Descubrimiento del Proceso” relacionadas con el experimento:
Clientes y proveedores? Procedimientos? Condiciones de uso?Necesidades? Flujos del proceso? Metrica y objetivos?
• ¿Qué se cononoce ya sobre la situación? (trabajo prioritario y motivación)
• Metas y alcances
• Metas de esta experimento
• Límites en la exploración e impactos del experimento
Determinar RESPUESTA(S)Determinar RESPUESTA(S)Decidir qué medir
Considerar:
1
a. El “fenómeno de ingeniería” fundamental bajo estudio.
b. Las funciones más importantes del sistema para losclientes.
1.
Pasa/ Falla
A B
Frecuencia con la que la categoría es observada.
0
Categoría
Mejor que
2. Medición en contínuo
Categorías multievaluadas
Mejor que
0
Formación: DoE 231
Determine FACTORSDetermine FACTORS
¿Qué factores podrían influenciar en la Transferencia/Opacidad de la huella del cojinete ?
Para cada respuesta...
1) Equipo de Brainstorming para factores influyentes...
Por ejemplo:
Volumen de plancha de grabado
Materiales esféricos del
substrato
Golpe del cojinete
Humedaddurometer de cojinete
Temperatura
Variaciones en los controles de equipo
Uso de
planchas
Pérdida de disolvente
Presión del filo
Determinar Rango de los Factores
Determinar Rango de los Factores
Factor:
BAJO(-1)
ALTO (+1)
Completar esta tabla para algunos factores representativos del proceso:
FACTOR
RANGO
CÓDIGO, siempre [-1,1] ó 1, 2, 3 ... Representa todos los factores en la misma escala
BAJO (-1)
ALTO (+1)Para cada factor determinar un rango de
operación que será:
suficientemente amplio para mostrar el
efecto del factor
suficientemente estrecho para ser factible
y
Formación: DoE 232
Determinar Nivel de Factores
Determinar Nivel de Factores
BAJO (-1)
FACTOR
ALTO (+1)
NIVELES
(0)Anticipar la FORMA del impacto de cada factor en la respuesta:
Nº de Niveles
Modelo
Respuesta
22
LinearLinear
-1 +1?
Ganancia SimpleGanancia Simple
Ajuste de
códigos
44
CúbicoCúbico
-1 +1
OndaOnda
33
QuadráticoQuadrático
-1 +10
Pico o Pendiente suavePico o Pendiente suave
Selección de Pruebas CombinadasSelección de Pruebas Combinadas
Factorial completo
Fact. FraccionalTaguchi
Plackett-Burman
D-Óptimo
Todas las combinaciones posibles
Pro
sC
ontr
as
Información de todos los efectos lineales e interacciones
Demanda considerable de recursos
Subconjunto estadísticamente equilibrado de todas las posibles combinaciones
Recurso eficaz, puede compararse al Factorial Completo en los resultados
Renombrar los efectosde los factores puede enmascarar el comportamiento verdadero del sistema
Subconjunto estadísticamente desequilibrado de las combinaciones
Primera restricción real, retiene la mayoría del poder analítico
Superposición de efectos de los factores puede confundir el análisis
Modelos de curvatura, caracteriza respuesta compleja
Recursos y análisis desperdiciados si son impropios
3 ó más niveles
Central Composite Box-Behnken
Formación: DoE 233
Selección de PRUEBAS COMBINADASFactorial Completo: Todas las combinaciones posibles
Selección de PRUEBAS COMBINADASFactorial Completo: Todas las combinaciones posibles
Árbol
Ej.: Fuerza de enlace en 3 niveles, tiempo de enlace a 2 niveles, Temperatura base a 2 niveles
FuerzaenlaceFuerzaenlace
Tiempo enlace
Tiempo enlace
Temp. baseTemp. base
11
11
22
11
2211
22
33
11
22
11
2211
22
22
11
22
11
2211
22
Desglose
bondForce bondTime baseTemp1 1 11 1 21 2 11 2 22 1 12 1 22 2 12 2 23 1 13 1 23 2 13 2 2
Selección de PRUEBAS COMBINADAFactorial Completo para factores de 2 niveles
Selección de PRUEBAS COMBINADAFactorial Completo para factores de 2 niveles
Orden de “Yates”: para k factores, una tabla con 2k filas
A B C
1. Empezar con una columna de 2k alternando signos - y +
2. Construir nuevas columnas a la derecha; repitiendo cada signo en la secuencia el doble de las veces repetidas en la columna previa.
3. Columna k (el último factor ppal.) tendrá un signo en la mitad superior y el otro en la mitad inferior.
Ejemplo:
k = 3 factores
Formación: DoE 234
Determinar El ORDEN de las PRUEBASDeterminar El ORDEN de las PRUEBAS1) Asignar Factores a Columnas en el Diseño Experimental
Considerando:
- Suavizar el cambio de los valores de cada factor.
- Tomar datos aleatoriamente para reducir el factor de ruido1
¿A qué columna debería asignarse la Temperatura del Horno? Factores
800 30 12
1000 40 18
Fuerte Suave Suave
BAJO
ALTO
Ajustado
?A B C
-+-+-+-+
--++--++
----++++
12345678
Diseño Experimental
1.Bloqueo y aleatoriedad,conceptos más avanzados, serán discutidos con más detalle más adelante en el curso
Temperatura del Horno
Velocidad de la Cinta
Flujo del Gas
Prueba
2)Considerar añadir pruebas de ‘punto central’
A B C
-+-+-+-+0000
--++--++0000
----++++0000
123456789
101112
prueba
Pruebas con los nivelessintonizados en el puntomedio. (0)
Los puntos centrales pueden proporcionar:
- Información mejorada sobre ruido experimental
- Indicaciones sobre desviaciones del modelo lineal.
Determinar El ORDEN de las PRUEBASDeterminar El ORDEN de las PRUEBASDiseño Experimetal
Formación: DoE 235
3) Pruebas de ‘puntocentral’ puden estaralternadas para detectar cambios
A B C
0-+-0+-+0-+0
0--+0+--0++0
0---0-++0++0
123456789
101112
prueba
Diferencias entre pruebas1, 5, 9 y 12 pueden indicarcambio en el curso del experimento
Determinar El ORDEN de las PRUEBASDeterminar El ORDEN de las PRUEBAS
Diseño Experimetal
Determinar los Requisitos de las REPETICIONES
Determinar los Requisitos de las REPETICIONES
Entender la necesidad de realizar REPETICIONES1 (n), para hacer el experimento suficientemente sensible a:
1.Tamaño de la muestra será tratado con más detalle enel Modulo 3
-+-+-+-+
--++--++
----++++
12345678
Factores
Y1 Y2 ... Yn
Observaciones de las respuestas repetidas
Cambio de la
media
Cambio de la Variabilidad
Flujo del Gas
Velocidad de la cinta
Temperatura del Horno
Formación: DoE 236
Uso de Información de las RepeticionesUso de Información de las Repeticiones
Flujo Cinta Temp.
de gas del horno
-+-+-+-+
--++--++
----++++
12345678
FactoresY1 Y2 ... Yn
Respuesta Repetida
Observaciones
Y
Cambios de la media
Y = respuesta promedio, mide la tendencia media de cada prueba
Cambios de la varianza
s = desviación estandar (o varianza (s2), Ln de s (ln(s)) o ln(s+1))mide la variabilidad de cada prueba.
s
Ejecutar el ExperimentoEjecutar el Experimento
•Errores en documentación y medidas extra
• Completar la calibración y el sintonizado
•Tomar notas excelentes:
• Cualquier acontecimiento inusual durante el experimento
• Observaciones en relación a los factores de ruido.
• Prechequear la logística del experimento
• Flujo de materiales y medios
• Documentar los procedimientos estándar de operación
Formación: DoE 237
Usar el Análisis los Resultados de Ingeniería
Objetivos:
Una vez realizado, usted debería ser capaz de ...
• Contabilizar efectos de los factores usando datos de un experimento diseñado.
• Crear e interpretar gráficos que ilustren los efectos de los factores y sus interacciones.
• Interpretar las estadísiticas en el análisis DOE.
• Comprobar que la ecuación de predicción de experimentos es adecuada, mediante pruebas de confirmación.
• Llevar los resultados de los experimientos hacia un enfoque ingenieril:
•Reconocer o refutar lo que el experimento significa en términos ingenieriles.
• Localizar y comprobar las opciones de ajuste o diseño de los factores recomendadas por el experimento.
Datos Experimentales
Análisis
ybar = media (y1 , y2, y3, y4) medias
RespuestasShear Strength
Factores
varianzasln(s+1)
Volume Prehea t Te mp y1 y2 y3 y4 ybar s ln(s+1)
- - - 59.02 51.48 57.5 53.1 55 3.6 1.5
+ - - 37.19 39.23 39.98 33.96 38 2.7 1.3
- + - 48.66 46.6 46.16 47.11 47 1.1 0.7
+ + - 61.93 59.32 57.72 60.72 60 1.8 1.0
- - + 83.18 73.81 73.84 84.04 79 5.7 1.9
+ - + 59.24 67.89 63.4 38.17 57 13.2 2.6
- + + 62.72 68.19 70.35 65.21 67 3.3 1.5
+ + + 78.05 81.35 75.23 78.63 78 2.5 1.3
0 0 0 59.2 58 60.5 61.1 60 1.4 0.9
0 0 0 61.5 60 58.9 58.3 60 1.4 0.9
0 0 0 56.7 63.2 63.6 57.5 60 3.7 1.5
ln = natural logarithm = loge
Formación: DoE 238
Estimación del efecto de los factores(Principales efectos)
Haciendo media de las 4 pruebas se refleja el proceso cuandoel tiempo es elevado (+)
Media “BAJO” (-)BAJO
ALTO
∆
∆/2
Media “ALTO” (+)
= ALTO- BAJO
V olume Prehe at Te mpShear Strength
- - - 55
+ - - 38
- + - 47 + + - 60 - - + 79
+ - + 57
- + + 67
+ + + 78
1) Completar el cálculo de valores promedios, ∆∆∆∆, y ∆∆∆∆ /2
2) Calcular Y, la respuesta media para el experimento completo:
Haciendo la media de las 4 pruebas se refleja el proceso cuando el tiempo es bajo (-)
El diseñoexperimental proporcionacontrastes
equilibrados para el análisis
Cuadro de la Media Marginal
En el eje X , señalar cada nivel del factor que ha sido representado
Y se centrará entre
ALTO y BAJO en un gráfico de 2 niveles.
Eje vertical , escalado para cubrir los valores de respuesta observados
Muestra la respuestamedia de cada niveldel factor.
Conecta los puntos con líneas apropiadas
-1 +1Factor
RespuestaYmax
Ymin
BAJO
ALTO
BAJO ALTO
1.
2.
3.
Formación: DoE 239
Diagrama de Pareto
Dibujar un ejevertical, escalándolo para cubrir el rango de valores absolutos del delta/2 :| ∆∆∆∆ /2|
|∆∆∆∆/2|max.
0
B D A F E
Clasificar el factor| ∆∆∆∆ /2|en ordende valor descendente, dibujandoy etiquetando una barra pararepresentar cada uno.
1
2
0%
100%
Opcional: dibujaruna líneade‘proporcióncumulativa’. Esto puede ser usado para localizar las barras que están a la izquierda del 80% (para una regla de Pareto 80:20 )
3
Ecuación predictiva(Principales efectos)
Y = Y + ( )A + ( )B + ( )C^
La respuestaprevista, en cualquier ajuste de factores
A B C
Los valores ∆∆∆∆ /2 son
coeficientes de la ecuación predictiva
Para factores de 2 niveles:
La media principal del experimento
V olume Pre he at TempShear Strength
- - - 55
+ - - 38
- + - 47 + + - 60 - - + 79
+ - + 57
- + + 67
+ + + 78high 58.3 63.0 70.2 60.1low 61.9 57.2 50.0 0∆ -3.7 5.8 20.2 60.1∆/2 -1.84 2.90 10.11
Formación: DoE 240
Ecuación Predictiva …un análisis más detallado
¿Cuál sería la respuesta prevista para A= 0, B = 0.5, y C = -0.8 ?
Average at Low (-1)
Average at High ( 1)
Delta (= high - low)
Delta/2
Response
Y = Y + ( )( ) + ( )( ) + ( )( ) ^
A B C
-1 +1
∆∆∆∆/2 representa la importancia
del factor
el CODIGO (-1 a 1)entre los factores presentes.Como señalar en las cantidades de A, B, y C como botones de ajuste.
La respuestaprevista, en CUALQUIER ajuste de los valores de los factores
A B C-1 +1-1 +1
-1.84 2.90 10.11
Detectando Diferencias en Variabilidad
F Test
1
F
Fs
s= 1
2
22
F es una familia de distribuciones para el ratio de dos varianzas experimetales
0
α
varianza1
varianza2
La distribución F altera su forma para reaccionar a las diferencias en el númerode grados de libertad en la información usada para estimar cada varianza.
A mayores ratios medidos de F indica un menos riesgo (α ) que el mismo ratio produciría tomando muestra en el ruido que ha sido detectado.
Excel
=FTEST(rango1,rango2)
o usa Herramientas de Análisis de datos para el F
Test
Excel
=FTEST(rango1,rango2)
o usa Herramientas de Análisis de datos para el F
Test
Formación: DoE 241
Interpretando las Salidas en el Ordenador
28
Variable DependienteNúmero de PruebasR múltipleCuadrado de R múltipleAjustada Cuadrado de R múltipleEstimación del Error Estádar
Fuente
Variable Coeficiente Error Estándar Tolerancia T P(2 Cola)
Suma de Cuadrados DF Cuadrado de la Media Ratio F P
Diseño Intermedio y Métodos de Análisis
Objetivos:
Al finalizar, usted debería ser capaz de...
• Detallar un plan experimental en su propia área de trabajo.
•Optimizar usando 2 o más respuestas.
• Usar diseño de respuestas superficiales para modelar la curva
de respuestas.
• Calcular el tamaño requerido de la muestra para detectar
la variabilidad de cambio y los principales cambios usando un
diseño escogido.
•Diseñar factoriales fraccionales y experimentos D-óptimos que
emparejen necesidades de estudio con recursos disponibles.
Formación: DoE 242
¿Por qué Factoriales Fraccionales ?
Nº de factores Nº pruebas requeridas
Factoriales completos
.
.
.
.
.
.
Señalar los términos de la ecuación predictiva que puedenser calculados usando los datosde un experimento Factorial Fraccional con 5 factores (A, B, C, D, E)
Ejercicio:
k
65432
2k
64321684
Interacción 5 a 5:
Interacciones 4 a 4:
Interacciones 3 a 3:
Interacciones 2 a 2:
Efectos pples.:
1
5
10
10
5A B C D E
ABC ABD ABE BCD BCEADE ACD BCD BDE CDE
ABCD ABDE ACDE BCDE ABCE
1*2
4*5
2
5=
AB AC AD AE BC BD BE CD CE DE
Media + 31 términos
Construir un diseño Factorial Fraccionado
1. Empezar con un diseño factorial completo parael número de pruebas que usted PUEDA hacer.
Ejemplo: 4 Factores para estudiar(A, B, C, D) ... Sólo 8 pruebas posibles
A -+-+ -+ -+
B --+ + --++
AB+ --+ + --+
1 2 3 45678
BC+ + ----+ +
AC+ -+ --+ -+
C ----+ + + +
ABC-+ + -+ --+
8 Pruebas
Formación: DoE 243
Construir un diseño Factorial Fraccional
2 a) Asignar factores para las primeras columnas de principales efectos (A,B,C)
A -+-+ -+ -+
B --+ + --++
AB+ --+ + --+
1 2 3 45678
BC+ + ----+ +
AC+ -+ --+ -+
C ----+ + + +
ABC-+ + -+ --+
CBAD
b) Asignar los factores restantes a las columnasdisponibles con MÁS ALTO ORDEN DE INTERACCIÓN:
Construir un diseño Factorial Fraccional
3. Comprender el patrón de alias.
Ejemplo: Asignar tres factores, A, B, y C para un diseño experimental de 4 pruebas
A -+-+
B --+ +
AB+ --+
1 2 3 4
C
C =
B =
A =
AliasFactor
A B
AB
AC
BC
Formación: DoE 244
Construir un diseño Fraccional Factorial
A -+-+ -+ -+
B --+ + --++
AB+ --+ + --+
1 2 3 45678
BC+ + ----+ +
AC+ -+ --+ -+
C ----+ + + +
ABC-+ + -+ --+
DCBA
Ejercicio:¿Cuál es el PATRÓN DE ALIAS en el experimentocon 8 pruebas y con 4 factores, A, B, C, D ?
A = B =
AB =
C =
BC = AC =
AD =
BCD
ACD
ABD
CD
AD
BD
BC
ABC = DPatrón de alias
Variaciones en los diseños Factoriales Fracionales
Diseños de Plackett-BurmanOptimizados para mostrar los efectos principales, cubriendo 2 puntos de niveles de diseño (cada ‘4’) entrepuntos factoriales.
El Taguchi L12 es un ejemplo de un diseño Placket-Burman.
Los diseños Plackett-Burman con n pruebas pueden usarse paramostrar para los (n-1) principalesefectos.
Los effectos de las interacciones aparecen no aparecen en unacolumna en particular, estan distribuidos en todas las columnas.
Matrices Ortogonales de TaguchiEl sistema de calidad del Dr. Genichi Taguchi incluye tablas con matrices ortogonales. Mientras que la codificación y el lenguage necesita poca traducción (ver apéndice) los diseños son directamente dirigidos en lostradicionales factoriales completos y fraccionales.
Factorial Completo Plackett-Burman
# pruebas #pruebas
4 4
8 8
12
16 16
20
24
28
32 32
potencias de 2 múltiplos de 4
12
20
24
28
Formación: DoE 245
¿Cuántosniveles para
cadafactor?
¿Cuántosfactores?
(k)
FACTORIAL COMPLETO
k=2..n reps > 9k=3 ..n reps >5k=4 ..n reps >3
FACTORIAL FRACCIONAL
2 5-1
n reps>3
PLACKETT-BURMAN o TAGUCHI Experimentos
n reps >4
Tipos de factores
¿MODELO O EXPERIMEN-
TACIÓN?¿Cuántosfctores?
(k)
FACTORIAL COMPLETO
k=2..n reps> 7k=3 ..n reps >3
TAGUCHI L18 Experim.
D-Optimal
n reps>4
Central Composite o BOX-BEHNKEN
k=2..n reps. > 9 (CCD)k=3 ..n reps. >5 (CCD/BB)k=4 ..n reps.>3 (CCD/BB)
Aclarar:el Problemael Contexto los Objetivos
Determinar qué medir
(Respuestas)
2 3 Sólo cuantitativos
No todoscuantitativos, al menos unocualitativoone
k=3
4<k<7 6<k<7
Experimenta-ción
Modelok<5
Reglas para seleccionar unDiseño Experimental
Comienzo
K < 4
K= 5
6< k < 11
Considerar siempre el añadir puntoscentrales para:
- Mejorar las estimaciones del error- Detectar variaciones durante el
experimento- Detectar desviaciones de la
linealidad
Tabla de la Normal 246
Top Related