SIX SIGMA: MITOS Y REALIDADES
¿ 6 SIGMA = 3.4 DEFECTOS POR MILLÓN ?
MODELOS MATEMÁTICOS
Platón
Los modelos de probabilidad y las variables aleatorias existen en el plano
teórico.
Un modelo de probabilidad es una descripción matemática de cómo se
comportan las muestras tomadas al azar de un universo conocido. Definen
las probabilidades de distintos resultados de una manera rigurosa. A partir
de las propiedades de estos modelos de probabilidad podemos desarrollar
procedimientos consistentes con las leyes de la probabilidad.
LOS MODELOS DE PROBABILIDAD EXISTEN EN EL PLANO
TEÓRICO.
Un modelo de probabilidad es una descripción matemática del comportamiento de
una variable aleatoria. Existen en el plano de la teoría matemática donde con
frecuencia se tienen mediciones continuas y observaciones con distribuciones
independientes e idénticas.
LOS HISTOGRAMAS Y LOS ESTADISTICOS EXISTEN EN EL PLANO DEL
ANALISIS DE DATOS.
Todos los histogramas tienen colas finitas debido a que los conjuntos de datos son
de tamaño y extensión finitos e invariablemente muestran algún grado de
discontinuidad en las mediciones.
SUS DATOS NO SON GENERADOS POR UN MODELO DE
PROBABILIDAD
La inferencia estadística nos exige brincar constantemente entre estos dos planos.
Siempre se involucra un grado de aproximación al utilizar cualquier procedimiento
estadístico. Sin embargo, si el procedimiento ha probado ser razonablemente
robusto en la práctica, entonces podemos pensar que nuestras conclusiones son
confiables.
HOMOGENEIDAD
Cuando un proceso produce un conjunto homogéneo de mediciones, se puede
decir que ese proceso es razonablemente predecible. Este patrón persistente de
variación se reflejará en un histograma estable que no cambia apreciablemente
con el tiempo. Como consecuencia, el histograma puede ser aproximado por
cualquiera de un cierto número de funciones matemáticas arbitrarias. Tal función
define un modelo de probabilidad y se denota con el símbolo f(x).
NO PUEDE AFIRMARSE QUE ALGUN HISTOGRAMA SIGA UN
MODELO DE PROBABILIDAD EN PARTICULAR
Cualquier modelo de probabilidad es una característica limitante de una secuencia infinita de
datos. Por esta razón es imposible afirmar que cualquier conjunto finito de datos esté
distribuido de acuerdo a un modelo de probabilidad en particular.
Pruebas de ajuste le pueden permitir decir que un conjunto de datos en particular es
inconsistente con cierto modelo de probabilidad, pero nunca pueden usarse para afirmar algo
como “estos datos están distribuidos normalmente”.
ESTADISTICOS Y PARAMETROS
Cuando se trabaja con una secuencia finita de datos siempre es posible
calcular estadísticos que representan su ubicación y dispersión.
X, s
Cuando un proceso muestra un grado razonable de predecibilidad estas
mediciones de ubicación y dispersión pueden tomarse como ESTIMADORES
de los parámetros del modelo de probabilidad seleccionado f(x).
PROPIEDADES DE LA DISTRIBUCIÓN NORMAL
99.73%
ÍNDICES DE CAPACIDAD Y DE HABILIDAD
El índice de capacidad de proceso (Cp) es la relación entre la tolerancia permitida por el
cliente y la variabilidad natural o rutinaria del proceso.
Cuando el Cp es igual o mayor a 1 se dice que se tiene una confianza de al menos
99.73% de estar dentro de especificación (si la media coincide con el objetivo).
Cuando la media no coincide con el objetivo es necesario calcular el Cpk, el cual corrige
esta diferencia disminuyendo la confianza proporcionalmente a la diferencia entre la
media y el objetivo.
RELACIÓN ENTRE ÍNDICE DE HABILIDAD, NIVEL SIGMA Y DEFECTOS POR MILLÓN
Cpk
1
2
Sigma
DPM
1
317400
2
45600
3
2700
4
64
5
.574
6
.002
La conversión de índices de habilidad a fracciones no
conformes es sencilla: escoja algún modelo de probabilidad,
determine la relación entre el modelo y los límites de
especificación usando los índices de habilidad, y calcule el
área bajo el modelo fuera de las especificaciones. El
resultado es su fracción no conforme.
¿No eran 3.4 partes por millón?
PROBLEMAS CON LOS DEFECTOS POR MILLON (DPM)
Cuando los índices de habilidad llegan a ser sustancialmente mayores a 1.0, los
valores calculados dependerán de las áreas infinitesimales bajo las colas extremas
del modelo de probabilidad. Dado que la correspondencia entre nuestro modelo y
nuestros datos siempre fallará en las colas extremas, la conversión de índices de
habilidad grandes en partes por millón de no conformidades es cuestionable. El
utilizar las áreas infinitesimales bajo las colas extremas del modelo de probabilidad
que usted SUPUSO para caracterizar las salidas de su proceso es equivalente a elevar
una suposición a la tercera o cuarta potencia—el resultado simplemente no tiene
credibilidad.
PROBLEMAS CON LOS DEFECTOS POR MILLON: EL
DESPLAZAMIENTO 1.5 SIGMA
Dado que el proceso que genera nuestros datos puede cambiar, no podemos suponer
alegremente que nuestros datos se distribuyen de forma independiente e idéntica, ni
tampoco podemos definir un único modelo de probabilidad para nuestros datos. Aún si
escogemos el modelo de probabilidad a utilizar y estimamos la media o la variancia para
ese modelo, el hecho de que los procesos cambian, harán que tanto nuestro modelo
como los valores estimados de los parámetros sean inapropiados en algún momento.
PROBLEMAS CON LOS DEFECTOS POR MILLON: EL
DESPLAZAMIENTO 1.5 SIGMA
En este punto el argumento de venta de Six
Sigma supone que un proceso impredecible no
se desplazará mas de 1.5 desviaciones estándar
en cualquier dirección y esto ha sido tomado
como un axioma.
PROBLEMAS CON LOS DEFECTOS POR MILLION: EL
DESPLAZAMIENTO 1.5 SIGMA
Esta gráfica X muestra un proceso que se está desplazando alrededor de ±3.0 sigma,
lo cual es el doble de desplazamiento asumido como el “peor caso” por los argumentos
de las partes por millón. Aunque algunos puntos caen fuera de los limites ninguno cae
muy lejos de esos límites. Cualquiera que haya dibujado algunas pocas gráficas de
comportamiento habrá encontrado puntos más alejados de los límites que los que se
aprecian en la figura.
PROBLEMAS CON LOS DEFECTOS POR MILLION: EL
DESPLAZAMIENTO 1.5 SIGMA
Ahora considere este otro gráfico X. Ahí vemos excursiones con puntos que están hasta 9
sigmas por arriba de la línea central y hasta 8 sigmas por abajo de la línea central.
Excursiones como éstas son bastante comunes en la práctica.
PROBLEMAS CON LOS DEFECTOS POR MILLION: EL
DESPLAZAMIENTO 1.5 SIGMA
O considere este tercer gráfico X, donde la ubicación del proceso se mueve en una
cantidad equivalente a 25 sigmas durante este período de dos semanas.
Los valores de partes por millón dependen de la suposición de un desplazamiento
máximo de 1.5 desviaciones estándar en la ubicación del proceso. Esto es incorrecto
para un proceso predecible y demasiado optimista para uno impredecible. En la ausencia
de un mecanismo eficiente para monitorear cambios en el proceso no existe valor
suficientemente grande del índice de habilidad que garantice una operación en la zona
económica.
PROBLEMAS CON LOS DEFECTOS POR MILLON DE
OPORTUNIDADES (DPMO)
Usado para datos basados en cuentas de fallas o defectos.
Las cuentas de fallas o defectos tienen un área de oportunidad definida como una porción
finita de algún espacio continuo subyacente. Esto significa que las tasas de defectos
inevitablemente tendrán unidades asociadas (p.ej. 2.5 defectos por cada 100 yardas de tela
en rollo).
La tasa de fallas de 2.5 defectos por cien yardas se convierte en un valor de Defectos Por
Millón de Oportunidades simplemente dividiendo entre el “número de oportunidades por
cada 100 yardas”. Si tuviéramos “una oportunidad por pie” entonces obtenemos:
DPMO =
2.5 defectos por 100 yardas
300 oportunidades en 100 yardas
x un millón = 8333 DPMO
Sin embargo, si pensamos que tenemos “una oportunidad por pulgada” obtendríamos:
DPMO = 2.5 defectos por 100 yardas
3600 oportunidades en 100 yardas
x un millón = 694 DPMO
¿SE PUEDE DETERMINAR EL “NIVEL SIGMA” DE TODA UNA ORGANIZACIÓN?
Los valores de Partes-por-millón de no conformidades se usan en reversa para definir el
“nivel sigma” de un proceso (o de una organización). Esta conversión ignora el hecho de
que algunos procesos son operados de manera predecible mientras que otros no lo son.
Se aplica una conversión estándar de manera no estándar para obtener valores que no
tienen sustento en la realidad ni credibilidad matemática.
RESUMEN
Desde la perspectiva del análisis de datos existen varios conceptos sobre modelos y sus
parámetros que usted siempre debe tener en mente:
1.- El modelo de probabilidad no genera sus datos.
2.- Aunque los parámetros del modelo de probabilidad pueden usarse para caracterizar
la “ubicación del proceso" y la “dispersión del proceso" estos parámetros no son
inherentes al proceso, sino simplemente parte de la aproximación que hacemos al
comportamiento del proceso.
3.- Aunque es de utilidad hablar de la “ubicación del proceso" y de la "dispersión del
proceso" cuando el proceso es estable, no hay que olvidar que sus datos provienen del
proceso y, como todo en este mundo, este proceso está sujeto a cambios.
RESUMEN
4.- El modelo de probabilidad f(x) no intenta caracterizar la secuencia en orden
temporal de los datos. Por esta razón ningún modelo f(x) puede darse como una
caracterización completa del proceso que produjo sus datos. Dichos modelos solo
intentan representar el histograma de las salidas del proceso.
5.- Un modelo de probabilidad es una característica limitante de una secuencia infinita
de datos. No caracteriza ninguna porción finita de tal secuencia. Por lo tanto, dado
que siempre tenemos que usar cantidades finitas de datos, nunca podemos
especificar completamente una función f(x) única para ningún proceso. Siempre
existirá cierta arbitrariedad esencial conectada al uso de cualquier modelo de
probabilidad como aproximación al histograma de datos generados por un proceso
real.
6.- Por esta razón, es equivocado pensar que los parámetros de un modelo de
probabilidad son los "valores verdaderos" de la ubicación o de la dispersión de un
proceso, o el creer que las colas extremas de un modelo de probabilidad en efecto
describirán lo que se verá en la práctica.
Descargar

LIGA 1. - Calidad