PathMBA Vault

Design thinking

Calidad robusta

por Genichi Taguchi, Don Clausing

Cuando un producto no funciona, debe sustituirlo o arreglarlo. En cualquier caso, debe rastrearlo, transportarlo y disculparse por ello. Las pérdidas serán mucho mayores que los costes de fabricación y ninguno de estos gastos recuperará necesariamente la pérdida de reputación. Taiichi Ohno, el reconocido exvicepresidente ejecutivo de Toyota Motor Corporation, lo expresó así: Sea lo que sea lo que piense un ejecutivo que son las pérdidas por mala calidad, en realidad son seis veces mayores.

¿Cómo pueden las empresas de fabricación minimizarlas? Si los directivos estadounidenses solo aprenden un principio nuevo de la colección que ahora se conoce como Métodos Taguchi, que sea este: la calidad es una virtud del diseño. La «robustez» de los productos depende más de un buen diseño que del control en línea, por estricto que sea, de los procesos de fabricación. De hecho, aunque no es tan evidente, la falta inherente de solidez en el diseño del producto es el principal impulsor de los gastos de fabricación superfluos. Pero los directivos tendrán que aprender más de un principio para entender por qué.

Los imperativos de calidad de Taguchi

Las pérdidas de calidad se deben principalmente a un fallo del producto después de la venta; la «robustez» del producto depende más del diseño del producto que del control en

Productos sin defectos e imperfectos

Durante una generación, los gerentes e ingenieros estadounidenses han considerado que las pérdidas de calidad equivalen a los costes que absorbe la fábrica cuando fabrica productos defectuosos: el despilfarro del valor de los productos que no se pueden enviar, los costes adicionales de reelaboración, etc. La mayoría de los directivos piensan que las pérdidas son bajas cuando la fábrica envía prácticamente lo que construye; ese es el mensaje del control de calidad estadístico y otros programas de control de calidad tradicionales que incluiremos bajo el seductor término «cero defectos».

Por supuesto, a los clientes les importa un bledo el historial de una fábrica de mantenerse «dentro de las especificaciones» o minimizar la chatarra. Para los clientes, la prueba de la calidad de un producto está en su rendimiento cuando lo golpean, sobrecargan, se dejan caer y salpican. Entonces, demasiados productos muestran un comportamiento temperamental y degradaciones de rendimiento molestas o incluso peligrosas. Todos preferimos las fotocopiadoras cuyas copias son transparentes con poca potencia; todos preferimos los coches diseñados para conducir de forma segura y predecible, incluso en carreteras mojadas o con baches, con vientos cruzados o con neumáticos ligeramente por debajo o demasiado inflados. Decimos que estos productos son robustos. Se ganan la lealtad inquebrantable de los clientes.

Los ingenieros de diseño dan por sentadas las fuerzas ambientales que degradan el rendimiento (lluvia, baja tensión y similares). Intentan contrarrestar estos efectos en el diseño de los productos: aislar los cables, ajustar las bandas de rodadura de los neumáticos, sellar las juntas. Sin embargo, algunas degradaciones del rendimiento provienen de la interacción de las propias piezas, no de que les pase nada externo. En un producto ideal, en cualquier cosa ideal, las piezas funcionan en perfecta armonía. La mayoría de los productos reales, lamentablemente, contienen perturbaciones de un tipo u otro, normalmente como resultado de un error en el acoplamiento de un componente con los componentes correspondientes. Un eje de transmisión vibra y desgasta prematuramente una junta universal; el motor de un ventilador genera demasiado calor para un microprocesador sensible.

Estas degradaciones del rendimiento pueden deberse a que algo vaya mal en la fábrica o a un fallo inherente en el diseño. Un eje de transmisión puede vibrar demasiado debido a un torno desalineado o a una forma mal concebida; un motor puede estar demasiado caliente porque se montó incorrectamente o porque se introdujo impetuosamente en el diseño. Otra forma de decirlo es que los trabajos en curso pueden estar sujetos a grandes variaciones en el proceso y el ambiente de la fábrica, y los productos pueden estar sujetos a grandes variaciones en las condiciones de uso del cliente.

¿Por qué insistimos en que la mayoría de las degradaciones se deben a este último tipo de fallos, a fallos de diseño, y no a variaciones en la fábrica? Porque las variaciones ambientales o del proceso a las que puede estar sometido el trabajo en proceso en la fábrica no son ni de lejos tan drásticas como las variaciones a las que están sujetos los productos en manos del cliente, algo obvio si lo piensa bien, pero ¿cuántos exponentes de Cero defectos tienen? Zero Defects dice: El esfuerzo por reducir los fallos del proceso en la fábrica reducirá simultáneamente los casos de fallos del producto en el campo. Decimos que el esfuerzo por reducir las averías de los productos sobre el terreno reducirá simultáneamente el número de productos defectuosos en la fábrica.

Aun así, podemos aprender algo interesante sobre las raíces de la solidez y los fracasos del control de calidad tradicional si nos enfrentamos a Zero Defects en su propio terreno. En oposición a Cero defectos surgieron los métodos de Taguchi.

Robustez como coherencia

Según Zero Defects, los diseños se arreglan básicamente antes de que el programa de calidad se haga sentir; las graves degradaciones del rendimiento se deben a que las piezas no se acoplan e interaccionan, simplemente así. Cuando los procesos de fabricación están fuera de control, es decir, cuando hay variaciones importantes en la fabricación de las piezas, no se puede esperar que los productos funcionen bien sobre el terreno. Las piezas defectuosas producen conexiones defectuosas. Un producto completo es la suma de sus conexiones.

Por supuesto, no se pueden fabricar dos ejes de transmisión perfectamente igual. Los ingenieros que trabajan según la lógica de cero defectos presuponen una cierta cantidad de variación en la producción de cualquier pieza. Especifican un objetivo para el tamaño y las dimensiones de una pieza, y luego tolerancias que, según ellos, permitirán desviaciones triviales con respecto a este objetivo. ¿Qué tiene de malo que un eje de transmisión que debería tener 10 centímetros de diámetro tenga un tamaño de 9.998?

Nada. El problema, y está muy extendido, se produce cuando los directores de los programas Cero defectos hacen de esta necesidad una virtud. Se acostumbran a pensar en la calidad del producto en términos de una desviación aceptable de los objetivos, en lugar de un esfuerzo constante por alcanzarlos. Peor aún, los gerentes pueden especificar tolerancias que son demasiado amplias porque asumen que a la fábrica le costaría demasiado reducirlas.

Pensemos en el caso de Ford contra Mazda (entonces conocido como Toyo Kogyo), que tuvo lugar hace unos años. Ford es propietario de unos 25% de Mazda y pidió a la empresa japonesa que fabricara transmisiones para un coche que vendía en los Estados Unidos. Se suponía que tanto Ford como Mazda se fabricaban con especificaciones idénticas; Ford adoptó Zero Defects como estándar. Sin embargo, después de que los coches llevaran un tiempo en la carretera, quedó claro que las transmisiones de Ford generaban costes de garantía mucho más altos y muchas más quejas de los clientes por el ruido.

Hay que reconocer que Ford desmontó y midió cuidadosamente muestras de transmisiones fabricadas por ambas compañías. Al principio, los ingenieros de Ford pensaban que sus indicadores no funcionaban bien. Todas las piezas de Ford cumplían con las especificaciones, pero las cajas de cambios Mazda no revelaban ninguna variabilidad con respecto a los objetivos. Podría eso ¿por qué Mazda incurrió en costes de producción, chatarra, reelaboración y garantía más bajos?1

Esa era precisamente la razón. Imagínese que en algunas transmisiones Ford, muchos componentes cerca del límites exteriores de tolerancias especificadas (es decir, está bien según las definiciones de cero defectos) se ensamblaron al azar. Entonces, muchas desviaciones triviales del objetivo tendían a «acumularse». Una variación por lo demás trivial en una parte exacerbó una variación en otra. Debido a las desviaciones, las piezas interactuaban con una mayor fricción de la que podían soportar de forma individual o con una vibración mayor de la que los clientes estaban dispuestos a soportar.

Los directivos de Mazda trabajaron de forma constante para entregar las piezas según lo previsto. Intuitivamente, adoptaron un enfoque mucho más imaginativo del control de calidad en línea que los directivos de Ford; sin duda, comprendieron la conformidad de fábrica de una manera que sustituyó al estilo de pensamiento de aprobar/fallar, dentro y fuera de las especificaciones asociado con Cero defectos. Los directivos de Mazda partieron del supuesto de que la solidez comienza con el cumplimiento de los objetivos exactos consistentemente—no por mantenerse siempre dentro de las tolerancias. Puede que no se hayan dado cuenta en ese momento, pero habría sido aún mejor fallar en el blanco con una consistencia perfecta que acertarlo al azar, un punto que se aclara con esta sencilla analogía.

Sam y John están en el campo de tiro para practicar tiro al blanco. Tras hacer diez tiros, examinan sus objetivos. Sam tiene diez tiros en un grupo reducido justo fuera del círculo de diana. John, por otro lado, tiene cinco tiros en el círculo, pero están dispersos por todas partes (tantos cerca del perímetro como cerca de un punto muerto) y el resto de sus tiros están dispersos de manera similar a su alrededor (consulte «¿Quién tiene el mejor tiro?» diagrama).

¿Quién es el mejor tirador? Sam lo es. Su tiro es coherente y predecible. Un pequeño ajuste en la mira le dará muchas miradas de buey perfectas en la próxima ronda.

Los teóricos de Zero Defects dirían que John es el mejor tirador porque su actuación no revela ningún fracaso. Pero, ¿a quién preferiría contratar como guardaespaldas?

El tiro de Sam es coherente y prácticamente predecible. Probablemente sepa por qué perdió el círculo por completo. Un ajuste en su mira le dará muchas miradas de buey perfectas durante la próxima ronda. John tiene un problema mucho más difícil. Para reducir la dispersión de sus tiros, debe exponer prácticamente todos los factores que tiene bajo su control y encontrar la manera de cambiarlos en una combinación feliz. Puede que decida cambiar la posición de sus brazos, la rigidez de su cabestrillo o la secuencia de sus disparos: respirar, apuntar, aflojar y apretar. Tendrá poca confianza en que tendrá todos sus tiros en el círculo de diana la próxima vez.

Si se extrapoló a la fábrica, un rendimiento similar al del SAM promete una mayor robustez del producto. Una vez que se establece la coherencia (no es tarea fácil, producto de una atención incesante a los detalles del diseño y del proceso), ajustar el rendimiento al objetivo es una cuestión sencilla: se puede evitar por completo la acumulación. Si todos los ejes de transmisión están a 0,005 centímetros de distancia, los operadores pueden ajustar la posición de la herramienta de corte. A falta de un rendimiento constante, acercarse más al objetivo puede llevar mucho tiempo.

Pero esto tiene otra cara. Hay una probabilidad mucho mayor de que se acumule una catástrofe debido a las desviaciones aleatorias que a las desviaciones que demuestren coherencia. Suponiendo que ninguna pieza tenga un defecto grave, un producto fabricado con piezas que están todas fuera del objetivo exactamente de la misma manera tiene más probabilidades de ser robusto que un producto fabricado con piezas cuyas desviaciones cumplen con las especificaciones pero son impredecibles. Tenemos pruebas estadísticas de ello, pero basta con un momento de reflexión. Si todas las piezas se fabrican de forma uniforme, el producto funcionará de manera uniforme para los clientes y se perfeccionará más fácilmente en la próxima versión. Si todas las piezas se fabrican de forma errática, algunos productos serán perfectos y otros se desmoronarán.

Así que el argumento en contra de Zero Defects comienza con esto: la robustez se deriva de la coherencia. Cuando la desviación es constante, es posible ajustarse al objetivo; es más probable que se produzca una acumulación catastrófica por una desviación dispersa dentro de las especificaciones que por una desviación constante fuera. Este respeto por la coherencia, por cumplir con el objetivo, tiene una aplicación práctica y fascinante.

La función de pérdida de calidad

Análisis de Ford en general las pérdidas en comparación con las de Mazda sugieren que cuando las empresas se desvían de sus objetivos, corren un riesgo de pérdidas cada vez más caro. La pérdida total es pérdida de calidad más pérdida de fábrica. Cuanto más se desvíe un fabricante de sus objetivos, mayores serán sus pérdidas.

Según nuestra experiencia, la pérdida de calidad (la pérdida que se produce después del envío de los productos) aumenta a un ritmo geométrico. Se puede cuantificar aproximadamente como función de pérdida de calidad (QLF), según una fórmula cuadrática sencilla. La pérdida aumenta en el cuadrado de la desviación con respecto al valor objetivo, L=D2 C, donde la constante viene determinada por el coste de la contramedida que la fábrica podría utilizar para cumplir el objetivo.

Si sabe qué hacer para dar en el blanco, sabrá lo que cuesta esta acción por unidad. Si se resiste a gastar el dinero, con cada desviación estándar del objetivo, corre el riesgo de gastar cada vez más. Cuanto mayor sea la desviación de los objetivos, mayores serán los costes compuestos.

Supongamos que un fabricante de automóviles decide no gastar, digamos,$ 20 por transmisión para poner la marcha exactamente en el blanco. QLF sugiere que el fabricante acabe gastando (cuando los clientes se enfadan)$ 80 para dos desviaciones estándar del objetivo ($ 20 multiplicado por el cuadrado de dos),$ 180 para tres,$ 320 para cuatro, y así sucesivamente.

No cabe duda de que se trata de una aproximación simple, no de una ley de la naturaleza. No se puede esperar que los datos de campo reales justifiquen el QLF con precisión, y si su empresa tiene una forma más exacta de hacer un seguimiento de los costes de los fallos de los productos, úsela. Pero el enorme valor del QLF, además de su reverencia al sentido común, es que traduce la idea del ingeniero de desviarse de los objetivos en una simple estimación de costes que los administradores pueden utilizar. El QLF es especialmente útil en las importantes etapas iniciales del desarrollo de nuevos productos, cuando se establecen las tolerancias y los objetivos de calidad.

Televisores Sony: Tokio contra San Diego

La convincente lógica de QLF se ilustra mejor con el rendimiento de los televisores Sony a finales de la década de 1970. El caso demuestra cómo los datos de ingeniería y los datos económicos pueden (y deben) analizarse en conjunto.

Los ingenieros de producto de Sony habían comprobado que los clientes preferían imágenes con una densidad de color determinada, llamémosla una densidad nominal de 10. A medida que la densidad de color se desvió de 10, los espectadores se sintieron cada vez más insatisfechos, por lo que Sony estableció los límites de especificación en no menos de 7 ni más de 13.

Sony fabricó televisores en dos ciudades, San Diego y Tokio. Los sets enviados desde San Diego se distribuían uniformemente según las especificaciones, lo que significaba que un cliente tenía tantas probabilidades de comprar un juego con una densidad de color de 12,6 como uno con una densidad de 9,2. Al mismo tiempo, un set de San Diego tenía tantas probabilidades de estar cerca de los límites de las especificaciones corporativas de 13 o 7 como cerca del objetivo de satisfacción del cliente de 10. Mientras tanto, los envíos desde Tokio tendían a agruparse cerca del objetivo de 10, aunque en ese momento, alrededor de 3 de cada 1000 juegos no cumplían con los estándares corporativos.

Akio Morita, el presidente de Sony, reflexionó sobre la discrepancia de esta manera: «Cuando le digamos a uno de nuestros empleados japoneses que la medición de una parte determinada debe estar dentro de una tolerancia de más o menos cinco, por ejemplo, automáticamente se esforzará por acercar esa parte lo más posible a la tolerancia cero. Cuando abrimos nuestra planta en los Estados Unidos, descubrimos que los trabajadores seguían las instrucciones a la perfección. Pero si dijéramos que fuera entre más o menos cinco, lo conseguirían cerca de más o menos cinco, de acuerdo, pero rara vez tan cerca de cero como lo hacían los trabajadores japoneses».

Si Morita asignara calificaciones a las actuaciones de las dos fábricas, diría que Tokio tiene muchas más A que San Diego, aunque saque una D de vez en cuando; 68% de la producción de Tokio fue de la gama A, 28% en la gama B, 4% en la gama C y 0,3% en la gama D. Por supuesto, San Diego hizo algunos sets fuera de las especificaciones, pero no envió sus F. Tokio envió todo lo que construyó sin molestarse en comprobarlo. ¿Morita debería haber preferido Tokio a San Diego?

La respuesta, recuerde, debe resumirse en dólares y centavos, por lo que las convenciones de Cero defectos no sirven de nada en este caso. Supongamos que ha comprado un televisor con una densidad de color de 12,9, mientras que su vecino ha comprado uno con una densidad de 13,1. Si ve un programa en su set, ¿podrá detectar alguna diferencia de color entre el suyo y el suyo? Por supuesto que no. La calidad del color no presenta ningún problema grave en el límite de especificación de 13. Las cosas no se hacen más caras de repente para la planta de San Diego si un set sale a 13,1.

Las pérdidas comienzan a aumentar cuando los clientes ven los sets con un valor objetivo de 10. Entonces, cualquier cosa que no sea de 10 no parecerá satisfactoria y los clientes exigirán la visita del personal de reparación o exigirán juegos de repuesto. En lugar de gastar unos cuantos dólares por set para ajustarlo cerca de los objetivos, Sony tendría que gastar mucho más para triunfar en los sets (unos dos tercios de los sets de San Diego) que, de hecho, estaban desagradando a los clientes. (No cabe duda de que la insatisfacción aumenta más entre 11,5 y 13 que entre 10 y 11,5.)

Lo que Sony descubrió es que no se gana prácticamente nada con el envío de un producto que apenas cumple con los estándares corporativos en lugar de un producto que simplemente fracasa. San Diego envió conjuntos marginales «sin defectos», pero su calidad marginal resultó costosa.

Con QLF, Sony podría haber obtenido cifras aún más llamativas. Supongamos que la empresa estimó que el coste de la contramedida necesaria para corregir todos los sets (una contramedida de línea de montaje que sitúa cada conjunto en un virtual 10) era$ 9. Pero por cada set de San Diego con una densidad de color de 13 (tres desviaciones estándar del objetivo), Sony gastó no$ 9 pero$ 81. Se debería haber esperado que la pérdida total de calidad en San Diego fuera tres veces la pérdida total de calidad en la fábrica de Tokio.

Desviación: señal/ruido

Si Zero Defects no funciona, ¿qué sí? Hemos dicho que la calidad se diseña principalmente, no se controla desde fuera. En los trabajos de desarrollo, los ingenieros deben disciplinar sus decisiones prácticamente en cada paso comparando la pérdida de calidad esperada con los costes de fabricación conocidos. Por otro lado, la fiabilidad de los cálculos del QLF está restringida obviamente por la precisión de las medidas más preliminares. Es imposible discernir correctamente cualquier función de pérdida sin fijar primero los objetivos correctamente.

Cómo debería ¿los ingenieros de diseño y los directores de fabricación se fijan objetivos? Avancemos despacio, reconsiderando lo que hacen los ingenieros cuando prueban los componentes y subconjuntos y cómo establecen lo que ninguna pieza en particular «quiere ser» en el contexto de las cosas que se interponen en su camino.

Cuando los ingenieros de Sony diseñaron sus televisores, asumieron que a los clientes exigentes les gustaría un diseño que conservara una buena imagen o «señal» lejos de la emisora, en una tormenta eléctrica, cuando se utilizara el procesador de alimentos e incluso cuando la empresa eléctrica proporcionara baja tensión. Los clientes se sentirían consternados si la imagen se degradara cada vez que suban el volumen. Rechazarían un televisor en el que hubiera nieve y otros «ruidos» molestos cuando se vieran afectados por condiciones de funcionamiento adversas, que a su vez se consideran ruidos.

En nuestra opinión, este lenguaje metafórico —señal comparada con ruido— se puede utilizar para hablar de todos los productos, no solo de los televisores. La señal es la que el producto (o componente o subconjunto) intenta entregar. Los ruidos son las interferencias que degradan la señal, algunas de ellas procedentes del exterior y otras de sistemas complementarios del producto. Se parecen mucho a los factores de los que hablamos que explican las variaciones en el rendimiento del producto: perturbaciones ambientales y perturbaciones generadas por las propias piezas.

Por lo tanto, parece razonable definir la robustez como la virtud de un producto con una relación señal/ruido alta. A los clientes les molesta que les digan: «No se esperaba que utilizara nuestro producto con mucha humedad o temperaturas por debajo del punto de congelación». Quieren un buen rendimiento en condiciones de funcionamiento reales, que a menudo no son perfectas. Todos asumimos que un producto que funciona mejor en condiciones adversas será mucho más duradero en condiciones normales.

Las relaciones señal/ruido están diseñadas en los productos antes de que la fábrica aumente. La fuerza de la señal de un producto (por lo tanto, su robustez) es responsabilidad principal de los diseñadores del producto. Las buenas fábricas son fieles a la intención del diseño. Pero los diseños mediocres siempre dan como resultado productos mediocres.

Elección de objetivos: matrices ortogonales

Entonces, ¿cómo maximizan los diseñadores de productos la relación señal/ruido? Las empresas de talla mundial utilizan un proceso de toma de decisiones en tres pasos:

1. Definen el objetivo específico, seleccionan o desarrollan la señal más adecuada y estiman el ruido concomitante.

2. Definen opciones factibles para los valores críticos de diseño, como las dimensiones y las características eléctricas.

3. Seleccionan la opción que ofrezca la mayor robustez o la mejor relación señal/ruido.

Es más fácil decirlo que hacerlo, por supuesto, razón por la cual muchas empresas en Japón, y ahora en los Estados Unidos, han pasado a algún tipo de ingeniería simultánea. Definir y seleccionar las señales y los objetivos correctos no es tarea fácil y se requiere la experiencia de todos los especialistas en productos. El diseño del producto, la fabricación, el soporte de campo y el marketing: un equipo interfuncional debería realizar todo esto simultáneamente.

Los diseñadores de productos que hayan desarrollado una «sensación» para la ingeniería de determinados productos deberían tomar la iniciativa en estos equipos. Solo pueden salirse con la suya con unos pocos experimentos limitados, en los que gente nueva tendría que realizar muchos más. Las empresas progresistas se esfuerzan por mantener a sus especialistas en productos trabajando en nuevas versiones, en lugar de ascenderlos a puestos directivos. Sus planes de compensación recompensan a las personas por hacer lo que mejor saben hacer.

Pero las virtudes del trabajo en equipo plantean la cuestión más amplia de cómo desarrollar una estrategia experimental eficiente que no agote los recursos corporativos a medida que se trabaja para que los prototipos estén a la altura de la satisfacción del cliente. La intuición no es realmente una respuesta. Tampoco lo es la interfuncionalidad ni la teoría de la organización. Los diseñadores de productos necesitan una forma científica de conseguir solidez. Han dependido demasiado del arte.

La forma más práctica de fijar la relación señal/ruido se basa en el trabajo de Sir Ronald Fisher, un estadístico británico cuyas brillantes contribuciones a la agricultura no se estudian mucho en la actualidad. Lo más importante es su estrategia de experimentación sistemática, incluido el plan asombrosamente sensato conocido como «matriz ortogonal».

Tenga en cuenta la complejidad de mejorar la dirección de un coche. Los clientes quieren que responda de forma coherente. La mayoría de los ingenieros saben que la capacidad de respuesta de la dirección depende de muchos parámetros de diseño críticos (rigidez de los muelles, rigidez de los amortiguadores, dimensiones de los mecanismos de dirección y suspensión, etc.), todos los cuales podrían optimizarse para lograr la mayor relación señal/ruido posible.

Además, tiene sentido comparar el valor inicial del diseño con un valor mayor y uno menor. Si la rigidez de los muelles tiene actualmente un valor nominal de 7, los ingenieros querrán probar la dirección con 9 y 5. Un ingeniero de automóviles con el que hemos trabajado estableció que, en realidad, hay 13 variables de diseño para la dirección. Si los ingenieros compararan los valores estándar, bajos y altos de cada variable crítica, tendrían 1 594.323 opciones de diseño.

¿Proceder con la intuición? Más de un millón de posibles permutaciones ponen de relieve el desafío —el de buscar a ciegas una aguja en un pajar— y la dirección es solo un subsistema del coche. En Japón, los gerentes dicen que a los ingenieros «les gusta pescar con una caña»; los ingenieros se muestran optimistas en cuanto a que «el próximo elenco traerá a los peces gordos». Un experimento más y encontrarán el diseño ideal. Naturalmente, los fracasos repetidos llevan a más moldes. El nuevo producto, que aún no se adapta a las condiciones de los clientes, se ve obligado a salir al mercado por las presiones del tiempo, el dinero y la disminución de la cuota de mercado.

Para completar la optimización de la solidez lo más rápidamente, la estrategia de búsqueda debe obtener la máxima cantidad de información de unos cuantos intentos. Aquí no vamos a repasar el álgebra, pero la clave es desarrollar un sistema de pruebas que permita a los ingenieros de producto analizar las media efecto del cambio en los niveles de los factores en diferentes conjuntos de condiciones experimentales.

Y esta es precisamente la virtud de la matriz ortogonal (consulte el inserto «Matrices ortogonales: establecer los objetivos correctos para el diseño»). Equilibra los niveles de rendimiento exigidos por los clientes con las numerosas variables (o ruidos) que afectan al rendimiento. Un conjunto ortogonal para 3 niveles de rendimiento de la dirección (bajo, medio y alto) puede reducir las posibilidades experimentales a 27. Los ingenieros pueden someter cada uno de los 27 diseños de dirección a alguna combinación de ruidos, como presión alta/baja de los neumáticos, carretera rugosa o suave, temperatura alta/baja. Una vez finalizadas todas las pruebas, se pueden utilizar los valores señal/ruido para seleccionar los mejores niveles para cada variable de diseño.

Matrices ortogonales: establecer los objetivos correctos para el diseño por: Lance A. Ealey

Los ingenieros de producto estadounidenses suelen proceder con el método de «un factor a la vez». Un grupo de ingenieros de dirección de automóviles (tras haber identificado 13

Si, por ejemplo, el valor medio de las nueve primeras pruebas de rigidez de los muelles es de 32,4, eso podría caracterizar el primer nivel de rigidez de los muelles. Si el valor medio del segundo grupo de ensayos es de 26,7 y el promedio del tercer grupo de 28,9, seleccionaremos el nivel uno como el mejor valor de rigidez de los muelles. Este proceso de promediado se repite para encontrar el mejor nivel para cada una de las 13 variables de diseño.

La matriz ortogonal es en realidad un sofisticado «sistema de conmutación» en el que se pueden conectar muchas variables de diseño y niveles de cambio diferentes. Este sistema se concibió para permitir a un diseñador relativamente inexperto extraer el media efecto de cada factor en los resultados experimentales, para que pueda llegar a conclusiones fiables a pesar del gran número de variables cambiantes.

Por supuesto, una vez establecidas las características del producto para que el diseñador pueda decir con certeza que los valores del diseño (es decir, las relaciones señal/ruido optimizadas) no interactúan en absoluto, las matrices ortogonales son superfluas. En su lugar, el diseñador puede proceder a probar cada variable de diseño de forma más o menos independiente, sin preocuparse de crear ruido en otras piezas o subconjuntos.

Prueba de verificación del sistema: El momento de la verdad

Tras maximizar la relación señal/ruido y optimizar los valores de diseño, los ingenieros crean prototipos. La solidez de todo el producto se comprueba ahora en la prueba de verificación del sistema (SVT), quizás el evento más crítico durante el desarrollo del producto.

En la SVT, los primeros prototipos se comparan con el producto de referencia actual. Los ingenieros someten tanto el prototipo como el punto de referencia a las mismas condiciones extremas a las que pueden enfrentarse en el uso real. Los ingenieros también miden las mismas relaciones críticas señal/ruido para todos los contendientes. Es muy importante que el nuevo producto supere la solidez del producto de referencia. Si la tensión nominal ideal es de 115 voltios, queremos televisores que tengan una señal de 10 incluso cuando la tensión caiga a 100 o suba a 130 igual de ruidosos. Cualquier desviación de la señal perfecta debe considerarse en términos de QLF, es decir, como un riesgo financiero grave.

Por lo tanto, el producto robusto es el que minimiza la media del cuadrado de la desviación con respecto al objetivo, promediada en las diferentes condiciones de uso del cliente. Supongamos que quiere comprar una fuente de alimentación y aprender que puede comprar una con una desviación estándar de un voltio. ¿Debería tomarlo? Si el valor medio de la tensión de salida es de 1000 voltios, la mayoría de la gente pensaría que, de media, un error de solo un voltio es muy bueno. Sin embargo, si la salida media fuera de 24 voltios, una desviación estándar de uno parece muy grande. Siempre debemos tener en cuenta la relación entre el valor medio dividido por la desviación estándar.

El SVT da una indicación muy clara, mucho antes de que comience la producción, de si los clientes percibirán que el nuevo producto tiene una calidad y un rendimiento de primera clase. Una vez comprobado que el nuevo diseño tiene una robustez superior, los ingenieros pueden proceder a resolver los problemas de rutina con la plena confianza de que el producto aumentará la fidelidad de los clientes de manera constante.

De vuelta a la fábrica

La relación entre el campo y la fábrica demuestra ser sutil, lo contrario de lo que cabría esperar. Sabemos que si controla la varianza en la fábrica, reduce los fallos en el campo. Pero como dijimos al principio, un esfuerzo concertado para reducir las averías de los productos sobre el terreno reducirá simultáneamente el número de productos defectuosos en la fábrica.

Esfuércese por reducir las variaciones en los componentes del producto y reducirá las variaciones en el sistema de producción en su conjunto. Cualquier refuerzo de un diseño (es decir, cualquier aumento marcado de la relación señal/ruido del producto) reducirá simultáneamente las pérdidas de calidad en la fábrica.

¿Por qué tiene que ser así? Por muchas razones, la más importante, las simetrías entre el diseño para la robustez y el diseño para la fabricación. Piense en lo que se han vuelto más robustos los productos desde la introducción del plástico moldeado y los circuitos de estado sólido. En lugar de conectar muchos cables, tubos e interruptores interconectados (cualquiera de los cuales puede fallar), los ingenieros ahora pueden imprimir un millón de transistores en un chip prácticamente indestructible. En lugar de unir muchos componentes con tornillos y elementos de fijación, ahora podemos consolidar las piezas en subconjuntos y montarlas en marcos moldeados que encajan entre sí.

Todas estas mejoras reducen en gran medida las oportunidades de que el ruido interfiera con la señal; se desarrollaron para que los productos fueran robustos. Sin embargo, también han hecho que los productos sean infinitamente más fáciles de fabricar. Los principios del diseño para lograr la robustez suelen ser indistinguibles de los principios del diseño para la fabricación: reducir el número de piezas, consolidar los subsistemas e integrar la electrónica.

Un producto robusto puede tolerar mayores variaciones en el sistema de producción. Por favor, el cliente y complacerá al director de fabricación. Prepárese para las variaciones en el campo y allanará el camino para reducir las variaciones en el taller. Nada de esto significa que el director de fabricación deba dejar de intentar reducir las variaciones del proceso o de lograr las mismas variaciones con procesos más rápidos y baratos. Y hay excepciones obvias que prueban la regla (la producción de chips, por ejemplo, donde los controles de fábrica son cada vez más estrictos), aunque es difícil pensar en excepciones en productos como los coches y la electrónica de consumo.

La fábrica es un lugar donde los trabajadores deben tratar de cumplir, no desviarse de, los objetivos nominales establecidos para los productos. Es hora de pensar en la fábrica como un producto con sus propios objetivos. Al igual que un producto, se puede decir que la fábrica emite una señal implícita (la producción constante de productos robustos) y que está sujeta a las perturbaciones del ruido (temperaturas variables, máquinas degradadas, polvo, etc.) Con el QLF, las elecciones de fábrica, como las elecciones del producto, se pueden reducir al coste de desviarse de los objetivos.

Considere, por ejemplo, que una amoladora cilíndrica crea una forma cilíndrica de forma más consistente que un torno. Los diseñadores de productos han abogado por máquinas tan dedicadas; quieren la mayor precisión posible. Los ingenieros de fabricación han preferido tradicionalmente el torno menos preciso porque es más flexible y reduce los costes de producción. ¿Debería la dirección preferir una amoladora cilíndrica más precisa? ¿Cómo compara los de cada grupo con respecto a la pérdida de calidad?

A falta del cálculo del QLF, el método más común para establecer las tolerancias de fabricación es celebrar una reunión de concurrencia. Los ingenieros de diseño se sientan en un lado de la sala de conferencias y los ingenieros de fabricación en el lado opuesto. Los ingenieros de diseño de productos comienzan a cantar «Tolerancia más estricta, tolerancia más estricta», y los ingenieros de fabricación responden con «Tolerancia más flexible, tolerancia más flexible». Presumiblemente, la fábrica optaría por un torno si la fabricación cantara más fuerte y durante más tiempo. Pero, ¿por qué seguir un proceso tan irracional cuando la gente de diseño de productos y la gente de fabricación puede ¿poner un valor en dólares a la precisión de la calidad?

La gerencia debe elegir el nivel de precisión que minimice el coste total, el coste de producción más la pérdida de calidad, lo básico del QLF. Los gerentes pueden comparar los costes de los procesos de fábrica de la competencia sumando el coste de fabricación y la pérdida media de calidad (por las desviaciones esperadas) de cada proceso. Obtienen una precisión económica al evaluar los procesos de producción alternativos factibles, como el torno y la amoladora cilíndrica. ¿Cuál sería la pérdida de calidad si la fábrica utilizara el torno? ¿Los ahorros valen las pérdidas futuras?

Se pueden aplicar principios similares a los sistemas más grandes. En lo que podría denominarse «diseño de parámetros de proceso», los fabricantes pueden optimizar los parámetros de producción (velocidad del husillo, profundidad de corte, velocidad de avance, presión, temperatura) según una matriz ortogonal, muy parecida a la rigidez de los muelles de un mecanismo de dirección. Cada fila de la matriz ortogonal puede definir una prueba de producción diferente. En cada prueba, los ingenieros producen y miden varias piezas y, a continuación, utilizan los datos para calcular la relación señal/ruido de esa prueba. En un último paso, establecen el mejor valor para cada parámetro de producción.

Calidad en línea: Shigeo Shingo’s Shop Floor de: Connie Dyer

¿El endurecimiento de las tolerancias aumenta necesariamente la posibilidad de que los costes de producción aumenten significativamente? No según Shigeo Shingo, el hombre que

¿El resultado? Un proceso sólido, que produce una mayor uniformidad de las piezas y, a menudo, permite a los gerentes acelerar la producción y reducir la duración del ciclo simultáneamente.

¿Cuánta intervención?

Por último, está la cuestión de cuánto intervenir durante producción.

Realice el tipo de intervención más común, comprobar y ajustar en línea la maquinaria y el proceso. Al no haber ningún operador que supervise, las piezas tienden a desviarse progresivamente del objetivo. Sin orientación, los diferentes operadores tienen ideas muy diferentes sobre (1) la frecuencia con la que deben comprobar sus máquinas y (2) la magnitud de la discrepancia antes de ajustar el proceso para que el valor de la pieza vuelva a acercarse al objetivo.

Al aplicar la QLF, puede estandarizar la intervención. El coste de comprobar y ajustar siempre ha sido fácil de determinar; simplemente tiene que calcular el coste del tiempo de inactividad. Con QLF, los gerentes también pueden calcular el coste de no interviniendo, es decir, el valor en dólares para la empresa de la reducción de la variación de piezas.

Volvamos a los ejes de transmisión. El intervalo de comprobación es de tres y el mejor objetivo de ajuste es 1/1000 de pulgada. Si la discrepancia medida con respecto al objetivo es inferior a una milésima de pulgada, la producción continúa. Si la discrepancia medida lo supera, el proceso se ajusta de nuevo al objetivo. ¿Esto realmente permite a los operadores mantener los productos cerca del objetivo de forma que se minimice el coste total?

Se podría argumentar que medir uno de cada tres ejes es demasiado caro. ¿Por qué no uno de cada diez? Hay una manera de averiguarlo. Supongamos que el coste de la intervención es de 30 centavos y es casi seguro que los ejes se desvían del valor objetivo cada cinco o seis operaciones. Entonces, de cada diez producidos, se estropean al menos cuatro ejes defectuosos y las pérdidas de calidad aumentan. Si el séptimo eje sale con dos desviaciones estándar, el coste será$ 1,20; si el décimo sale con tres desviaciones estándar, el coste será$ 2.70; y así sucesivamente. Quizás el mejor intervalo para comprobarlo sea cada cuatro ejes o cada cinco, no cada tres. Si el cuarto eje es solo una desviación estándar del valor objetivo, es probable que la intervención no valga la pena.

El punto, una vez más, es que estas cosas pueden y deben calcularse. No hay razón para ser fanático de la calidad si usted no puede justifique su fanatismo con QLF. Cerca del objetivo, la producción debería continuar sin ajustes; la pérdida de calidad es pequeña. Fuera del límite, el proceso debería ajustarse antes de que la producción continúe.

Este enfoque básico de intervención también se puede aplicar al mantenimiento preventivo. El mantenimiento preventivo excesivo cuesta demasiado. Un mantenimiento preventivo inadecuado aumentará excesivamente la pérdida de calidad. El mantenimiento preventivo optimizado minimizará el coste total.

En Japón, se dice que un gerente que vende calidad para ahorrar un poco de gastos de fabricación es «peor que un ladrón», un poco duro, quizás, pero plausible. Cuando un ladrón roba$ 200 de su empresa, no hay pérdida neta de patrimonio entre ustedes dos, solo un intercambio de activos. Las decisiones que generan enormes pérdidas de calidad desperdician la productividad social, la riqueza de la sociedad.

El enfoque cuantitativo y disciplinado de QLF con respecto a la calidad se basa en las actividades de participación de los empleados y las mejora para mejorar la calidad y la productividad. No cabe duda de que las actividades de mejora centradas en la fábrica no aumentan en general la solidez de un producto. Sin embargo, pueden ayudar a lograrlo reduciendo el ruido generado por la compleja interacción de los factores de calidad del taller: los operadores, los métodos de operación, el equipo y el material.

Los empleados que se comprometen a dar en el blanco vigilan cada vez más de cerca cada característica del entorno de la fábrica. Cuando se utilizan su ingenio y su conciencia de los costes, las condiciones cambian drásticamente, los equipos prosperan y los datos valiosos proliferan para respaldar un mejor diseño de productos y procesos. Hacer hincapié desde el principio en toda la empresa en un diseño de producto sólido puede incluso reducir el tiempo de desarrollo y facilitar la transición a la producción a gran escala.

Con demasiada frecuencia, los gerentes piensan que la calidad es responsabilidad de unos pocos responsables de control de calidad en la esquina de una fábrica. Ya debería ser evidente que la calidad es para todos, sobre todo para los estrategas de la empresa. Solo gracias al esfuerzo de cada empleado, desde el CEO en adelante, la calidad pasará a ser algo natural. La ventaja más difícil de alcanzar en la nueva competición mundial es el galvanizador orgullo por la excelencia.

1. Consulte el admirable relato de Lance A. Ealey sobre este caso en Calidad por diseño: métodos de Taguchi® y la industria estadounidense (Dearborn, Michigan.: ASI Press, 1988), págs. 61 a 62.