Para hablar sobre el principio de la evolución de los procesos estadísticos de calidad, nos remontamos a finales de la década de 1870. Para esa fecha Frederick Winslow Taylor gestionó la organización científica del trabajo y, además, fue denominado el padre de la administración científica. Sus aportes se enfocaron en una serie de estudios analíticos sobre tiempos de procesos y remuneración del trabajo, principalmente en la industria del acero.
Para inicios del siglo XX, Henry Ford desarrolló los conceptos de ensamblaje a prueba de errores, además de la verificación y la inspección de los procesos para la producción en serie de automóviles. En 1901 fueron creados los primeros laboratorios de estándares de calidad en Gran Bretaña. En 1920 se fundó la Asociación de Inspección Técnica que luego se llamó Instituto de Aseguramiento de Calidad en Inglaterra.
Por estos mismos años nacen los laboratorios Bell de AT&T, quienes crean un departamento de calidad donde se experimenta con procesos e inspecciones de productos, además el Dr. Dudding creó una aplicación basada en métodos estadísticos para el control de calidad en la industria General Electric de Inglaterra.
Para la década de 1930 el científico Walter A. Shewhart, quien trabajaba en Telefónica Bell, publicó el libro Economic Control of Quality of Manufactured Product, que sería referencia relevante para la mayoría de procesos estadísticos de calidad industrial, en todo el siglo XX y hasta el día de hoy.
A finales de la misma década el estadístico William Edwards Deming, junto a Walter A. Shewhart realizó una serie de seminarios en la Escuela de Graduados del Departamento de Agricultura de Estados Unidos. Además se publicaron los estudios sobre estadística del científico Karl Pearson.
Para la década de 1940, con la ayuda del doctor Deming, el Departamento de Guerra de los Estados Unidos genera una guía para la utilización de cartas de control con las que se mejora la producción de municiones y varios productos indispensables para el momento histórico de conflicto. También los laboratorios Bell crean los precursores de los planes de muestreo Military standard para el ejército de Estados Unidos.
En esta misma década nació la Sociedad Americana de control de Calidad, al igual que las ISO. Para la década de 1950 el doctor William Edwards Deming, reconocido por los Catorce Puntos y Siete Enfermedades mortales de la Gerencia, viajó a Japón, donde impartió una serie de conferencias sobre el control estadístico de procesos, que ayudarían la reconstrucción del país devastado por la guerra.
De 1950 a 1960 las industrias japonesas basadas en las estrategias formuladas por Joseph Dura y principalmente por Deming, crearon la gestión de la calidad total reconocida como TQM (Total Quality Management). En 1960 Kaoru Ishikawa, un teórico de la calidad japonés, se vinculó a la ISO. En su libro más importante ¿Qué es el control total de calidad?: ¿La modalidad japonesa?, Ishikawa destaca la importancia de la mejora desde los distintos roles de cada uno de los integrantes de la empresa.
Después de esto, los análisis estadísticos fueron enfocados en hallar factores que mejoraran tanto los procesos, como los productos o servicios. La TQM empezó a adquirir muchas aplicaciones como en las industrias de manufactura, los modelos educativos, la administración gubernamental y las empresas de servicios, entre otras.
Entre 1960 y 1980 las organizaciones encontraron que el control estadístico no era suficiente y se empezaron a realizar controles desglosando los procesos etapa por etapa para encontrar los cuellos de botella y oportunidades de mejora.
De los años ochenta hasta mediados de los noventas surgió uno de los de los desarrollos más importantes de la historia del control estadístico de la calidad, ya que se empezó a fundamentar la calidad como un proceso estratégico donde los modelos de control basados en el ciclo PHVA se utilizan para el nuevo enfoque de los procesos operativos: la mejora continua.
Un paso posterior fue el nacimiento del Six Sigma, donde los análisis estadísticos se enfocan en la reducción de la variabilidad de los procesos con el fin de optimizar cada fase de los mismos, desaparece la distinción entre producto y servicio y la calidad empieza a ser estrategia competitiva por excelencia, alineando la gestión de las organizaciones con el concepto de calidad total.
Actualmente existen un sinnúmero de softwares para el control estadístico de los procesos de cualquier organización. Estos programas cuentan con herramientas provenientes de las metodologías para mejorar procesos: Lean y Six Sigma. Entre las aplicaciones digitales se cuenta con: diagramas de causa y efecto, también conocidos como diagramas de Ishikawa o diagramas de espina de pescado, cartas de Pareto, gráficos de control, diagramas de dispersión, histogramas, diagramas de flujo, y listas de verificación, que permiten colectar, analizar y monitorear las fases de los diferentes procesos, para reducir costos, suprimir fallas y prevenir posibles riesgos.
Mauro Sastoque Campos
Periodismo Digital
Revista Virtual Pro
Bibliografía
Aiteco. Historia de la Calidad: de la Inspección a la Excelencia. Recuperado el 11 de agosto de 2021 de https://www.aiteco.com/historia-de-la-calidad/
Dudding, B.P. Introducción de los métodos estadísticos en la industria. Trabajos de Estadistica 3, 373–387 (1952). https://doi.org/10.1007/BF03028461
ISOtools. (2016). Historia y evolución del concepto de Gestión de Calidad. Recuperado el 11 de agosto de 2021 de https://www.isotools.org/2016/01/30/historia-y-evolucion-del-concepto-de-gestion-de-calidad/
Jiménez. Villares. P. Antecedentes históricos de la calidad. Recuperado el 11 de agosto de 2021 de http://bibing.us.es/proyectos/abreproy/4252/fichero/Cap%C3%ADtulo+2%252FCap%C3%ADtulo2.+Antecedentes+Hist%C3%B3ricos.pdf
Milenio. (2016). Control Estadístico de la Calidad. Recuperado el 11 de agosto de 2021 de https://www.milenio.com/opinion/varios-autores/universidad-politecnica-de-tulancingo/control-estadistico-de-la-calidad
Ospina. U., D. Control estadístico de la calidad. Recuperado el 11 de agosto de 2021 de https://repository.eafit.edu.co/bitstream/handle/10784/17370/document%20%2865%29.pdf?sequence=2&isAllowed=y
Ruiza, M., Fernández, T. y Tamaro, E. (2004). Biografia de Frederick Winslow Taylor. En Biografías y Vidas. La enciclopedia biográfica en línea. Barcelona (España). Recuperado de https://www.biografiasyvidas.com/biografia/t/taylor_frederick.htm el 12 de agosto de 2021.
Publicación virtual académico-científica, indexada a nivel Latinoamérica. Presenta la información de una forma innovadora a través de documentos hipertexto, multimedia e interactivos que complementan el proceso de enseñanza-aprendizaje en diferentes programas académicos relacionados con procesos industriales. Cuenta con un comité editorial y científico internacional ad honorem presente en diferentes países de Latinoamérica.
Con una aplicación para teléfonos inteligentes, junto con un dispositivo impreso en 3D, se ha desarrollado un sistema que mide de forma rápida y económica el contenido de nitrógeno y clorofila en las plantas de cultivo, como por ejemplo soja, arroz, maíz, e incluso flores. Esta herramienta busca reducir el uso indiscriminado de fertilizantes, contribuyendo así a la protección del ambiente, al tiempo que optimiza el rendimiento agrícola. La tecnología ya está disponible para uso educativo.
La startup SiPhox, fundada por dos ex investigadores del MIT, ha desarrollado un chip fotónico integrado para realizar análisis de sangre de alta calidad en el hogar.
Huawei acapara buena parte de la atención cuando desviamos nuestra mirada hacia los diseñadores y fabricantes de chips para inteligencia artificial (IA) chinos que pueden competir de tú a tú con NVIDIA o AMD. Sin embargo, en el país liderado por Xi Jinping hay muchas otras compañías especializadas en la puesta a punto de hardware para IA que también tienen un gran potencial. MetaX, Biren Technology, Innosilicon, Zhaoxin, Iluvatar CoreX, DenglinAI o Vast AI Tech son algunas de las más importantes.
Google Lens es una aplicación que combina inteligencia artificial y reconocimiento de imagen para realizar búsquedas en Internet a partir de una fotografía.
Considerado uno de los primeros gusanos informáticos que se propagaron en la red, este incidente marcó un hito en la historia de la ciberseguridad.
La misión NISAR ayudará a los investigadores a comprender mejor cómo cambia la superficie de la Tierra con el tiempo, incluso en el período previo a erupciones volcánicas como la que se muestra en la imagen, en el Monte Redoubt, en el sur de Alaska, en abril de 2009.