Ingeniería de fiabilidad

Compartir Imprimir Citar

La ingeniería de confiabilidad o de fiabilidad (en inglés, reliability engineering) es una subdisciplina de la ingeniería de sistemas que enfatiza la capacidad del equipo para funcionar sin fallas. La confiabilidad describe la capacidad de un sistema o componente para funcionar en condiciones establecidas durante un período de tiempo específico. La confiabilidad está estrechamente relacionada con la disponibilidad, que generalmente se describe como la capacidad de un componente o sistema para funcionar en un momento o intervalo de tiempo específico.

La función de confiabilidad se define teóricamente como la probabilidad de éxito en el tiempo t, que se denota como R(t). Esta probabilidad se estima a partir de un análisis detallado (física de fallas), conjuntos de datos previos o mediante pruebas de confiabilidad y modelos de confiabilidad. La disponibilidad, la capacidad de prueba, la mantenibilidad y el mantenimiento a menudo se definen como parte de la "ingeniería de confiabilidad" en los programas de confiabilidad. La confiabilidad a menudo juega un papel clave en la rentabilidad de los sistemas.

La ingeniería de confiabilidad se ocupa de la predicción, prevención y gestión de altos niveles de incertidumbre de ingeniería "de por vida" y riesgos de falla. Aunque los parámetros estocásticos definen y afectan la confiabilidad, la confiabilidad no solo se logra mediante las matemáticas y las estadísticas. "Casi toda la enseñanza y la literatura sobre el tema enfatizan estos aspectos e ignoran la realidad de que los rangos de incertidumbre involucrados invalidan en gran medida los métodos cuantitativos para la predicción y la medición". Por ejemplo, es fácil representar la "probabilidad de falla" como un símbolo o valor en una ecuación, pero es casi imposible predecir su verdadera magnitud en la práctica, que es masivamente multivariante.

La ingeniería de confiabilidad se relaciona estrechamente con la ingeniería de calidad, la ingeniería de seguridad y la seguridad del sistema, ya que utilizan métodos comunes para su análisis y pueden requerir aportes mutuos. Se puede decir que un sistema debe ser confiablemente seguro.

La ingeniería de confiabilidad se enfoca en los costos de las fallas causadas por el tiempo de inactividad del sistema, el costo de los repuestos, el equipo de reparación, el personal y el costo de las reclamaciones de garantía.

Ahora

La palabra confiabilidad se remonta a 1816 y se atestigua por primera vez en el poeta Samuel Taylor Coleridge. Antes de la Segunda Guerra Mundial, el término estaba relacionado principalmente con la repetibilidad; una prueba (en cualquier tipo de ciencia) se consideraba "confiable" si se obtenían los mismos resultados repetidamente. En la década de 1920, el Dr. Walter A. Shewhart en Bell Labs promovió la mejora de productos mediante el uso de control estadístico de procesos, en la época en que Waloddi Weibull trabajaba en modelos estadísticos para la fatiga. El desarrollo de la ingeniería de confiabilidad estaba aquí en un camino paralelo con la calidad. El uso moderno de la palabra confiabilidad fue definido por el ejército de los EE. UU. en la década de 1940, caracterizando un producto que funcionaría cuando se esperaba y durante un período de tiempo específico.

En la Segunda Guerra Mundial, muchos problemas de confiabilidad se debieron a la falta de confiabilidad inherente de los equipos electrónicos disponibles en ese momento y a problemas de fatiga. En 1945, MA Miner publicó el artículo seminal titulado "Daño acumulativo en fatiga" en una revista ASME. Una aplicación principal de la ingeniería de confiabilidad en el ejército fue para el tubo de vacío que se usa en los sistemas de radar y otros dispositivos electrónicos, para los cuales la confiabilidad resultó ser muy problemática y costosa. El IEEE formó la Sociedad de Confiabilidad en 1948. En 1950, el Departamento de Defensa de los Estados Unidos formó un grupo llamado "Grupo Asesor sobre Confiabilidad de Equipos Electrónicos" (AGREE) para investigar métodos de confiabilidad para equipos militares. Este grupo recomendó tres formas principales de trabajar:

En la década de 1960, se dio más énfasis a las pruebas de confiabilidad a nivel de componentes y sistemas. En ese momento se creó el famoso estándar militar MIL-STD-781. Alrededor de este período, RCA también publicó el muy utilizado predecesor del manual militar 217 y se utilizó para la predicción de las tasas de falla de los componentes electrónicos. El énfasis en la confiabilidad de los componentes y la investigación empírica (p. ej., Mil Std 217) disminuyó lentamente. Se estaban utilizando enfoques más pragmáticos, como los utilizados en las industrias de consumo. En la década de 1980, los televisores se componían cada vez más de semiconductores de estado sólido. Los automóviles aumentaron rápidamente el uso de semiconductores con una variedad de microcomputadoras debajo del capó y en el tablero. Los grandes sistemas de aire acondicionado desarrollaron controladores electrónicos, al igual que los hornos de microondas y una variedad de otros electrodomésticos. Los sistemas de comunicaciones comenzaron a adoptar la electrónica para reemplazar los antiguos sistemas de conmutación mecánica. Bellcore emitió la primera metodología de predicción del consumidor para telecomunicaciones y SAE desarrolló un documento similar SAE870050 para aplicaciones automotrices. La naturaleza de las predicciones evolucionó durante la década y se hizo evidente que la complejidad de la matriz no era el único factor que determinaba las tasas de falla de los circuitos integrados (CI). Kam Wong publicó un artículo cuestionando la curva de la bañera t el único factor que determina las tasas de falla de los circuitos integrados (CI). Kam Wong publicó un artículo cuestionando la curva de la bañera t el único factor que determina las tasas de falla de los circuitos integrados (CI). Kam Wong publicó un artículo cuestionando la curva de la bañera—ver también mantenimiento centrado en la confiabilidad. Durante esta década, la tasa de fallas de muchos componentes se redujo en un factor de 10. El software se volvió importante para la confiabilidad de los sistemas. En la década de 1990, el ritmo del desarrollo de circuitos integrados se estaba acelerando. Era común un uso más amplio de microcomputadoras independientes, y el mercado de PC ayudó a mantener las densidades de IC siguiendo la ley de Moore y duplicándose cada 18 meses. La ingeniería de confiabilidad ahora estaba cambiando a medida que avanzaba hacia la comprensión de la física de la falla. Las tasas de falla de los componentes siguieron cayendo, pero los problemas a nivel del sistema se hicieron más prominentes. El pensamiento sistémico se hizo cada vez más importante. Para el software se desarrolló el modelo CMM (Capability Maturity Model), que dio un enfoque más cualitativo a la confiabilidad. ISO 9000 agregó medidas de confiabilidad como parte de la parte de diseño y desarrollo de la certificación. La expansión de la World Wide Web creó nuevos desafíos de seguridad y confianza. El antiguo problema de muy poca información confiable disponible ahora había sido reemplazado por demasiada información de valor cuestionable. Los problemas de confiabilidad del consumidor ahora se pueden discutir en línea en tiempo real utilizando datos. Las nuevas tecnologías, como los sistemas microelectromecánicos (MEMS), los GPS de mano y los dispositivos de mano que combinan teléfonos celulares y computadoras, representan desafíos para mantener la confiabilidad. El tiempo de desarrollo de productos siguió acortándose durante esta década y lo que se había hecho en tres años se estaba haciendo en 18 meses. Esto significaba que las herramientas y tareas de confiabilidad tenían que estar más estrechamente ligadas al proceso de desarrollo en sí. De muchas maneras,

Visión de conjunto

Objetivo

Los objetivos de la ingeniería de confiabilidad, en orden decreciente de prioridad, son:

  1. Aplicar conocimientos de ingeniería y técnicas especializadas para prevenir o reducir la probabilidad o frecuencia de fallas.
  2. Identificar y corregir las causas de las fallas que ocurren a pesar de los esfuerzos para prevenirlas.
  3. Determinar formas de hacer frente a las fallas que ocurren, si sus causas no han sido corregidas.
  4. Aplicar métodos para estimar la confiabilidad probable de nuevos diseños y para analizar datos de confiabilidad.

La razón del énfasis prioritario es que es, con mucho, la forma más eficaz de trabajar, en términos de minimizar costos y generar productos confiables. Las habilidades primarias que se requieren, por lo tanto, son la capacidad de comprender y anticipar las posibles causas de fallas y el conocimiento de cómo prevenirlas. También es necesario tener conocimiento de los métodos que se pueden utilizar para analizar diseños y datos.

Alcance y técnicas

La ingeniería de confiabilidad para "sistemas complejos" requiere un enfoque de sistemas diferente y más elaborado que para los sistemas no complejos. En ese caso, la ingeniería de confiabilidad puede involucrar:

La ingeniería de confiabilidad efectiva requiere la comprensión de los conceptos básicos de los mecanismos de falla para los cuales se requiere experiencia, amplias habilidades de ingeniería y buenos conocimientos de muchos campos especiales diferentes de la ingeniería, por ejemplo:

Definiciones

La confiabilidad se puede definir de las siguientes maneras:

Conceptos básicos de una evaluación de confiabilidad

Muchas técnicas de ingeniería se utilizan en las evaluaciones de riesgos de confiabilidad, tales como diagramas de bloques de confiabilidad, análisis de peligros, análisis de modos y efectos de fallas (FMEA), análisis de árbol de fallas (FTA), mantenimiento centrado en la confiabilidad, carga (probabilística) y cálculos de estrés y desgaste del material, (probabilístico) fatiga y análisis de fluencia, análisis de errores humanos, análisis de defectos de fabricación, pruebas de confiabilidad, etc. Es crucial que estos análisis se realicen correctamente y con mucha atención a los detalles para que sean efectivos. Debido a la gran cantidad de técnicas de confiabilidad, su costo y los diversos grados de confiabilidad requeridos para diferentes situaciones, la mayoría de los proyectos desarrollan un plan de programa de confiabilidad para especificar las tareas de confiabilidad (requisitos de declaración de trabajo (SoW)) que se realizarán para ese sistema específico.

De acuerdo con la creación de casos de seguridad, por ejemplo según ARP4761, el objetivo de las evaluaciones de confiabilidad es proporcionar un conjunto sólido de evidencia cualitativa y cuantitativa de que el uso de un componente o sistema no se asociará con un riesgo inaceptable. Los pasos básicos a seguir son:

El riesgo aquí es la combinación de probabilidad y severidad del incidente de falla (escenario) que ocurre. La gravedad se puede considerar desde el punto de vista de la seguridad del sistema o de la disponibilidad del sistema. La confiabilidad para la seguridad se puede considerar como un enfoque muy diferente de la confiabilidad para la disponibilidad del sistema. La disponibilidad y la seguridad pueden existir en tensión dinámica, ya que mantener un sistema demasiado disponible puede ser inseguro. Forzar un sistema de ingeniería a un estado seguro demasiado rápido puede forzar falsas alarmas que impidan la disponibilidad del sistema.

en un minimoPor definición, la gravedad de las fallas incluye el costo de las piezas de repuesto, las horas de mano de obra, la logística, los daños (fallas secundarias) y el tiempo de inactividad de las máquinas que pueden causar pérdidas de producción. Una definición más completa de falla también puede significar lesiones, desmembramiento y muerte de personas dentro del sistema (testigo de accidentes de minas, accidentes industriales, fallas de transbordadores espaciales) y lo mismo para transeúntes inocentes (testigo de ciudadanos de ciudades como Bhopal, Love Canal, Chernobyl, o Sendai, y otras víctimas del terremoto y tsunami de Tōhoku de 2011); en este caso, la ingeniería de confiabilidad se convierte en seguridad del sistema. Lo que es aceptable lo determina la autoridad de gestión o los clientes o las comunidades afectadas. El riesgo residual es el riesgo que queda después de que todas las actividades de confiabilidad han terminado,

La complejidad de los sistemas técnicos, como las mejoras de diseño y materiales, las inspecciones planificadas, el diseño infalible y la redundancia de respaldo, disminuye el riesgo y aumenta el costo. El riesgo puede reducirse a niveles ALARA (tan bajo como sea razonablemente posible) o ALAPA (tan bajo como sea posible en la práctica).

Plan de programa de confiabilidad y disponibilidad

Implementar un programa de confiabilidad no es simplemente una compra de software; no es solo una lista de verificación de elementos que deben completarse lo que garantizará que uno tenga productos y procesos confiables. Un programa de confiabilidad es un sistema complejo basado en el aprendizaje y el conocimiento único para los productos y procesos de uno. Está respaldado por el liderazgo, se basa en las habilidades que uno desarrolla dentro de un equipo, se integra en los procesos comerciales y se ejecuta siguiendo prácticas de trabajo estándar comprobadas.

Un plan de programa de confiabilidad se utiliza para documentar exactamente qué "mejores prácticas" (tareas, métodos, herramientas, análisis y pruebas) se requieren para un (sub)sistema en particular, así como para aclarar los requisitos del cliente para la evaluación de la confiabilidad. Para sistemas complejos a gran escala, el plan del programa de confiabilidad debe ser un documento separado. La determinación de recursos para mano de obra y presupuestos para pruebas y otras tareas es fundamental para un programa exitoso. En general, la cantidad de trabajo requerida para un programa efectivo para sistemas complejos es grande.

Un plan de programa de confiabilidad es esencial para lograr altos niveles de confiabilidad, capacidad de prueba, capacidad de mantenimiento y la disponibilidad del sistema resultante, y se desarrolla temprano durante el desarrollo del sistema y se refina durante el ciclo de vida del sistema. Especifica no solo lo que hace el ingeniero de confiabilidad, sino también las tareas realizadas por otras partes interesadas. Un plan de programa de confiabilidad efectivo debe ser aprobado por la alta dirección del programa, que es responsable de la asignación de recursos suficientes para su implementación.

Un plan de programa de confiabilidad también se puede usar para evaluar y mejorar la disponibilidad de un sistema mediante la estrategia de enfocarse en aumentar la capacidad de prueba y mantenimiento y no en la confiabilidad. Mejorar la mantenibilidad es generalmente más fácil que mejorar la confiabilidad. Las estimaciones de mantenibilidad (tasas de reparación) también son generalmente más precisas. Sin embargo, debido a que las incertidumbres en las estimaciones de confiabilidad son en la mayoría de los casos muy grandes, es probable que dominen el cálculo de disponibilidad (problema de incertidumbre de predicción), incluso cuando los niveles de mantenibilidad son muy altos. Cuando la confiabilidad no está bajo control, pueden surgir problemas más complicados, como escasez de mano de obra (mantenedores / capacidad de servicio al cliente), disponibilidad de repuestos, demoras logísticas, falta de instalaciones de reparación, costos de gestión de configuración compleja y retroadaptación extensa, y otros. El problema de la falta de confiabilidad también puede aumentar debido al "efecto dominó" de las fallas inducidas por el mantenimiento después de las reparaciones. Centrarse solo en la mantenibilidad, por lo tanto, no es suficiente. Si se evitan las fallas, ninguno de los otros problemas tiene importancia y, por lo tanto, la confiabilidad generalmente se considera la parte más importante de la disponibilidad. La confiabilidad debe evaluarse y mejorarse en relación con la disponibilidad y el costo total de propiedad (TCO) debido al costo de las piezas de repuesto, las horas-hombre de mantenimiento, los costos de transporte, el costo de almacenamiento, los riesgos de piezas obsoletas, etc. Pero, como GM y Toyota han descubierto tardíamente, TCO también incluye los costos de responsabilidad aguas abajo cuando los cálculos de confiabilidad no han abordado de manera suficiente o precisa los riesgos corporales personales de los clientes. A menudo se necesita una compensación entre los dos. Puede haber una relación máxima entre la disponibilidad y el costo de propiedad. La capacidad de prueba de un sistema también debe abordarse en el plan, ya que este es el vínculo entre la confiabilidad y la mantenibilidad. La estrategia de mantenimiento puede influir en la confiabilidad de un sistema (por ejemplo, por mantenimiento preventivo y/o predictivo), aunque nunca puede llevarla por encima de la confiabilidad inherente.

El plan de confiabilidad debe proporcionar claramente una estrategia para el control de disponibilidad. Si solo la disponibilidad o también el costo de propiedad es más importante depende del uso del sistema. Por ejemplo, normalmente se permite que un sistema que es un eslabón crítico en un sistema de producción, por ejemplo, una gran plataforma petrolera, tenga un costo de propiedad muy alto si ese costo se traduce en un aumento mínimo en la disponibilidad, ya que la falta de disponibilidad del plataforma da como resultado una pérdida masiva de ingresos que puede superar fácilmente el alto costo de propiedad. Un plan de confiabilidad adecuado siempre debe abordar el análisis RAMT en su contexto total. RAMT significa confiabilidad, disponibilidad, mantenibilidad/mantenimiento y capacidad de prueba en el contexto de las necesidades del cliente.

Requisitos de confiabilidad

Para cualquier sistema, una de las primeras tareas de la ingeniería de confiabilidad es especificar adecuadamente los requisitos de confiabilidad y mantenibilidad asignados a partir de las necesidades generales de disponibilidad y, lo que es más importante, derivados del análisis de fallas de diseño adecuado o de los resultados preliminares de las pruebas de prototipos. Los requisitos claros (capaces de diseñarse para) deberían impedir que los diseñadores diseñen elementos/construcciones/interfaces/sistemas particulares no confiables. Establecer solo objetivos de disponibilidad, confiabilidad, capacidad de prueba o mantenibilidad (por ejemplo, tasas máximas de fallas) no es apropiado. Este es un amplio malentendido sobre la ingeniería de requisitos de confiabilidad. Los requisitos de confiabilidad abordan el sistema en sí, incluidos los requisitos de prueba y evaluación, y las tareas y documentación asociadas. Los requisitos de confiabilidad se incluyen en las especificaciones de requisitos del sistema o subsistema apropiados, planes de prueba y declaraciones de contrato. La creación de requisitos adecuados de nivel inferior es fundamental. La provisión de solo objetivos mínimos cuantitativos (por ejemplo, valores de tiempo medio entre fallas (MTBF) o tasas de fallas) no es suficiente por diferentes razones. Una razón es que (a menudo) no se puede realizar una validación completa (relacionada con la corrección y la verificabilidad en el tiempo) de una asignación de confiabilidad cuantitativa (especificación de requisitos) en niveles inferiores para sistemas complejos como consecuencia de (1) el hecho de que los requisitos son probabilísticos, (2) el nivel extremadamente alto de incertidumbres involucradas para demostrar el cumplimiento de todos estos requisitos probabilísticos, y porque (3) la confiabilidad es una función del tiempo, y las estimaciones precisas de un número de confiabilidad (probabilista) por elemento están disponibles solo muy tarde en el proyecto, a veces incluso después de muchos años de uso en servicio. Compare este problema con el (re)equilibrio continuo de, por ejemplo, requisitos de masa del sistema de nivel inferior en el desarrollo de una aeronave, que ya suele ser una gran empresa. Tenga en cuenta que, en este caso, las masas solo difieren en términos de un porcentaje, no son una función del tiempo, los datos no son probabilísticos y ya están disponibles en modelos CAD. En el caso de la confiabilidad, los niveles de falta de confiabilidad (tasas de falla) pueden cambiar con factores de décadas (múltiplos de 10) como resultado de desviaciones muy pequeñas en el diseño, el proceso o cualquier otra cosa.La información a menudo no está disponible sin grandes incertidumbres dentro de la fase de desarrollo. Esto hace que este problema de asignación sea casi imposible de resolver de una manera útil, práctica y válida que no resulte en una especificación excesiva o insuficiente masiva. Por lo tanto, se necesita un enfoque pragmático, por ejemplo: el uso de niveles generales/clases de requisitos cuantitativos que dependan únicamente de la gravedad de los efectos de falla. Además, la validación de resultados es una tarea mucho más subjetiva que para cualquier otro tipo de requisito. Los parámetros de confiabilidad (cuantitativos), en términos de MTBF, son, con mucho, los parámetros de diseño más inciertos en cualquier diseño.

Además, los requisitos de diseño de confiabilidad deben impulsar un diseño (de sistema o parte) para incorporar características que eviten que ocurran fallas o limiten las consecuencias de la falla en primer lugar. No solo ayudaría en algunas predicciones, este esfuerzo evitaría distraer el esfuerzo de ingeniería en una especie de trabajo de contabilidad. Un requisito de diseño debe ser lo suficientemente preciso para que un diseñador pueda "diseñarlo" y también pueda probar, mediante análisis o pruebas, que el requisito se ha cumplido y, si es posible, dentro de cierta confianza declarada. Cualquier tipo de requisito de confiabilidad debe detallarse y podría derivarse del análisis de fallas (análisis de estrés y fatiga de elementos finitos, análisis de riesgos de confiabilidad, FTA, FMEA, análisis del factor humano, análisis de riesgos funcionales, etc.) o cualquier tipo de prueba de confiabilidad. También, se necesitan requisitos para las pruebas de verificación (por ejemplo, esfuerzos de sobrecarga requeridos) y el tiempo de prueba necesario. Para derivar estos requisitos de manera eficaz, se debe utilizar una lógica de mitigación y evaluación de riesgos basada en la ingeniería de sistemas. Se deben crear sistemas robustos de registro de peligros que contengan información detallada sobre por qué y cómo los sistemas podrían o han fallado. Los requisitos deben derivarse y rastrearse de esta manera. Estos requisitos prácticos de diseño impulsarán el diseño y no se utilizarán únicamente con fines de verificación. Estos requisitos (a menudo restricciones de diseño) se derivan de este modo del análisis de fallas o pruebas preliminares. La comprensión de esta diferencia en comparación con la especificación de requisitos puramente cuantitativos (logísticos) (p. ej., tasa de fallas/objetivo de MTBF) es primordial en el desarrollo de sistemas (complejos) exitosos.

Los requisitos de mantenibilidad abordan los costos de las reparaciones, así como el tiempo de reparación. Los requisitos de capacidad de prueba (que no deben confundirse con los requisitos de prueba) proporcionan el vínculo entre la confiabilidad y la capacidad de mantenimiento y deben abordar la detectabilidad de los modos de falla (en un nivel de sistema particular), los niveles de aislamiento y la creación de diagnósticos (procedimientos). Como se indicó anteriormente, los ingenieros de confiabilidad también deben abordar los requisitos para varias tareas de confiabilidad y documentación durante el desarrollo, prueba, producción y operación del sistema. Estos requisitos generalmente se especifican en la declaración de trabajo del contrato y dependen de la libertad de acción que el cliente desee otorgar al contratista. Las tareas de confiabilidad incluyen varios análisis, planificación e informes de fallas. La selección de tareas depende de la criticidad del sistema, así como del costo. Un sistema crítico para la seguridad puede requerir un proceso formal de informe y revisión de fallas a lo largo del desarrollo, mientras que un sistema no crítico puede depender de los informes de prueba finales. Las tareas más comunes del programa de confiabilidad están documentadas en los estándares del programa de confiabilidad, como MIL-STD-785 e IEEE 1332. El análisis de informes de fallas y los sistemas de acción correctiva son un enfoque común para el monitoreo de confiabilidad de productos/procesos.

Cultura de confiabilidad / errores humanos / factores humanos

En la práctica, la mayoría de las fallas se pueden atribuir a algún tipo de error humano, por ejemplo en:

Sin embargo, los humanos también son muy buenos para detectar tales fallas, corregirlas e improvisar cuando ocurren situaciones anormales. Por lo tanto, las políticas que descartan por completo las acciones humanas en los procesos de diseño y producción para mejorar la confiabilidad pueden no ser efectivas. Algunas tareas las realizan mejor los humanos y otras las realizan mejor las máquinas.

Además, los errores humanos en la gestión; la organización de datos e información; o el mal uso o abuso de los elementos, también pueden contribuir a la falta de fiabilidad. Esta es la razón principal por la que solo se pueden lograr altos niveles de confiabilidad para sistemas complejos siguiendo un proceso de ingeniería de sistemas sólido con una planificación y ejecución adecuadas de las tareas de validación y verificación. Esto también incluye una organización cuidadosa del intercambio de datos e información y la creación de una "cultura de confiabilidad", de la misma manera que tener una "cultura de seguridad" es primordial en el desarrollo de sistemas críticos de seguridad.

Predicción y mejora de la confiabilidad

La predicción de confiabilidad combina:

Para los sistemas existentes, es discutible que cualquier intento por parte de un programa responsable de corregir la causa raíz de las fallas descubiertas puede invalidar la estimación inicial de MTBF, ya que se deben realizar nuevas suposiciones (en sí mismas sujetas a altos niveles de error) del efecto de esta corrección.. Otro problema práctico es la falta de disponibilidad general de datos detallados de fallas, y los disponibles a menudo presentan un filtrado inconsistente de los datos de fallas (retroalimentación) e ignoran los errores estadísticos (que son muy altos para eventos raros como fallas relacionadas con la confiabilidad). Debe haber lineamientos muy claros para contar y comparar fallas relacionadas con diferentes tipos de causas raíz (por ejemplo, fallas de fabricación, mantenimiento, transporte, inducidas por el sistema o inherentes al diseño).

Realizar una predicción de confiabilidad cuantitativa adecuada para los sistemas puede ser difícil y muy costoso si se realiza mediante pruebas. A nivel de pieza individual, los resultados de confiabilidad a menudo se pueden obtener con una confianza comparativamente alta, ya que es posible probar muchas piezas de muestra utilizando el presupuesto de prueba disponible. Sin embargo, desafortunadamente, estas pruebas pueden carecer de validez a nivel de sistema debido a las suposiciones hechas en las pruebas a nivel de pieza. Estos autores enfatizaron la importancia de las pruebas iniciales a nivel de parte o sistema hasta la falla, y aprender de tales fallas para mejorar el sistema o la parte. Se llega a la conclusión general de que, en la mayoría de los casos, no es posible una predicción precisa y absoluta, ya sea mediante la comparación de datos de campo o mediante pruebas. Una excepción podrían ser las fallas debidas a problemas de desgaste, como las fallas por fatiga.

Diseño para la confiabilidad

Design for Reliability (DfR) es un proceso que abarca herramientas y procedimientos para garantizar que un producto cumpla con sus requisitos de confiabilidad, en su entorno de uso, durante su vida útil. DfR se implementa en la etapa de diseño de un producto para mejorar de manera proactiva la confiabilidad del producto. DfR se usa a menudo como parte de una estrategia general de Diseño para la Excelencia (DfX).

Enfoque basado en estadísticas (es decir, MTBF)

El diseño de confiabilidad comienza con el desarrollo de un modelo (de sistema). Los modelos de confiabilidad y disponibilidad utilizan diagramas de bloques y análisis de árbol de fallas para proporcionar un medio gráfico para evaluar las relaciones entre las diferentes partes del sistema. Estos modelos pueden incorporar predicciones basadas en tasas de fallas tomadas de datos históricos. Si bien las predicciones (datos de entrada) a menudo no son precisas en un sentido absoluto, son valiosas para evaluar las diferencias relativas en las alternativas de diseño. Los parámetros de mantenibilidad, por ejemplo, el tiempo medio de reparación (MTTR), también se pueden utilizar como entradas para dichos modelos.

Las causas fundamentales de inicio y los mecanismos de falla más importantes deben identificarse y analizarse con herramientas de ingeniería. Se debe proporcionar a los diseñadores un conjunto diverso de orientación práctica sobre el rendimiento y la confiabilidad para que puedan generar diseños y productos de baja tensión que protejan o estén protegidos contra daños y desgaste excesivo. Es posible que se necesite una validación adecuada de las cargas de entrada (requisitos), además de la verificación del "rendimiento" de confiabilidad mediante pruebas.

Una de las técnicas de diseño más importantes es la redundancia. Esto significa que si falla una parte del sistema, existe una ruta de éxito alternativa, como un sistema de respaldo. La razón por la que esta es la mejor opción de diseño está relacionada con el hecho de que la evidencia de confiabilidad de alta confianza para piezas o sistemas nuevos a menudo no está disponible o es extremadamente costosa de obtener. Al combinar redundancia, junto con un alto nivel de monitoreo de fallas y la evitación de fallas de causa común; incluso un sistema con una confiabilidad de un solo canal (parcial) relativamente pobre, puede volverse altamente confiable a nivel de sistema (hasta una confiabilidad de misión crítica). Para ello no es necesario realizar ninguna prueba de fiabilidad. Junto con la redundancia, el uso de diseños o procesos de fabricación diferentes (p. a través de diferentes proveedores de partes similares) para canales individuales independientes, puede proporcionar menos sensibilidad a los problemas de calidad (por ejemplo, fallas en la primera infancia en un solo proveedor), lo que permite lograr niveles muy altos de confiabilidad en todos los momentos del ciclo de desarrollo (desde el principio vida a largo plazo). La redundancia también se puede aplicar en la ingeniería de sistemas mediante la doble verificación de requisitos, datos, diseños, cálculos, software y pruebas para superar fallas sistemáticas.

Otra forma efectiva de lidiar con los problemas de confiabilidad es realizar un análisis que predice la degradación, lo que permite la prevención de fallas/eventos de tiempo de inactividad no programado. Los programas RCM (Reliability Centered Maintenance) se pueden utilizar para esto.

Enfoque basado en la física de la falla

Para los ensamblajes electrónicos, ha habido un cambio cada vez mayor hacia un enfoque diferente llamado física de la falla. Esta técnica se basa en la comprensión de los mecanismos de falla físicos estáticos y dinámicos. Da cuenta de la variación en la carga, la resistencia y el estrés que conducen a fallas con un alto nivel de detalle, hecho posible con el uso de modernos programas de software del método de elementos finitos (FEM) que pueden manejar geometrías complejas y mecanismos como la fluencia, la relajación del estrés., fatiga y diseño probabilístico (Métodos Monte Carlo/DOE). El material o componente se puede rediseñar para reducir la probabilidad de falla y hacerlo más robusto frente a tales variaciones. Otra técnica de diseño común es la reducción de componentes: es decir, seleccionar componentes cuyas especificaciones excedan significativamente los niveles de estrés esperados.

Herramientas y técnicas comunes.

Muchas de las tareas, técnicas y análisis utilizados en la ingeniería de confiabilidad son específicos de industrias y aplicaciones particulares, pero comúnmente pueden incluir:

Los resultados de estos métodos se presentan durante las revisiones del diseño de piezas o sistemas y la logística. La confiabilidad es solo un requisito entre muchos para una pieza o sistema complejo. Los estudios de compensación de ingeniería se utilizan para determinar el equilibrio óptimo entre los requisitos de confiabilidad y otras restricciones.

La importancia del lenguaje

Los ingenieros de confiabilidad, ya sea que utilicen métodos cuantitativos o cualitativos para describir una falla o un peligro, confían en el lenguaje para identificar los riesgos y permitir que se resuelvan los problemas. El lenguaje utilizado debe ayudar a crear una descripción ordenada de la función/elemento/sistema y su entorno complejo en relación con la falla de estas funciones/elementos/sistemas. La ingeniería de sistemas tiene mucho que ver con encontrar las palabras correctas para describir el problema (y los riesgos relacionados), de modo que puedan resolverse fácilmente a través de soluciones de ingeniería. Jack Ring dijo que el trabajo de un ingeniero de sistemas es "lenguaje del proyecto". (Anillo et al. 2000)Para fallas de partes/sistemas, los ingenieros de confiabilidad deben concentrarse más en el "por qué y cómo", en lugar de predecir "cuándo". Comprender "por qué" se ha producido una falla (p. ej., debido a componentes sobrecargados o problemas de fabricación) es mucho más probable que conduzca a una mejora en los diseños y procesos utilizados.que cuantificar "cuándo" es probable que ocurra una falla (por ejemplo, mediante la determinación de MTBF). Para hacer esto, primero se deben clasificar y ordenar los riesgos de confiabilidad relacionados con la pieza/sistema (basándose en alguna forma de lógica cualitativa y cuantitativa si es posible) para permitir una evaluación más eficiente y una posible mejora. Esto se hace en parte en lenguaje puro y lógica de proposiciones, pero también se basa en la experiencia con elementos similares. Esto se puede ver, por ejemplo, en las descripciones de eventos en el análisis del árbol de fallas, el análisis FMEA y los registros de peligros (seguimiento). En este sentido, el lenguaje y la gramática adecuada (parte del análisis cualitativo) juegan un papel importante en la ingeniería de confiabilidad, al igual que en la ingeniería de seguridad o, en general, dentro de la ingeniería de sistemas.

El uso correcto del lenguaje también puede ser clave para identificar o reducir los riesgos de error humano, que a menudo son la causa raíz de muchas fallas. Esto puede incluir instrucciones adecuadas en manuales de mantenimiento, manuales de operación, procedimientos de emergencia y otros para evitar errores humanos sistemáticos que pueden provocar fallas en el sistema. Estos deben ser escritos por autores técnicos capacitados o experimentados utilizando el llamado inglés simplificado o inglés técnico simplificado, donde las palabras y la estructura se eligen y crean específicamente para reducir la ambigüedad o el riesgo de confusión (por ejemplo, un "reemplazar la parte anterior" podría ambiguamente refiérase a cambiar una pieza desgastada por una pieza que no está gastada, o reemplazar una pieza por otra que use un diseño más reciente y, con suerte, mejorado).

Modelado de confiabilidad

El modelado de confiabilidad es el proceso de predecir o comprender la confiabilidad de un componente o sistema antes de su implementación. Dos tipos de análisis que se utilizan a menudo para modelar el comportamiento de disponibilidad de un sistema completo, incluidos los efectos de problemas logísticos como el aprovisionamiento de repuestos, el transporte y la mano de obra, son el análisis de árbol de fallas y los diagramas de bloques de confiabilidad. A nivel de componentes, los mismos tipos de análisis se pueden utilizar junto con otros. La entrada para los modelos puede provenir de muchas fuentes, incluidas las pruebas; experiencia operativa previa; datos de campo; así como manuales de datos de industrias similares o relacionadas. Independientemente de la fuente, todos los datos de entrada del modelo deben usarse con mucha precaución, ya que las predicciones solo son válidas en los casos en que se usó el mismo producto en el mismo contexto. Como tal,

Para las predicciones a nivel de parte, dos campos de investigación separados son comunes:

Teoría de la confiabilidad

La confiabilidad se define como la probabilidad de que un dispositivo realice su función prevista durante un período de tiempo específico en condiciones establecidas. Matemáticamente, esto se puede expresar como,

{displaystyle R(t)=Pr{T>t}=int _{t}^{infty}f(x),dx !}

,

donde f(x)!es la función de densidad de probabilidad de falla y tes la duración del período de tiempo (que se supone que comienza desde el tiempo cero).

Hay algunos elementos clave de esta definición:

  1. La confiabilidad se basa en la "función prevista": en general, esto se entiende como una operación sin fallas. Sin embargo, incluso si ninguna parte individual del sistema falla, pero el sistema en su conjunto no hace lo que se pretendía, entonces todavía se carga contra la confiabilidad del sistema. La especificación de requisitos del sistema es el criterio contra el cual se mide la confiabilidad.
  2. La confiabilidad se aplica a un período de tiempo específico. En términos prácticos, esto significa que un sistema tiene una probabilidad específica de operar sin fallar antes de tiempo T!. La ingeniería de confiabilidad garantiza que los componentes y materiales cumplan con los requisitos durante el tiempo especificado. Tenga en cuenta que a veces se pueden utilizar otras unidades además del tiempo (p. ej., "una misión", "ciclos de operación").
  3. La confiabilidad está restringida a la operación bajo condiciones establecidas (o definidas explícitamente). Esta restricción es necesaria porque es imposible diseñar un sistema para condiciones ilimitadas. Un Mars Rover tendrá diferentes condiciones específicas que un automóvil familiar. El entorno operativo debe abordarse durante el diseño y las pruebas. Es posible que se requiera que el mismo rover opere en condiciones variables que requieran un escrutinio adicional.
  4. Dos referencias notables sobre la teoría de la confiabilidad y sus fundamentos matemáticos y estadísticos son Barlow, RE y Proschan, F. (1982) y Samaniego, FJ (2007).

Parámetros cuantitativos de confiabilidad del sistema—teoría

Los requisitos cuantitativos se especifican utilizando parámetros de fiabilidad. El parámetro de confiabilidad más común es el tiempo medio hasta la falla (MTTF), que también se puede especificar como la tasa de fallas (esto se expresa como una frecuencia o función de densidad de probabilidad condicional (PDF)) o ​​el número de fallas durante un período determinado. Estos parámetros pueden ser útiles para sistemas de nivel superior y sistemas que se utilizan con frecuencia (es decir, vehículos, maquinaria y equipos electrónicos). La confiabilidad aumenta a medida que aumenta el MTTF. El MTTF generalmente se especifica en horas, pero también se puede usar con otras unidades de medida, como millas o ciclos. El uso de valores MTTF en niveles inferiores del sistema puede ser muy engañoso, especialmente si no especifican los modos y mecanismos de falla asociados (la F en MTTF).

En otros casos, la confiabilidad se especifica como la probabilidad de éxito de la misión. Por ejemplo, la confiabilidad de un vuelo programado de una aeronave se puede especificar como una probabilidad adimensional o un porcentaje, como se usa a menudo en la ingeniería de seguridad de sistemas.

Un caso especial de éxito de la misión es el dispositivo o sistema de disparo único. Estos son dispositivos o sistemas que permanecen relativamente inactivos y solo funcionan una vez. Los ejemplos incluyen bolsas de aire para automóviles, baterías térmicas y misiles. La confiabilidad de disparo único se especifica como una probabilidad de éxito único o se subsume en un parámetro relacionado. La confiabilidad del misil de un solo disparo puede especificarse como un requisito para la probabilidad de un impacto. Para tales sistemas, la probabilidad de falla a pedido (PFD) es la medida de confiabilidad; en realidad, se trata de un número de "falta de disponibilidad". El PFD se deriva de la tasa de fallas (una frecuencia de ocurrencia) y el tiempo de misión para sistemas no reparables.

Para sistemas reparables, se obtiene a partir de la tasa de fallas, el tiempo medio de reparación (MTTR) y el intervalo de prueba. Esta medida puede no ser única para un sistema dado ya que esta medida depende del tipo de demanda. Además de los requisitos a nivel del sistema, se pueden especificar requisitos de confiabilidad para subsistemas críticos. En la mayoría de los casos, los parámetros de confiabilidad se especifican con intervalos de confianza estadísticos apropiados.

Pruebas de confiabilidad

El propósito de las pruebas de confiabilidad es descubrir problemas potenciales con el diseño lo antes posible y, en última instancia, brindar confianza de que el sistema cumple con sus requisitos de confiabilidad.

Las pruebas de confiabilidad se pueden realizar en varios niveles y existen diferentes tipos de pruebas. Los sistemas complejos pueden probarse a nivel de componente, placa de circuito, unidad, ensamblaje, subsistema y sistema. (La nomenclatura del nivel de prueba varía según las aplicaciones). Por ejemplo, realizar pruebas de detección de estrés ambiental en niveles más bajos, como piezas o ensamblajes pequeños, detecta problemas antes de que causen fallas en niveles más altos. Las pruebas se realizan durante cada nivel de integración a través de pruebas completas del sistema, pruebas de desarrollo y pruebas operativas, lo que reduce el riesgo del programa. Sin embargo, las pruebas no mitigan el riesgo de falta de confiabilidad.

Con cada prueba, se puede cometer un error estadístico de tipo 1 y tipo 2 y depende del tamaño de la muestra, el tiempo de prueba, las suposiciones y la relación de discriminación necesaria. Existe el riesgo de aceptar incorrectamente un mal diseño (error tipo 1) y el riesgo de rechazar incorrectamente un buen diseño (error tipo 2).

No siempre es factible probar todos los requisitos del sistema. Algunos sistemas son prohibitivamente caros de probar; algunos modos de falla pueden tardar años en observarse; algunas interacciones complejas dan como resultado una gran cantidad de posibles casos de prueba; y algunas pruebas requieren el uso de rangos de prueba limitados u otros recursos. En tales casos, se pueden utilizar diferentes enfoques para las pruebas, como pruebas de vida (altamente) aceleradas, diseño de experimentos y simulaciones.

El nivel deseado de confianza estadística también juega un papel en las pruebas de confiabilidad. La confianza estadística aumenta aumentando el tiempo de prueba o el número de elementos probados. Los planes de prueba de confiabilidad están diseñados para lograr la confiabilidad especificada en el nivel de confianza especificado con la cantidad mínima de unidades de prueba y tiempo de prueba. Diferentes planes de prueba resultan en diferentes niveles de riesgo para el productor y el consumidor. La confiabilidad deseada, la confianza estadística y los niveles de riesgo para cada lado influyen en el plan de prueba final. El cliente y el desarrollador deben acordar de antemano cómo se probarán los requisitos de confiabilidad.

Un aspecto clave de las pruebas de confiabilidad es definir "falla". Aunque esto puede parecer obvio, hay muchas situaciones en las que no está claro si una falla es realmente culpa del sistema. Las variaciones en las condiciones de prueba, las diferencias entre operadores, el clima y las situaciones inesperadas crean diferencias entre el cliente y el desarrollador del sistema. Una estrategia para abordar este problema es utilizar un proceso de conferencia de puntuación. Una conferencia de calificación incluye representantes del cliente, el desarrollador, la organización de prueba, la organización de confiabilidad y, a veces, observadores independientes. El proceso de conferencia de puntuación se define en la declaración de trabajo. Cada caso de prueba es considerado por el grupo y "puntuado" como un éxito o un fracaso. Esta puntuación es el resultado oficial utilizado por el ingeniero de confiabilidad.

Como parte de la fase de requisitos, el ingeniero de confiabilidad desarrolla una estrategia de prueba con el cliente. La estrategia de prueba hace concesiones entre las necesidades de la organización de confiabilidad, que quiere la mayor cantidad de datos posible, y restricciones como el costo, el cronograma y los recursos disponibles. Se desarrollan planes y procedimientos de prueba para cada prueba de confiabilidad y se documentan los resultados.

Las pruebas de confiabilidad son comunes en la industria de la fotónica. Ejemplos de pruebas de confiabilidad de los láseres son la prueba de vida y el quemado. Estas pruebas consisten en el envejecimiento muy acelerado, en condiciones controladas, de un grupo de láseres. Los datos recopilados de estas pruebas de vida útil se utilizan para predecir la vida útil esperada del láser bajo las características operativas previstas.

Requisitos de prueba de confiabilidad

Los requisitos de la prueba de confiabilidad pueden derivarse de cualquier análisis para el cual se deba justificar la primera estimación de probabilidad de falla, modo de falla o efecto. La evidencia se puede generar con cierto nivel de confianza mediante pruebas. Con los sistemas basados ​​en software, la probabilidad es una mezcla de fallas basadas en software y hardware. Probar los requisitos de confiabilidad es problemático por varias razones. Una sola prueba es en la mayoría de los casos insuficiente para generar suficientes datos estadísticos. Las pruebas múltiples o de larga duración suelen ser muy costosas. Algunas pruebas son simplemente poco prácticas y las condiciones ambientales pueden ser difíciles de predecir durante el ciclo de vida de un sistema.

La ingeniería de confiabilidad se utiliza para diseñar un programa de prueba realista y asequible que proporcione evidencia empírica de que el sistema cumple con sus requisitos de confiabilidad. Los niveles de confianza estadística se utilizan para abordar algunas de estas preocupaciones. Un determinado parámetro se expresa junto con un nivel de confianza correspondiente: por ejemplo, un MTBF de 1000 horas con un nivel de confianza del 90 %. A partir de esta especificación, el ingeniero de confiabilidad puede, por ejemplo, diseñar una prueba con criterios explícitos para la cantidad de horas y la cantidad de fallas hasta que se cumpla o falle el requisito. Son posibles diferentes tipos de pruebas.

La combinación del nivel de confiabilidad requerido y el nivel de confianza requerido afecta en gran medida el costo de desarrollo y el riesgo tanto para el cliente como para el productor. Se necesita cuidado para seleccionar la mejor combinación de requisitos, por ejemplo, rentabilidad. Las pruebas de confiabilidad se pueden realizar en varios niveles, como componente, subsistema y sistema. Además, se deben abordar muchos factores durante las pruebas y el funcionamiento, como temperatura y humedad extremas, golpes, vibraciones u otros factores ambientales (como pérdida de señal, enfriamiento o energía; u otras catástrofes como incendios, inundaciones, calor excesivo, daño físico). o violaciones de seguridad u otras innumerables formas de daño o degradación). Para los sistemas que deben durar muchos años, es posible que se necesiten pruebas de vida acelerada.

Pruebas aceleradas

El propósito de la prueba de vida acelerada (prueba ALT) es inducir fallas de campo en el laboratorio a un ritmo mucho más rápido al proporcionar un entorno más duro, pero no obstante representativo. En tal prueba, se espera que el producto falle en el laboratorio de la misma manera que habría fallado en el campo, pero en mucho menos tiempo. El objetivo principal de una prueba acelerada es cualquiera de los siguientes:

Un programa de pruebas aceleradas se puede dividir en los siguientes pasos:

Las formas comunes de determinar una relación de estrés vital son:

Confiabilidad del software

La confiabilidad del software es un aspecto especial de la ingeniería de confiabilidad. La confiabilidad del sistema, por definición, incluye todas las partes del sistema, incluido el hardware, el software, la infraestructura de soporte (incluidas las interfaces externas críticas), los operadores y los procedimientos. Tradicionalmente, la ingeniería de confiabilidad se enfoca en las partes críticas del hardware del sistema. Desde el uso generalizado de la tecnología de circuitos integrados digitales, el software se ha convertido en una parte cada vez más crítica de la mayoría de los dispositivos electrónicos y, por lo tanto, de casi todos los sistemas actuales.

Sin embargo, existen diferencias significativas en cómo se comportan el software y el hardware. La mayor parte de la falta de confiabilidad del hardware es el resultado de una falla de un componente o material que hace que el sistema no realice la función prevista. Reparar o reemplazar el componente de hardware restaura el sistema a su estado operativo original. Sin embargo, el software no falla en el mismo sentido en que falla el hardware. En cambio, la falta de confiabilidad del software es el resultado de resultados imprevistos de las operaciones del software. Incluso los programas de software relativamente pequeños pueden tener combinaciones astronómicamente grandes de entradas y estados que no son factibles de probar exhaustivamente. La restauración del software a su estado original solo funciona hasta que la misma combinación de entradas y estados da como resultado el mismo resultado no deseado. La ingeniería de confiabilidad del software debe tener esto en cuenta.

A pesar de esta diferencia en la fuente de falla entre el software y el hardware, se han propuesto varios modelos de confiabilidad del software basados ​​en estadísticas para cuantificar lo que experimentamos con el software: cuanto más tiempo se ejecuta el software, mayor es la probabilidad de que eventualmente se use en un entorno no probado. manera y exhiben un defecto latente que resulta en una falla (Shooman 1987), (Musa 2005), (Denney 2005).

Al igual que con el hardware, la confiabilidad del software depende de buenos requisitos, diseño e implementación. La ingeniería de confiabilidad del software se basa en gran medida en un proceso de ingeniería de software disciplinado para anticipar y diseñar contra consecuencias no deseadas. Hay más superposición entre la ingeniería de calidad del software y la ingeniería de confiabilidad del software que entre la calidad y la confiabilidad del hardware. Un buen plan de desarrollo de software es un aspecto clave del programa de confiabilidad del software. El plan de desarrollo de software describe los estándares de diseño y codificación, revisiones por pares, pruebas unitarias, gestión de configuración, métricas de software y modelos de software que se utilizarán durante el desarrollo de software.

Una métrica de confiabilidad común es la cantidad de fallas de software, generalmente expresada como fallas por cada mil líneas de código. Esta métrica, junto con el tiempo de ejecución del software, es clave para la mayoría de los modelos y estimaciones de confiabilidad del software. La teoría es que la confiabilidad del software aumenta a medida que disminuye el número de fallas (o la densidad de fallas). Sin embargo, es difícil establecer una conexión directa entre la densidad de fallas y el tiempo medio entre fallas debido a la forma en que las fallas de software se distribuyen en el código, su gravedad y la probabilidad de la combinación de entradas necesarias para encontrar la falla. No obstante, la densidad de fallas sirve como un indicador útil para el ingeniero de confiabilidad. También se utilizan otras métricas de software, como la complejidad. Esta métrica sigue siendo controvertida,

Las pruebas son aún más importantes para el software que para el hardware. Incluso el mejor proceso de desarrollo de software da como resultado algunas fallas de software que son casi imperceptibles hasta que se prueban. Al igual que con el hardware, el software se prueba en varios niveles, comenzando con unidades individuales, a través de la integración y la prueba completa del sistema. A diferencia del hardware, es desaconsejable saltarse niveles de pruebas de software. Durante todas las fases de las pruebas, se descubren, corrigen y vuelven a probar las fallas del software. Las estimaciones de confiabilidad se actualizan en función de la densidad de fallas y otras métricas. A nivel de sistema, los datos de tiempo medio entre fallas se pueden recopilar y usar para estimar la confiabilidad. A diferencia del hardware, realizar exactamente la misma prueba en exactamente la misma configuración de software no proporciona una mayor confianza estadística. En cambio, la confiabilidad del software utiliza diferentes métricas,

Eventualmente, el software se integra con el hardware en el sistema de nivel superior, y la confiabilidad del software se incluye en la confiabilidad del sistema. El modelo de madurez de capacidades del Software Engineering Institute es un medio común para evaluar el proceso general de desarrollo de software con fines de confiabilidad y calidad.

Fiabilidad estructural

La confiabilidad estructural o la confiabilidad de las estructuras es la aplicación de la teoría de la confiabilidad al comportamiento de las estructuras. Se utiliza tanto en el diseño como en el mantenimiento de diferentes tipos de estructuras, incluidas estructuras de hormigón y acero. En los estudios de confiabilidad estructural, tanto las cargas como las resistencias se modelan como variables probabilísticas. Usando este enfoque se calcula la probabilidad de falla de una estructura.

Comparación con la ingeniería de seguridad

La fiabilidad de la seguridad y la fiabilidad de la disponibilidad suelen estar estrechamente relacionadas. La pérdida de disponibilidad de un sistema de ingeniería puede costar dinero. Si un sistema de metro no está disponible, el operador del metro perderá dinero por cada hora que el sistema esté inactivo. El operador del metro perderá más dinero si la seguridad se ve comprometida. La definición de confiabilidad está ligada a la probabilidad de no encontrar una falla. Una falla puede causar pérdida de seguridad, pérdida de disponibilidad o ambas. No es deseable perder seguridad o disponibilidad en un sistema crítico.

La ingeniería de confiabilidad se ocupa de la minimización general de fallas que podrían generar pérdidas financieras para la entidad responsable, mientras que la ingeniería de seguridad se enfoca en minimizar un conjunto específico de tipos de fallas que, en general, podrían provocar la muerte, lesiones o daños al equipo.

Los riesgos de confiabilidad pueden transformarse en incidentes que provoquen una pérdida de ingresos para la empresa o el cliente, por ejemplo debido a costos directos e indirectos asociados con: pérdida de producción debido a la falta de disponibilidad del sistema; demandas altas o bajas inesperadas de repuestos; costos de reparación; horas hombre; rediseños o interrupciones en la producción normal.

La ingeniería de seguridad a menudo es muy específica y se relaciona solo con ciertas industrias, aplicaciones o áreas estrictamente reguladas. Se centra principalmente en los peligros de seguridad del sistema que podrían provocar accidentes graves, incluidos: pérdida de vidas; destrucción de equipos; o daño ambiental. Como tal, los requisitos de confiabilidad funcional del sistema relacionado son a menudo extremadamente altos. Aunque se ocupa de las fallas no deseadas en el mismo sentido que la ingeniería de confiabilidad, sin embargo, se enfoca menos en los costos directos y no se preocupa por las acciones de reparación posteriores a la falla. Otra diferencia es el nivel de impacto de las fallas en la sociedad, lo que conduce a una tendencia a un control estricto por parte de los gobiernos o los organismos reguladores (por ejemplo, industrias nuclear, aeroespacial, de defensa, ferroviaria y petrolera).

Tolerancia a fallos

La seguridad se puede aumentar utilizando un sistema redundante de verificación cruzada 2oo2. La disponibilidad se puede aumentar mediante el uso de redundancia "1oo2" (1 de 2) a nivel de parte o sistema. Si ambos elementos redundantes no están de acuerdo, el elemento más permisivo maximizará la disponibilidad. Nunca se debe confiar en un sistema 1oo2 para la seguridad. Los sistemas tolerantes a fallas a menudo se basan en redundancia adicional (por ejemplo, lógica de votación 2oo3) donde múltiples elementos redundantes deben ponerse de acuerdo sobre una acción potencialmente insegura antes de que se lleve a cabo. Esto aumenta tanto la disponibilidad como la seguridad a nivel del sistema. Esta es una práctica común en los sistemas aeroespaciales que necesitan disponibilidad continua y no tienen un modo a prueba de fallas. Por ejemplo, las aeronaves pueden usar redundancia modular triple para computadoras de vuelo y superficies de control (incluidos ocasionalmente diferentes modos de operación, p.

Confiabilidad básica y confiabilidad de la misión

El ejemplo anterior de un sistema tolerante a fallas 2oo3 aumenta tanto la confiabilidad como la seguridad de la misión. Sin embargo, la fiabilidad "básica" del sistema seguirá siendo en este caso inferior a la de un sistema no redundante (1oo1) o 2oo2. La ingeniería de confiabilidad básica cubre todas las fallas, incluidas aquellas que pueden no resultar en una falla del sistema, pero que generan un costo adicional debido a: acciones de reparación de mantenimiento; logística; piezas de repuesto, etc. Por ejemplo, el reemplazo o la reparación de 1 canal defectuoso en un sistema de votación 2oo3 (el sistema aún está funcionando, aunque con un canal fallido se ha convertido en un sistema 2oo2) está contribuyendo a la falta de confiabilidad básica pero no a la falta de confiabilidad de la misión. Como ejemplo, la falla de la luz trasera de un avión no evitará que el avión vuele (y por lo tanto no se considera una falla de la misión),

Detectabilidad y fallas de causa común

Cuando se utilizan sistemas tolerantes a fallas (redundantes) o sistemas que están equipados con funciones de protección, la detección de fallas y la evitación de fallas de causa común se vuelven primordiales para un funcionamiento seguro y/o confiabilidad de la misión.

Confiabilidad versus calidad (Six Sigma)

La calidad a menudo se centra en los defectos de fabricación durante la fase de garantía. La confiabilidad analiza la intensidad de la falla durante toda la vida útil de un producto o sistema de ingeniería, desde la puesta en servicio hasta el desmantelamiento. Six Sigma tiene sus raíces en el control estadístico de la calidad de la fabricación. La ingeniería de confiabilidad es una parte especializada de la ingeniería de sistemas. El proceso de ingeniería de sistemas es un proceso de descubrimiento que a menudo es diferente a un proceso de fabricación. Un proceso de fabricación a menudo se centra en actividades repetitivas que logran resultados de alta calidad con un costo y tiempo mínimos.

El término de uso cotidiano "calidad de un producto" se entiende vagamente en el sentido de su grado inherente de excelencia. En la industria, se utiliza una definición más precisa de calidad como "conformidad con los requisitos o especificaciones al comienzo del uso". Suponiendo que la especificación del producto final capture adecuadamente los requisitos originales y las necesidades del cliente/sistema, el nivel de calidad se puede medir como la fracción de unidades de producto enviadas que cumplen con las especificaciones. La calidad de los productos manufacturados a menudo se enfoca en la cantidad de reclamos de garantía durante el período de garantía.

La calidad es una instantánea al comienzo de la vida útil durante el período de garantía y está relacionada con el control de las especificaciones del producto de nivel inferior. Esto incluye defectos de tiempo cero, es decir, cuando los errores de fabricación escaparon al control de calidad final. En teoría, el nivel de calidad podría estar descrito por una sola fracción de productos defectuosos. La confiabilidad, como parte de la ingeniería de sistemas, actúa más como una evaluación continua de las tasas de falla durante muchos años. En teoría, todos los elementos fallarán durante un período de tiempo infinito. Los defectos que aparecen con el tiempo se denominan consecuencias de confiabilidad. Para describir las consecuencias de la confiabilidad, se necesita un modelo de probabilidad que describa la fracción de consecuencias a lo largo del tiempo. Esto se conoce como el modelo de distribución de la vida.Algunos de estos problemas de confiabilidad pueden deberse a problemas de diseño inherentes, que pueden existir aunque el producto cumpla con las especificaciones. Incluso los artículos que se producen perfectamente fallarán con el tiempo debido a uno o más mecanismos de falla (por ejemplo, debido a un error humano oa factores mecánicos, eléctricos o químicos). Estos problemas de confiabilidad también pueden verse influenciados por niveles aceptables de variación durante la producción inicial.

La calidad y la fiabilidad están, por tanto, relacionadas con la fabricación. La confiabilidad está más dirigida a los clientes que se enfocan en las fallas durante toda la vida útil del producto, como las fuerzas armadas, las aerolíneas o los ferrocarriles. Los artículos que no se ajustan a las especificaciones del producto generalmente tendrán peores resultados en términos de confiabilidad (tienen un MTTF más bajo), pero esto no siempre tiene que ser el caso. La cuantificación matemática completa (en modelos estadísticos) de esta relación combinada es en general muy difícil o incluso prácticamente imposible. En los casos en que las variaciones de fabricación se pueden reducir de manera efectiva, las herramientas Six Sigma han demostrado ser útiles para encontrar soluciones de proceso óptimas que pueden aumentar la calidad y la confiabilidad.

A diferencia de Six Sigma, las soluciones de ingeniería de confiabilidad generalmente se encuentran enfocándose en las pruebas de confiabilidad y el diseño del sistema. Las soluciones se encuentran de diferentes maneras, por ejemplo, simplificando un sistema para permitir una mayor comprensión de los mecanismos de falla involucrados; realizar cálculos detallados de los niveles de tensión de los materiales que permitan determinar los factores de seguridad adecuados; encontrar posibles condiciones anormales de carga del sistema y usar esto para aumentar la robustez de un diseño a los mecanismos de falla relacionados con la variación de fabricación. Además, la ingeniería de confiabilidad utiliza soluciones a nivel de sistema, como el diseño de sistemas redundantes y tolerantes a fallas para situaciones con necesidades de alta disponibilidad (consulte Ingeniería de confiabilidad versus ingeniería de seguridad más arriba).

Nota: Un "defecto" en la literatura de calidad/seis sigma no es lo mismo que una "falla" (falla de campo | p. ej., elemento fracturado) en confiabilidad. Un defecto de calidad/seis sigma se refiere generalmente a la no conformidad con un requisito (por ejemplo, funcionalidad básica o una dimensión clave). Sin embargo, los elementos pueden fallar con el tiempo, incluso si se cumplen todos estos requisitos. La calidad generalmente no se preocupa por hacer la pregunta crucial "¿son realmente correctos los requisitos?", Mientras que la confiabilidad sí lo es.

Evaluación operativa de confiabilidad

Una vez que se producen los sistemas o las piezas, la ingeniería de confiabilidad intenta monitorear, evaluar y corregir las deficiencias. El monitoreo incluye la vigilancia electrónica y visual de los parámetros críticos identificados durante la etapa de diseño del análisis del árbol de fallas. La recopilación de datos depende en gran medida de la naturaleza del sistema. La mayoría de las grandes organizaciones tienen grupos de control de calidad que recopilan datos de fallas en vehículos, equipos y maquinaria. Las fallas de los productos de consumo a menudo se rastrean por el número de devoluciones. Para los sistemas en almacenamiento inactivo o en espera, es necesario establecer un programa de vigilancia formal para inspeccionar y analizar muestras aleatorias. Cualquier cambio en el sistema, como actualizaciones de campo o reparaciones de recuperación, requiere pruebas de confiabilidad adicionales para garantizar la confiabilidad de la modificación. Dado que no es posible anticipar todos los modos de falla de un sistema dado, especialmente aquellos con un elemento humano, ocurrirán fallas. El programa de confiabilidad también incluye un análisis sistemático de la causa raíz que identifica las relaciones causales involucradas en la falla de modo que se puedan implementar acciones correctivas efectivas. Cuando es posible, las fallas del sistema y las acciones correctivas se informan a la organización de ingeniería de confiabilidad.

Algunos de los métodos más comunes que se aplican a una evaluación operativa de confiabilidad son los sistemas de notificación, análisis y acción correctiva de fallas (FRACAS). Este enfoque sistemático desarrolla una evaluación de confiabilidad, seguridad y logística basada en informes de fallas/incidentes, gestión, análisis y acciones correctivas/preventivas. Las organizaciones de hoy en día están adoptando este método y utilizando sistemas comerciales (como las aplicaciones FRACAS basadas en la Web) que les permiten crear un repositorio de datos de fallas/incidentes del cual se pueden derivar estadísticas para ver métricas precisas y genuinas de confiabilidad, seguridad y calidad.

Es extremadamente importante que una organización adopte un sistema FRACAS común para todos los artículos finales. Además, debería permitir capturar los resultados de las pruebas de una manera práctica. Si no se adopta un sistema integrado fácil de usar (en términos de facilidad de entrada de datos para ingenieros de campo e ingenieros de talleres de reparación) y fácil de mantener, es probable que el programa FRACAS falle.

Algunas de las salidas comunes de un sistema FRACAS incluyen Field MTBF, MTTR, consumo de repuestos, crecimiento de confiabilidad, distribución de fallas/incidentes por tipo, ubicación, número de pieza, número de serie y síntoma.

El uso de datos anteriores para predecir la confiabilidad de nuevos sistemas/elementos comparables puede ser engañoso, ya que la confiabilidad depende del contexto de uso y puede verse afectada por pequeños cambios en el diseño/fabricación.

Organizaciones de confiabilidad

Los sistemas de cualquier complejidad significativa son desarrollados por organizaciones de personas, como una empresa comercial o una agencia gubernamental. La organización de ingeniería de confiabilidad debe ser consistente con la estructura organizacional de la empresa. Para sistemas pequeños no críticos, la ingeniería de confiabilidad puede ser informal. A medida que crece la complejidad, surge la necesidad de una función de confiabilidad formal. Debido a que la confiabilidad es importante para el cliente, el cliente puede incluso especificar ciertos aspectos de la organización de confiabilidad.

Hay varios tipos comunes de organizaciones de confiabilidad. El director del proyecto o el ingeniero jefe puede emplear directamente a uno o más ingenieros de confiabilidad. En organizaciones más grandes, suele haber una organización de garantía de productos o de ingeniería especializada, que puede incluir confiabilidad, mantenibilidad, calidad, seguridad, factores humanos, logística, etc. En tal caso, el ingeniero de confiabilidad informa al gerente de garantía de productos o al gerente de ingeniería especializada..

En algunos casos, una empresa puede desear establecer una organización de confiabilidad independiente. Esto es deseable para garantizar que la confiabilidad del sistema, que a menudo es costosa y requiere mucho tiempo, no se menosprecie indebidamente debido a presiones presupuestarias y de cronograma. En tales casos, el ingeniero de confiabilidad trabaja para el proyecto día a día, pero en realidad es empleado y pagado por una organización separada dentro de la empresa.

Debido a que la ingeniería de confiabilidad es fundamental para el diseño inicial del sistema, se ha vuelto común que los ingenieros de confiabilidad trabajen como parte de un equipo de producto integrado, sin embargo, la organización está estructurada.

Educación

Algunas universidades ofrecen títulos de posgrado en ingeniería de confiabilidad. Otros profesionales de confiabilidad suelen tener un título en física de una universidad o un programa universitario. Muchos programas de ingeniería ofrecen cursos de confiabilidad y algunas universidades tienen programas completos de ingeniería de confiabilidad. Un ingeniero de confiabilidad debe estar registrado como ingeniero profesional por el estado o la provincia por ley, pero no todos los profesionales de confiabilidad son ingenieros. Se requieren ingenieros de confiabilidad en sistemas donde la seguridad pública está en riesgo. Hay muchas conferencias profesionales y programas de capacitación de la industria disponibles para ingenieros de confiabilidad. Existen varias organizaciones profesionales para ingenieros de confiabilidad, incluida la División de confiabilidad de la Sociedad Estadounidense para la Calidad (ASQ-RD),la IEEE Reliability Society, la American Society for Quality (ASQ) y la Society of Reliability Engineers (SRE).

Un grupo de ingenieros ha proporcionado una lista de herramientas útiles para la ingeniería de confiabilidad. Estos incluyen: software PTC Windchill, software RAM Commander, software RelCalc, Military Handbook 217 (Mil-HDBK-217), 217Plus y el manual NAVMAT P-4855-1A. El análisis de fallas y éxitos junto con un proceso de estándares de calidad también proporciona información sistematizada para hacer diseños de ingeniería informados.