Blogia
El rincon de ingenieria de infragon

Ingeniería

genciencia.com - Cosas que probablemente no sabías del metódico, maniático y genial Charles Babbage, el padre de la informática moderna

Cosas que probablemente no sabías del metódico, maniático y genial Charles Babbage, el padre de la informática moderna
 

  • Charles Babbage nació el día de san Esteban de 1791, casi al final del siglo que había comenzado conIsaac Newton. Su casa se situaba en la ribera sur del Támesis en Walworth, Surrey, que por entonces aún era una aldea rural, aunque el Puente de Londres estaba a menos de media hora de paseo. Era hijo de banquero y nieto de orfebres.
  • La primera vez que Babbage empezó a imaginar máquinas futuristas fue a raíz de una visita con su madre al Museo Mecánico de John Merlin, en Hanover Square, que estaba repleto de mecanismos de cuerda y cajas de música, e incluso simulacros de seres vivos: por ejemplo, un cisne metálico inclinaba su cuello para pescar un pez también de metal, movido por palancas y motores ocultos.
  • Tan fascinado quedó con los autómatas de Merlin, que uno de ellos, en particular, acabaría formando parte de su vida. Era una bailarina desnuda que caminaba de puntillas y hacía reverencias. Estaba tallada en plata, y su tamaño era aproximadamente un quinto del natural. Con más de 50 años de edad, Babbage encontraría la bailarina de plata de Merlin en una subasta y la compraría por 35 libras. La situó en un pedestal en su casa, y cubrió su desnudez con elegantes vestidos hechos a medida.
  • A pesar de que ingresó en 1810 en el Trinity College de Cambridge, el reino de Isaac Newton, enseguida quedó decepcionado con el nivel educativo, pues Babbage ya sabía más acerca de las últimas novedades que sus profesores. Por ello leyó mucho por su cuenta, incluso libros extranjeros, pues los conocimientos de los expertos ingleses se le quedaban cortos. En una librería especializada de Londres consiguió, por ejemplo, la Théorie des fonctions analytiques de Lagrange y el Cálculo diferencial e integral de Lacroix.

 

  • Junto a un grupo de amigos fundó el Club del Fantasma, dedicado a reunir pruebas a favor y en contra de los espíritus ocultos.
  • Con el título Observaciones sobre los alborotos de la calle, escribió este tratado en el que estimaba que una cuarta parte de sus capacidades laborales se habían menguado debido a la contaminación acústica de la urbe, y concluía:
Aquellos cuyas mentes están totalmente ociosas acogen la música de la calle con satisfacción, porque llena la vaciedad de su tiempo.
  • También envió una serie de cartas obcecadas y reiterativas al Times proponiendo la creación de unDecreto Babbage que reprimiese cualquier forma de disturbio de la tranquilidad pública. La gente se burló de Babbage y disfrutaba atormentándolo, pagando para que se agolpasen bajo su ventana violinistas, payasos, equilibristas, marionetistas, acróbatas sobre zancos, predicadores fanáticos y hasta falsas bandas de música con instrumentos desafinados.
  • Era un hombre de inmensa curiosidad. Todo era objeto de su investigación, y cultivaba toda clase de aficiones: descifrar jeroglíficos, forzar cerraduras, estudiar los anillos de crecimiento de los troncos… o incluso el funcionamiento del correo. En este particular, Babbage estudió la economía postal para hacer un descubrimiento contraintuitivo: que el coste más importante de los envíos de paquetes de papel venía determinado no ya por el transporte físico, sino por su “verificación” (el cálculo de las distancias y el cobro de las cuotas adecuadas). Babbage, pues, fue el inventor de la moderna idea de las tarifas postales estandarizadas.

Seguimos con las curiosidades sobre Charles Babbage, iniciado en la anterior entrega de esta serie de artículos:

  • Como aficionado a los trenes, también inventó un dispositivo de registro ferroviario que empleaba plumas entintadoras para trazar una serie de curvas sobre hojas de papel de 300 metros de longitud: un híbrido de sismógrafo y velocímetro, que registraba el historial de velocidad del tren y todas las sacudidas que daba éste a lo largo del trayecto.
  • También estaba obsesionado con las fábricas. Hasta el punto de que llegó a afirmar que el mejor lugar para aprender cosas nuevas de los ámbitos de la ciencia y la tecnología, así como la economía y otras disciplinas, eran las fábricas y los talleres. En sus anotaciones registró el siguiente comentario:

 

Los que gozan de tiempo libre difícilmente podrían encontrar una actividad más interesante e instructiva que el estudio de los talleres y fábricas de su propio país, que contienen en su interior una auténtica mina de conocimientos, demasiado desatendidos en general por las clases más acomodadas.
  • La curiosidad inacabable de Babbage, así como su disposición para aprender, le hizo valedor de toda clase de conocimientos que nadie antes había relacionado como él. Probablemente ello le condujo a concebir una máquina que se adelantó un siglo a su tiempo. Algunos de esos conocimientos eclécticos que Babbage adquirió en su deambular por fábricas y talleres los enumera James Gleick en el libro La información:
Se convirtió en todo un experto en la manufactura de los encajes de Nottingham; y también en el uso de la pólvora en las canteras de caliza; en el corte de precisión del vidrio con diamante; y en todos los usos conocidos de maquinaria para producir energía, ahorrar tiempo, y efectuar comunicaciones de señales. Analizó prensas hidráulicas, bombas de aire, contadores de gas, y terrajas. Al final de su gira sabía más que cualquier otra persona en Inglaterra sobre la fabricación de alfileres. Su conocimiento era práctico y metódico. Calculaba que medio kilo de alfileres necesitaba el trabajo de diez hombres y mujeres durante al menos siete horas y media, tensando, enderezando y afilando el alambre, enroscando y cortando las cabezas de los rollos, estañando y blanqueando el producto, y finalmente envolviéndolo. Calculó el coste de cada fase en millonésimas de penique. Y anotó que todo este proceso, una vez perfeccionado, tenía los días contados: un americano había inventado una máquina automática para realizar la misma tarea más deprisa.
  • Bajo esa premisa, la de ahorrar trabajo, concibió una máquina que ahorrara trabajo a nuestro cerebro: la máquina diferencial. El invento de marras estaba diseñado para tabular funciones polinómicas, que son imprescindibles para el desarrollo de las tablas trigonométricas esenciales para navegar. No se pudo construir, entre otras cosas, porque pesaba 15 toneladas y tenía más de 25.000 piezas mecánicas.
  • Babbage comenzó la construcción de su máquina, pero ésta nunca fue terminada. Dos cosas fueron mal. Una era que la fricción y engranajes internos disponibles no eran lo bastante buenos para que los modelos fueran terminados, siendo también las vibraciones un problema constante. La otra fue que Babbage cambiaba incesantemente el diseño de la máquina. El gobierno británico financió inicialmente el proyecto, pero retiró el financiamiento cuando Babbage repetidamente solicitó más dinero mientras que no hacía ningún progreso aparente en la construcción de la máquina. Con todo, de haberse construido en su época, hubiese sido la calculadora mecánica más avanzada del mundo, tanto por su rapidez como su fiabilidad.
  • La idea de la máquina diferencial era tan chocante para la época que incluso Babbage llegó a escribir esta anécdota al respecto:
En dos ocasiones me han preguntado: “Perdone, señor Babbage, si mete usted en la máquina cifras equivocadas, ¿saldrán las respuestas correctas?” En una ocasión me planteó la cuestión un miembro de la Cámara Alta y en otra un miembro de la Cámara Baja. Realmente no soy capaz de entender qué tipo de confusión de ideas pudo inducir a nadie a hacer semejante pregunta.

Pero hubo una persona que sí entendió las implicaciones de la máquina de Babbage. Hasta el punto de que quizá estaba más entusiasmado que el propio Babbage respecto a su construcción. Esa persona era una mujer, la hija del poeta más excéntrico de la época: Lord Byron. Su nombre: Ada Lovelace, la primera programadora informática de la historia. .

Seguimos con las curiosidades de Charles Babbage para hablar de un personaje particularmente influyente en su vida, Ada Byron, la primera programadora de la historia.

  • Y es que la hija de Lord Byron ya había trabajado con Charles Babbage y su Máquina Analítica,escribiendo los primeros algoritmos para computadora (conjuntos de instrucciones definidas y finitas para llevar a cabo una actividad). Pero los conocimientos técnicos de la época no permitían llevar a cabo los planteamientos teóricos de estas dos mentes avanzadas a su época.
  • En el centenario de la muerte de Babbage, sin embargo, el London Science Museum la construyó siguiendo los planos del científico victoriano. La máquina consiguió dar resultados exactos con 33 dígitos en cuestión de segundos. Resulta sin duda emocionante comprobar que el diseño de alguien podría haber revolucionado el mundo de haberse podido plasmar en su época. La reconstrucción de la Máquina Diferencial No.2 ha estado operativa desde 1991.
  • Como prueba de cómo funcionaba la mente de Babbage, y la razón de que le empujaba a creer que una máquina podría codificar el mundo, consideraba que la realidad estaba compuesta por constantes, y él las recolectaba por doquier. Compiló una Tabla de las Constantes de la Clase de Mamíferos: para ello, se dedicó a medir la frecuencia de la respiración y los latidos de cerdos y vacas.

Inventó una metodología estadística con tablas de esperanza de vida para el mundo, por lo demás siniestro, de los seguros de vida. Elaboró una tabla del peso en granos Troy por metro cuadrado de diversos tejidos: batista, calicó, nanquín, muselina, gasa de seda, y “velos de oruga”. Otra tabla ponía de manifiesto la frecuencia relativa de todas las combinaciones de letras dobles en inglés, francés, italiano, alemán, y latín. Investigó, computó y publicó una Tabla de la Frecuencia Relativa de las Causas de que se rompan las Ventanas de Vidrio Plano, enumerando cuatrocientas sesenta y cuatro motivos, de los cuales ni más ni menos que en catorce intervenían “borrachos, mujeres o niños”.

  • Así pues, Babbage fue capaz de concebir un ordenador en una época como la suya porque su cerebro, en parte, funcionaba como un ordenador.
  • En su casa del número 1 de Dorset Street celebraba una velada fija cada sábado que atraía a las personas más brillantes de la época, como Charles DarwinMichael Faraday o Charles Lyell. También asistía Charles Dickens, quien puso algo de Babbage en el personaje de Daniel Doyce en La pequeña Dorrit. Sus charlas eran una mezcla de alta matemática y chistes, tal y como consignó Lyell.
  • Publicó un tratado en el que aplicaba la teoría de las probabilidades a la cuestión teológica de los milagros.

  • Fascinado por su propia celebridad, Babbage guardaba un álbum de recortes de prensa con los pros y los contras en columnas paralelas, del as que obtenía una especie de equilibrio sobre su persona.
  • Incluso se atrevía a replicar con ironía a escritores y poetas, como le sucedió al poeta Lord Tennyson, sugiriéndole una corrección de un dístico suyo que decía: “Cada minuto muere un hombre, / Cada minuto nace otro.”:

 

No necesito indicarle que ese cálculo tendería a mantener la suma total de la población del mundo en un estado de perpetua estabilidad, mientras que es un hecho de todos bien sabido que dicha suma total está en constante aumento. Me tomaría por tanto la libertad de sugerirle que en la próxima edición de su excelente poema el cálculo erróneo al que me refiero sea corregido de la siguiente manera: “A cada momento muere un hombre / y nace otro y una sexta parte”. Podría añadir que la cifra exacta es 1,167, pero naturalmente habrá que hacer alguna concesión a las leyes de la métrica.
  • Charles Babbage también logró resultados notables en criptografía. Rompió la cifra auto llave de Vigenère, así como la cifra mucho más débil que se llama cifrado de Vigenère hoy en día.
  • Fue el primero en señalar que la anchura del anillo de un árbol dependía de la meteorología que había hecho ese año, por lo que sería posible deducir climas pasados estudiando árboles antiguos.
  • Inventó el apartavacas, un aparato que se sujetaba a la parte delantera de las locomotoras de vapor para que las vacas se apartasen de las vías del ferrocarril.
  • Fallecido en Londres en 1871, el autor de su obituario en The Times lo declaró “uno de los pensadores originales más originales y activos”. Un panegirista americano dijo sobre él: “Sentía un gran deseo de investigar las causas de las coas que asombran a las mentes infantiles. Destripaba juguetes para descubrir la manera que tenían de funcionar.

 

 

 

 

genciencia - La revolución del grafeno ya está aquí

La revolución del grafeno ya está aquí
 

 


Es uno de los materiales más finos, flexibles, fuertes y con mayor conductividad que existen. Aunque su estructura se describió hace más de ochenta años, fue aislado por primera vez en 2004 y en él descansa una buena parte del futuro de las sociedades tecnológicas, ya que sus aplicaciones potenciales son enormes. Ahora, y por primera vez, uno de sus descubridores, Kostya Novoselov, (el otro fue Andre Geim y ambos recibieron por ello el Nobel de Física en 2010), traza en la revista Nature una "hoja de ruta del grafeno". O lo que es lo mismo, explica cómo este material bidimensional va a cambiar por completo nuestras vidas.



En su artículo Novoselov explica que el grafeno tiene, por ejemplo, el potencial suficiente para revolucionar (de nuevo) la industria de la telefonía móvil, las telecomunicaciones o la fabricación de chips, pero también para redefinir la forma de elaborar fármacos contra el cáncer.

Uno de los cambios más inmediatos será el de las pantallas táctiles, tan de moda en tablets y smartphones durante los últimos años. Y todo gracias a que posee una extraordinaria flexibilidad mecánica y una resistencia química sin igual, muy superior a la de los materiales que se usan en la actualidad. Según los autores, las primeras pantallas táctiles de grafeno verán la luz en un plazo que va de los tres a los cinco años. 

Pero ese será solo el primer paso. De hecho, el grafeno abrirá toda una nueva era de "dispositivos flexibles". Una revolución tecnológica comparable a la que supuso el paso de las lámparas a los transistores, o de éstos a los circuitos electrónicos. En algo más de una década, los dispositivos electrónicos ya no serán rígidos, como sucede con los actuales, sino elásticos, lo cual les permitirá cambiar de configuración (de forma) y también de funciones según las necesidades de cada momento.

Por ejemplo, el teléfono móvil (o, mejor dicho, dispositivo personal de comunicaciones) del futuro cercano podría ser una especie de lámina de plástico transparente, flexible y desplegable, de forma que podamos, a voluntad, llevarla en el bolsillo o desplegarla varias veces hasta que tenga el tamaño estandar de la pantalla de un ordenador. Cada usuario elegirá si quiere utilizar su dispositivo para habar por teléfono, para ver una película, para trabajar o para compartir documentos con sus contactos. 

En este camino, Novoselov cree los primeros prototipos de "papel electrónico" estarán disponibles en 2015, inaugurando toda una revolución en el campo de la electrónica.
Sin embargo, la capacidad de predecir las fechas de llegada de las diferentes aplicaciones del grafeno tiene sus límites. Y depende, entre otras cosas, de la calidad del grafeno que sería necesaria para convertirlas en realidad. Por ejemplo, los investigadores estiman que el desarrollo de redes de comunicaciones inalámbricas ultraveloces, o de dispositivos ultraprecisos de diagnóstico médico por imagen podrían no estar disponibles hasta finales de la década de 2020, mientras que para los nuevos fármacos contra el cáncer, o la sustitución completa del silicio (por grafeno) habría que esperar hasta 2030.

La razón es que los procedimientos para obtener grafeno son, hoy por hoy, muy complejos. Y se complican más cuanto mayores sean las exigencias de calidad para el nuevo material. En su artículo, los autores también detallan los diferentes métodos actuales de producción del grafeno, mucho mejores de los que ellos mismos utilizaron en 2004. Cada uno de estos métodos produce variedades de grafeno con potenciales diferentes, que van desde la fabricación delos citados "dispositivos flexibles" a las "super baterías", los cristales inteligentes o los escudos electromagnéticos.

En palabras del Novoselov, "el grafeno tiene el potencial de revolucionar muchos aspectos de nuestra vida al mismo tiempo. Algunas aplicaciones podrían aparecer en los próximos años, mientras que otras necesitan aún de muchos años de duro trabajo. Las diferentes aplicaciones requieres diferentes calidades de grafeno y las que usan la calidad más baja serán las primeras en aparecer, seguramente en los próximos años, mientras que las que necesiten las calidades mayores pueden tardar aún décadas".

Sin embargo, y dado que en los últimos año el desarrollo del grafeno (tanto en su fabricación como en sus aplicaciones) ha sido explosivo, "las expectativas con rrspecto al grafeno no dejan de crecer rápidamente".
Para Novoselov, "el grafeno es un cristal único, en el sentido de que, por sí solo, ha usurpado un buen número de propiedades superiores, tanto mecánicas como electrónicas. Lo cual sugiere que se presta plenamente al desarrollo de nuevas aplicaciones, desarrolladas específicamente para este material, en lugar de utilizarlo como sustituto de otros materiales en aplicaciones ya existentes".

"Una cosa es cierta -afirma el investigador- y es que científicos e ingenieros continúan buceando en las posibilidades que ofrece el grafeno y, en ese camino, nacerán muchas más ideas para nuevas aplicaciones".

Por su parte, Volodya Falko, de la Universidad de Lancaster y coautor del estudio (en el que han colaborado también empresas como Texas Instruments, AstraZeneca, BASF o Samsung), sostiene que "con nuestro trabajo, intentamos estimular el conocimiento de ingenieros, innovadores y emprendedores sobre el enorme potencial del grafeno para mejorar las tecnologías existentes y generar nuevos productos".

Grafeno, el material "mágico"

El grafeno es una forma alotrópica del carbono, bidimensional y constituído por una única capa generalmente de celdas hexagonales. Fue descubierto en la década de los 30 del pasado siglo pero se le prestó muy poca atención, ya que se pensaba que era térmicamente inestable. Sin embargo, en 2004 Kostya Novoselov y Andre Geim consiguieron aislarlo a temperatura ambiente. Entre sus muchas cualidades, destacan su flexibilidad, transparencia, elasticidad, dureza (200 veces más que el acero), ligereza (como la fibra de carbono, aunque mucho más flexible) y conductividad (tanto eléctrica como térmica). Además, se calienta mucho menos que otros materiales al transmitir electrones y consume mucho menos (a igualdad de tareas) que el silicio.

Genciencia.com - Los hornos microondas no cocinan ‘de dentro hacia fuera’ Entonces ¿qué parte de la comida se cocina antes?

Los hornos microondas no cocinan ‘de dentro hacia fuera’ Entonces ¿qué parte de la comida se cocina antes?
 

8734x590y590.jpg

Los hornos microondas son un hallazgo que surgió del invento del radar en 1940. En 1945, Percy Spencer, un ingeniero estadounidense que trabajaba en una empresa de sistemas de defensa, Raytheon, estaba construyendo un magnetrón (el dispositivo en el centro del radar que transforma la electricidad en microondas),cuando advirtió que una barra de chocolate que llevaba en el bolsillo se había derretido por completo.

Lo primero que cocinó Spencer en su primer experimento con una caja metálica fueron palomitas de maíz. Lo segundo, un huevo, que explotó.

Los hornos microondas no cocinan la comida directamente, sino que calientan el agua, porque la frecuencia de las microondas es la precisa para excitar sus moléculas. Es esta agua caliente lo que en realidad cuece la comida.

Casi toda la comida contiene agua, pero los microondas no pueden cocinar directamente comida seca como la pasta, el arroz o los cereales.

 

872dx590y590.jpgAdemás, a pesar de lo que se cree, no se cocina de dentro hacia fuera, sino justo al revés. Si el alimento posee la misma consistencia en tu totalidad, el agua más próxima a la superficie absorberá la mayor parte de la energía. Es decir, que cocinar con un horno microondas se parece, en este sentido, a cocinar con un horno convencional, excepto porque las microondas penetran antes y en mayor profundidad.

Entonces ¿por qué parece que muchas veces el interior del alimento se cocina antes que el exterior?Por ejemplo, ocurre con las patatas asadas o los pasteles de manzana. La razón es que son más secos en el exterior que en el interior; por lo tanto, el centro más húmedo estará más caliente que la piel o la corteza exterior.

Vía | NeoTeo

 

Blog de ingenieria - A construcción las primeras 100 unidades del Terrafugia Transition

A construcción las primeras 100 unidades del Terrafugia Transition
  

 

Terrafugia Transition

En las películas de ciencia-ficción de finales del siglo pasado era muy común ver autos voladores, lo que a muchos nos hacía pensar que para inicios de este nuevo milenio serían una realidad tangible. Con el correr de la década del 2000 nos fuimos dando cuenta que quizá tardaríamos un poco más en ver autos  voladores por las ciudades del mundo. Sin embargo, parece que la espera está terminando.

Hace apenas unos ochos meses que el Departamento de Transporte de Estados Unidos le dio autorización al concepto de auto volador Terrafugia Transition para circular por la vía púbica, después de realizar una serie de pruebas, lo cual le brindó un nuevo aire al proyecto que fue presentado desde 2008, pero que por diversos motivos sufrió varios retrasos que pusieron en peligro que se llevara a cabo.

Terrafugia Transition

El Terrafugia Transition es considerada por la Administración de Seguridad Vial de aquel país como unaaeronave deportiva ligera, la cual ha tenido que sufrir varios rediseños para adaptarse a las normativas vigentes y también mejorar su desempeño. Este vehículo  tiene aún mucho camino por delante para convertirse en un vehículo de producción masiva, pero lo cierto es que ya ha comenzado a recorrer dicho camino.

Gracias a que la empresa mejoró su imagen publicitaria ha conseguido en financiamiento adecuado para llevar a producción a su híbrido, para lo cual se construirán las primeras 100 unidades que estarán disponibles para finales de este año; aunque claro está que no podía faltar su presentación oficial, la cual ocurrirá durante elSalón del Automóvil Internacional de  Nueva York.

El Terrafugia solo puede transportar un máximo de 150 kilogramos, incluyendo el peso de los dos pasajeros. Enmodo automóvil alcanzará la nada envidiable velocidad de 105 km/h; pero lo bueno viene en su modo avión, donde alcanzará 185 km/h de velocidad y dispondrá de una autonomía de 787 kilómetros gracias a ss tanque de 87 litros de capacidad de gasolina sin plomo.

Para aquel que va a apartar uno de los primeros cien deberá deshacerse de unos 279,000 dólares, que pues bueno, para aquellos que lo puedan pagar y gusten de ser pioneros en probar tecnologías seguro que no habrá ningún problema; los demás tendremos que esperarnos algunas décadas a que se abaraten los costos.

Vía: Design Boomm  

Infografía: entre el pasado y el futuro del caza MiG de Blog ingeniería de Olmo Axayacatl

 

Caza MiG

Caza MiG | Fotografía de Estrella Roja

Los aviones caza de la serie MiG nacieron de la mano de los ingenieros especializados en diseño de aviones de combate de la Oficina de Diseño Mikoyán y Gurévich. Actualmente y desde 2006 es una división de la Russian Aircraft Corporation, ya que el gobierno ruso la fusionó con un nutrido grupo de empresas del sector aeronáutico de Rusia.

Los MiG son diseñados en el Centro de Ingeniería de AI Mikoyán Design Bureau, en donde trabajan en desarrollar la fiabilidad, el desempeño y la sencillez de funcionamiento de aeronaves de alto desempeño. Una vez realizadas las pruebas y aprobado el diseño, la construcción se realiza en tres centros de fabricación que operan de manera individual pero en estrecha colaboración y que están en Moscú, Lujovitsy y Tver.

Caza MiG, su pasado y su futuro

Caza MiG, su pasado y su futuro | Fotografía de RIAN

La división fue fundada en 1939 por el armenio Artiom Ivánovich Mikoyán y el ruso Mijaíl Iósifovich Gurévich, y es de Mikoyán y Gurévich de donde proviene el nombre dado a los cazas MiG. Actualmente la Russian Aircraft Corporation es la empresa líder de la industria de la aviación rusa y cumple con el marco legal de los requisitos internacionales para asegurar la calidad se los elementos que componen su aeronaves.

Todos y cada uno de sus procesos son supervisados bajo estrictas normas de construcción, desde el desarrollo del concepto inicial y el diseño de detalle, la fabricación de prototipos y sus pruebas, la comercialización, planificación previa a la producción y la producción en serie, hasta el soporte técnico durante la operación, modernización, así como la capacitación del personal de vuelo, técnicos e ingenieros.

La infografía mostrada nos brinda algunos datos interesantes de estos aviones tan emblemáticos, como que se han construido 60,000 cazas MiG en 70 años; además de presentarnos a los MiG más famosos de la historia y algunos de sus detalles básicos. Sin duda una excelente infografía para aquellos apasionados de la aviación.

Vía: RIAN

Feliz Año 2012

Ya es año nuevo en varias partes del mundo, que este venidero año les cubra de bendiciones y cosas buenas, que los retos y las metas alcanzadas abunden, que los logros de la ingenieria nos sorprendan, que nos abismen las posibilidades de todo lo que podamos aplicar de esos descubimientos, que cosas tan abstractas y fantasticas como la energía de punto cero, antimateria, la matería obscura sirvan para mejorar las condiciones de vida de la humanidad.

Que logremos comenzar a trazar la ruta para cruzar el camino hacia las estrellas sean con agujeros de gusanos o a través de la teletransportación, pero que llevemos la causa de la justicia y el bien común a donde quiera que empredamos nuestra travesia.

Pero sobre todo que encontremos como aprovechar mejor los recursos naturales de nuestro mundo y como reducir el impacto de nuestra presencia y nuestra industria, que esta nave-mundo que habitamos nos sirva como base para la conquista del universo.

Feliz Año.

Msc Francisco González

Webmaster.

¿Los robots nos desplazaran de nuestros trabajos? y 1 mas | Blog ingenieria

¿Los robots nos desplazarán de nuestros trabajos? y 1 más | Blog ingeniería 

 

¿Los robots nos desplazarán de nuestros trabajos?

Posted: 05 Dec 2011 11:47 AM PST

¿Seremos desplazados por los robots?

¿Seguiremos siendo los “amos” en un futuro? | Fotografía de mightyohm

El debate sobre este tema no ha hecho más que empezar, apenas y se pueden encontrar posiciones al respecto en la web, lo cierto es que con cada avance que se da en el campo de la robótica estamos más cerca de comenzar las discusiones masivas al respecto. Creo fervientemente que en general somos una raza que actúa hasta que se siente amenazada, es difícil para nosotros preveer ciertos peligros y hasta que ya son inminentes tratamos de encontrar soluciones.

Hablando de avances en la robótica, estos se han empezado a dar cada vez con mayor frecuencia, estamos ante robots queescalan paredes lisas, incluso ya son capaces de vencernos resolviendo el tan famoso Cubo de Rubik, otros ya incluso practican deportes un tanto más físicos como el hockey. A diferencia de otras ramas de la ingeniería, como es el caso de lamecánica, que lleva siglos de desarrollo, en la robótica estamos hablando de décadas.

Hoy juguetes... ¿mañana?

Hoy juguetes… ¿mañana? | Fotografía de stephendann

Mi opinión es que si, los robots nos desplazarán tarde o temprano de industrias completas, de hecho, no es nada de lo que nos debamos sorprender pues es algo que ya se esta dando en la armadoras automotrices, donde un gran número de robots son los encargados de ensamblaje de los autos, y donde las personas ya solo son requeridas para cuestiones de detalles.

El hecho es que todas las tareas repetitivas, tediosas y peligrosas serás realizadas por las máquinas, lo que nos orillará a dedicarnos a cuestiones creativas, aspecto donde los cacharros no nos superan, y espero de verdad que no lo hagan hasta dentro de un buen tiempo, no porque este en contra del desarrollo tecnológico sino porque como sociedad aún no estamos preparado para ello.

También se requerirá personal capacitado para brindar soporte técnico cuando las máquinas fallen; los programadores también tienen el sustento asegurado y en general todos aquellos que se enfoquen en cuestiones tecnológicas específicas que requieran pensar, ofrecer ideas frescas y soluciones a problemas complejos.

El problema serán quienes no entran en esta descripción, que implica la totalidad de la base obrera, por lo que invito a comenzar a reflexionar sobre el futuro y posibles soluciones, aunque tengo por seguro que detener el progreso no es una de ellas. Déjanos tu opinión en los comentarios.

Nuevo material supernegro desarrollado por la NASA.

Posted: 05 Dec 2011 11:41 AM PST

Corte donde se muestran las hileras de nanotubos

Corte donde se muestran las hileras de nanotubos | Fotografía de NASA

El término oscuridad tendrá a partir de ahora un significado aún más profundo, pues ingenieros de la NASA han producido un material capaz de absorber el 99% de la luz que incide sobre él, lo que incluye además del espectro visible (detectable por los seres humanos) las longitudes de onda ultravioleta, infrarrojo e infrarrojo lejano, detectables solo con ayuda de sofisticados aparatos.

Pero ¿qué implica este desarrollo? De principio podrá ser aplicable en cuestiones de tecnología espacial. Actualmente en la mayoría de instrumentos utilizados para la investigación del espacio se suele utilizar pintura negra, que tiene solo un 90% de absorción y se vuelve plateada debido a las bajas temperaturas.

Según John Hagopian, líder del equipo, las pruebas de reflectancia indican que se ha extendido en 50 veces el rango de capacidad de absorción del material, llegando a ser casi perfecta desde el ultravioleta hasta el infrarrojo. Siendo específicos el material absorbe el 98.0% de las longitudes de onda comprendidas entre el infrarrojo e infrarrojo lejano, mientras que en el espectro de luz ultravioleta y visible alcanza casi la perfección, con 99.5%.

Acercamiento a la superficie del material

Acercamiento a la superficie del material | Fotografía de NASA

El material mencionado esta compuesto por nanotubos de carbono acomodados en hileras fibrosas verticales, las cuales tienen el impresionante grosor de 10,000 veces más delgadas que un cabello humano. El proceso para obtenerlo es algo complejo e implica calentar a 750ºC una serie de elementos como silicio, titanio y acero inoxidable principalmente, que son muy usados para construir aparatos de medición que se mandan al espacio debido a su gran estabilidad.

La forma en que este material funciona es atrapando la luz en los pequeños espacios que existen entre los nanotubos. Para darnos una idea de su textura podríamos imaginar una especie de alfombra peluda de tamaño microscópico, es decir, una superficie completamente rugosa que evita que al chocar la luz esta pueda rebotar como ocurre con las superficies lisas.

Ahora con la implementación de este nuevo material las mediciones que se realicen podrán ver incrementada su precisión, pues junto con la completa absorción de luz el material también es capaz de disipar calor, por lo que los instrumentos tendrán un mejor rendimiento.

Vía:  NASA

Ingeniería de Confiabilidad; Pilar Fundamental del Mantenimiento por Medardo Yañez, Reliability and Risk Management S.A

Ingeniería de Confiabilidad; Pilar Fundamental del Mantenimiento

Este trabajo se enfoca en el “Diagnóstico proactivo e integrado de equipos, procesos y/o sistemas”, como la base fundamental del mantenimiento.

Se define “Diagnóstico proactivo e integrado” como un proceso que busca caracterizar el estado actual y predecir el comportamiento futuro de equipos, sistemas y/o procesos, mediante el análisis del historial de fallas, los datos de condición y datos técnicos, con la finalidad de identificar las acciones correctivas y proactivas que puedan efectivamente optimizar costos a través de la sistemática reducción de la ocurrencia de fallas y eventos no deseados, y minimizar en consecuencia, su impacto en el negocio medular. Adicionalmente, se destaca a la Ingeniería de Confiabilidad como el marco teórico-conceptual en el que conviven las metodologías y técnicas para lograr este fin; y adicionalmente se define Confiabilidad Operacional como un proceso de mejora continua, que incorpora, en forma sistemática, avanzadas herramientas de diagnóstico, metodologías basadas en confiabilidad y el uso de nuevas tecnologías, en la búsqueda de optimizar la planificación y la toma de decisiones. “Ingeniería de Confiabilidad; porque una de las mejores formas para agregar valor; es evitar que se destruya” [1] 

1.- Modelos de Decisión en Mantenimiento

En años recientes, grandes corporaciones especialmente del sector de hidrocarburos y de la industria de procesos, han volcado su atención hacia el modelo de decisión “Costo Riesgo”, debido a que el mismo permite comparar el costo asociado a una acción de mantenimiento contra el nivel de reducción de riesgo o mejora en el desempeño debido a dicha acción.; en otras palabras, el modelo permite saber “cuanto obtengo por lo que gasto”. 

El análisis “Costo-Riesgo” resulta particularmente útil para decidir en escenarios con intereses en conflicto, como el escenario “Operación – Mantenimiento”, en el cual el operador requiere que el equipo o proceso opere en forma continua para garantizar máxima producción, y simultáneamente, el mantenedor requiere que el proceso se detenga con cierta frecuencia para poder mantener y ganar confiabilidad en el mismo. El modelo Costo-Riesgo es el indicado para resolver el conflicto previamente mencionado, dado que permite determinar el nivel óptimo de riesgo y la cantidad adecuada de mantenimiento, para obtener el máximo beneficio o mínimo impacto en el negocio.[2]

La figura 1 muestra gráficamente el modelo mencionado, y en el mismo pueden destacarse tres curvas que varían en el tiempo:

- La curva del nivel de riesgo (riesgo = probabilidad de falla x consecuencia), asociado a diferentes periodos de tiempo o frecuencias de mantenimiento

.- La curva de los costos de mantenimiento, en la cual se simulan los costos de diferentes frecuencias para la acción de mantenimiento propuesta

ingenieria_1sm

Para ampliar la imagen haga clic sobre ella, regrese utilizando su navegador.

La curva de impacto total, que resulta de la suma punto a punto de la curva de riesgos y la curva de los costos de mantenimiento. El “mínimo” de esta curva, representa la frecuencia para la cual la suma de los costos de la política de mantenimiento con el nivel de riesgo asociado a esta política son mínimos; es decir hay el “mínimo impacto posible en el negocio” Este mínimo esta ubicado sobre el valor que puede traducirse como el periodo o frecuencia óptima para la realización de la actividad de mantenimiento. Un desplazamiento hacia la derecha de este punto implicaría “asumir mucho riesgo” y un desplazamiento hacia la izquierda del mismo implicaría “gastar demasiado dinero”.

La dificultad para el uso del modelo, se centra en la estimación o modelaje de la curva del riesgo, ya que la misma requiere la estimación de la probabilidad de falla (y su variación con el tiempo), y las consecuencias En la próxima sección, se detallan las herramientas para lograr el correcto modelaje y estimación del riesgo.

2.- Riesgo, un indicador para el Diagnóstico Integrado

El riesgo R(t), base fundamental del modelo de decisión descrito en la sección anterior, es un término de naturaleza probabilística, que se define como “egresos o pérdidas probables consecuencia de la probable ocurrencia de un evento no deseado o falla”, y comúnmente se expresa en unidades monetarias, (Bs. o $).[1],[3]. Matemáticamente, el riesgo se calcula con la siguiente ecuación:

Riesgo(t)=Probabilidad de Falla(t) x Consecuencias

El análisis de la ecuación del riesgo, permite entender el poder de este indicador para el diagnóstico y la toma de decisiones, debido a que el mismo combina probabilidades o frecuencias de fallas con consecuencias, permitiendo la comparación de unidades como los equipos rotativos, que normalmente presentan alta frecuencia de fallas con bajas consecuencias, con equipos estáticos, que normalmente presentan patrones de baja frecuencia de fallas y alta consecuencia.

La figura 2, refleja gráficamente lo expresado en el párrafo anterior

ingenieria_2s

Para ampliar la imagen haga clic sobre ella, regrese utilizando su navegador.

El riesgo, se comporta como una balanza, que permite pesar la influencia de ambas magnitudes (Probabilidad de Falla y Consecuencia de la Falla) en una decisión particular.

El mantenimiento moderno, sustentado en la Ingeniería de Confiabilidad, requiere de un cuidadoso proceso de diagnóstico de equipos y sistemas. El diagnóstico, basado en el “riesgo”, puede entenderse entonces como un proceso que busca caracterizar el estado actual y predecir el comportamiento futuro de equipos y sistemas.

Para el logro de un diagnóstico integrado, el riesgo debe calcularse usando toda la información disponible; es decir, debe incluir el análisis del historial de fallas, los datos de condición y datos técnicos. De esta forma, se podrán identificar las acciones correctivas y proactivas que puedan efectivamente optimizar costos y minimizar su impacto en el negocio medular.

La figura 3, muestra el proceso de “Diagnóstico Integrado”

ingenieria_3s

Para ampliar la imagen haga clic sobre ella, regrese utilizando su navegador.

Entendiendo entonces que el “riesgo” es el indicador para un diagnóstico integrado, se analizará a continuación en detalle, el proceso para estimarlo.

3.- Estimación de Riesgo

Como se mencionó en el punto 2, el cálculo del riesgo, involucra la estimación de la Probabilidad de Fallas y/o la Confiabilidad, (Confiabilidad = 1 – Probabilidad de Fallas), y de las Consecuencias. La figura 4 muestra la descomposición del indicador “riesgo” en sus componentes fundamentales. En ella se muestra claramente que para calcular riesgo, deben establecerse dos (2) vías, una para el calculo de la confiabilidad y/o la probabilidad de fallas, en base a la historia de fallas o en base a la condición; y otra para el cálculo de las consecuencias.

ingenieria_4s

Para ampliar la imagen haga clic sobre ella, regrese utilizando su navegador.

3.1.- Estimación de la Probabilidad de Fallas y/o la Confiabilidad.

Para la estimación de la confiabilidad o la probabilidad de fallas, existen dos métodos que dependen del tipo de data disponible; estos son:

  • Estimación Basada en Datos de Condición, altamente recomendable para equipos estáticos, que presentan patrones de “baja frecuencia de fallas” y por ende no se tiene un “historial de fallas” que permita algún tipo de análisis estadístico.
  • Estimación Basada en el Historial de Fallas: recomendable para equipos dinámicos, los cuales por su alta frecuencia de fallas, normalmente permiten el almacenamiento de un historial de fallas que hace posible el análisis estadístico.

3.1.1.- Estimación de Confiabilidad Basada en Condición

El análisis tradicional de confiabilidad, basado en el análisis estadístico del tiempo para la falla, ha sido exitosamente utilizado para mejorar el mantenimiento preventivo y traer los equipos y sistemas hasta los actuales niveles de desempeño. Sin embargo, buscando la mejora continua de sus procesos, en las tres últimas décadas, algunas industrias han hecho grandes esfuerzos en la recolección de data diferente a la data de falla, a través de programas de monitoreo de la condición (mantenimiento predictivo) con la finalidad de optimizar las frecuencias de mantenimiento de sus equipos y tomar acciones proactivas para evitar la ocurrencia de la falla.

La mencionada data de condición, ha sido usada principalmente en forma determinística, es decir, para hacer diagnósticos puntuales, debido a la falta de una adecuada metodología de análisis probabilística. En esta sección se establecen las bases conceptuales para el cálculo de confiabilidad y probabilidad de falla de equipos basado en la data de condición. La columna vertebral de este método es el análisis Carga-Resistencia [1].

a. Análisis Carga-Resistencia

El análisis Carga-Resistencia tiene como premisa el hecho de que las fallas son el resultado de una situación donde la carga aplicada excede la resistencia. Carga y Resistencia son usados en el sentido más amplio de la palabra; es decir, la carga pudiera ser la presión de operación, mientras la máxima presión de operación permisible sería la resistencia. Similar análisis se hace para cualquier otro parámetro relevante de la condición como vibración para equipos dinámicos, o reducción de espesor para el caso de equipos estáticos.

En todos los casos existirá un valor actual de la condición que se monitorea, el cual representará la carga, y un valor límite de la condición que representara la resistencia. Esta última normalmente esta regulada por normas y estándares de la ingeniería.

Contrario a la creencia general, en la mayoría de los casos ni la carga ni la resistencia son valores fijos, por el contrario, sus valores son estadísticamente distribuidos. Cada distribución tiene su valor medio, denotado por μY para la carga y μX para la resistencia y sus desviaciones estándar σY y σX respectivamente. Esto es ilustrado en la figura 5.

ingenieria_5

Cuando la distribución de la condición medida o monitoreada en el equipo tiene algún solape con la distribución de la condición límite o criterio de rechazo, en ese momento existe probabilidad de falla. Esta situación es mostrada en la figura 6.

ingenieria_6

La confiabilidad de un elemento bajo la aplicación de una carga es la probabilidad de que su resistencia exceda la carga. Dicha confiabilidad puede calcularse con la siguiente expresión: Confiabilidad = Probabilidad (Resistencia>Carga) [1],[5],[8],[9],[10]

ingenieria_7

Donde μY y μX son las medias de las distribuciones de la resistencia o criterio límite y el esfuerzo o condición monitoreada respectivamente, y σY y σX las respectivas desviaciones estándar.

NOTA: El operador “Φ”, indica que con el resultado obtenido de la ecuación entre paréntesis, debe buscarse el valor de probabilidad correspondiente en una tabla de la distribución normal

b. Estimación de la confiabilidad basada en la condición

Un parámetro de condición (PC) es cualquier variable física que revele información acerca de las características de desempeño de un equipo o componente. Un Parámetro Relevante de Condición (PRC) es un parámetro cuyo valor numérico caracteriza y cuantifica la condición de un equipo o componente en cualquier instante de su vida operativa.

Para que un PC sea un PRC, debe cumplir con los siguientes requisitos:

  • Caracterizar la condición del equipo.
  • Ajustar su valor continuamente durante su vida operativa.
  • Describir numéricamente la condición del equipo o componente.

Un buen ejemplo de un PRC es el espesor de pared “E”, el cual es comúnmente usado en la industria petrolera para caracterizar el proceso de deterioro debido al fenómeno Erosión-Corrosión en tuberías en general y en algunos recipientes a presión. Otros PRC famosos en la industria del gas y del petróleo son:

  • Nivel de Vibración (Equipos Dinámicos)
  • Partículas Metálicas disueltas en el aceite (Equipos Dinámicos)
  • Velocidad de Declinación (Pozos y Yacimientos)
  • Presion Estática de Fondo (Yacimientos)

3.1.2 Predicción del Número de Fallas Basado en el Historial de Fallas

En este punto, se presenta la metodología y la plataforma matemática para predecir la disponibilidad en sistemas reparables, a través del tratamiento estadístico de su historial de fallas y reparaciones. En otras palabras, los equipos son caracterizados usando su distribución probabilística del “tiempo para fallar” y el “tiempo para reparar”.

Este tipo de análisis es particularmente valioso para equipos dinámicos, los cuales tienen una frecuencia de falla relativamente alta. Normalmente, la data de fallas y reparaciones está disponible.

Para equipos reparables existen cinco posibles estados en los que ellos pueden quedar, una vez reparados después de una falla:

  1. Tan bueno como nuevo
  2. Tan malo como antes de fallar.
  3. Mejor que antes de fallar pero peor que cuando estaba nuevo.
  4. Mejor que nuevo.
  5. Peor que antes de fallar.

Los modelos probabilísticos tradicionalmente usados en análisis de confiabilidad, se basan en los estados 1 y 2 (estados límites), sin tomar en cuenta los estados 3, 4 y 5 a pesar de que el estado 3 es más realista en la práctica. La razón para esto radica en la dificultad de desarrollar una solución matemática para modelar este estado.[3],[6]

Este trabajo muestra el modelo probabilístico desarrollado, el cual se denomina “Proceso Generalizado de Restauración” (PGR) [3],[6]. Este modelo elimina las limitaciones antes mencionadas porque toma en cuenta todos los posibles estados de un equipo después de una reparación. Esto da como resultado una nueva plataforma conceptual para análisis de confiabilidad en equipos reparables, la cual se ajusta en mayor grado a lo que sucede en la realidad, eliminando las desviaciones derivadas del uso de los análisis tradicionales, especialmente en cuanto a la predicción del número esperado de fallas y el tiempo para la próxima falla.

Formulación Matemática del PGR:

Las ecuaciones básicas del PGR tienen su base en distribuciones probabilísticas de Weibull condicionales [3], y son las siguientes:

ingenieria_8

A partir de estas ecuaciones básicas y de la data de fallas [(ti)=tiempos de operación entre fallas sucesivas] se calculan los parámetros “α”, “β” y “q”, cuyo significado es:

α : ”parámetro de escala”

β : ”parámetro de forma”

q : ”parámetro de efectividad de la reparación ”. Este parámetro puede interpretarse, según su valor, de la siguiente forma:

q = 0 tan bueno como nuevo

0 < q < 1 mejor que como estaba , pero peor que cuando era nuevo

q = 1 tan malo como estaba

q < 0 mejor que nuevo

q > 1 peor que como estaba

Para obtener los parámetros con este método existen dos alternativas[3] dependiendo del momento de ejecución del análisis.

a. Método de estimación de la Máxima Probabilidad de Ocurrencia (MPO), para aquellos casos en los cuales hay suficiente data disponible para el ciclo en análisis.

b. Teorema de Bayes para aquellos casos en los que no hay suficiente data disponible del ciclo en análisis.

Una vez estimados los parámetros de PGR es posible predecir el número esperado de fallas Λ(t), usando un proceso iterativo basado en simulación de Montecarlo [3],[6]. El diagrama de flujo para este proceso iterativo se muestra en la figura 7.

ingenieria_9

Los resultados de las estimaciones hechas con el PGR son mucho más certeros que las predicciones tradicionales. Como puede observarse en la figura 7.1, se generaron tres líneas de predicción basados en el 25% de los datos de fallas (puntos de falla encerrados con un cuadro) usando las tres teorías de predicción del numero de fallas:

  • Proceso de Renovación Ordinario, basada en la asunción de un estado “tan bueno como nuevo” después de la reparación.
  • Proceso No Homogéneo de Poisson, basada en la asunción de un estado “tan malo como estaba” después de la reparación.
  • Proceso Generalizado de Restauración (PGR) que considera estados intermedios.

De las tres, solo la correspondiente al PGR coincide con gran precisión con las fallas que ocurrieron subsecuentemente.

ingenieria_10

4.- Estimación de Consecuencias.

En esta sección se presenta una metodología para estimar las consecuencias totales que resultan de la falla de un equipo y/o sistema. El modelo básico que soporta el trabajo aquí propuesto es el de “Impacto Total en el Negocio” desarrollado por John Woodhouse [2].

Modelo Propuesto:

El modelo divide las consecuencias asociadas con una falla particular en cuatro grandes categorías: Pérdidas de producción, costos de reparación, impacto ambiental e impacto en seguridad.

a. Pérdida de Producción:

En este paso, las pérdidas de producción debido a tiempo fuera de servicio son estimadas usando la siguiente ecuación: PERDIDA DE PRODUCCIÓN = PP * RF * TTR

Donde PP es el precio del producto ($/Unid), RF es la reducción de flujo (Unid/Hr) y TTR, el tiempo para reparar (Hrs). La variabilidad del costo del producto se incluye con la asunción de una distribución normal.

Reducción de flujo: La reducción puede ser total o parcial, dependiendo de otros factores tales como diseño, redundancias, cargas compartidas o stand by y/o severidad de la falla (critica o degradación). Para representar todos los posibles valores de esta reducción se definió una distribución normal.

Tiempo de reparación: En lo que respecta al tiempo de reparación, es su valor promedio (MTTR) el considerado para representar la distribución de esta variable.

b. Costos de reparación: La distribución de los costos de reparación debe incluir el espectro de todos los posibles costos, los cuales varían dependiendo de la severidad de la falla. Durante los ciclos de vida (tiempo entre overhauls), estos costos tienden hacia una distribución normal.

c. Impacto Ambiental e Impacto en Seguridad: Las distribuciones de estos impactos, en la mayoría de los casos, son difíciles de construir, pues no es fácil encontrar datos y fundamentalmente requieren ser construidas en base a la opinión de expertos.

ingenieria_11

5.- El Diagnóstico Integral en el Proceso de Confiabilidad

Como se ha estado describiendo en este trabajo, el diagnostico integral es un proceso que implica el uso de avanzadas técnicas de cálculo para predecir fallas y eventos no deseados e inferir sus consecuencias; es decir permite estimar el riesgo siguiendo el esquema de la figura 4 y también permite el uso de modelos de decisión como el Modelo Costo Riesgo explicado en el punto 1.

Hasta este punto, se han descrito brevemente las técnicas de la Ingeniería de Confiabilidad que permiten hacer estos cálculos.

El proceso conocido como “Confiabilidad Operacional”; es un enfoque metodológico donde el diagnóstico integrado se combina con otras metodologías tradicionales del área de confiabilidad, tales como: Análisis de Modos y Efectos de Fallas, Análisis Causa Raíz e Inspección Basada en Riesgo, entre otras; con la finalidad de:

  • Inferir probabilísticamente todos los escenarios de producción factibles, a través de la predicción de los periodos de operación normal y de ocurrencia de eventos o escenarios no deseados, basados la configuración de los sistemas, la confiabilidad de sus componentes y la filosofía de mantenimiento
  • Identificar acciones concretas para minimizar y/o mitigar la ocurrencia de estas fallas o eventos no deseados y llevar el riesgo a niveles tolerables
  • Explorar las implicaciones económicas de cada escenario de riesgo posible y diseñar planes y estrategias óptimas para el manejo del negocio.

La figura 9, muestra el esquema de integración del Diagnostico Integrado con otras metodologías en el enfoque de Confiabilidad Operacional.

ingenieria_12

Conclusiones

1. La metodología de diagnóstico propuesta, basada en la estimación del riesgo, integra herramientas reconocidas de la Ingeniería de Confiabilidad, en una sola plataforma que permite:

  • Realizar diagnósticos integrales sustentados en toda la información disponible de un equipo (data histórica, data de condición y data técnica).
  • Hacer seguimiento al estatus de confiabilidad y riesgo de los equipos, subsistemas y sistemas con la finalidad de tomar las decisiones correctas en el momento adecuado.
  • Comparar el costo asociado a una acción de mantenimiento contra el nivel de reducción de riesgo o mejora en el desempeño alcanzado debido a dicha acción.

2. El Proceso Generalizado de Restauración (PGR) usando simulación de Montecarlo para obtener el número esperado de fallas, representa una excelente herramienta para hacer predicciones de fallas en sistemas reparables. Los resultados obtenidos con esta herramienta son más reales que aquellos obtenidos con los métodos tradicionales basados en la asunciones “tan bueno como nuevo” y “tan malo como antes de fallar”. Este punto tiene gran potencial de aplicación en el área presupuestaria.

3. El método propuesto para el cálculo de confiabilidad basado en datos de monitoreo del deterioro o “datos de condición”, ofrece un método alternativo al tradicional método basado en la “historia de fallas”; que resulta particularmente útil para equipos y sistemas con tasas de falla muy bajas; tales como los equipos estáticos y provee además, una vía para incluir estas confiabildades en los modelos generales de plantas y sistemas; fortaleciendo los criterios para el diseño de políticas y estrategias de mantenimiento a las instalaciones.

Lecciones aprendidas

1. “Generalmente, no existen problemas complejos con soluciones sencillas”. El análisis de confiabilidad y riesgo en las instalaciones de procesos no es un problema sencillo, por ende, requiere de herramientas y metodologías de cálculo con complejidad acorde a la complejidad del problema. El uso de indicadores de confiabilidad sustentados en simplificaciones para dar mayor practicidad a su uso, con mucha frecuencia conduce a estimaciones y predicciones alejadas de la realidad, con el respectivo impacto en el negocio.

2. El proceso de diagnóstico de equipos, sistemas y/o procesos es una etapa de vital importancia en la mejora de la confiabilidad operacional, debido a que permite identificar las acciones proactivas que puedan efectivamente optimizar los costos y minimizar el impacto de los mismos en el negocio medular.

3. La ingeniería de Confiabilidad es una herramienta poderosísima para agregar valor a una empresa o proceso productivo; ya que una de las formas mas importantes de agregar valor, es evitar que se destruya.

REFERENCIAS

  1. Yañez, Medardo – Gómez de la Vega, Hernando, Valbuena Genebelin, Ingeniería de Confiabilidad y Análisis Probabilístico de Riesgo – ISBN 980-12-0116-9 - Junio 2003
  2. Woodhouse, John, “Managing Industrial Risk”, Chapman and Hall, Oxford, UK, 1993.
  3. Yañez, Medardo - Joglar, Fancisco - Modarres Mohammad, Generalized Renewal Process for analysis of Repairable Systems with limited failure experience – Reliability Engineering and System Safety Analysis Journal – ELSVIER – USA 2002
  4. Yanez, Medardo – Gómez de la Vega, Hernando, Valbuena Genebelin, Gerencia de la Incertidumbre – ISBN 980-12-0115-0 - Marzo 2003
  5. Roush M.; Webb W., “Applied Reliability Engineering”, vol I, The Center for Reliability Engineering, University of Maryland. College Park. 1999.
  6. Kritsov, Vasily. “A Monte Carlo Approach to Modeling and Estimation of the Generalized Renewal Process in Repairable System Reliability Analysis”. Dissertation For The Degree of Doctor of Philosophy, University of Maryland, 2000.
  7. Meeker, William Q.; Escobar Luis A., “Statistical Methods For Reliability Data”. Jhon Wiley & Sons, New York, 1998.Ahsmmed, M. “Probabilistic Estimation of Remaining Life of a Pipeline in the Presence of Active Corrosion Defects “International Journal of Pressure Vessels and Piping.” Vol. 75, 1998: 321-329.
  8. Ascher, H.;Feingold, H., “Repairable Systems Reliability: Modeling and Inference, Misconception and Their Causes”, Marcel Dekker, NY,1984ASM Metals Handbook, 13, 624, ASM Metals Park, Ohio, 1981.
  9. Ebeling, Charles E. “An Introduction To Reliability And Maintainability Engineering”. McGraw Hill. New York, 1997.
  10. Modarres, Mohammad; Kaminsky, Mark; Kritsov, Vasily. “Reliability Engineering And Risk Analysis”. Marcel Dekker, New York,1999.