Blogia

El rincon de ingenieria de infragon

Ingeniería de Confiabilidad; Pilar Fundamental del Mantenimiento por Medardo Yañez, Reliability and Risk Management S.A

Ingeniería de Confiabilidad; Pilar Fundamental del Mantenimiento

Este trabajo se enfoca en el “Diagnóstico proactivo e integrado de equipos, procesos y/o sistemas”, como la base fundamental del mantenimiento.

Se define “Diagnóstico proactivo e integrado” como un proceso que busca caracterizar el estado actual y predecir el comportamiento futuro de equipos, sistemas y/o procesos, mediante el análisis del historial de fallas, los datos de condición y datos técnicos, con la finalidad de identificar las acciones correctivas y proactivas que puedan efectivamente optimizar costos a través de la sistemática reducción de la ocurrencia de fallas y eventos no deseados, y minimizar en consecuencia, su impacto en el negocio medular. Adicionalmente, se destaca a la Ingeniería de Confiabilidad como el marco teórico-conceptual en el que conviven las metodologías y técnicas para lograr este fin; y adicionalmente se define Confiabilidad Operacional como un proceso de mejora continua, que incorpora, en forma sistemática, avanzadas herramientas de diagnóstico, metodologías basadas en confiabilidad y el uso de nuevas tecnologías, en la búsqueda de optimizar la planificación y la toma de decisiones. “Ingeniería de Confiabilidad; porque una de las mejores formas para agregar valor; es evitar que se destruya” [1] 

1.- Modelos de Decisión en Mantenimiento

En años recientes, grandes corporaciones especialmente del sector de hidrocarburos y de la industria de procesos, han volcado su atención hacia el modelo de decisión “Costo Riesgo”, debido a que el mismo permite comparar el costo asociado a una acción de mantenimiento contra el nivel de reducción de riesgo o mejora en el desempeño debido a dicha acción.; en otras palabras, el modelo permite saber “cuanto obtengo por lo que gasto”. 

El análisis “Costo-Riesgo” resulta particularmente útil para decidir en escenarios con intereses en conflicto, como el escenario “Operación – Mantenimiento”, en el cual el operador requiere que el equipo o proceso opere en forma continua para garantizar máxima producción, y simultáneamente, el mantenedor requiere que el proceso se detenga con cierta frecuencia para poder mantener y ganar confiabilidad en el mismo. El modelo Costo-Riesgo es el indicado para resolver el conflicto previamente mencionado, dado que permite determinar el nivel óptimo de riesgo y la cantidad adecuada de mantenimiento, para obtener el máximo beneficio o mínimo impacto en el negocio.[2]

La figura 1 muestra gráficamente el modelo mencionado, y en el mismo pueden destacarse tres curvas que varían en el tiempo:

- La curva del nivel de riesgo (riesgo = probabilidad de falla x consecuencia), asociado a diferentes periodos de tiempo o frecuencias de mantenimiento

.- La curva de los costos de mantenimiento, en la cual se simulan los costos de diferentes frecuencias para la acción de mantenimiento propuesta

ingenieria_1sm

Para ampliar la imagen haga clic sobre ella, regrese utilizando su navegador.

La curva de impacto total, que resulta de la suma punto a punto de la curva de riesgos y la curva de los costos de mantenimiento. El “mínimo” de esta curva, representa la frecuencia para la cual la suma de los costos de la política de mantenimiento con el nivel de riesgo asociado a esta política son mínimos; es decir hay el “mínimo impacto posible en el negocio” Este mínimo esta ubicado sobre el valor que puede traducirse como el periodo o frecuencia óptima para la realización de la actividad de mantenimiento. Un desplazamiento hacia la derecha de este punto implicaría “asumir mucho riesgo” y un desplazamiento hacia la izquierda del mismo implicaría “gastar demasiado dinero”.

La dificultad para el uso del modelo, se centra en la estimación o modelaje de la curva del riesgo, ya que la misma requiere la estimación de la probabilidad de falla (y su variación con el tiempo), y las consecuencias En la próxima sección, se detallan las herramientas para lograr el correcto modelaje y estimación del riesgo.

2.- Riesgo, un indicador para el Diagnóstico Integrado

El riesgo R(t), base fundamental del modelo de decisión descrito en la sección anterior, es un término de naturaleza probabilística, que se define como “egresos o pérdidas probables consecuencia de la probable ocurrencia de un evento no deseado o falla”, y comúnmente se expresa en unidades monetarias, (Bs. o $).[1],[3]. Matemáticamente, el riesgo se calcula con la siguiente ecuación:

Riesgo(t)=Probabilidad de Falla(t) x Consecuencias

El análisis de la ecuación del riesgo, permite entender el poder de este indicador para el diagnóstico y la toma de decisiones, debido a que el mismo combina probabilidades o frecuencias de fallas con consecuencias, permitiendo la comparación de unidades como los equipos rotativos, que normalmente presentan alta frecuencia de fallas con bajas consecuencias, con equipos estáticos, que normalmente presentan patrones de baja frecuencia de fallas y alta consecuencia.

La figura 2, refleja gráficamente lo expresado en el párrafo anterior

ingenieria_2s

Para ampliar la imagen haga clic sobre ella, regrese utilizando su navegador.

El riesgo, se comporta como una balanza, que permite pesar la influencia de ambas magnitudes (Probabilidad de Falla y Consecuencia de la Falla) en una decisión particular.

El mantenimiento moderno, sustentado en la Ingeniería de Confiabilidad, requiere de un cuidadoso proceso de diagnóstico de equipos y sistemas. El diagnóstico, basado en el “riesgo”, puede entenderse entonces como un proceso que busca caracterizar el estado actual y predecir el comportamiento futuro de equipos y sistemas.

Para el logro de un diagnóstico integrado, el riesgo debe calcularse usando toda la información disponible; es decir, debe incluir el análisis del historial de fallas, los datos de condición y datos técnicos. De esta forma, se podrán identificar las acciones correctivas y proactivas que puedan efectivamente optimizar costos y minimizar su impacto en el negocio medular.

La figura 3, muestra el proceso de “Diagnóstico Integrado”

ingenieria_3s

Para ampliar la imagen haga clic sobre ella, regrese utilizando su navegador.

Entendiendo entonces que el “riesgo” es el indicador para un diagnóstico integrado, se analizará a continuación en detalle, el proceso para estimarlo.

3.- Estimación de Riesgo

Como se mencionó en el punto 2, el cálculo del riesgo, involucra la estimación de la Probabilidad de Fallas y/o la Confiabilidad, (Confiabilidad = 1 – Probabilidad de Fallas), y de las Consecuencias. La figura 4 muestra la descomposición del indicador “riesgo” en sus componentes fundamentales. En ella se muestra claramente que para calcular riesgo, deben establecerse dos (2) vías, una para el calculo de la confiabilidad y/o la probabilidad de fallas, en base a la historia de fallas o en base a la condición; y otra para el cálculo de las consecuencias.

ingenieria_4s

Para ampliar la imagen haga clic sobre ella, regrese utilizando su navegador.

3.1.- Estimación de la Probabilidad de Fallas y/o la Confiabilidad.

Para la estimación de la confiabilidad o la probabilidad de fallas, existen dos métodos que dependen del tipo de data disponible; estos son:

  • Estimación Basada en Datos de Condición, altamente recomendable para equipos estáticos, que presentan patrones de “baja frecuencia de fallas” y por ende no se tiene un “historial de fallas” que permita algún tipo de análisis estadístico.
  • Estimación Basada en el Historial de Fallas: recomendable para equipos dinámicos, los cuales por su alta frecuencia de fallas, normalmente permiten el almacenamiento de un historial de fallas que hace posible el análisis estadístico.

3.1.1.- Estimación de Confiabilidad Basada en Condición

El análisis tradicional de confiabilidad, basado en el análisis estadístico del tiempo para la falla, ha sido exitosamente utilizado para mejorar el mantenimiento preventivo y traer los equipos y sistemas hasta los actuales niveles de desempeño. Sin embargo, buscando la mejora continua de sus procesos, en las tres últimas décadas, algunas industrias han hecho grandes esfuerzos en la recolección de data diferente a la data de falla, a través de programas de monitoreo de la condición (mantenimiento predictivo) con la finalidad de optimizar las frecuencias de mantenimiento de sus equipos y tomar acciones proactivas para evitar la ocurrencia de la falla.

La mencionada data de condición, ha sido usada principalmente en forma determinística, es decir, para hacer diagnósticos puntuales, debido a la falta de una adecuada metodología de análisis probabilística. En esta sección se establecen las bases conceptuales para el cálculo de confiabilidad y probabilidad de falla de equipos basado en la data de condición. La columna vertebral de este método es el análisis Carga-Resistencia [1].

a. Análisis Carga-Resistencia

El análisis Carga-Resistencia tiene como premisa el hecho de que las fallas son el resultado de una situación donde la carga aplicada excede la resistencia. Carga y Resistencia son usados en el sentido más amplio de la palabra; es decir, la carga pudiera ser la presión de operación, mientras la máxima presión de operación permisible sería la resistencia. Similar análisis se hace para cualquier otro parámetro relevante de la condición como vibración para equipos dinámicos, o reducción de espesor para el caso de equipos estáticos.

En todos los casos existirá un valor actual de la condición que se monitorea, el cual representará la carga, y un valor límite de la condición que representara la resistencia. Esta última normalmente esta regulada por normas y estándares de la ingeniería.

Contrario a la creencia general, en la mayoría de los casos ni la carga ni la resistencia son valores fijos, por el contrario, sus valores son estadísticamente distribuidos. Cada distribución tiene su valor medio, denotado por μY para la carga y μX para la resistencia y sus desviaciones estándar σY y σX respectivamente. Esto es ilustrado en la figura 5.

ingenieria_5

Cuando la distribución de la condición medida o monitoreada en el equipo tiene algún solape con la distribución de la condición límite o criterio de rechazo, en ese momento existe probabilidad de falla. Esta situación es mostrada en la figura 6.

ingenieria_6

La confiabilidad de un elemento bajo la aplicación de una carga es la probabilidad de que su resistencia exceda la carga. Dicha confiabilidad puede calcularse con la siguiente expresión: Confiabilidad = Probabilidad (Resistencia>Carga) [1],[5],[8],[9],[10]

ingenieria_7

Donde μY y μX son las medias de las distribuciones de la resistencia o criterio límite y el esfuerzo o condición monitoreada respectivamente, y σY y σX las respectivas desviaciones estándar.

NOTA: El operador “Φ”, indica que con el resultado obtenido de la ecuación entre paréntesis, debe buscarse el valor de probabilidad correspondiente en una tabla de la distribución normal

b. Estimación de la confiabilidad basada en la condición

Un parámetro de condición (PC) es cualquier variable física que revele información acerca de las características de desempeño de un equipo o componente. Un Parámetro Relevante de Condición (PRC) es un parámetro cuyo valor numérico caracteriza y cuantifica la condición de un equipo o componente en cualquier instante de su vida operativa.

Para que un PC sea un PRC, debe cumplir con los siguientes requisitos:

  • Caracterizar la condición del equipo.
  • Ajustar su valor continuamente durante su vida operativa.
  • Describir numéricamente la condición del equipo o componente.

Un buen ejemplo de un PRC es el espesor de pared “E”, el cual es comúnmente usado en la industria petrolera para caracterizar el proceso de deterioro debido al fenómeno Erosión-Corrosión en tuberías en general y en algunos recipientes a presión. Otros PRC famosos en la industria del gas y del petróleo son:

  • Nivel de Vibración (Equipos Dinámicos)
  • Partículas Metálicas disueltas en el aceite (Equipos Dinámicos)
  • Velocidad de Declinación (Pozos y Yacimientos)
  • Presion Estática de Fondo (Yacimientos)

3.1.2 Predicción del Número de Fallas Basado en el Historial de Fallas

En este punto, se presenta la metodología y la plataforma matemática para predecir la disponibilidad en sistemas reparables, a través del tratamiento estadístico de su historial de fallas y reparaciones. En otras palabras, los equipos son caracterizados usando su distribución probabilística del “tiempo para fallar” y el “tiempo para reparar”.

Este tipo de análisis es particularmente valioso para equipos dinámicos, los cuales tienen una frecuencia de falla relativamente alta. Normalmente, la data de fallas y reparaciones está disponible.

Para equipos reparables existen cinco posibles estados en los que ellos pueden quedar, una vez reparados después de una falla:

  1. Tan bueno como nuevo
  2. Tan malo como antes de fallar.
  3. Mejor que antes de fallar pero peor que cuando estaba nuevo.
  4. Mejor que nuevo.
  5. Peor que antes de fallar.

Los modelos probabilísticos tradicionalmente usados en análisis de confiabilidad, se basan en los estados 1 y 2 (estados límites), sin tomar en cuenta los estados 3, 4 y 5 a pesar de que el estado 3 es más realista en la práctica. La razón para esto radica en la dificultad de desarrollar una solución matemática para modelar este estado.[3],[6]

Este trabajo muestra el modelo probabilístico desarrollado, el cual se denomina “Proceso Generalizado de Restauración” (PGR) [3],[6]. Este modelo elimina las limitaciones antes mencionadas porque toma en cuenta todos los posibles estados de un equipo después de una reparación. Esto da como resultado una nueva plataforma conceptual para análisis de confiabilidad en equipos reparables, la cual se ajusta en mayor grado a lo que sucede en la realidad, eliminando las desviaciones derivadas del uso de los análisis tradicionales, especialmente en cuanto a la predicción del número esperado de fallas y el tiempo para la próxima falla.

Formulación Matemática del PGR:

Las ecuaciones básicas del PGR tienen su base en distribuciones probabilísticas de Weibull condicionales [3], y son las siguientes:

ingenieria_8

A partir de estas ecuaciones básicas y de la data de fallas [(ti)=tiempos de operación entre fallas sucesivas] se calculan los parámetros “α”, “β” y “q”, cuyo significado es:

α : ”parámetro de escala”

β : ”parámetro de forma”

q : ”parámetro de efectividad de la reparación ”. Este parámetro puede interpretarse, según su valor, de la siguiente forma:

q = 0 tan bueno como nuevo

0 < q < 1 mejor que como estaba , pero peor que cuando era nuevo

q = 1 tan malo como estaba

q < 0 mejor que nuevo

q > 1 peor que como estaba

Para obtener los parámetros con este método existen dos alternativas[3] dependiendo del momento de ejecución del análisis.

a. Método de estimación de la Máxima Probabilidad de Ocurrencia (MPO), para aquellos casos en los cuales hay suficiente data disponible para el ciclo en análisis.

b. Teorema de Bayes para aquellos casos en los que no hay suficiente data disponible del ciclo en análisis.

Una vez estimados los parámetros de PGR es posible predecir el número esperado de fallas Λ(t), usando un proceso iterativo basado en simulación de Montecarlo [3],[6]. El diagrama de flujo para este proceso iterativo se muestra en la figura 7.

ingenieria_9

Los resultados de las estimaciones hechas con el PGR son mucho más certeros que las predicciones tradicionales. Como puede observarse en la figura 7.1, se generaron tres líneas de predicción basados en el 25% de los datos de fallas (puntos de falla encerrados con un cuadro) usando las tres teorías de predicción del numero de fallas:

  • Proceso de Renovación Ordinario, basada en la asunción de un estado “tan bueno como nuevo” después de la reparación.
  • Proceso No Homogéneo de Poisson, basada en la asunción de un estado “tan malo como estaba” después de la reparación.
  • Proceso Generalizado de Restauración (PGR) que considera estados intermedios.

De las tres, solo la correspondiente al PGR coincide con gran precisión con las fallas que ocurrieron subsecuentemente.

ingenieria_10

4.- Estimación de Consecuencias.

En esta sección se presenta una metodología para estimar las consecuencias totales que resultan de la falla de un equipo y/o sistema. El modelo básico que soporta el trabajo aquí propuesto es el de “Impacto Total en el Negocio” desarrollado por John Woodhouse [2].

Modelo Propuesto:

El modelo divide las consecuencias asociadas con una falla particular en cuatro grandes categorías: Pérdidas de producción, costos de reparación, impacto ambiental e impacto en seguridad.

a. Pérdida de Producción:

En este paso, las pérdidas de producción debido a tiempo fuera de servicio son estimadas usando la siguiente ecuación: PERDIDA DE PRODUCCIÓN = PP * RF * TTR

Donde PP es el precio del producto ($/Unid), RF es la reducción de flujo (Unid/Hr) y TTR, el tiempo para reparar (Hrs). La variabilidad del costo del producto se incluye con la asunción de una distribución normal.

Reducción de flujo: La reducción puede ser total o parcial, dependiendo de otros factores tales como diseño, redundancias, cargas compartidas o stand by y/o severidad de la falla (critica o degradación). Para representar todos los posibles valores de esta reducción se definió una distribución normal.

Tiempo de reparación: En lo que respecta al tiempo de reparación, es su valor promedio (MTTR) el considerado para representar la distribución de esta variable.

b. Costos de reparación: La distribución de los costos de reparación debe incluir el espectro de todos los posibles costos, los cuales varían dependiendo de la severidad de la falla. Durante los ciclos de vida (tiempo entre overhauls), estos costos tienden hacia una distribución normal.

c. Impacto Ambiental e Impacto en Seguridad: Las distribuciones de estos impactos, en la mayoría de los casos, son difíciles de construir, pues no es fácil encontrar datos y fundamentalmente requieren ser construidas en base a la opinión de expertos.

ingenieria_11

5.- El Diagnóstico Integral en el Proceso de Confiabilidad

Como se ha estado describiendo en este trabajo, el diagnostico integral es un proceso que implica el uso de avanzadas técnicas de cálculo para predecir fallas y eventos no deseados e inferir sus consecuencias; es decir permite estimar el riesgo siguiendo el esquema de la figura 4 y también permite el uso de modelos de decisión como el Modelo Costo Riesgo explicado en el punto 1.

Hasta este punto, se han descrito brevemente las técnicas de la Ingeniería de Confiabilidad que permiten hacer estos cálculos.

El proceso conocido como “Confiabilidad Operacional”; es un enfoque metodológico donde el diagnóstico integrado se combina con otras metodologías tradicionales del área de confiabilidad, tales como: Análisis de Modos y Efectos de Fallas, Análisis Causa Raíz e Inspección Basada en Riesgo, entre otras; con la finalidad de:

  • Inferir probabilísticamente todos los escenarios de producción factibles, a través de la predicción de los periodos de operación normal y de ocurrencia de eventos o escenarios no deseados, basados la configuración de los sistemas, la confiabilidad de sus componentes y la filosofía de mantenimiento
  • Identificar acciones concretas para minimizar y/o mitigar la ocurrencia de estas fallas o eventos no deseados y llevar el riesgo a niveles tolerables
  • Explorar las implicaciones económicas de cada escenario de riesgo posible y diseñar planes y estrategias óptimas para el manejo del negocio.

La figura 9, muestra el esquema de integración del Diagnostico Integrado con otras metodologías en el enfoque de Confiabilidad Operacional.

ingenieria_12

Conclusiones

1. La metodología de diagnóstico propuesta, basada en la estimación del riesgo, integra herramientas reconocidas de la Ingeniería de Confiabilidad, en una sola plataforma que permite:

  • Realizar diagnósticos integrales sustentados en toda la información disponible de un equipo (data histórica, data de condición y data técnica).
  • Hacer seguimiento al estatus de confiabilidad y riesgo de los equipos, subsistemas y sistemas con la finalidad de tomar las decisiones correctas en el momento adecuado.
  • Comparar el costo asociado a una acción de mantenimiento contra el nivel de reducción de riesgo o mejora en el desempeño alcanzado debido a dicha acción.

2. El Proceso Generalizado de Restauración (PGR) usando simulación de Montecarlo para obtener el número esperado de fallas, representa una excelente herramienta para hacer predicciones de fallas en sistemas reparables. Los resultados obtenidos con esta herramienta son más reales que aquellos obtenidos con los métodos tradicionales basados en la asunciones “tan bueno como nuevo” y “tan malo como antes de fallar”. Este punto tiene gran potencial de aplicación en el área presupuestaria.

3. El método propuesto para el cálculo de confiabilidad basado en datos de monitoreo del deterioro o “datos de condición”, ofrece un método alternativo al tradicional método basado en la “historia de fallas”; que resulta particularmente útil para equipos y sistemas con tasas de falla muy bajas; tales como los equipos estáticos y provee además, una vía para incluir estas confiabildades en los modelos generales de plantas y sistemas; fortaleciendo los criterios para el diseño de políticas y estrategias de mantenimiento a las instalaciones.

Lecciones aprendidas

1. “Generalmente, no existen problemas complejos con soluciones sencillas”. El análisis de confiabilidad y riesgo en las instalaciones de procesos no es un problema sencillo, por ende, requiere de herramientas y metodologías de cálculo con complejidad acorde a la complejidad del problema. El uso de indicadores de confiabilidad sustentados en simplificaciones para dar mayor practicidad a su uso, con mucha frecuencia conduce a estimaciones y predicciones alejadas de la realidad, con el respectivo impacto en el negocio.

2. El proceso de diagnóstico de equipos, sistemas y/o procesos es una etapa de vital importancia en la mejora de la confiabilidad operacional, debido a que permite identificar las acciones proactivas que puedan efectivamente optimizar los costos y minimizar el impacto de los mismos en el negocio medular.

3. La ingeniería de Confiabilidad es una herramienta poderosísima para agregar valor a una empresa o proceso productivo; ya que una de las formas mas importantes de agregar valor, es evitar que se destruya.

REFERENCIAS

  1. Yañez, Medardo – Gómez de la Vega, Hernando, Valbuena Genebelin, Ingeniería de Confiabilidad y Análisis Probabilístico de Riesgo – ISBN 980-12-0116-9 - Junio 2003
  2. Woodhouse, John, “Managing Industrial Risk”, Chapman and Hall, Oxford, UK, 1993.
  3. Yañez, Medardo - Joglar, Fancisco - Modarres Mohammad, Generalized Renewal Process for analysis of Repairable Systems with limited failure experience – Reliability Engineering and System Safety Analysis Journal – ELSVIER – USA 2002
  4. Yanez, Medardo – Gómez de la Vega, Hernando, Valbuena Genebelin, Gerencia de la Incertidumbre – ISBN 980-12-0115-0 - Marzo 2003
  5. Roush M.; Webb W., “Applied Reliability Engineering”, vol I, The Center for Reliability Engineering, University of Maryland. College Park. 1999.
  6. Kritsov, Vasily. “A Monte Carlo Approach to Modeling and Estimation of the Generalized Renewal Process in Repairable System Reliability Analysis”. Dissertation For The Degree of Doctor of Philosophy, University of Maryland, 2000.
  7. Meeker, William Q.; Escobar Luis A., “Statistical Methods For Reliability Data”. Jhon Wiley & Sons, New York, 1998.Ahsmmed, M. “Probabilistic Estimation of Remaining Life of a Pipeline in the Presence of Active Corrosion Defects “International Journal of Pressure Vessels and Piping.” Vol. 75, 1998: 321-329.
  8. Ascher, H.;Feingold, H., “Repairable Systems Reliability: Modeling and Inference, Misconception and Their Causes”, Marcel Dekker, NY,1984ASM Metals Handbook, 13, 624, ASM Metals Park, Ohio, 1981.
  9. Ebeling, Charles E. “An Introduction To Reliability And Maintainability Engineering”. McGraw Hill. New York, 1997.
  10. Modarres, Mohammad; Kaminsky, Mark; Kritsov, Vasily. “Reliability Engineering And Risk Analysis”. Marcel Dekker, New York,1999.

 

ojocientifico.com - Nikola Tesla: Genio, científico e inventor

Nikola Tesla: Genio, científico e inventor

Desde que escribo con tanto cariño esta columna de Grandes Científicos siento un debe constante con una figura clave para la humanidad, al menos para la era moderna y el siglo XX. Se trata de Nikola Tesla, uno de los científicos más importantes de los últimos 2 siglos, y actor fundamental para el desarrollo de la electricidad comercial tal como la conocemos hoy.

Erróneamente se dice que Tesla nació en Croacia. Esto es en parte verdad y en parte una equivocación. Tesla nació en lo que hoy es Croacia, pero que en ese entonces (10 de julio de 1856) era el Imperio Austrohúngaro, y falleció a los 86 años en Estados Unidos, olvidado, pobre y considerado como un científico loco. La vida de Tesla es apasionante, pero preferimos destacar sus aportes científicos a la humanidad, que es lo que a nosotros nos compete.

Tresla fue inventor, ingeniero mecánico e ingeniero eléctrico, y se lo reconoce por sus aportes al electromagnetismo, a la ingeniería en potencia y por haber sido una pieza esencial de la llamada Segunda Revolución Industrial.

A lo largo de su carrera patentó 700 inventos, y su obsesión por la investigación convirtió a su trabajo en el origen de muchos de nuestros actuales inventos. Entre otras cosas es el autor de inventos como:

  • La radio
  • La corriente alterna
  • Dispositivos de electroterapia
  • El submarino
  • El control remoto
  • La lámpara fluorescente
  • Y contribuyó teóricamente al desarrollo del radar y de los rayos X

La visión de este científico le permitió conceptualizar a la corriente alterna. Tesla vio en las cataratas del Niágara una fuente inagotable de corriente alterna. Este tipo de corriente se conocía, pero no era utilizada y tenía mala prensa. Sin embargo, Tesla fue insistente con su aplicación, y en 1895 instaló un generador de corriente alterna junto a las cataratas con el cual consiguió iluminar la ciudad de Búfalo.

Más allá de sus notables aportes al conocimiento científico y a la ingeniería, paradójicamente Tesla jamás ganó un Nobel. Esto habla en parte de la falta de seriedad de la Fundación Nobel (que mantiene hasta el día de hoy), pero en parte a razones ajenas a ella, pues existió una historia interesante que condicionó a Tesla a no ser galardonado con este premio.

Tesla trabajó mucho con Thomas Alva Edison, pero su relación devino en conflictiva hasta llegar al odio mutuo. Esto pasó de ser un rumor a conocimiento público, y tuvo cierta incidencia en que ninguno ganara un Nobel Jamás. Tras haber sido nominados en 1915 para compartir el Nobel, ninguno de los dos quiso compartirlo con el otro, y decidieron rechazar el premio.

Más allá de todos los detalles, premios y reconocimientos materiales y artificiales, Tesla fue un genio, una mente incomparable. Te invitamos a profundizar un poco más en el apasionante trabajo de este Genio en el Nikola Tesla Museum, conociendo este archivo online de sus trabajos o este interesante sitio.

Imagen de Carlos Dan
Publicado por: Carlos Dan

Mapa de constelaciones

 

Mapa de constelaciones

Si en algún momento miras el cielo en una noche estrellada verás estrellas de a montones. Las estrellas que son visibles desde al tierra forman 88 constelaciones y las más conocidas son las doce que representan los signos del Zodíaco. Estas doce y otras 48 constelaciones más fueron establecidas por Ptolomeo en el siglo II D.C. Las restantes fueron definidas por los astrónomos recién el en año 1925.

Reconocer las constelaciones puede ser muy difícil si no tienes a mano un mapa de constelaciones. Tener un punto de partida como referencia es fundamental para identificar las estrellas más luminosas de cada constelación y así poder ir descubriendo el resto de las estrellas que la forman. La clave para observar las distintas constelaciones sin temor a equivocarnos es identificar las estrellas más brillantes para luego ir pasando a la estrella más cercana, y así ir saltando de estrella en estrella.

¿Cómo se lee un mapa de constelaciones?

En un mapa de constelaciones se representa la totalidad del cielo, como si fuera una bóveda celeste, tal cual como vería el cielo un observador acostado en el suelo. Se llama cenit al punto más alto del cielo, que corresponde al centro del mapa. La circunferencia externa que bordea todo el mapa se toma como si fuera el horizonte y la circunferencia interior representa una altura en el cielo de 45 ° desde el punto donde se encuentra el observador.

Para moverse con mayor comodidad es conveniente estimar las medidas angulares con algún punto de referencia, es decir: Si la circunferencia completa mide 360 °, y desde el horizonte hasta el cenit hay 90 °, podemos calcular el diámetro aproximado de la luna llena en 0,5 °.

Comparamos con alguna referencia como puede ser por ejemplo, la uña del dedo meñique con el brazo extendido que cubriría aproximadamente 1 °. El puño cerrado cubriría unos 10 ° y la mano abierta al máximo llegaría a cubrir casi un 20 ° del ángulo. A partir de estas referencias podemos medir el cielo para encontrar las estrellas mucho más fácilmente.

<<Haz click aqui para ver un mapa de constelaciones>>

Hablando de Ciencia - Caída del puente Tacoma Narrows

 

El puente Tacoma Narrows (en Seattle), uno de los más largos de Estados Unidos en su tiempo, es el clásico ejemplo de los fallos que ha tenido la ingeniería. Medía 1600 metros de longitud, con una distancia de 850 metros entre los soportes. El puente ha sido construido dos veces, debido al famoso derrumbe de la primera de sus construcciones; un colapso estructural desastroso que produjo el viento al manifestarse el fenómeno físico llamado resonancia mecánica.

    Éste consiste en que un cuerpo en reposo con capacidad para vibrar, entra en contacto con una fuerza periódica cuyo periodo de vibración coincide con el de dicho cuerpo, por las características que tengan sus materiales y la circunstancia en que se encuentre. El recurrente ejemplo del vaso que se rompe a causa del canto de una soprano, que alcanza y mantiene la frecuencia de resonancia de aquél, es ideal para representar este fenómeno de manera gráfica.
Este puente, hecho de enormes y pesadas vigas de acero y hormigón, se encuentra en suspensión sobre un desfiladero (Tacoma), y en estas condiciones actúa a modo de cuerda de guitarra en tanto en cuanto vibra con mucha facilidad en frecuencias que se corresponden con su longitud y sus dimensiones. Los fenómenos naturales tienen frecuencias diversas, y los ingenieros tratan de realizar sus construcciones de modo que no respondan a ellas con ningún efecto negativo. No obstante, en este caso no fue de esta manera.
El día 7 de noviembre del año 1940 se produjo el indeseado derrumbe del puente. Afortunadamente, no hubo que lamentar víctimas mortales, excepto un perro al que llamaban Tubby. Se encontraba dentro de un coche que pasaba por el puente, pero sus dueños, aterrorizados, lo abandonaron y salieron corriendo del lugar. Posteriormente, unas personas intentaron rescatar al animal, pero estaba aterrorizado e incluso mordió a una de ellas. Cuando el puente se derrumbó, aquel animal cayó con él.


Aquí les dejo un vídeo de unos 2 minutos en el que se ve claramente el suceso acontecido. Fue grabado por el propietario de un negocio local de fotografía, y está archivado en el National Film Registry de Norte América.



Comentarios (0) 

emulenews - Por qué es difícil descubrir el bosón de Higgs

Por qué es difícil descubrir el bosón de Higgs

El bosón de Higgs es una partícula que no se puede observar de forma directa en el LHC del CERN o en el Tevatrón del Fermilab ya que su vida media es demasiado corta para dejar una traza visible: si se produce un Higgs en una colisión se desintegrará tan rápido que lo único que se podrá observar son los resultados de su desintegración (lo mismo le pasa al quark top). Como el bosón de Higgs interactúa con cualquier partícula que tenga masa en reposo no nula, sus productos de desintegración son de una diversidad enorme, lo que dificulta mucho saber si los productos de una desintegración concreta corresponden a una colisión que ha producido un Higgs o a una que no lo ha producido. Me ha gustado mucho el post de Flip Tanedo, “An Idiosyncratic Introduction to the Higgs,” US LHC Blog, 25 Mar 2011. Te recomiendo su lectura. Va directo al grano, los diagramas de Feynman que involucran al Higgs. Para los que no lean bien en inglés presentaré un resumen.

Las partículas elementales en el modelo estándar son de dos tipos: partículas de materia (fermiones), que se representan en un diagrama de Feynman con líneas continuas y flechas, y las partículas transmisoras de una interacción (bosones gauge), que se representan como líneas onduladas. El bosón de Higgs es un bosón, pero un bosón escalar, lo que le hace diferente a los otros bosones gauge como el fotón, los bosones WZ, y los gluones que son bosones vectoriales. ¿Cuál es la diferencia entre ser escalar y ser vectorial? La diferencia más obvia es en el comportamiento de la partícula ante rotaciones (de la partícula o de los ejes de coordenadas). Un bosón vectorial es como una partícula puntual con una flecha: hay que girar la partícula 360 grados para que no cambie su estado. Sin embargo, un bosón escalar es como una partícula puntual sin flecha: la partícula se puede girar cualquier ángulo sin que cambie su estado. Por cierto, para los fermiones un giro de 360 grados no recupera el estado original, es necesario un giro de 720 grados para lograrlo.

En un diagrama de Feynman el bosón de Higgs se representa por una línea discontinua (la “h” no es necesaria):

En un diagrama de Feynman la interacción entre varias partículas se representa mediante un vértice en el que coinciden estas partículas. El bosón de Higgs del modelo estándar mínimo es una partícula neutra (para la carga eléctrica y para la carga de color) por lo que se puede desintegrar en un par de partículas cuya suma total de carga sea nula. Por ello un bosón de Higgs puede desintegrarse en un par de fermiones (ff o fermión-antifermión) o en un par de bosones gauge (XX, ambos neutros o de cargas opuestas).

La desintegración más probable del Higgs en dos fermiones es en un par quark-antiquark (qq), aunque también puede hacerlo en un par leptón-antileptón (ll), por ejemplo, un par electrón-positrón (ee). El acoplamiento del Higgs con los fermiones depende de la masa del fermión por lo que las desintegraciones más probables son las conducen a dos fermiones pesados: un par de quarks bottom-antibottom (bb), un par de quarks charm-anticharm (cc) y un par tauón-antitauón (ττ); para que el Higgs se pudiera desintegrar en un par de quarks top-antitop (tt) tendría que tener una masa mayor que el doble de la del quark top, o sea mayor de 346 GeV/c² (hoy en día se prefiere un Higgs mucho más ligero). La probabilidad de cada una de estas desintegraciones depende de la masa del Higgs y puede ser calculada utilizando el modelo estándar; la siguiente figura muestra curvas con el resultado.

La desintegración del Higgs en dos bosones gauge también depende de su masa. Como muestra la figura de arriba, el Higgs se puede desintegrar en un par de gluones (gg), un par de bosones vectoriales débiles (WW o ZZ), un par fotones (γγ), y un fotón y un Z (Zγ). La figura muestra en su eje vertical el Branching Ratio que es la probabilidad para cada canal de desintegración (la suma de las probabilidades de desintegración de todos los canales totaliza la unidad). Para un Higgs con una masa de 120 GeV/c² lo más probable es la desintegración bb, seguida de WW, gg, ττ, cc, ZZ, γγ y Zγ (esta última es cuatro órdenes de magnitud más pequeña que la primera). Ejercicio: cuáles son las desintegraciones más probables de un Higgs con una masa de 160 GeV/c².

En el LHC del CERN se busca la producción de un Higgs en la colisión de dos protones (en el Tevatrón del Fermilab se colisionan un protón y un antiprotón). Los protones no son partículas elementales, están compuestas de quarks, antiquarks y gluones. Hay tres quarks de valencia rodeados de un gran número de partículas virtuales, tanto gluones virtuales como pares quark-antiquark virtuales, que aparecen y desaparecen de forma constante. Los bosones de Higgs son producidos por las colisiones de partículas virtuales, una de un protón y otra del otro protón. El canal principal de producción de un Higgs en el LHC es la fusión de dos gluones virtuales, aunque la producción directa gg→h no es posible (el gluón no tiene masa en reposo), tiene que estar mediada por quarks, como muestra el siguiente diagrama de Feynman (el quark q se puede cambiar por un antiquark):

Este diagrama (gg→h) presenta un bucle cerrado de quarks en su centro. Un gluón de un protón se desintegra en un par quark-antiquark; el quark (o el antiquark) colisiona con un gluón del otro protón que lo desvía de tal forma que choca contra el antiquark (o el quark) original produciendo un bosón de Higgs. No hay que pensar mucho para darse cuenta de que la probabilidad de este diagrama es baja (es un diagrama complicado). Como el quark top es el más masivo, la producción de un Higgs por este diagrama es más probable cuando los quarks virtuales son quarks top, por lo que este diagrama es mucho más probable en el LHC (colisiones a 7000 GeV c.m.) que en el Tevatrón (colisiones a 1960 GeV c.m.). 

Otra forma de producir un Higss es mediante la producción de cuatro quarks top (dos pares top-antitop) virtuales, como muestra el siguiente diagrama de Feynman:

En este diagrama de producción del Higgs (gg→tth), además del Higgs aparecen como productos de la colisión un quark top y un antiquark top (o quark antitop), por ello, aunque el diagrama parece más sencillo tiene una menor probabilidad que el anterior.

La producción del Higgs también se da en la interacción débil entre dos quarks virtuales (uno de cada protón) a través de un par de bosones vectoriales (ambos W de carga opuesta o ambos Z, que son neutros); cuando ambos bosones vectoriales colisionan se produce un Higgs según el siguiente diagrama de Feynman:

Este diagrama (qq→qqh) se conoce como fusión vectorial porque son los bosones vectoriales W o Z virtuales los producen el Higgs.

También se produce un Higgs asociado a la de bosones vectoriales W o Z , según el siguiente diagrama de Feynman, en el que la colisión de un par quark-antiquark produce un bosón vectorial que emite un Higgs:

Aunque otras maneras de producir un Higgs en una colisión protón-protón, los cuatro diagramas anteriores son los procesos dominantes. La probabilidad de producir un Higgs por todos estos canales depende de su masa. La figura siguiente muestra las secciones eficaciones de producción (básicamente la probabilidad de producción) del bosón de Higgs en el LHC a partir de los diagramas anteriores y alguno más:

El eje vertical de la figura de arriba es la sección eficaz medida en femtobarns (fb) y permite calcular el número de bosones de Higgs producidos tras estudiar cierto número de colisiones (que se mide en inversos de femtobarn, 1/fb), la luminosidad integrada. Para el bosón de Higgs del modelo estándar el mecanismo de producción dominante en el LHC es la fusión de gluones gg→h.

¿Por qué es difícil observar el Higgs en las colisiones del LHC? El mayor problema es que los modos de producción y desintegración del Higgs producen trazas similares a muchos otros procesos que no muestran un Higgs (que en la búsqueda del Higgs se llaman procesos de “fondo” o background). Por ejemplo, la producción de Higgs por la fusión de dos gluones, acompañada de dos quarks top, resulta en la siguiente desintegración

gg → tth → blν blν bb

donde el quark (antiquark) top decae en un un quark (antiquark) bottom, un leptón y un neutrino, y el Higgs decae en un par quark-antiquark bottom. ¿Cómo se observan estos cuatro quarks bottom en los experimentos? Como estos quarks son pesados y pueden decaer en muchas otras partículas con menos masa, se produce una cadena de desintegraciones con un gran número de partículas producidas todas en cierto cono (ángulo sólido) que se denomina chorro (hadrónico). Por ello, el proceso anterior conduce a la observación de cuatro chorros de partículas, dos leptones y dos pérdidas de energía (los neutrinos no se observan directamente en el LHC). Un proceso muy complicado de analizar que se complica aún más porque cuando los leptones pesados (tauones) también pueden producir un chorro (leptónico). El resultado es que la colisión de dos gluones produce un Higgs y un par quark-antiquark top pero observamos en los experimentos las trazas de unas 100 partículas que se mueven prácticamente en todas las direcciones. Esto sería sencillo si no fuera porque muchos otras colisiones sin Higgs pueden producir cuatro chorros hadrónicos cuyas trazas en los detectores son muy parecidas a las del Higgs. La relación señal/ruido (S/N) en la producción del Higgs es muy mala y requiere acumular un enorme número de colisiones candidatas antes de que se pueda proclamar una observación fiable de esta esquiva partícula.

El descubrimiento del Higgs requerirá varios años en el LHC del CERN ya que hay que esperar que se acumule un número suficientemente alto de colisiones. Lo más razonable es que se proclame su descubrimiento o casi descubrimiento durante la primavera o el verano de 2013 (todo depende del número total de colisiones que logre acumular el LHC este año y el próximo.

Las desintegraciones más “limpias” (o con mejor relación S/N) son poco probables, como la desintegración en un par de fotones (h→γγ), proceso que no ocurre directamente (pues los fotones no tienen masa) sino a través de quarks virtuales. Este proceso es muy poco frecuente, pero su señal es muy clara y distintiva (la relación S/N es muy buena). Por ello este modo de desintegración es uno de los más prometedores (pero sólo si el Higgs tiene una masa baja, inferior a 130 GeV/c²). El problema ahora mismo es que este modo de desintegración requiere analizar un enorme número colisiones porque es muy poco probable (como muestran la figura de más arriba).

En los experimentos ATLAS y CMS del LHC, así como en CDF y DZero del Tevatrón, se está buscando al bosón de Higgs en prácticamente todos los canales de producción/desintegración posibles. Algunos canales son más prometedores que otros, por ejemplo, Julien Baglio y Abdelhak Djouadi, “Implications of the ATLAS and CMS searches in the channel pp→Higgs→ττ for the MSSM and SM Higgs bosons,” ArXiv, 31 Mar 2011, proponen que el canal gg→h→ττ podría permitir el descubrimiento de un Higss en el rango de masas 115-135 GeV/c² con unos pocos inversos de femtobarn de colisiones (es decir, que podría darse el milagro de un descubrimiento del Higgs durante el año 2012). En mi opinión, estos autores tildan de optimistas.

En resumen, descubrir el bosón de Higgs es difícil porque se acopla a todas las partículas con masa y gracias a ello se sabe esconder muy bien (con una relación señal/ruido muy mala). Pero lo que hay que tener claro es que el LHC del CERN en los próximos años (con buena suerte en 2013, pero con mala suerte en 2016) acabará siendo descubierto.

PS (04 abr. 2011): Me ha preguntado un amigo tomando un café lo siguiente (más o menos): Si existiera un bosón de Higgs, cómo cambiarían las figuras con “bandera brasileña” sobre la búsqueda del Higgs. Le he dicho que incorporaría una figura que ví hace poco. Abajo a la izquierda tenéis la figura experimental del Tevatrón a fecha de 19 de julio de 2010 para un bosón de Higgs de baja masa y a la derecha tenéis la figura teórica que se esperaría obtener si se “inyecta” un bosón de Higgs de 125 GeV/c². Como podéis comprobar ambas figuras son compatibles entre sí, es decir, los resultados del Tevatrón son consistentes con la existencia de un Higgs con dicha masa. La figura está extraída de la charla de Michael Cooke (On behalf of the CDF and DZero Collaborations), “Searches for Low-mass SM Higgs at the Tevatron,” 46th Rencontres de Moriond (QCD), March 21, 2011.

Más abajo tenéis también la figura con incluye la inyección de un Higgs con una masa de 115 GeV/c² también extraída de la charla de Michael Cooke (cuyas transparencias recomiendo a todos los interesados en más detalles).


Filed under

Fallecimiento de Gagarin

http://www.youtube.com/user/violine777#p/a/u/2/LVWKhBx3sIw

Interesante video historico

http://www.youtube.com/user/violine777#p/a/u/2/LVWKhBx3sIw

¿Murió Yuri Gagarin a causa de un ataque de pánico?


¿Murió Yuri Gagarin a causa de un ataque de pánico?

Escrito por Alfred |

Mucho se ha especulado a lo largo de las últimas cuatro décadas acerca de las verdaderas causas del fallecimiento en 1968 del primer humano que, siete años antes, había viajado al espacio.

El 12 de abril de 1961, Yuri Alekséyevich Gagarin se consagraba como uno de los hombres más famosos del planeta al convertirse en el primero en salir al espacio exterior. Fue a bordo de la nave Vostok 1 y lo realizó en plena guerra fría entre EEUU y la URSS.

Gracias a este hito, los soviéticos tomaban ventaja ante sus enemigos norteamericanos en controlar la ansiada carrera espacial.

Gagarin hizo famosas la palabra ¡Poyejali! (¡Vámonos!) que dijo en el instante en el que la nave Vostok 1 realizaba el despegue y las frases “Veo la tierra. Es tan hermosa” y “Pobladores del mundo, salvaguardemos esta belleza, no la destruyamos” que pronunció cuando se encontraba en el espacio.

El vuelo duró 108 minutos y la nave alcanzó una altura de 357 kms en el apogeo de su órbita y 188 kms en su perigeo a una velocidad de 28.000 km/h.

El primer cosmonauta en visitar el espacio pasó a convertirse en un héroe nacional y su fama lo llevó a viajar por todos los países comunistas publicitando la hazaña de los soviéticos.

Pero Gagarin no llevó del todo bien esa popularidad y el sentirse reconocido en todas partes lo incomodaba de sobremanera. Poco tardó en tener problemas conyugales a causa de sus continuos escarceos amorosos con otras mujeres y su afición al alcohol. Esto último lo llevo a estar ingresado en un sanatorio de Crimea en 1961.

A pesar de todo esto, el reconocimiento de su gesta por parte de infinidad de lugares del planeta era tan grande, el gobierno soviético lo promocionó para ser elegido diputado al Soviet Supremo (órgano federal legislativo de la Unión Soviética) en 1962. Tras un corto periodo en política se reincorporó a la Ciudad de las Estrellas (campo de entrenamiento de los cosmonautas rusos) donde realizó trabajos de diseño de naves espaciales.

El 27 de marzo de 1968, Gagarin realizó un vuelo de entrenamiento junto a su entrenador Vladímir Seriogin. Todo parecía indicar que se realizaría con normalidad y sin ninguna incidencia.

El avión utilizado, un caza MiG-15, había sido probado y pasado todos los controles previos. Pero algo debió fallar.

A las 10:30 de la mañana el avión se estrelló en Kirzhach (población a poco más de 100 km de Moscú).

La versión oficial desde el Kremlin fue que el accidente se produjo a causa de una maniobra brusca que se tuvo que realizar al esquivar algún tipo de obstáculo (posiblemente un globo sonda) y que hizo que el aparato descendiese en barrena, estrellándose contra el suelo y produciendo un agujero de seis metros de profundidad. Ninguno de los dos ocupantes sobrevivió.

Durante muchísimos años los amantes de teorías conspiranoicas intentaron dar una respuesta “lógica” a todo lo que rodeaba la misteriosa muerte de Yuri Gagarin. El hermetismo político desde los aparatos de poder soviéticos y posteriormente rusos tampoco colaboraban demasiado en aclarar lo sucedido.

Su pasado como alcohólico ayudó a crear la teoría de que pilotó estando borracho e incluso hubo quien se atrevió a decir que el accidente en el que perdió la vida Gagarin había sido montado por Leonid Brézhnev (por aquel entonces máximo dirigente de la Unión Soviética), celoso de la fama alcanzada por el primer cosmonauta en viajar al espacio siete años antes.

A principios del siglo XXI, Igor Kuznetsov, coronel de la antigua fuerza armada soviética, se puso a investigar sobre el tema. Su amistad personal con altos dirigentes del gobierno ruso le ayudó a abrir algunas puertas inaccesibles durante décadas y tras un amplio estudio en el que determinó, tras siete años de investigaciones junto a un grupo de expertos en aviación, que el motivo del accidente del MiG-15 y fallecimiento de Gagarin fue un ataque de pánico al advertir que un conducto de ventilación de la cabina estaba abierto, hecho que hizo que lanzase el avión en picado, provocándole un desvanecimiento por la pérdida de conocimiento y el posterior estrellamiento del aparato contra el suelo.

En el mismo lugar del accidente se erigió en 1975 un obelisco en memoria al primer ser humano que viajó al espacio Yuri Gagarin y, su compañero en el accidente aereo, Vladímir Seriogin.

En honor y conmemorando el 50º aniversario del primer vuelo espacial tripulado, se ha creado la página El año de Yuri Gagarin – La Yuriesfera la cual os recomiendo e invito a visitar y donde encontraréis todo tipo de artículos y entradas relacionadas con este hecho histórico.
La Yuriesfera

(Fuentes de consulta y más información: check-six / airspacemag / tayabeixo / kosmonaut / telegraph / La Yuriesfera)

Ojo Cientifico - Astrónomos importantes que hicieron historia

Astrónomos importantes que hicieron historia

La historia de la evolución del hombre siempre estuvo ligada a su curiosidad por conocer lo que lo rodeaba y a su comprensión al respecto. Las “pequeñas luces del cielo” y todos los fenómenos astronómicos relacionados con ellas llamaron la atención de algunos más que de otros, por lo que en pocas líneas intentaremos detallar quienes fueron los astrónomos importantes que hicieron historia.

Tales de Mileto proclamaba 700 años A.C. que la tierra era redonda, que era circundada por una masa grisácea llena de agujeros y que todo era iluminado por una “llama eterna” explicando casi el día y la noche. Anaximandro, Pitágoras, Platón, Aristóteles plantearon 200 años después que la tierra era el centro del universo y que todo giraba a su alrededor formalizándose la concepción de la redondez de la misma, producto de la observación de su sombra proyectada sobre la luna en un eclipse.

Fue Aristarco de Samos quien deduce en sus estudios que la tierra giraba junto con las demás estrellas alrededor del sol. Las observaciones de Eratóstenes, Hiparco de Nicea y Posidonio de Apamea realizadas 100 años A.C. colaboraron con el cálculo de la circunferencia de la tierra, la relación entre las mareas y las fases lunares y la distancia entre los planetas y el sol, que por momentos variaba.

Ptolomeo y su teoría geocéntrica del universo, que coincidía con la postura eclesiástica de la época perpetuó por casi 1400 años esta concepción hasta que Copérnico desarrolló la teoría Heliocéntrica que plantea que todo el universo gira alrededor del sol, incluso la tierra (por supuesto que esta idea encontró mucha oposición en su época).

Ticho Brahe desarrolló mejores instrumentos de medición y observación y basado en sus estudios refutó algunos aspectos de la teoría de Copérnico. Galilei, Kepler, Newton, el mismísimo Einstein, Powell Hubble y Carl Sagan fueron en la modernidad y la actualidad los que aportaron tanto teorías como así los elementos técnicos cuyo fruto es nuestro actual saber sobre este campo del cual aprendemos a pasos vertiginosos cada día.

Algo es seguro, así como sucedió desde un principio, con cada descubrimiento nuestra concepción del universo también evolucionará.