Facebook Twitter Google +1     Admin

Ejercicios de cálculos resueltos

 

Por ejemplo vamos a resolver:

en primera instancia:

((32*b5*c10)/(9*a*a2*b8*c12))-3

luego

(9/(9*a3*b3*c2))-3

es por ello que:

(1/(a3*b3*c2))-3

siendo el resultado final:

Etiquetas: , ,

16/06/2014 00:12 infragon #. Varios No hay comentarios. Comentar.

La investigación Holítica

Encontre esta presentación, que luce bien interesante.

 

23/05/2014 19:39 infragon #. Varios No hay comentarios. Comentar.

¿Y esta publicidad? Puedes eliminarla si quieres

Primero Ethnogeometría para seguir con Etnomatemática

He encontrado este interesante artículo siguiendo esta búsqueda en google, https://www.google.co.ve/search?um=1&hl=es&safe=off&rlz=1C2SAVG_enVE521VE521&bav=on.2,or.r_gc.r_pw.r_cp.r_qf.&bvm=bv.41867550,d.dmQ&biw=1280&bih=737&q=%C3%93scar%20Pacheco%20R%C3%ADos%20&ie=UTF-8&sa=N&tab=iw&ei=dPAOUe34O5Se9QTM-4GYAQ

Autor: Oscar Pacheco Ríos

Título del trabajo: ETHNOGEOMETRIA

Tipo de trabajo: Taller

Palabras clave de la temática: Teoría Etnomatemática

 

"Primero Ethnogeometría para seguir con Etnomatemática"

 

INTRODUCCION

En esta última década la Etnomatemática se ha presentado, como una nueva corriente del saber matemático, intentando rescatar los valores que el pueblo y su cultura tienen. Esta corriente es vista por algunos con cierto escepticismo y por otros como la nueva alternativa para el aprendizaje de la Matemática. Después de leer a los más prominentes impulsores hemos llegado al convencimiento de que tienen razón, pero, nosotros consideramos que antes que la propia Etnomatemática esta la Ethnogeometría como la antesala de la primera..

 

I¿QUÉ ES ETNOMATEMÁTICA?

 

         En el intento de situarnos con el tema mismo de lo que trata la Ethnogeometría, consideramos que debemos ver, qué es Etnomatemática. Aunque hay una lista larga de autores que intentan dar una definición exacta, lo haremos según lo señala el Prof. D’Ambrosio,  por ser de los precursores más activos y consecuentes y según el resumen analítico del Prof. neozelandés  Bill Barton[1].

 

 “Las diferentes formas de matemática que son propias de los grupos culturales, las llamamos de Etnomatemática”[2]

 

Este es un juicio a fortriori, o actual, pues, los grupos culturales existen y se encuentran por toda la faz de la Tierra. Luego todos los MODOS de MATEMATIZACIÓN que realicen esos grupos culturales para solucionar sus problemas cotidianos, se las puede denominar de ETNOMATEMATICA.

 

“La ETNOMATEMATICA en mi concepción es etno+matema+tica, eso es, LAS ARTES, TECNICAS, MANERAS, ESTILOS [=TICAS] de  EXPLICAR, ENSEÑAR, COMPRENDER, MANEJAR, LIDIAR, "To cope with", "se débrouiller" [=MATEMA]  en SU ENTORNO NATURAL y CULTURAL [=ETNO]” Ubiratan D'Ambrosio.[3]

 

Según esta explicación, “ETNO” es el  “ENTORNO NATURAL y CULTURAL” del hombre en una forma atemporal, es decir, no se refiere al hombre primitivo en su condición de cazador o recolector, se refiere al hombre de todas las épocas hasta llegar a la actual, en su diario accionar en su contexto circundante y circunstancial.

 

Si, “MATEMA” está homologada con “LAS ARTES, TECNICAS, MANERAS, ESTILOS “To cope with" (para cubrir con o abarcar), sí débrouiller” (manejar o dirigir). Significa que es importante referirse, a todas las formas de expresión o exultación mental y espiritual hechas realidad, abarcando de un modo poético, gráfico, pictórico, petroglífico o folklórico con sus propias modalidades. 

 

“TICAS” es una referencia clara a la metodología, es el cómo trasmitir o compartir, cualquier experiencia (inclusive el MATEMA), con otra(s) persona(s) para que esa(s) persona(s) tenga(n) acceso a un nuevo conocimiento. En el entendido que ese nuevo conocimiento le permitirá solucionar sus tribulaciones o le causará el placer de lograr sus metas, pese a los factores socio-culturales que puedan influenciarlo positiva o negativamente.

 

El mismo creador del concepto antes interpretado y según Eduardo Sebastiani Ferreira dirá que la Matemática es una parte de la Etnomatemática colocada así:

 

 
   

 

 

 EDUCACIÓN         ETNOMATEMÁTICA          MATEMÁTICA 

 

donde, dentro de la Educación, “la Matemática se constituiría en una parte de la  Etnomatemática”, por tanto para aprender Matemática invariablemente se debe pasar por Etnomatemática.

 

 Al parecer Bill Barton, se preocupa más con esto último y él, después de estudiar a los autores citados en su trabajo, aunque observa que D’Ambrosio se ubica más en la dimensión socio-antropológica, considera que son cuatro, los  términos críticos para la definición: Matemática, Matemático, Nosotros y Cultura.

"La Matemática son los conceptos y las prácticas en el trabajo de esa gente quiénes se llaman a sí mismos matemáticos."

"El Matemático se refiere a esos conceptos y a las prácticas, que se identifican como si estuvieran relacionadas en alguna manera a la Matemática".

“ El matemático y la Matemática ambos son culturalmente específicos porque sus referentes dependen de quiénes usan los términos. Es posible, que por ejemplo, que algunos matemáticos disientan sobre lo qué es legítimamente Matemática.”

   “En el "nosotros", usamos la definición como un grupo, quienes comparten una comprensión de Matemática y quienes están interesados en Etnomatemática. Que el grupo incluirá comúnmente matemáticos, quienes toman su propia definición, pero incluirán también a otros, quienes han experimentado Matemática como una categoría en su educación propia. Cuando una Cultura étnica diferente, anda implicada con el "nosotros", nos referimos a los miembros de una cultura, que contiene la categoría de matemáticos. El uso puntual del pronombre hace que el etnomatemático tenga un punto de vista particular”

Cultura se toma para tener el significado usado por D'Ambrosio, que se refiere al grupo de gente quien "desarrolló prácticas, conocimiento, y, en particular, jergas y códigos, que claramente comprende la manera como ellos matematizan, es decir: es la manera que ellos cuentan, miden, relacionan y clasifican, e infieren" (D'Ambrosio 1984). Tal grupo puede ser un grupo étnico, un grupo nacional, un grupo histórico, o un grupo social dentro de una cultura más amplia. La Cultura refiere al conjunto compartido identificable de comunicaciones, comprensión y prácticas. No es necesaria la definición de Etnomatemática si el conjunto es descriptible con exactitud.”

Habiendo definido los términos, hay cuatro de implicaciones de la definición:

a) Etnomatemática no es un estudio matemático; es más como la antropología o historia;

b)La definición en sí misma depende de quien lo afirma, y culturalmente es específico;

c) La práctica que describe es también culturalmente específica;

d)Etnomatemática implica alguna forma de relativismo para la Matemática”.

     Analizar estas cuatro implicaciones, equivaldría a elaborar un tratamiento específico sólo de la Etnomatemática y ese no es nuestro objetivo por ahora.

 

     Desde nuestra visión "Etnomatemática no es Matemática, es la matemática del pueblo como el conjunto de conocimientos matemáticos, prácticos y teóricos, producidos o asimilados y vigentes en su respectivo contexto sociocultural, que supone los procesos de: contar, clasificar, ordenar, calcular, medir, organizar el espacio y el tiempo, estimar e inferir."

Etnomatemática es el camino para aprender Matemática" como el conjunto de los conocimientos matemáticos de la comunidad del aprendiz, relacionados con su  cosmovisión e historia, fundamentalmente comprende:

- El sistema de numeración propio.

- Las formas geométricas que se usan en la comunidad.

- Unidades o sistemas de medida utilizadas local o regionalmente (tiempo, capacidad, longitud,     superficie,    volumen).

-  Instrumentos y técnicas de cálculo, medición y estimación; procedimientos de inferencia; otros  conceptos, técnicas e     instrumentos matemáticos usuales.

- Las expresiones lingüísticas y simbólicas correspondientes a los conceptos, técnicas, e   instrumentos matemáticos."[4]

 

I. ¿QUÉ ES LA ETHNOGEOMETRÍA?

 

"... Al tratar de transmitir la importancia de las ideas, nosotros las elaboramos con nuestras expresiones occidentales que tenemos de ellas. Desde el principio nosotros diferenciamos, entre las matemáticas que son implícitas y las que son explícitas, y entre los conceptos  occidentales que nosotros usamos para describir o explicar y esos conceptos nosotros los atribuimos a la gente de otras Culturas." Marcia Ascher [5]

 

Ante la falta de literatura y/o de otros autores que hubieran tocado en forma particular a lo que se nos ha ocurrido llamar “Etnogeometría” y considerando que nuestra idea tiene asidero, tanto implícita como explícitamente. Hemos creído conveniente crear, el concepto semánticamente, con la conjunción de  Etno+Etnología+Geometría = Ethnogeometría. Como el "Estudio y conocimiento de la Geometría bajo el aspecto cultural de los pueblos comparando sus afinidades de antropología cultural o social y de los lazos de civilización que los caracteriza"[6].

Además tomamos el sentido semiológico del concepto. Porque los códigos que encierra la composición del nombre, se refieren al pueblo, a la gente de nuestros días, a nosotros ahora, por tanto se hace una práctica diaria de la aplicación geométrica en casi todos sus quehaceres.

Para aclarar aun más. Diremos que, cuando se da mayor importancia al aspecto biológico y natural aunado con el psíquico sociológico, etc., estos estudios caen dentro de la Antropología. Mas, si se comprenden en ellos, todos los fenómenos histórico-culturales, además de los puramente naturales, se entra en la Etnología. Ampliando y flexibilizando nuestra visión. Por ejemplo, Etnología vendría a ser, cada reunión de los ICME[7], donde nos congregamos centenares de personas de diferentes razas y nacionalidades que nos sentimos afines por la Matemática o su enseñanza, lo que en otras palabras es estudiar nuestra riqueza material y espiritual con respecto de la Matemática. Mas, sin pretender reuniones tan numerosas tenemos, las de cada día en nuestras comunidades y centros educativos, a los que asisten alumnos de diferentes etnias, pero con un fin común adquirir conocimientos. Esto implica que el mundo actual tiende a hermanar a los hombres de y en todos los confines de la Tierra, y está lejano el día en que se discutió en las universidades de Europa, el problema de sí los negros de Africa o los indios del Nuevo Mundo tenían alma y si eran realmente hombres.

Mientras en la Etnomatemática, los etnomatemáticos intentan describir el  mundo matemático, como los otros lo ven. Ethnogeometría, no es el intento de describir, cómo, las ideas se ven a través de los otros. Muy al contrario. Fue y es la generadora no sólo de ideas que todos - etnomatemáticos o no - ven. Tiene una inmanencia permanente[8]. Es el material que inspira a la Etnomatemática, estudiar la historia a partir de la Geometría sea esta euclidiana o no-ecludiana.

La Etnogeometría da lugar a que "... la Etnomatemática...", pueda crear  "... un puente entre la Matemática y las ideas (conceptos y prácticas) de otras Culturas." La universalidad de determinadas formas básicas que son parte de una Cultura también universal. Realizar, un estudio etnogeométrico podría ser de mucho mayor interés a los etnomatemáticos, porque partirían de realidades tangibles para luego realizar abstracciones (formular conceptos, o crear teoremas p.ej. sobre equicomposición de poliedros, al observar, los muros de las ruinas incaicas) con una nueva perspectiva. Tal estudio permitiría la posibilidad de matematizar los conceptos o prácticas dentro de una Cultura y, compararla con la otra Cultura, p.ej. que tienen de semejantes la forma de las viviendas de los Uruchipayas del Departamento de Oruro en Bolivia, con la de los africanos de Mozambique; quizá a primera vista diremos la forma cónica de los techos y el material que los cubre.

A partir de la Etnogeometría, el etnomatemático esta obligado a elucidar o aclarar no sólo los conceptos resultantes de las prácticas etnogeométricas, sino, a tomarlos como su material de trabajo para hacer que la Etnomatemática sea el nexo real con la Matemática, porque (como ya lo dijimos), la Etnogeometría, no sólo tiene fundamentos etnológicos, socio-antropológicos, más también, socio-culturales, que han sido y pueden seguir  siendo aplicados, al aprendizaje de la Geometría, luego, a la práctica de la Etnomatemática y finalmente a la Matemática..

Por otro lado tomemos lo que dice Marcia Ascher. Que, las cosas las vemos con nuestros ojos occidentalizados, o sea que estamos condicionados a ver siempre bajo esa óptica y cuando alguien lo ve desde otra, nos llama la atención y parece ser incoherente. Eso es comprensible, pues, tantos siglos de academicismo nos han subyugado, que no le damos campo a nuestra mente para pensar de otro modo, sin los símbolos numéricos que representan abstracciones( eso no implica que prescindamos de ellos). Y posiblemente esa sea la razón por la cual hayan aparecido detractores de la Etnomatemática, sin intentar comprenderla, como la nueva aurora para aprender y enseñar a la Matemática.

La Ethnogeometría es parte intrínseca de la vivencia diaria del hombre y su entorno natural[9], pues donde quiera que dirija su atención, a las ruinas de la civilización antigua Inca, "La Puerta del Sol"; las edificaciones de las urbes citadinas (arquitectura) como, la ciudad de Sucre -Bolivia- o, Lima - Perú -, con influencia, de otra cultura, sea francesa, hispana, etc., etc. Antes que Etnomatemática o Matemática. Verá Ethnogeometría y sólo después, Geometría y Matemática; lo mismo será, cuando perciba que una persona es diferente de otra por sus formas anatómicas, complexión física, estatura o color, además su vestimenta, distinta y variada de acuerdo al lugar geográfico en el que habite, con diseños tejidos o estampados en su mayor parte realizados con moldes de hojas, pétalos o tallados matriciales en madera, así como, otras representaciones bordadas en bajorrelieve con una policromía que muestra la riqueza espiritual de los artesanos[10]. Aleatoriamente comparemos los kimonos de los campesinos japoneses, con la túnica o el sari de los hindúes. Las polleras de la chola de las ciudades andinas, que tienen forma arrepollada con la forma de cono truncado de la minifalda de las jóvenes citadinas. En la Naturaleza misma se encuentra con expresiones geométricas (nosotros personas), vemos flores de formas poligonales hojas cardiodes que inspiran coordenadas polares o helechos que generan fractales que luego son colocadas en losdiseños de las vestimentas, casas, etc.. En fin una riqueza espiritual y cultural (inclusive, ideológica por su aplicación),[11] que nos hace admirar. En todas esas expresiones, no vemos ni percibimos inmediatamente ideas, símbolos ni conceptos matemáticos. Estas y éstos se presentarán después, mediante las abstracciones mentales que realicen, los interesados (matemáticos o estudiosos), es decir, se hará Etnomatemática y luego Matemática,  partiendo de la Ethnogeometría.

 

Tenemos otros ejemplos, en los que,  “forma, medida y cantidad” están en una simbiosis a primera vista inseparable. Tal el caso de la actividad comercial de los mercados, en los que, las vendedoras colocan sus productos formando montoncitos semejantes a ortoedros, pirámides truncadas o conos, donde. 2 montones (pirámides) de papa por 5 Bs, cuatro montoncitos (conos) de arvejas por 10 Bs. Las vendedoras del mercado pensarían primero en medidas académicas? Sólo, después de que toman conciencia de la forma del cuerpo y de otros aspectos singulares pueden realizar conclusiones de tipo cualitativo y cuantitativo referidas a medir, pesar, contar, comparar y calcular – si, es que, a estas actividades se les puede llamar Matemática. La vendedora del mercado cuando está formando sus “montoncitos” crea las formas que serán más atrayentes al posible comprador (etnogeometriza –si vale el término-), luego determina el valor que tendrá en la venta el montoncito, a montoncitos más grandes con mayor número de unidades (papas, arvejas, frutas, etc.), menos ganancia y, a montoncitos más pequeños menos unidades implica más ganancia según sus costos, dicho de otro modo hace Etnomatemática. No se detiene a pensar si está aplicando un conocimiento académico curricular de Razones y Proporciones o de Reparto Proporcional. Estos, son ejemplos reales y actuales.

Y. ¿Qué podemos decir de los hombres primitivos, que aun no conocían la simbología numeral, cuando trazaron sus pinturas rupestres, luego cuando se hicieron sedentarios y comenzaron a tener noción del derecho de propiedad y el academicismo no había nacido aun? Sin tomar en cuenta, el tiempo, pero, la semejanza entre dos culturas.¿De dónde obtuvieron los Quichuas, el concepto de "Pachatupuy" (Geometría) cuya traducción literal es, Pacha = Tierra y, Tupuy = Medida? La tomarían de los egipcios? Pues, sabemos que ellos dan origen al nombre de "geometría" como resultado de su trabajo anual empírico, al parcelar o reparcelar las tierras aledañas al Nilo después de cada riada. Y como lo leímos, nos admira, toda esa maravilla construida con unos conocimientos básicos de Geometría y de Arquitectura y además con una unidad de medida arbitraria, como era el "codo del arquitecto". A priori podemos afirmar que, la concepción de las formas les obliga (sin ser totalmente empíricos), a crear ciertas unidades de medida y realizar operaciones en ese trabajo y no lo hacen partiendo de hipótesis. Parten de lo que está en su entorno. Utilizan ese conocimiento y el que está, en ellos y con ellos mismos o sea la Ethnogeometría. Parecería que no teorizaron diciendo: "si la base es de n codos entonces la cúspide estará a n codos de altura". Dado que la pirámide para los egipcios no sólo es una tumba para el Faraón. Es la "luz que ilumina el camino", posiblemente dependiendo a qué Faraón iba destinada la pirámide, sería más alta y con menos o más galerías

En otras palabras el ver formas y reproducir formas, está, en él y con el hombre, sin importar la época en la que vive. Por esta observación llamamos parte intrínseca de la vida del hombre. Quizá haya otras maneras de explicarlo mejor y con otras palabras, luego, creemos que, es aquí donde la crítica ayudará a mejorar o retirar esta concepción nuestra proposición. Luego, desde  el punto de vista etnogeométrico. Toda percepción, sea ésta real o de abstracción, es global. ¿Quién podría pensar, en la primera contemplación, en conceptos, reglas o axiomas matemáticos al visitar las pirámides Mayas; al contemplar desde el aire, las figuras petroglíficas del Valle de Nazca en el Perú? o las figuras zoomorfas de la Puerta del Sol en Tiwanaku?. ¿Quién piensa primero en las dimensiones o calcula cantidad de material, su valor, o el tiempo que tomará construir algún objeto? Por consiguiente no es Matemática ni Geometría pura lo que manipula el hombre en su diario vivir, al contemplar la belleza de la naturaleza. Es Ethnogeometría como una primera fase. Sin embargo (insistimos), no se queda con ese saber, aplica ese conocimiento y, hace Etnomatemática y finalmente Matemática.

EL TEOREMA MATEMÁTICO DE LA PUERTA DEL SOL

 

Al lado tenemos, una fracción de “La Puerta del Sol” en Tiwanaku. Y, luego la solución del teorema, presentado por Xavier Amaru Ruiz[12]. Este es, el mejor ejemplo de lo que hasta ahora hemos estado preconizando, de que primero observamos las formas geométricas luego hacemos la matematización.

Y Amaru Ruiz nos dice: “Realizando un análisis lógico a los símbolos e ideogramas grabados en La Puerta del Sol y concentrándonos en el detalle de la aureola que rodea la cabeza del personaje central, notamos, que su planteamiento es sumamente interesante, porque demuestra ser un teorema lógico matemático, en el cual los números y figuras geométricas aparecen virtualmente de manera subliminal, ya que la aureola está rodeada de 18 pares de ganchos (triángu­los) rotando en dos direcciones opuestas (18 hacia la derecha y18 a la izquierda) y ambos convergiendo hacia el centro del cuadro, con  una constante numeral de 36  (18+18).”

            Sin proponérselo Xavier Amaru, hace Etnogeomnetría y Etnomatemática, pues, para el análisis del diseño, ha recurrido a la observación de la forma, “números y figuras geométricas”,  pero, va más allá y, él indica: “La figura geométrica de la unificación[13] es el cuadrado, cuya división geométrica da paso a la creación del rectángulo, el triángulo y el círculo. Para tener una constante de 36, sus lados son de valor 6. El área es igual a 36.” Esta es una matriz simétrica numeral en la cual interaccionan números reales y virtuales, cuyo resultado es una ecuación”.Fig 2.

Al sumar consecutivamente los ocho elementos que constituyen el cuadrado:  1+2+3+4+5+6+7+8  = 36. Si se divide en dos rectángulos verticales, o sea en: “Hemisferio Izquierdo” (HI),  sumando 3+4+5+6 = 18; en el “Hemisferio Derecho” (HD), también se tiene 1+2+7+8 = 18

Con dos medianas y dos diagonales ha dividido en triángulos  y que partiendo en forma irradiada desde el punto de intersección a la periferia resultan 8, siendo cada uno de 45°, luego 8 x 45° = 360°. La medida del círculo perfecto. Si sumamos verticalmente cada par de los valores asignados a los triángulos: 1+8, 2+7, 3+6, 4+5. El resultado siempre es 9. También da 9 la suma de las cifras significativas de 36 y 360. Y, si borramos todos los triángulos, sólo quedaría la aureola, luego tendríamos un vacío representado por el 0. En consecuencia hemos encontrado dos números virtuales.

 

La aproximación del valor del Pi andino o Pi matemático

     Para encontrar una aproximación al valor de “pi”. El cuadrado mágico se ha dividido en dos partes, mediante una diagonal, tal como, lo muestran las figuras 3 y 4. Cada parte equivale a P/2 (medio “pi”), luego se han realizado estas operaciones: fig. 3.- 4+5+6+7=22, se divide entre 8+1+2+3=14, o sea 22/14=1.571428 y fig. 4, 1+8+7+6=22, se divide 2+3+4+5=14, (1.571428).  Si sumamos estos dos cocientes 1.571428+1.571428=  3.142856. Obtenemos el “Pi” andino o matemático con apenas 0.001256 de variación, a la aproximación geométrica de la relación constante entre el diámetro de una circunferencia y su longitud  de 3,1416, que encontraron los griegos.

 

SIMBOLOS NUMERALES

   El trazado de los ocho triángulos dentro del cuadrado mágico, no sólo sirve para determinar: el cuadrado, triángulo, rectángulo, circunferencia o la aproximación de “pi”. Es una matriz simétrica para otros aspectos matemáticos entre los que tomamos a los símbolos numerales.

   Al observar el gráfico podemos notar que:

Todos los numerales tienen la misma matriz.

Los numerales originales son de uno a cinco, los que siguen, son una imagen espejo.

 

Xavier Amaru refrenda nuestra observación indicando que: “al juntar los cinco numerales en un bloque se forma dicho cuadrado”. “...y es por este motivo que al sistema numeral tiawanakota se lo consideraba quinario, pero al desdoblarse, los cinco en imagen espejo se conforma la otra mitad”. Por tanto los numerales son 1,2,3,4,5,6,7,8 (reales), 0 y 9 (virtuales). Siendo Y según el mismo autor, una situación parecida de imagen espejo, se da en el sistema arábigo, por ej. Con los numerales y 5;   6  y 9. Ambas observaciones nos llevan a colegir que existe una dualidad simétrica.    

 

Conclusión

 

Parangonando con la proposición del Prof. Ubiratan D’Ambrosio, diremos que dentro de la Educación, la Matemática es parte de la Etnomatemática y Etnogeometría.

 Para finalizar queremos manifestar que, quizá deberíamos haber puesto énfasis, sólo en esta última parte, como la prueba irrefutable de que para ver la Etnomatemática a profundidad, no se puede ignorar a la Etnogeometría como un primer paso. Es decir, partir del valor cultural que tienen las formas geométricas, para luego ir al valor cultural de la matematización. Sin embargo como la vida continua y ella, está ligada a los problemas no sólo socio-culturales, sino,  a los socio-económicos, no podemos quedarnos en el pasado, cuando la realidad del “sistema” nos golpea inmisericordemente.

 

BIBLIOGRAFIA

 

Asher, Marcia and Robert. : Mathematics of the Incas. Dover Publications Inc. New York 1981

Barton, Bill.: "Teniendo el Sentido de la Etnomatemática: La Ethnomatemática tiene Sentido". The University of Auckland. New Zealand. 1997

Gerdes, Paul: Lusona: Recreações Geométricas de Africa Divisao. Grafica. Da Universidade Eduardo Mondlane. Maputo 1990

Marastroni, G.: Hagamos Geometría. Ed. Fontanela 1980

Pacheco R.,: Un intento de Filosofia de la Matemática. Ed. CEPDI S.C.-Bolivia- 1999

Perero, Mariano: Historia e Historias de Matemática Grupo Editorial Iberoamérica México. 1994

Piaget, Jean:Seis Estudios de Psicología Ed. Seix Barral 1964.

Santaló, L. A.: Geometría No-Euclidiana. Eudeba Buenos Aires Argentina 1985.

Smogorzhevski, A.S. :Acerca de la Geometría de Lobachevski. Ed. Mir Moscú 1984

Ubitan D’Ambrosio Educação Matemática em Revista Número 1, 1993 y otros anexos de la UVLA.

Wyllie, C. R. Jr.: Foundations Geometry. McGraw-Hill New York. 1985

 



[1] Autor de este capítulo, el cual  hemos traducido del original en inglés "Making Sense of Ethnomathematics" Quien a su vez cita: a  Marcia Asher, Ubiratan D'Ambrosio y Paulus Gerdes

[2] D'Ambrosio citado por Eduardo Sebastiani Ferreira en “Etnomatemática. Una propuesta Metodológica  1997

[3] Explicación que la dio, en una de las lecciones de la Universidad Virtual Latinoamericana UVLA

[4] Nuevos programas de estudio - Min. Desarrollo Humano Stría. Nal. de Educación 1995

[5] Citada por Bill Barton en su trabajo  “Teniendo sentido sobre Etnomatemática: La Etnomatemática tiene sentido”

[6] Hemos armado esta definición partiendo del significado de Ethnos, Etnología y Geometría que se encuentra en los diccionarios enciclopédicos.

[7]  Siglas en inglés: Conferencia Internacional de Educación Matemática.

[8] Fuerza o virtud, permanente

[9] D’Ambrosio la definir Etnomatemátiva nos habla del entorno natural y cultural = Etno

[10] La vestimenta de la “Morenada” o la “Diablada” en el carnaval de Oruro –Bolivia-

[11] Porqué se construiría la Gran Muralla China o, el  “Muro de Berlín?

[12] Autor de “La Teoría de la Unificación en 20 Dimensiones” 1996

[13] Se refiere a que la teoría del universo se puede desarrallorar completamente con un cuadrado y ocho números.

 

 

03/02/2013 22:32 infragon #. Varios No hay comentarios. Comentar.

genciencia.com - Cosas que probablemente no sabías del metódico, maniático y genial Charles Babbage, el padre de la informática moderna

Cosas que probablemente no sabías del metódico, maniático y genial Charles Babbage, el padre de la informática moderna
 

  • Charles Babbage nació el día de san Esteban de 1791, casi al final del siglo que había comenzado conIsaac Newton. Su casa se situaba en la ribera sur del Támesis en Walworth, Surrey, que por entonces aún era una aldea rural, aunque el Puente de Londres estaba a menos de media hora de paseo. Era hijo de banquero y nieto de orfebres.
  • La primera vez que Babbage empezó a imaginar máquinas futuristas fue a raíz de una visita con su madre al Museo Mecánico de John Merlin, en Hanover Square, que estaba repleto de mecanismos de cuerda y cajas de música, e incluso simulacros de seres vivos: por ejemplo, un cisne metálico inclinaba su cuello para pescar un pez también de metal, movido por palancas y motores ocultos.
  • Tan fascinado quedó con los autómatas de Merlin, que uno de ellos, en particular, acabaría formando parte de su vida. Era una bailarina desnuda que caminaba de puntillas y hacía reverencias. Estaba tallada en plata, y su tamaño era aproximadamente un quinto del natural. Con más de 50 años de edad, Babbage encontraría la bailarina de plata de Merlin en una subasta y la compraría por 35 libras. La situó en un pedestal en su casa, y cubrió su desnudez con elegantes vestidos hechos a medida.
  • A pesar de que ingresó en 1810 en el Trinity College de Cambridge, el reino de Isaac Newton, enseguida quedó decepcionado con el nivel educativo, pues Babbage ya sabía más acerca de las últimas novedades que sus profesores. Por ello leyó mucho por su cuenta, incluso libros extranjeros, pues los conocimientos de los expertos ingleses se le quedaban cortos. En una librería especializada de Londres consiguió, por ejemplo, la Théorie des fonctions analytiques de Lagrange y el Cálculo diferencial e integral de Lacroix.

 

  • Junto a un grupo de amigos fundó el Club del Fantasma, dedicado a reunir pruebas a favor y en contra de los espíritus ocultos.
  • Con el título Observaciones sobre los alborotos de la calle, escribió este tratado en el que estimaba que una cuarta parte de sus capacidades laborales se habían menguado debido a la contaminación acústica de la urbe, y concluía:
Aquellos cuyas mentes están totalmente ociosas acogen la música de la calle con satisfacción, porque llena la vaciedad de su tiempo.
  • También envió una serie de cartas obcecadas y reiterativas al Times proponiendo la creación de unDecreto Babbage que reprimiese cualquier forma de disturbio de la tranquilidad pública. La gente se burló de Babbage y disfrutaba atormentándolo, pagando para que se agolpasen bajo su ventana violinistas, payasos, equilibristas, marionetistas, acróbatas sobre zancos, predicadores fanáticos y hasta falsas bandas de música con instrumentos desafinados.
  • Era un hombre de inmensa curiosidad. Todo era objeto de su investigación, y cultivaba toda clase de aficiones: descifrar jeroglíficos, forzar cerraduras, estudiar los anillos de crecimiento de los troncos… o incluso el funcionamiento del correo. En este particular, Babbage estudió la economía postal para hacer un descubrimiento contraintuitivo: que el coste más importante de los envíos de paquetes de papel venía determinado no ya por el transporte físico, sino por su “verificación” (el cálculo de las distancias y el cobro de las cuotas adecuadas). Babbage, pues, fue el inventor de la moderna idea de las tarifas postales estandarizadas.

Seguimos con las curiosidades sobre Charles Babbage, iniciado en la anterior entrega de esta serie de artículos:

  • Como aficionado a los trenes, también inventó un dispositivo de registro ferroviario que empleaba plumas entintadoras para trazar una serie de curvas sobre hojas de papel de 300 metros de longitud: un híbrido de sismógrafo y velocímetro, que registraba el historial de velocidad del tren y todas las sacudidas que daba éste a lo largo del trayecto.
  • También estaba obsesionado con las fábricas. Hasta el punto de que llegó a afirmar que el mejor lugar para aprender cosas nuevas de los ámbitos de la ciencia y la tecnología, así como la economía y otras disciplinas, eran las fábricas y los talleres. En sus anotaciones registró el siguiente comentario:

 

Los que gozan de tiempo libre difícilmente podrían encontrar una actividad más interesante e instructiva que el estudio de los talleres y fábricas de su propio país, que contienen en su interior una auténtica mina de conocimientos, demasiado desatendidos en general por las clases más acomodadas.
  • La curiosidad inacabable de Babbage, así como su disposición para aprender, le hizo valedor de toda clase de conocimientos que nadie antes había relacionado como él. Probablemente ello le condujo a concebir una máquina que se adelantó un siglo a su tiempo. Algunos de esos conocimientos eclécticos que Babbage adquirió en su deambular por fábricas y talleres los enumera James Gleick en el libro La información:
Se convirtió en todo un experto en la manufactura de los encajes de Nottingham; y también en el uso de la pólvora en las canteras de caliza; en el corte de precisión del vidrio con diamante; y en todos los usos conocidos de maquinaria para producir energía, ahorrar tiempo, y efectuar comunicaciones de señales. Analizó prensas hidráulicas, bombas de aire, contadores de gas, y terrajas. Al final de su gira sabía más que cualquier otra persona en Inglaterra sobre la fabricación de alfileres. Su conocimiento era práctico y metódico. Calculaba que medio kilo de alfileres necesitaba el trabajo de diez hombres y mujeres durante al menos siete horas y media, tensando, enderezando y afilando el alambre, enroscando y cortando las cabezas de los rollos, estañando y blanqueando el producto, y finalmente envolviéndolo. Calculó el coste de cada fase en millonésimas de penique. Y anotó que todo este proceso, una vez perfeccionado, tenía los días contados: un americano había inventado una máquina automática para realizar la misma tarea más deprisa.
  • Bajo esa premisa, la de ahorrar trabajo, concibió una máquina que ahorrara trabajo a nuestro cerebro: la máquina diferencial. El invento de marras estaba diseñado para tabular funciones polinómicas, que son imprescindibles para el desarrollo de las tablas trigonométricas esenciales para navegar. No se pudo construir, entre otras cosas, porque pesaba 15 toneladas y tenía más de 25.000 piezas mecánicas.
  • Babbage comenzó la construcción de su máquina, pero ésta nunca fue terminada. Dos cosas fueron mal. Una era que la fricción y engranajes internos disponibles no eran lo bastante buenos para que los modelos fueran terminados, siendo también las vibraciones un problema constante. La otra fue que Babbage cambiaba incesantemente el diseño de la máquina. El gobierno británico financió inicialmente el proyecto, pero retiró el financiamiento cuando Babbage repetidamente solicitó más dinero mientras que no hacía ningún progreso aparente en la construcción de la máquina. Con todo, de haberse construido en su época, hubiese sido la calculadora mecánica más avanzada del mundo, tanto por su rapidez como su fiabilidad.
  • La idea de la máquina diferencial era tan chocante para la época que incluso Babbage llegó a escribir esta anécdota al respecto:
En dos ocasiones me han preguntado: “Perdone, señor Babbage, si mete usted en la máquina cifras equivocadas, ¿saldrán las respuestas correctas?” En una ocasión me planteó la cuestión un miembro de la Cámara Alta y en otra un miembro de la Cámara Baja. Realmente no soy capaz de entender qué tipo de confusión de ideas pudo inducir a nadie a hacer semejante pregunta.

Pero hubo una persona que sí entendió las implicaciones de la máquina de Babbage. Hasta el punto de que quizá estaba más entusiasmado que el propio Babbage respecto a su construcción. Esa persona era una mujer, la hija del poeta más excéntrico de la época: Lord Byron. Su nombre: Ada Lovelace, la primera programadora informática de la historia. .

Seguimos con las curiosidades de Charles Babbage para hablar de un personaje particularmente influyente en su vida, Ada Byron, la primera programadora de la historia.

  • Y es que la hija de Lord Byron ya había trabajado con Charles Babbage y su Máquina Analítica,escribiendo los primeros algoritmos para computadora (conjuntos de instrucciones definidas y finitas para llevar a cabo una actividad). Pero los conocimientos técnicos de la época no permitían llevar a cabo los planteamientos teóricos de estas dos mentes avanzadas a su época.
  • En el centenario de la muerte de Babbage, sin embargo, el London Science Museum la construyó siguiendo los planos del científico victoriano. La máquina consiguió dar resultados exactos con 33 dígitos en cuestión de segundos. Resulta sin duda emocionante comprobar que el diseño de alguien podría haber revolucionado el mundo de haberse podido plasmar en su época. La reconstrucción de la Máquina Diferencial No.2 ha estado operativa desde 1991.
  • Como prueba de cómo funcionaba la mente de Babbage, y la razón de que le empujaba a creer que una máquina podría codificar el mundo, consideraba que la realidad estaba compuesta por constantes, y él las recolectaba por doquier. Compiló una Tabla de las Constantes de la Clase de Mamíferos: para ello, se dedicó a medir la frecuencia de la respiración y los latidos de cerdos y vacas.

Inventó una metodología estadística con tablas de esperanza de vida para el mundo, por lo demás siniestro, de los seguros de vida. Elaboró una tabla del peso en granos Troy por metro cuadrado de diversos tejidos: batista, calicó, nanquín, muselina, gasa de seda, y “velos de oruga”. Otra tabla ponía de manifiesto la frecuencia relativa de todas las combinaciones de letras dobles en inglés, francés, italiano, alemán, y latín. Investigó, computó y publicó una Tabla de la Frecuencia Relativa de las Causas de que se rompan las Ventanas de Vidrio Plano, enumerando cuatrocientas sesenta y cuatro motivos, de los cuales ni más ni menos que en catorce intervenían “borrachos, mujeres o niños”.

  • Así pues, Babbage fue capaz de concebir un ordenador en una época como la suya porque su cerebro, en parte, funcionaba como un ordenador.
  • En su casa del número 1 de Dorset Street celebraba una velada fija cada sábado que atraía a las personas más brillantes de la época, como Charles DarwinMichael Faraday o Charles Lyell. También asistía Charles Dickens, quien puso algo de Babbage en el personaje de Daniel Doyce en La pequeña Dorrit. Sus charlas eran una mezcla de alta matemática y chistes, tal y como consignó Lyell.
  • Publicó un tratado en el que aplicaba la teoría de las probabilidades a la cuestión teológica de los milagros.

  • Fascinado por su propia celebridad, Babbage guardaba un álbum de recortes de prensa con los pros y los contras en columnas paralelas, del as que obtenía una especie de equilibrio sobre su persona.
  • Incluso se atrevía a replicar con ironía a escritores y poetas, como le sucedió al poeta Lord Tennyson, sugiriéndole una corrección de un dístico suyo que decía: “Cada minuto muere un hombre, / Cada minuto nace otro.”:

 

No necesito indicarle que ese cálculo tendería a mantener la suma total de la población del mundo en un estado de perpetua estabilidad, mientras que es un hecho de todos bien sabido que dicha suma total está en constante aumento. Me tomaría por tanto la libertad de sugerirle que en la próxima edición de su excelente poema el cálculo erróneo al que me refiero sea corregido de la siguiente manera: “A cada momento muere un hombre / y nace otro y una sexta parte”. Podría añadir que la cifra exacta es 1,167, pero naturalmente habrá que hacer alguna concesión a las leyes de la métrica.
  • Charles Babbage también logró resultados notables en criptografía. Rompió la cifra auto llave de Vigenère, así como la cifra mucho más débil que se llama cifrado de Vigenère hoy en día.
  • Fue el primero en señalar que la anchura del anillo de un árbol dependía de la meteorología que había hecho ese año, por lo que sería posible deducir climas pasados estudiando árboles antiguos.
  • Inventó el apartavacas, un aparato que se sujetaba a la parte delantera de las locomotoras de vapor para que las vacas se apartasen de las vías del ferrocarril.
  • Fallecido en Londres en 1871, el autor de su obituario en The Times lo declaró “uno de los pensadores originales más originales y activos”. Un panegirista americano dijo sobre él: “Sentía un gran deseo de investigar las causas de las coas que asombran a las mentes infantiles. Destripaba juguetes para descubrir la manera que tenían de funcionar.

 

 

 

 

22/01/2013 22:41 infragon #. Ingeniería No hay comentarios. Comentar.

genciencia - La revolución del grafeno ya está aquí

La revolución del grafeno ya está aquí
 

 


Es uno de los materiales más finos, flexibles, fuertes y con mayor conductividad que existen. Aunque su estructura se describió hace más de ochenta años, fue aislado por primera vez en 2004 y en él descansa una buena parte del futuro de las sociedades tecnológicas, ya que sus aplicaciones potenciales son enormes. Ahora, y por primera vez, uno de sus descubridores, Kostya Novoselov, (el otro fue Andre Geim y ambos recibieron por ello el Nobel de Física en 2010), traza en la revista Nature una "hoja de ruta del grafeno". O lo que es lo mismo, explica cómo este material bidimensional va a cambiar por completo nuestras vidas.



En su artículo Novoselov explica que el grafeno tiene, por ejemplo, el potencial suficiente para revolucionar (de nuevo) la industria de la telefonía móvil, las telecomunicaciones o la fabricación de chips, pero también para redefinir la forma de elaborar fármacos contra el cáncer.

Uno de los cambios más inmediatos será el de las pantallas táctiles, tan de moda en tablets y smartphones durante los últimos años. Y todo gracias a que posee una extraordinaria flexibilidad mecánica y una resistencia química sin igual, muy superior a la de los materiales que se usan en la actualidad. Según los autores, las primeras pantallas táctiles de grafeno verán la luz en un plazo que va de los tres a los cinco años. 

Pero ese será solo el primer paso. De hecho, el grafeno abrirá toda una nueva era de "dispositivos flexibles". Una revolución tecnológica comparable a la que supuso el paso de las lámparas a los transistores, o de éstos a los circuitos electrónicos. En algo más de una década, los dispositivos electrónicos ya no serán rígidos, como sucede con los actuales, sino elásticos, lo cual les permitirá cambiar de configuración (de forma) y también de funciones según las necesidades de cada momento.

Por ejemplo, el teléfono móvil (o, mejor dicho, dispositivo personal de comunicaciones) del futuro cercano podría ser una especie de lámina de plástico transparente, flexible y desplegable, de forma que podamos, a voluntad, llevarla en el bolsillo o desplegarla varias veces hasta que tenga el tamaño estandar de la pantalla de un ordenador. Cada usuario elegirá si quiere utilizar su dispositivo para habar por teléfono, para ver una película, para trabajar o para compartir documentos con sus contactos. 

En este camino, Novoselov cree los primeros prototipos de "papel electrónico" estarán disponibles en 2015, inaugurando toda una revolución en el campo de la electrónica.
Sin embargo, la capacidad de predecir las fechas de llegada de las diferentes aplicaciones del grafeno tiene sus límites. Y depende, entre otras cosas, de la calidad del grafeno que sería necesaria para convertirlas en realidad. Por ejemplo, los investigadores estiman que el desarrollo de redes de comunicaciones inalámbricas ultraveloces, o de dispositivos ultraprecisos de diagnóstico médico por imagen podrían no estar disponibles hasta finales de la década de 2020, mientras que para los nuevos fármacos contra el cáncer, o la sustitución completa del silicio (por grafeno) habría que esperar hasta 2030.

La razón es que los procedimientos para obtener grafeno son, hoy por hoy, muy complejos. Y se complican más cuanto mayores sean las exigencias de calidad para el nuevo material. En su artículo, los autores también detallan los diferentes métodos actuales de producción del grafeno, mucho mejores de los que ellos mismos utilizaron en 2004. Cada uno de estos métodos produce variedades de grafeno con potenciales diferentes, que van desde la fabricación delos citados "dispositivos flexibles" a las "super baterías", los cristales inteligentes o los escudos electromagnéticos.

En palabras del Novoselov, "el grafeno tiene el potencial de revolucionar muchos aspectos de nuestra vida al mismo tiempo. Algunas aplicaciones podrían aparecer en los próximos años, mientras que otras necesitan aún de muchos años de duro trabajo. Las diferentes aplicaciones requieres diferentes calidades de grafeno y las que usan la calidad más baja serán las primeras en aparecer, seguramente en los próximos años, mientras que las que necesiten las calidades mayores pueden tardar aún décadas".

Sin embargo, y dado que en los últimos año el desarrollo del grafeno (tanto en su fabricación como en sus aplicaciones) ha sido explosivo, "las expectativas con rrspecto al grafeno no dejan de crecer rápidamente".
Para Novoselov, "el grafeno es un cristal único, en el sentido de que, por sí solo, ha usurpado un buen número de propiedades superiores, tanto mecánicas como electrónicas. Lo cual sugiere que se presta plenamente al desarrollo de nuevas aplicaciones, desarrolladas específicamente para este material, en lugar de utilizarlo como sustituto de otros materiales en aplicaciones ya existentes".

"Una cosa es cierta -afirma el investigador- y es que científicos e ingenieros continúan buceando en las posibilidades que ofrece el grafeno y, en ese camino, nacerán muchas más ideas para nuevas aplicaciones".

Por su parte, Volodya Falko, de la Universidad de Lancaster y coautor del estudio (en el que han colaborado también empresas como Texas Instruments, AstraZeneca, BASF o Samsung), sostiene que "con nuestro trabajo, intentamos estimular el conocimiento de ingenieros, innovadores y emprendedores sobre el enorme potencial del grafeno para mejorar las tecnologías existentes y generar nuevos productos".

Grafeno, el material "mágico"

El grafeno es una forma alotrópica del carbono, bidimensional y constituído por una única capa generalmente de celdas hexagonales. Fue descubierto en la década de los 30 del pasado siglo pero se le prestó muy poca atención, ya que se pensaba que era térmicamente inestable. Sin embargo, en 2004 Kostya Novoselov y Andre Geim consiguieron aislarlo a temperatura ambiente. Entre sus muchas cualidades, destacan su flexibilidad, transparencia, elasticidad, dureza (200 veces más que el acero), ligereza (como la fibra de carbono, aunque mucho más flexible) y conductividad (tanto eléctrica como térmica). Además, se calienta mucho menos que otros materiales al transmitir electrones y consume mucho menos (a igualdad de tareas) que el silicio.
14/10/2012 22:29 infragon #. Ingeniería No hay comentarios. Comentar.

Genciencia.com - Los hornos microondas no cocinan ‘de dentro hacia fuera’ Entonces ¿qué parte de la comida se cocina antes?

Los hornos microondas no cocinan ‘de dentro hacia fuera’ Entonces ¿qué parte de la comida se cocina antes?
 

8734x590y590.jpg

Los hornos microondas son un hallazgo que surgió del invento del radar en 1940. En 1945, Percy Spencer, un ingeniero estadounidense que trabajaba en una empresa de sistemas de defensa, Raytheon, estaba construyendo un magnetrón (el dispositivo en el centro del radar que transforma la electricidad en microondas),cuando advirtió que una barra de chocolate que llevaba en el bolsillo se había derretido por completo.

Lo primero que cocinó Spencer en su primer experimento con una caja metálica fueron palomitas de maíz. Lo segundo, un huevo, que explotó.

Los hornos microondas no cocinan la comida directamente, sino que calientan el agua, porque la frecuencia de las microondas es la precisa para excitar sus moléculas. Es esta agua caliente lo que en realidad cuece la comida.

Casi toda la comida contiene agua, pero los microondas no pueden cocinar directamente comida seca como la pasta, el arroz o los cereales.

 

872dx590y590.jpgAdemás, a pesar de lo que se cree, no se cocina de dentro hacia fuera, sino justo al revés. Si el alimento posee la misma consistencia en tu totalidad, el agua más próxima a la superficie absorberá la mayor parte de la energía. Es decir, que cocinar con un horno microondas se parece, en este sentido, a cocinar con un horno convencional, excepto porque las microondas penetran antes y en mayor profundidad.

Entonces ¿por qué parece que muchas veces el interior del alimento se cocina antes que el exterior?Por ejemplo, ocurre con las patatas asadas o los pasteles de manzana. La razón es que son más secos en el exterior que en el interior; por lo tanto, el centro más húmedo estará más caliente que la piel o la corteza exterior.

Vía | NeoTeo

 

14/10/2012 22:22 infragon #. Ingeniería Hay 1 comentario.

Genciencia.com - Meme: el virus de la mente

Meme: el virus de la mente
  

La definición de «meme» fue acuñada por el zoólogo, etólogo, teórico evolutivo y divulgador científico Richard Dawkins en las últimas páginas de su libro de 1976 El gen egoísta. Dawkins es un humanista y un escéptico que actualmente está considerado como uno de los intelectuales públicos contemporáneos más influyentes en lengua inglesa; también es conocido como el «rottweiler de Darwin» por sus posicionamientos evolucionistas.

En aquel momento, sin embargo, Dawkins no era especialmente popular, y su intención tampoco era construir toda una teoría de la cultura bajo aquella palabra inventada, pero un número nada despreciable de científicos y filósofos no pudieron evitar contagiarse de aquella idea tan atractiva y, en lo sucesivo, empezaron a desarrollarla hasta límites que incluso asombraron al propio Dawkins.

De hecho, el propio término «meme» se ha convertido en sí mismo en un meme de gran poder, sobre todo en el ámbito de Internet, donde ha adoptado la definición de cualquier moda o tendencia que se propague rápidamente entre los usuarios. También define a muchas campañas de promoción viral o marketing viral.

Con todo, el término no se unió a la lista oficial de términos a considerar en futuras ediciones del Oxford English Dictionary hasta 1988; una fecha a todas luces muy reciente. Actualmente, la definición que podemos leer en él es: «elemento de una cultura que puede considerarse transmitida por medios no genéticos, especialmente por imitación.»

 

Y es que la imitación quizá sea el rasgo más humano que existe, y también el rasgo más pertinaz. Todos nacemos con la habilidad innata de imitar lo que nos rodea, porque imitar es una habilidad importante para sobrevivir en un mundo desconocido. Puedes comprobarlo incluso en un bebé: ponte frente a él y ejecuta alguna acción sencilla, como sacar la lengua o emitir gorgoritos. Lo que generalmente sucederá es que el bebé hará lo mismo. Y si le sonreímos, el bebé nos devolverá la sonrisa. De algún modo, hemos transmitido algo al bebé, a pesar de que no entiende nuestro idioma y apenas conoce nada sobre el mundo que le rodea.

Porque cuando imitas a alguien, ese alguien te transfiere parte de lo que posee. Hay muchas palabras distintas para señalar lo que te transfiere específicamente: información, instrucciones, conducta, ideas, etc. Pero todo ello puede designarse con un único término: meme. Un término que en absoluto es gratuito, aunque fue forjado con una pizca de visión de marketing. Tal y como señala el propio Dawkins en El gen egoísta:

Necesitamos un nombre para el nuevo replicador, un sustantivo que conlleve la idea de unidad de transmisión cultural, o una unidad de imitación. «Mímeme» se deriva de una apropiada raíz griega, pero deseo un monosílabo que suene algo parecido a «gen». Espero que mis antiguos clasicistas me perdonen si abrevio mímeme y lo dejo en meme. Si sirve de algún consuelo, cabe pensar, como otra alternativa, que se relaciona con «memoria» o con la palabra francesa même.

La similitud con la palabra gen es importante, porque los memes guardan muchas similitudes con los genes, como recalca Dawkins en su obra:

Al igual que los genes se propagan en un acervo génico al saltar de un cuerpo a otro mediante los espermatozoides o los óvulos, así los memes se propagan en el acervo de memes al saltar de un cerebro a otro mediante un proceso que, considerado en su sentido más amplio, puede llamarse de imitación.

Como adelantábamos en la anterior entrega  de este monográfico sobre memética, vamos a profundizar un poco en lo que son los memes. Y también en lo que no son.

Los memes también tienen antecedentes filosóficos, como las ideas de Platón, la filosofía del espíritu deHegel, las distinciones entre noesis y noema de Husserl, la teoría de la ideología de Marx o, en mayor medida, la teoría de los tres mundos de Popper y su defensa de un conocimiento objetivo sin sujeto cognoscente. Memes todos ellos que probablemente también prepararon la mente de Richard Dawkins para pensar en los memes.

Pero ¿cuántas cosas pueden llegar a ser memes? ¿Absolutamente todo lo que nos rodea son memes?

Susan Blackmore es catedrática de Psicología en la Universidad West of England, en Bristol. En la muchas fotografías y conferencias, Blackmore exhibe un aspecto que no tiene mucho que ver con el de una catedrática: su pelo tiene pinceladas de varios colores, como una especie de arco iris capilar. Debido a una complicada enfermedad, Blackmore se vio obligada a permanecer en cama durante mucho tiempo. La mayoría de ese tiempo lo empleó en leer y reflexionar, y una de sus lecturas fue el libro de Richard Dawkins, que la obligó a ir un poco más allá en las implicaciones filosóficas de los memes. Finalmente vertió todas sus conclusiones en su libro La máquina de los memes.

Blackmore sostiene, al igual que Dawkins, que los memes son todo lo que se transmite de una persona a otra mediante la imitación:

 

ello incluye el vocabulario que utilizamos, las historias que conocemos, las habilidades que hemos adquirido gracias a otros y los juegos que preferimos. También hay que tener en cuenta las canciones que cantamos y las leyes que acatamos. Por lo tanto, cuando conducimos un coche por la izquierda (o por la derecha), tomamos cerveza con curry hindú o coca-cola con pizza, cuando silbamos el estribillo de un «culebrón» televisivo o estrechamos la mano a alguien, estamos tratando con memes.

Los memes se esparcen sin hacer ninguna clase de discriminación. No importa su beneficio o su perjuicio intrínseco. De hecho, pueden ser estéticamente horripilantes, como la canción del verano: un día le pareció pegadiza o agradable a un determinado número de personas, pero ahora, aunque se nos haya atragantado, basta que oigamos las primeras notas para que ya no podamos evitar tararearla. Literalmente, estamos contaminados por ella para el resto de nuestra vida.

Y es que los memes sólo se basan en su capacidad para replicarse. Es lo único que les concierne. Replicarse sin descanso, cuanto más, mejor. A nosotros de poco o nada nos sirve pasarnos el día entero recordando alguna frase promocional de un producto, pero a los memes les presta un gran servicio.

Los mecanismos imitativos de la mente son un caldo de cultivo excelente para copiar tonadas. Si una de ellas consigue ser tan popular como para que se incruste en un cerebro y posteriormente transmitirse a otro, lo hará. Si resulta ser extremadamente popular, cantable, recordable, silbable, tiene muchas probabilidades de transmitirse a muchos cerebros. (…) Todo este cantar no tiene ninguna ventaja para nosotros ni para nuestros genes. Sentirse perseguido por esas horribles tonadas es, simplemente, una consecuencia inevitable de poseer un cerebro capaz de imitarlas.

Bajo esta premisa, entonces, podemos entender mejor cómo es posible que canciones tan simplonas y estúpidas como las que se popularizan en verano (y que nos persiguen durante el resto de nuestra vida) tengan una capacidad de contagio tan elevada: sencillamente pueden acceder a más cerebros. Además, las melodías sencillas o repetitivas son más fáciles de recordar. «La música compleja improvisada puede evolucionar aunque es posible que sólo se transmita dentro de un ámbito reducido de músicos expertos o de musicólogos avezados. Es probable que la música realmente sofisticada no sea recordada debido a su complejidad y por lo tanto no se replicará por mucho que produzca placer a sus oyentes.»

Naturalmente, esto es también aplicable a cualquier otra manifestación cultural, como la literatura, los programas de televisión o el cine. Por muy sibaritas o exclusivos que seamos, será prácticamente inevitable que acabemos siendo contagiados por los memes más populares y, a su vez, no podremos evitar también contribuir a la pandemia al transmitirlos a las personas que nos rodean.

Tal vez la prueba más hilarante de esta condición epidémica de los memes sean las últimas palabras pronunciadas por el capitán Berkoz antes de morir. Dieciséis segundos antes de que el vuelo 981 de Turkish Airlines se estrellara contra el suelo, el piloto, el capitán Mejak Berkoz, cantó un jingle publicitario turco, una pegadiza melodía que probablemente había visto en la televisión y que, ni siquiera antes de morir, pudo sacarse de la cabeza.

El divulgador científico Matt Ridley también aporta una divertida anécdota de qué es un meme en su libroGenoma, a través de la relación que mantuvo el antropólogo Lee Cronk con la empresa de calzado deportivo Nike:

Nike hizo un anuncio en la televisión en el que se veía un grupo de personas de una tribu del este de África que levaban botas de montaña. Al final del anuncio uno de los hombres se vuelve hacia la cámara y dice unas palabras. Aparece un subtítulo como traducción en el que pone «Just do it» (hazlo), el eslogan de Nike. Lee Cronk, que habla samburu, el dialecto de los masai, vio el anuncio y fastidió a Nike. Lo que el hombre decía realmente era «no quiero estos zapatos, dame unos más grandes». La mujer de Cronk, periodista, escribió la historia y enseguida apareció en la portada deUSA Today y en el monólogo de Johnny Carson en su programa The Tonight Show. Nike le mandó a Cronk un par de botas grandes; cuando Cronk fue a África otra vez, se las dio a un hombre de la tribu. (…) Pero cuando, unos años después, Internet se expandió, la historia de Cronk encontró un hueco en la Red. A partir de ahí se extendió, sin fecha, como si fuese una historia nueva y Cronk recibe por lo menos una pregunta al mes. La moraleja de la historia es que los memes necesitan un soporte en el que replicarse. La sociedad humana funciona bastante bien; Internet todavía mejor.

Como adelantábamos en la anterior entrega  de este monográfico, los paralelismos entre genes y memes son enormes. Sin embargo, una de las diferencias sustanciales de los genes es que los memes (al menos los buenos memes, con determinado grado de fecundidad, longevidad y fidelidad: por ejemplo, una buena idea, un buen invento, una buena receta de cocina) son capaces de perdurar durante siglos o milenios, como una herencia arqueológica cultural.

Porque, si bien el medio de transmisión de los memes puede ser la palabra escrita, la palabra hablada, un gesto, etc., el lugar donde residen los memes es sin duda el paradigma de la seguridad: miles de cerebros diseminados por todo el planeta. Como si realizáramos una copia de seguridad de los archivos más importantes de nuestro disco duro del ordenador en millones de discos duros de los ordenadores de otras personas.

A menudo los genes y los memes se ayudan y se refuerzan entre sí: la cultura no deja de ser, en parte, un reflejo de nuestro ADN (por ejemplo, nos gusta el acto social de comer porque en nuestro genoma está codificada la necesidad de comer y el placer que la comida nos proporcionará, mayormente si contiene cantidades considerables de grasas y azúcares).

 

Pero esta relación no siempre es tan estrecha. Hay memes que se replican y sobreviven al margen de los genes. Un buen exponente de ello es el meme de la castidad. La castidad, como manifestación genética, no tardaría en desaparecer, porque sencillamente las personas que nacen predispuestas genéticamente a la castidad tendrían menos posibilidades de reproducirse y, por tanto, de transmitir su predisposición a no practicar sexo. No obstante, el meme de la castidad puede tener mucho más éxito, porque una persona casta puede igualmente enseñar a los demás las ventajas morales, sociales o sicológicas de su decisión y, por tanto, contagiarles con el meme de la castidad.

Con todo, una de las propiedades más difíciles de asumir cuando empiezas a entender lo que es un meme es que los memes no tienen entidad física. Un meme no tiene tamaño, ni peso. Tampoco se puede medir, ni observar, ni tampoco catalogar. En ese sentido, un meme es una especie de experimento mental o de metáfora, como la cueva de Platón, el demonio de Descartes, la visión de Hobbes del estado de la naturaleza y el contrato social o la idea de Kant del imperativo categórico. Los memes, pues, están hechos del mismo material del que están hechos los sueños.

Los científicos ni siquiera se ponen de acuerdo sobre lo que es necesario para considerar que algo es un meme y cuándo, en vez de un meme, se trata de un conjunto de memes o de un memeplejo (conjunto de memes que se refuerzan entre sí para crear un meme mayor; por ejemplo, una religión organizada). El filósofoDaniel C. Dennett es probablemente uno de los mayores impulsores de la teoría de la memética, de modo que si queréis profundizar sobre el asunto de los memes, os recomiendo encarecidamente su obra, sobre todo La peligrosa idea de Darwin.

En su obra La peligrosa idea de Darwin, Dennett trata de definir la unidad memética de alguna manera más clara, a fin de que no nos quedemos con la impresión de que los memes son sólo vagos elementos ilusorios. Según Dennet, la unidad memética estaría constituida por el elemento más pequeño que se autorreplica con fecundidad y fiabilidad. Atendiendo a esta definición, Susan Blackmore pone como ejemplo una gota de pintura de un determinado color. Una simple gota de pintura es un meme demasiado pequeño, tan pequeño que no gustará a suficiente número de personas, ni tampoco será objeto de los flashes de las cámaras fotográficas de turistas. Sencillamente, una gota de pintura es algo demasiado común, incluso para Pollock .

Por el contrario, el museo del Louvre o una galería de arte cualquiera constituye un meme demasiado grande. La unidad natural más apropiada sería un cuadro, como por ejemplo El grito de Edgard Munch (sin duda una de las imágenes más empleadas en la cultura popular). Así pues, un meme debe ser lo suficientemente grande como para llevar consigo información que valga la pena copiar; no existe una medida fija para ello:

Los estilos pictóricos, como son el cubismo o el impresionismo, también pueden ser copiados y, por lo tanto, cuentan como memes pero no pueden ser divididos en unidades. Una sola palabra es demasiado corta para otorgarle derechos de autor, pero una biblioteca entera es excesiva para este fin. No obstante, registramos como propiedad intelectual muchas cosas como la apostilla de un anuncio con garra o un libro de cien mil palabras.

Dennett resuelve el problema de que los memes sean entidades de poca precisión comparándolas con las palabras. Para Dennett los memes existen en tanto en cuanto existen las palabras. Por ejemplo, cuando un chico lleva una gorra de béisbol hacia atrás, ¿estamos frente a un meme o frente a dos memes (el de llevar la gorra y el de ponérsela hacia atrás)?. La verdad es que el matiz no es tan problemático como parece, porque este equívoco también se produce en el ámbito del lenguaje y no por ello dudamos de que el lenguaje exista: por ejemplo, ¿la palabra «rompecorazones» es una palabra o son dos?

Tened todo esto en cuenta la próxima vez que una idea se alumbre en el ámbito de vuestro craneo. Probablemente, haya sido alumbrado en otros cráneos, y en el vuestro sencillamente ha germinado.

Como un virus. El virus de la mente.

13/09/2012 23:29 infragon #. Varios No hay comentarios. Comentar.

genciencia.com - ¿Hombres y mujeres deberían percibir un salario idéntico?

¿Hombres y mujeres deberían percibir un salario idéntico? 

 

En demasiadas ocasiones, imponer el bien produce incluso más dolor que hacer el mal. Eso sucede, por ejemplo, porque no siempre conocemos los efectos secundarios que producirá nuestra buena fe.

En otras ocasiones, producir un daño es la única manera de producir un bien mayor (imaginemos que queremos que la gente pueda estacionar su coche en el centro de una ciudad: a priori todos querremos que el aparcamiento fuera gratuito, pero ello solo provocaría grandes atascos y la seguridad de que nunca encontraremos sitio libre. La única forma de estacionar en el centro de una ciudad es imponiendo un pago por estacionar; una lógica que también se aplica a no construir más carreteras: cuantas más aparecen, el tráfico se incrementa, , así que se debe “fastidiar” al conductor con algunos atascos para que se lo piense mejor la próxima vez que quiera usar su coche).

Si nos ponemos a dilucidar los derechos de los ciudadanos en relación a su etnia, su sexo, su religión y demás factores, entonces las buenas y malas acciones todavía se enredan más, confundiéndose unas con otras. A fin de que, entre todos, podamos profundizar un poco más en nuestras ideas al respecto, hoy vamos a tratar un tema ciertamente peliagudo: ¿hombres y mujeres deberían percibir el mismo salario a fin de combatir las desigualdades laborales en relación al sexo?

Dejemos de lado por un rato nuestras ideas preconcebidas y vayamos al meollo.

Lo primero que deberíamos aclarar es si las mujeres SIEMPRE reciben un salario menor debido a su sexo y no a otras razones. En principio, si un hombre y una mujer hacen el mismo trabajo (con el mismo nivel de antigüedad, el mismo nivel de entrenamiento, etc.) deberían percibir el mismo salario (y lo mismo debería suceder en el caso de dos hombres o dos mujeres, aunque también se produzcan injusticias al respecto… lo cual debería hacernos sospechar que, tal vez, no todas las desigualdades salariales respondan a una discriminación sexual).

El problema es que hay algunos sectores laborales dominados casi totalmente por las mujeres, así que no hay hombres en estos sectores que sirvan como clase comparativa, con lo que es difícil aseverar si el bajo salario de una mujer en este contexto se debe necesariamente a una discriminación sexual. Para soslayar esto, se ha aceptado la afirmación discutible de que hombres y mujeres deben recibir igual salario por un trabajo de igual valor (entendiéndose “valor” como la conjunción de cuatro factores básicos: habilidad, esfuerzo, responsabilidad y condiciones de trabajo). A esto se le llama en Estados Unidos “valor comparable”, y en Canadá, “equiparación salarial”.

Si echamos un vistazo a las tablas comparativas de un informe de la Comisión de Derechos Humanos Canadiense, por ejemplo, descubriremos que el trabajo de recepcionista recibía un valor por puntos de 320, el mismo que el trabajador de un almacén. Sin embargo, el recepcionista tenía un sueldo anual de 28.000 dólares, y el trabajador de almacén de 33.000 dólares. Hemos de sospechar, entonces, que algo funciona mal. Quizá es que se está valorando más un trabajo masculino y físico como trabajador de almacén que un trabajo más femenino como recepcionista.

Sin embargo, este razonamiento tiene un punto débil. ¿Por qué las mujeres escogen un trabajo peor pagado cuando podrían ganar más siendo trabajadoras de almacén? La respuesta que enseguida viene a la mente es del tipo “es más difícil que el mercado laboral acoja a una mujer como trabajadora de almacén por pura discriminación de género”. Pero tal y como señala el filósofo Joseph Heath en su libro Lucro sucio:

Pero si ésta es la explicación, la forma correcta de combatir el diferencial salarial sería asegurar que las mujeres tengan igual acceso a tales ocupaciones, eliminar la discriminación a la hora de contratar. La manera más fácil de eliminar los guetos es facilitar que la gente salga de ellos. Pero, desde luego, es dudoso que muchas recepcionistas se interesen por trabajar en los almacenes. Una razón es que la gente tiene diferentes tipos de habilidades y gustos, y tiende a buscar un trabajo lo menos pesado posible, dadas sus preferencias. Los trabajadores del almacén y las recepcionistas no salen de las mismas bolsas de trabajo; las vacantes en un área no se llenarán de solicitantes de la otra. Puede haber una docena de solicitantes para cada trabajo vacante como recepcionista, y sólo dos o tres para trabajos en el almacén. Los trabajadores de almacén acaban siendo mejor pagados simplemente porque están en un mercado de trabajo menos competitivo.

Obviamente, la psicología social y la sociología son ciencias muy blandas y deben controlar muchas variables que aún quedan lejos de sus competencias, así que en ningún momento se afirma aquí que lo que sucede realmente en el mundo es lo que expone Josep Heath. Lo que se afirma es que no se puede inferir la presencia de discriminación por el simple hecho de que se retribuya el trabajo de igual dificultad con distintas remuneraciones. Lo que se afirma, en definitiva, es que las cosas no siempre son tan sencillas y básicas como parecen.

Pero lo cierto es que los salarios no solo se establecen en base a la dificultad de un trabajo o la habilidad requerida para llevarlo a cabo, sino también en base a si se requiere más o menos gente para desempeñar el trabajo en cuestión. Precisamente los trabajos esencialmente femeninos adolecen del mismo problema: mucha gente (mujeres) compiten por una oferta limitada de trabajo. Ello devalúa los salarios, independientemente de si existe discriminación por género o no.

De nuevo, si ésa es la situación, entonces no estamos tratando el problema con los mecanismos adecuados:

Desde luego, la limitación de las opciones de carreras profesionales que han tenido históricamente las mujeres es el legado de una discriminación en otros sectores. Las mujeres han hecho tradicionalmente ciertos tipos de trabajo porque se les negaban otras opciones. La solución, en cualquier caso, no es incrementar los salarios del sector femenino: precisamente, eso envía la señal equivocada. Se debe desincentivar a las mujeres a buscar trabajo en campos sobresaturados, no retribuirlas con salarios mayores. Los empleadores a gran escala, como el Gobierno, pueden igualar los salarios en algún grado (lo mismo que las universidades pueden pagar en exceso a los profesores de Filosofía), pero los efectos sobre los incentivos a menudo son perversos.

Por ejemplo, si se paga mucho más a los médicos que a las enfermeras, también es porque toda una generación de mujeres que podían haber sido doctoras se vio forzada a trabajar como enfermeras. Los salarios de las enfermeras no ascendió, y las mujeres empezaron a desear convertirse en doctoras para ganar dinero. Hasta el punto de que ahora los hospitales están empezando a sufrir un déficit de enfermeras preparadas.

Ello, irónicamente, está provocando que los salarios de las enfermeras estén creciendo, al tiempo que decrecen los salarios de las médicos (en parte porque las médicos trabajan, de media, menos que los médicos). Como veis, las causas y efectos de cada acto son difíciles de gobernar e incluso de predecir.

Y no toda diferencia entre sexos se debe necesaria y exclusivamente a una discriminación por sexo.

Una vez eliminada la discriminación activa contra las mujeres en las escuelas de Medicina, la desigualdad de pago se elimina sin que haga falta tomar cartas en el asunto e influir en los salarios. Si hace 20 años hubiéramos incrementado artificialmente los salarios de las enfermeras, habría sido negativo para el objetivo más amplio de lograr la igualdad de género, en tanto que habría disminuido el incentivo que tantas mujeres jóvenes tienen para convertirse en doctoras.

Otro asunto que debemos tener en cuenta es si realmente las mujeres tienen las mismas ganas de trabajar y de ganar el máximo dinero posible que los hombres. Si no fuera así, entonces incentivar la igualdad salarial sería en realidad discriminatorio para que los tienen más ambición, pertenezcan al sexo que pertenezcan.

Este espinoso asunto ha sido tratado más ampliamente en el artículo ¿Por qué las mujeres perciben un salario inferior al de los hombres? (I) y (y II).

Recordemos que son estudios que no controlan todas las variables, pero precisamente por ello deberíamos ser cautos a la hora de inclinar la balanza de nuestra opinión hacia un lado u otro, y no dar las cosas siempre por sentado. De ello no se denota que seamos machistas o feministas, sino honrados intelectualmente.

Y ahora del dabate queda abierto.

13/04/2012 14:13 infragon #. Varios Hay 1 comentario.

Blog de ingenieria - A construcción las primeras 100 unidades del Terrafugia Transition

A construcción las primeras 100 unidades del Terrafugia Transition
  

 

Terrafugia Transition

En las películas de ciencia-ficción de finales del siglo pasado era muy común ver autos voladores, lo que a muchos nos hacía pensar que para inicios de este nuevo milenio serían una realidad tangible. Con el correr de la década del 2000 nos fuimos dando cuenta que quizá tardaríamos un poco más en ver autos  voladores por las ciudades del mundo. Sin embargo, parece que la espera está terminando.

Hace apenas unos ochos meses que el Departamento de Transporte de Estados Unidos le dio autorización al concepto de auto volador Terrafugia Transition para circular por la vía púbica, después de realizar una serie de pruebas, lo cual le brindó un nuevo aire al proyecto que fue presentado desde 2008, pero que por diversos motivos sufrió varios retrasos que pusieron en peligro que se llevara a cabo.

Terrafugia Transition

El Terrafugia Transition es considerada por la Administración de Seguridad Vial de aquel país como unaaeronave deportiva ligera, la cual ha tenido que sufrir varios rediseños para adaptarse a las normativas vigentes y también mejorar su desempeño. Este vehículo  tiene aún mucho camino por delante para convertirse en un vehículo de producción masiva, pero lo cierto es que ya ha comenzado a recorrer dicho camino.

Gracias a que la empresa mejoró su imagen publicitaria ha conseguido en financiamiento adecuado para llevar a producción a su híbrido, para lo cual se construirán las primeras 100 unidades que estarán disponibles para finales de este año; aunque claro está que no podía faltar su presentación oficial, la cual ocurrirá durante elSalón del Automóvil Internacional de  Nueva York.

El Terrafugia solo puede transportar un máximo de 150 kilogramos, incluyendo el peso de los dos pasajeros. Enmodo automóvil alcanzará la nada envidiable velocidad de 105 km/h; pero lo bueno viene en su modo avión, donde alcanzará 185 km/h de velocidad y dispondrá de una autonomía de 787 kilómetros gracias a ss tanque de 87 litros de capacidad de gasolina sin plomo.

Para aquel que va a apartar uno de los primeros cien deberá deshacerse de unos 279,000 dólares, que pues bueno, para aquellos que lo puedan pagar y gusten de ser pioneros en probar tecnologías seguro que no habrá ningún problema; los demás tendremos que esperarnos algunas décadas a que se abaraten los costos.

Vía: Design Boomm  

16/03/2012 21:23 infragon #. Ingeniería No hay comentarios. Comentar.

Infografía: entre el pasado y el futuro del caza MiG de Blog ingeniería de Olmo Axayacatl

 

Caza MiG

Caza MiG | Fotografía de Estrella Roja

Los aviones caza de la serie MiG nacieron de la mano de los ingenieros especializados en diseño de aviones de combate de la Oficina de Diseño Mikoyán y Gurévich. Actualmente y desde 2006 es una división de la Russian Aircraft Corporation, ya que el gobierno ruso la fusionó con un nutrido grupo de empresas del sector aeronáutico de Rusia.

Los MiG son diseñados en el Centro de Ingeniería de AI Mikoyán Design Bureau, en donde trabajan en desarrollar la fiabilidad, el desempeño y la sencillez de funcionamiento de aeronaves de alto desempeño. Una vez realizadas las pruebas y aprobado el diseño, la construcción se realiza en tres centros de fabricación que operan de manera individual pero en estrecha colaboración y que están en Moscú, Lujovitsy y Tver.

Caza MiG, su pasado y su futuro

Caza MiG, su pasado y su futuro | Fotografía de RIAN

La división fue fundada en 1939 por el armenio Artiom Ivánovich Mikoyán y el ruso Mijaíl Iósifovich Gurévich, y es de Mikoyán y Gurévich de donde proviene el nombre dado a los cazas MiG. Actualmente la Russian Aircraft Corporation es la empresa líder de la industria de la aviación rusa y cumple con el marco legal de los requisitos internacionales para asegurar la calidad se los elementos que componen su aeronaves.

Todos y cada uno de sus procesos son supervisados bajo estrictas normas de construcción, desde el desarrollo del concepto inicial y el diseño de detalle, la fabricación de prototipos y sus pruebas, la comercialización, planificación previa a la producción y la producción en serie, hasta el soporte técnico durante la operación, modernización, así como la capacitación del personal de vuelo, técnicos e ingenieros.

La infografía mostrada nos brinda algunos datos interesantes de estos aviones tan emblemáticos, como que se han construido 60,000 cazas MiG en 70 años; además de presentarnos a los MiG más famosos de la historia y algunos de sus detalles básicos. Sin duda una excelente infografía para aquellos apasionados de la aviación.

Vía: RIAN

12/03/2012 01:23 infragon #. Ingeniería No hay comentarios. Comentar.

gencincia.com - 10 métodos para medir el tiempo

reloj de sol

Ya os comentaba en ¿Por qué el día tiene 24 horas? de dónde venía esa división del tiempo.

En esta ocasión, me gustaría contaros 10 métodos para medir el tiempo.

A través de los siglos, las personas hemos creado algunos métodos bastante curiosos para medir el tiempo, desde los relojes de sol, muy básicos, hasta los relojes atómicos de cesio de hoy día.

Vamos a echar un vistazo a una gran variedad de métodos, unos conocidos, otros no tanto y otros que son tan antiguos como el mismo tiempo.

10. El Sol

Como os dije en su momento, los egipcios fueron la primera civilización que aportaron a la ciencia objetos que hacían funciones de reloj. Ellos construyeron los obeliscos alrededor de 3500 A.C. y los colocaron en lugares estratégicos donde se proyectaban sombras. Al principio, estos obeliscos sólo permitían saber cuando era el mediodía, pero más tarde marcó el tiempo en otras subdivisiones.

Pasados los años los egipcios desarrollaron los primeros relojes de sol que funcionaban mediante el seguimiento del Sol.

Una hoja proyecta una sombra que apunta a un número marcado en la cara del reloj de sol, como una especie de reloj con sólo la manecilla de las horas.

Por supuesto, con un reloj solar no se podía saber la hora en un día nublado o de noche. También era inexacto porque el Sol está en ángulos diferentes en las distintas estaciones del año, las horas eran más o menos largas dependiendo de la temporada.

Sin embargo, un reloj de sol era mejor que nada, y allá por el año 30 A.C. estaban en uso más de 30 tipos diferentes en Grecia, Italia y Asia Menor.

Incluso hoy en día, el Sol está en el centro de nuestro sistema de cronometraje, ya que las zonas horarias están establecidas por la rotación de la Tierra con respecto al Sol.

9. Las Estrellas

Fueron también los antiguos egipcios los que desarrollaron el primer método de medida del tiempo en la noche. Para ello, inventaron la primera herramienta astronómica, alrededor de 600 A.C., el merjet.

Un merjet es una cadena con un peso en el extremo utilizado para medir una línea recta, al igual que un carpintero hoy día utiliza una plomada.

Los astrónomos egipcios alineaban dos merjets con la estrella Polar y la usaban para marcar una línea norte-sur en el cielo nocturno. El tiempo se contaba conforme ciertas estrellas cruzaban esa línea.

Las estrellas también se pueden utilizar para marcar el paso, no sólo de horas, sino días. Esta medición de la rotación de la Tierra se denomina tiempo sideral.

Cuando cierto punto imaginario entre las estrellas cruza un meridiano se llama medio día sideral. El tiempo transcurrido desde un medio día sideral a otro se le llama día sideral.

arena

Los seres humanos hemos estado midiendo el tiempo durante un período relativamente corto de nuestra historia.

El deseo de sincronizar nuestras actividades llegó hace unos 5.000 o 6.000 años cuando nuestros antepasados ​​nómadas comenzaron a asentarse y construir civilizaciones.

Antes de eso, dividíamos el tiempo en días y noches; días brillantes para la caza y oscuras noches para dormir.

Pero cuando la gente comenzó a sentir la necesidad de coordinar sus acciones, ser puntuales para las reuniones públicas, por ejemplo, necesitaban un sistema unificado para medir el tiempo.

8. Reloj de arena

Cualquiera que haya visto El mago de Oz conoce el poder de este reloj. ¿Quién no se asustó cuando la malvada Bruja del Oeste entregó este reloj a Dorothy y le dijo que sólo tenía una hora de vida?

El reloj de arena se remonta siglos. Se compone de dos ampollas de vidrio, una encima de la otra, con una abertura estrecha entre ellas. La arena se extiende desde la parte superior de la bombilla a la parte inferior cuando el reloj se vuelca.

Cuando se vacía el bulbo superior el tiempo se acaba, pero no necesariamente tiene que ser una hora, como hasta ahora todos los relojes. Un reloj de arena podía ser construido para medir casi cualquier período corto de tiempo mediante la alteración del tamaño de la abertura entre los bulbos o cambiando la cantidad de arena en el vaso.

7. Los relojes de agua

Los relojes de agua, conocidos como clepsidras (del griego “ladrón de agua”), se encontraban entre los primeros dispositivos que no necesitaban el sol o las estrellas para calcular el tiempo, lo que significa que podría ser utilizado en cualquier momento del día.

Los relojes de agua funcionan mediante la medición de agua que gotea de un recipiente a otro. Fueron inventadas en Egipto, pero su uso se extendió en todo el mundo antiguo y hasta bien entrado el siglo XX la gente todavía tenían relojes de agua.

Los antiguos griegos y romanos construyeron impresionantes torres para albergar sus relojes de agua. En China a estos relojes se les llamaba Lou y a menudo eran de bronce.

Sin embargo, a pesar de que los relojes de agua fueron una imposición de estructuras, no eran muy precisos.

6. Relojes curiosos

A través de los siglos, las personas han desarrollado todo tipo de maquinaria para saber la hora.

Los chinos inventaron el reloj de incienso entre 960 y 1279, y su uso se extendió en todo el este de Asia. Se trataba de un tipo de reloj con unas bolas de metal con una cuerda. Cuando el incienso se consumía, las bolas caían haciendo sonar un gong que anunciaba la hora.

Otro ejemplo son los relojes de vela que numeraban unas marcas. Cuando la vela se quemaba a una marca determinada, el dial anotaba el tiempo. Era muy usado en los monasterios para las vigilias.

clock

Muchos podéis decir que nos estamos engañando a nosotros mismos si realmente pensamos que mantenemos noción del tiempo, si es real o no lo es.

Albert Einstein dijo:

La distinción entre pasado, presente y futuro es sólo una ilusión obstinadamente persistente

Sus paseos más allá de la torre del reloj en Berna, Suiza, le llevaron a algunas ideas que cambiaron la naturaleza del tiempo, cosa que veremos más tarde.

Si el tiempo es real o no, la medición del tiempo se ha convertido en algo vital para nuestras vidas y eso no hay quien lo niegue.

5. Los relojes mecánicos

En Europa, durante 1300, las musas de la invención empezaron a hacer los relojes mecánicos que se ejecutaban gracias a un sistema de pesos y muelles. Estos primeros relojes no tenían agujas, sólo una campana que sonaba cada hora en punto.

Estos primeros relojes grandes se instalaron en las iglesias o monasterios para anunciar las oraciones y servicios.

Pronto los relojes con agujas comenzaron a aparecer, y más tarde, una vez que el péndulo se fue refinando, se añadió otra manilla para realizar un seguimiento de los minutos.

El desarrollo de los muelles allanó el camino para la fabricación de relojes de mesa, aunque eran notoriamente inexactos.

En 1714, el Parlamento británico ofreció una recompensa a cualquiera que pudiera diseñar un reloj de precisión para ayudar en la navegación marítima. El reloj ganador eran tan exacto que tenía un error de sólo cinco segundos por cada seis semanas y media.

Pero no fue hasta la Revolución Industrial cuando comenzó la producción masiva de relojes.

4. Relojes de pulsera

El descubrimiento de resortes espirales que permitían mover las manecillas de un reloj hizo posible que un diseño más pequeño fuese posible.

Los relojes de bolsillo estaban a la orden del día en hombres, mientras que los relojes de pulsera eran considerados joyas, aunque sólo para mujeres.

Todas esas reglas de moda cambiaron durante la Primera Guerra Mundial, cuando mirar la hora en un reloj de bolsillo era imposible durante la batalla. Durante el resto del siglo XX, casi todo el mundo, especialmente los hombres, llevaban relojes de pulsera.

Regalar un reloj simboliza el paso a la edad adulta y muchas empresas se prestaban a obsequiar con un reloj de oro en las jubilaciones.

Actualmente el reloj de pulsera va perdiendo estilo y uso. En casa o en el trabajo podemos ver la hora en el ordenador, mientras que si estamos fuera en los teléfonos móviles, etc. ¿Qué será de ellos?

dali

Y para terminar con esta obsesión por el tiempo quería hacerlo con las formas “más modernas” de medirlo. Aunque no todo van a ser relojes…

3. Relojes de cuarzo

Cuando el reloj de cuarzo apareció una especie de electricidad comenzó a mover las manillas, dejando atrás los engranajes y pesos.

El cuarzo es piezoeléctrico, lo que significa que cuando un cristal de cuarzo se presiona genera una pequeña corriente de electricidad que hace que el cristal vibre. Todos los cristales de cuarzo vibran en la misma frecuencia.

Los relojes de cuarzo utilizan una batería para crear la vibración del cristal y un circuito para contar las vibraciones. El circuito utiliza esta información para generar un pulso cada segundo. Estos pulsos sirve de energía en los engranajes de un reloj mecánico o de alimentación en la pantalla de un reloj digital.

Los relojes de cuarzo siguen dominando el mercado debido a su precisión y el bajo coste de producción.

2. Relojes atómicos

Aunque el nombre suena un poco amenazante, los atómicos relojes no son peligrosas en absoluto. Miden el tiempo mediante el seguimiento de cuánto tarda un átomo en cambiar su estado de energía de positivo a negativo y viceversa.

El tiempo estándar oficial de los Estados Unidos se establece por el NIST F-1, el reloj atómico de cesio del Instituto Nacional de Ciencia y Tecnología (NIST) en Boulder, Colorado.

Los científicos introducen el gas de cesio en la cámara de vacío del reloj, a continuación dirigen haces de láser infrarrojo en ángulos de 90 grados hacia el centro de la misma. Los láseres obligan a los átomos, pegados en una bola, a dirigirse a una zona llena de microondas.

Los científicos miden el número de átomos con los estados alterados y ajustan las microondas de distintas frecuencias para que la mayoría de los átomos se alteren. Esta frecuencia final es la frecuencia de resonancia natural para los átomos de cesio y constituye el número de oscilaciones que definen un segundo.

Suena complicado, pero el resultado es un valor estándar para el segundo. Los relojes de todo el mundo pueden configurarse automáticamente del estándar NIST por zona horaria.

El reloj atómico mantiene un registro de tiempo en el nivel más minúsculo.

1. Calendarios

Como hemos visto, el recuento real de los minutos y los segundos requiere algunos procedimientos complejos y maquinaria, pero el recuento de días y meses se basa en algo que cualquiera puede observar, la posición del sol y la luna. Las diferentes culturas utilizan diferentes métodos.

El calendario gregoriano (o cristiano), el más usado y común hoy en día, se basa en el Sol. El calendario islámico utiliza las fases de la luna. Mientra que los calendario judíos y chinos se basan en una combinación de ambos métodos.

En el calendario gregoriano un día es una rotación completa de la Tierra sobre su eje. Un mes tiene unos 29,5 días, lo cual es un ciclo completo de fases de la luna, y un año es 364.24 días, el tiempo que tarda la Tierra en orbitar alrededor del Sol.

Para regular todo se crearon los años bisiestos, que duran 366 días en vez de los 365 de un año común. Es porque de cada año sobran 6 horas y en 4 años son 24 horas, eso forma un día. Por cierto, ¡Felíz día extra!

Vía | Discovery

01/03/2012 22:42 infragon #. Varios No hay comentarios. Comentar.

Feliz Año 2012

Ya es año nuevo en varias partes del mundo, que este venidero año les cubra de bendiciones y cosas buenas, que los retos y las metas alcanzadas abunden, que los logros de la ingenieria nos sorprendan, que nos abismen las posibilidades de todo lo que podamos aplicar de esos descubimientos, que cosas tan abstractas y fantasticas como la energía de punto cero, antimateria, la matería obscura sirvan para mejorar las condiciones de vida de la humanidad.

Que logremos comenzar a trazar la ruta para cruzar el camino hacia las estrellas sean con agujeros de gusanos o a través de la teletransportación, pero que llevemos la causa de la justicia y el bien común a donde quiera que empredamos nuestra travesia.

Pero sobre todo que encontremos como aprovechar mejor los recursos naturales de nuestro mundo y como reducir el impacto de nuestra presencia y nuestra industria, que esta nave-mundo que habitamos nos sirva como base para la conquista del universo.

Feliz Año.

Msc Francisco González

Webmaster.

31/12/2011 16:20 infragon #. Ingeniería No hay comentarios. Comentar.

¿Los robots nos desplazaran de nuestros trabajos? y 1 mas | Blog ingenieria

¿Los robots nos desplazarán de nuestros trabajos? y 1 más | Blog ingeniería 

 

¿Los robots nos desplazarán de nuestros trabajos?

Posted: 05 Dec 2011 11:47 AM PST

¿Seremos desplazados por los robots?

¿Seguiremos siendo los “amos” en un futuro? | Fotografía de mightyohm

El debate sobre este tema no ha hecho más que empezar, apenas y se pueden encontrar posiciones al respecto en la web, lo cierto es que con cada avance que se da en el campo de la robótica estamos más cerca de comenzar las discusiones masivas al respecto. Creo fervientemente que en general somos una raza que actúa hasta que se siente amenazada, es difícil para nosotros preveer ciertos peligros y hasta que ya son inminentes tratamos de encontrar soluciones.

Hablando de avances en la robótica, estos se han empezado a dar cada vez con mayor frecuencia, estamos ante robots queescalan paredes lisas, incluso ya son capaces de vencernos resolviendo el tan famoso Cubo de Rubik, otros ya incluso practican deportes un tanto más físicos como el hockey. A diferencia de otras ramas de la ingeniería, como es el caso de lamecánica, que lleva siglos de desarrollo, en la robótica estamos hablando de décadas.

Hoy juguetes... ¿mañana?

Hoy juguetes… ¿mañana? | Fotografía de stephendann

Mi opinión es que si, los robots nos desplazarán tarde o temprano de industrias completas, de hecho, no es nada de lo que nos debamos sorprender pues es algo que ya se esta dando en la armadoras automotrices, donde un gran número de robots son los encargados de ensamblaje de los autos, y donde las personas ya solo son requeridas para cuestiones de detalles.

El hecho es que todas las tareas repetitivas, tediosas y peligrosas serás realizadas por las máquinas, lo que nos orillará a dedicarnos a cuestiones creativas, aspecto donde los cacharros no nos superan, y espero de verdad que no lo hagan hasta dentro de un buen tiempo, no porque este en contra del desarrollo tecnológico sino porque como sociedad aún no estamos preparado para ello.

También se requerirá personal capacitado para brindar soporte técnico cuando las máquinas fallen; los programadores también tienen el sustento asegurado y en general todos aquellos que se enfoquen en cuestiones tecnológicas específicas que requieran pensar, ofrecer ideas frescas y soluciones a problemas complejos.

El problema serán quienes no entran en esta descripción, que implica la totalidad de la base obrera, por lo que invito a comenzar a reflexionar sobre el futuro y posibles soluciones, aunque tengo por seguro que detener el progreso no es una de ellas. Déjanos tu opinión en los comentarios.

Nuevo material supernegro desarrollado por la NASA.

Posted: 05 Dec 2011 11:41 AM PST

Corte donde se muestran las hileras de nanotubos

Corte donde se muestran las hileras de nanotubos | Fotografía de NASA

El término oscuridad tendrá a partir de ahora un significado aún más profundo, pues ingenieros de la NASA han producido un material capaz de absorber el 99% de la luz que incide sobre él, lo que incluye además del espectro visible (detectable por los seres humanos) las longitudes de onda ultravioleta, infrarrojo e infrarrojo lejano, detectables solo con ayuda de sofisticados aparatos.

Pero ¿qué implica este desarrollo? De principio podrá ser aplicable en cuestiones de tecnología espacial. Actualmente en la mayoría de instrumentos utilizados para la investigación del espacio se suele utilizar pintura negra, que tiene solo un 90% de absorción y se vuelve plateada debido a las bajas temperaturas.

Según John Hagopian, líder del equipo, las pruebas de reflectancia indican que se ha extendido en 50 veces el rango de capacidad de absorción del material, llegando a ser casi perfecta desde el ultravioleta hasta el infrarrojo. Siendo específicos el material absorbe el 98.0% de las longitudes de onda comprendidas entre el infrarrojo e infrarrojo lejano, mientras que en el espectro de luz ultravioleta y visible alcanza casi la perfección, con 99.5%.

Acercamiento a la superficie del material

Acercamiento a la superficie del material | Fotografía de NASA

El material mencionado esta compuesto por nanotubos de carbono acomodados en hileras fibrosas verticales, las cuales tienen el impresionante grosor de 10,000 veces más delgadas que un cabello humano. El proceso para obtenerlo es algo complejo e implica calentar a 750ºC una serie de elementos como silicio, titanio y acero inoxidable principalmente, que son muy usados para construir aparatos de medición que se mandan al espacio debido a su gran estabilidad.

La forma en que este material funciona es atrapando la luz en los pequeños espacios que existen entre los nanotubos. Para darnos una idea de su textura podríamos imaginar una especie de alfombra peluda de tamaño microscópico, es decir, una superficie completamente rugosa que evita que al chocar la luz esta pueda rebotar como ocurre con las superficies lisas.

Ahora con la implementación de este nuevo material las mediciones que se realicen podrán ver incrementada su precisión, pues junto con la completa absorción de luz el material también es capaz de disipar calor, por lo que los instrumentos tendrán un mejor rendimiento.

Vía:  NASA

05/12/2011 22:39 infragon #. Ingeniería No hay comentarios. Comentar.

Presentacion 50 Aniversario CIV - COL "Inspeccion y Residencia de Obras"

La Inspección y Residencia de Obras<_script type="text/javascript">(function() { var scribd = document.createElement("script"); scribd.type = "text/javascript"; scribd.async = true; scribd.src = "http://www.scribd.com/javascripts/embed_code/inject.js"; var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(scribd, s); })();

Como afiliado ASME es un compromiso dar cumplimiento a sus programas y actividades, este año ASME OLD GUARD celebra su 75 aniversario, el espíritu de ese programa ASME, implica transmitir los conocimientos y experiencias a los jovenes generaciones profesionales, lo cual es totalmente análogo al que impulsa a al sede Tamare la cual ha trabajado todo el año en programas de promoción y desarrollo.

Esta Ponencia se desarrollo con motivo a las jornadas técnicas del 50 aniversario del CIV Costa oriental del Lago, 150 años del CIV y enmarcado en el refeerido espíritu del programa vieja guardia de ASME, esperamos sea de su agrado.

Ing Msc Francisco J Gonzalez R

Ingeniero Consultor

 


Etiquetas: , , , , , , , , ,

06/11/2011 18:54 infragon #. sin tema No hay comentarios. Comentar.

Entrevista 50 aniversario del CIV-COL Tamare

La presente nota inclye el enlace que permite accesar a la entrevista que el administrador de esta Blog Msc Francisco González realizara a la Lic Belkis Burgos, con respecto al aniversario de la sede Costa Oriental del Lago en el marco de la celebración del Día del Ingeniero.

29/10/2011 20:29 infragon #. sin tema No hay comentarios. Comentar.

CIDEZ solicita al CIV reconocimiento a Rafael María Baralt como Ingeniero

El presidente del Centro de Ingenieros del Estado Zulia (CIDEZ), Ing. Alfonzo Gutiérrez, informó que se le solicitará a la Asamblea Nacional de Representantes del Colegio de Ingenieros de Venezuela, la inclusión del nombre de Rafael María Baralt en el salón principal (auditorio) del CIV
Foto:

El presidente del Centro de Ingenieros del Estado Zulia (CIDEZ), Ing. Alfonzo Gutiérrez, informó que se le solicitará a  la Asamblea Nacional de Representantes del Colegio de Ingenieros de Venezuela, la inclusión del nombre de Rafael María Baralt  en el salón principal (auditorio) del CIV y develación de un busto, como parte de los actos conmemorativos del 150 aniversario de la fundación del Colegio de Ingenieros de Venezuela  Destacó el Ing. Gutiérrez que Baralt,  nacido en Maracaibo el 3 de julio de 1810, se destacó como brillante intelectual, y fue el primer ingeniero-militar egresado de la Academia Militar de Matemáticas en 1836, lo que equivale hoy al título de ingeniero. Se destacó como escritor, periodista, historiador, filólogo, crítico y poeta. Baralt estudió latín y filosofía en la célebre Universidad de Bogotá donde se graduó de bachiller en 1830.
En sus declaraciones, el Ing. Gutiérrez recordó que en fecha reciente, en una sesión solemne,  el Consejo Legislativo del Estado Zulia (CLEZ)  otorgó la Orden “Rafael María Baralt” en su primera clase a destacados profesionales de la ingeniería y la arquitectura. Fueron 35 los homenajeados y un post mortem a la resaltante trayectoria de Justo Márquez Muñoz. El acto fue en la sede del Colegio de Ingenieros del Estado Zulia.
El presidente del CIDEZ, Ing.  Alfonso Gutiérrez, puso de relieve su complacencia  ante esta consideración por parte del cuerpo legislativo de la región y destacó la importancia de la institución a la cual representa. Dijo que “este fue el primer Centro  de Ingenieros fundado en el interior del país; somos asesores en materia de ingeniería para el municipio y para la Gobernación y por eso hacemos énfasis en las obras que son necesarias en el Zulia”.
Foto.
El presidente del Centro de Ingenieros del Estado Zulia, Ing.
Alfonzo Gutiérrez

14/10/2011 15:43 infragon #. Varios No hay comentarios. Comentar.

Ingeniería de Confiabilidad; Pilar Fundamental del Mantenimiento por Medardo Yañez, Reliability and Risk Management S.A

Ingeniería de Confiabilidad; Pilar Fundamental del Mantenimiento

Este trabajo se enfoca en el “Diagnóstico proactivo e integrado de equipos, procesos y/o sistemas”, como la base fundamental del mantenimiento.

Se define “Diagnóstico proactivo e integrado” como un proceso que busca caracterizar el estado actual y predecir el comportamiento futuro de equipos, sistemas y/o procesos, mediante el análisis del historial de fallas, los datos de condición y datos técnicos, con la finalidad de identificar las acciones correctivas y proactivas que puedan efectivamente optimizar costos a través de la sistemática reducción de la ocurrencia de fallas y eventos no deseados, y minimizar en consecuencia, su impacto en el negocio medular. Adicionalmente, se destaca a la Ingeniería de Confiabilidad como el marco teórico-conceptual en el que conviven las metodologías y técnicas para lograr este fin; y adicionalmente se define Confiabilidad Operacional como un proceso de mejora continua, que incorpora, en forma sistemática, avanzadas herramientas de diagnóstico, metodologías basadas en confiabilidad y el uso de nuevas tecnologías, en la búsqueda de optimizar la planificación y la toma de decisiones. “Ingeniería de Confiabilidad; porque una de las mejores formas para agregar valor; es evitar que se destruya” [1] 

1.- Modelos de Decisión en Mantenimiento

En años recientes, grandes corporaciones especialmente del sector de hidrocarburos y de la industria de procesos, han volcado su atención hacia el modelo de decisión “Costo Riesgo”, debido a que el mismo permite comparar el costo asociado a una acción de mantenimiento contra el nivel de reducción de riesgo o mejora en el desempeño debido a dicha acción.; en otras palabras, el modelo permite saber “cuanto obtengo por lo que gasto”. 

El análisis “Costo-Riesgo” resulta particularmente útil para decidir en escenarios con intereses en conflicto, como el escenario “Operación – Mantenimiento”, en el cual el operador requiere que el equipo o proceso opere en forma continua para garantizar máxima producción, y simultáneamente, el mantenedor requiere que el proceso se detenga con cierta frecuencia para poder mantener y ganar confiabilidad en el mismo. El modelo Costo-Riesgo es el indicado para resolver el conflicto previamente mencionado, dado que permite determinar el nivel óptimo de riesgo y la cantidad adecuada de mantenimiento, para obtener el máximo beneficio o mínimo impacto en el negocio.[2]

La figura 1 muestra gráficamente el modelo mencionado, y en el mismo pueden destacarse tres curvas que varían en el tiempo:

- La curva del nivel de riesgo (riesgo = probabilidad de falla x consecuencia), asociado a diferentes periodos de tiempo o frecuencias de mantenimiento

.- La curva de los costos de mantenimiento, en la cual se simulan los costos de diferentes frecuencias para la acción de mantenimiento propuesta

ingenieria_1sm

Para ampliar la imagen haga clic sobre ella, regrese utilizando su navegador.

La curva de impacto total, que resulta de la suma punto a punto de la curva de riesgos y la curva de los costos de mantenimiento. El “mínimo” de esta curva, representa la frecuencia para la cual la suma de los costos de la política de mantenimiento con el nivel de riesgo asociado a esta política son mínimos; es decir hay el “mínimo impacto posible en el negocio” Este mínimo esta ubicado sobre el valor que puede traducirse como el periodo o frecuencia óptima para la realización de la actividad de mantenimiento. Un desplazamiento hacia la derecha de este punto implicaría “asumir mucho riesgo” y un desplazamiento hacia la izquierda del mismo implicaría “gastar demasiado dinero”.

La dificultad para el uso del modelo, se centra en la estimación o modelaje de la curva del riesgo, ya que la misma requiere la estimación de la probabilidad de falla (y su variación con el tiempo), y las consecuencias En la próxima sección, se detallan las herramientas para lograr el correcto modelaje y estimación del riesgo.

2.- Riesgo, un indicador para el Diagnóstico Integrado

El riesgo R(t), base fundamental del modelo de decisión descrito en la sección anterior, es un término de naturaleza probabilística, que se define como “egresos o pérdidas probables consecuencia de la probable ocurrencia de un evento no deseado o falla”, y comúnmente se expresa en unidades monetarias, (Bs. o $).[1],[3]. Matemáticamente, el riesgo se calcula con la siguiente ecuación:

Riesgo(t)=Probabilidad de Falla(t) x Consecuencias

El análisis de la ecuación del riesgo, permite entender el poder de este indicador para el diagnóstico y la toma de decisiones, debido a que el mismo combina probabilidades o frecuencias de fallas con consecuencias, permitiendo la comparación de unidades como los equipos rotativos, que normalmente presentan alta frecuencia de fallas con bajas consecuencias, con equipos estáticos, que normalmente presentan patrones de baja frecuencia de fallas y alta consecuencia.

La figura 2, refleja gráficamente lo expresado en el párrafo anterior

ingenieria_2s

Para ampliar la imagen haga clic sobre ella, regrese utilizando su navegador.

El riesgo, se comporta como una balanza, que permite pesar la influencia de ambas magnitudes (Probabilidad de Falla y Consecuencia de la Falla) en una decisión particular.

El mantenimiento moderno, sustentado en la Ingeniería de Confiabilidad, requiere de un cuidadoso proceso de diagnóstico de equipos y sistemas. El diagnóstico, basado en el “riesgo”, puede entenderse entonces como un proceso que busca caracterizar el estado actual y predecir el comportamiento futuro de equipos y sistemas.

Para el logro de un diagnóstico integrado, el riesgo debe calcularse usando toda la información disponible; es decir, debe incluir el análisis del historial de fallas, los datos de condición y datos técnicos. De esta forma, se podrán identificar las acciones correctivas y proactivas que puedan efectivamente optimizar costos y minimizar su impacto en el negocio medular.

La figura 3, muestra el proceso de “Diagnóstico Integrado”

ingenieria_3s

Para ampliar la imagen haga clic sobre ella, regrese utilizando su navegador.

Entendiendo entonces que el “riesgo” es el indicador para un diagnóstico integrado, se analizará a continuación en detalle, el proceso para estimarlo.

3.- Estimación de Riesgo

Como se mencionó en el punto 2, el cálculo del riesgo, involucra la estimación de la Probabilidad de Fallas y/o la Confiabilidad, (Confiabilidad = 1 – Probabilidad de Fallas), y de las Consecuencias. La figura 4 muestra la descomposición del indicador “riesgo” en sus componentes fundamentales. En ella se muestra claramente que para calcular riesgo, deben establecerse dos (2) vías, una para el calculo de la confiabilidad y/o la probabilidad de fallas, en base a la historia de fallas o en base a la condición; y otra para el cálculo de las consecuencias.

ingenieria_4s

Para ampliar la imagen haga clic sobre ella, regrese utilizando su navegador.

3.1.- Estimación de la Probabilidad de Fallas y/o la Confiabilidad.

Para la estimación de la confiabilidad o la probabilidad de fallas, existen dos métodos que dependen del tipo de data disponible; estos son:

  • Estimación Basada en Datos de Condición, altamente recomendable para equipos estáticos, que presentan patrones de “baja frecuencia de fallas” y por ende no se tiene un “historial de fallas” que permita algún tipo de análisis estadístico.
  • Estimación Basada en el Historial de Fallas: recomendable para equipos dinámicos, los cuales por su alta frecuencia de fallas, normalmente permiten el almacenamiento de un historial de fallas que hace posible el análisis estadístico.

3.1.1.- Estimación de Confiabilidad Basada en Condición

El análisis tradicional de confiabilidad, basado en el análisis estadístico del tiempo para la falla, ha sido exitosamente utilizado para mejorar el mantenimiento preventivo y traer los equipos y sistemas hasta los actuales niveles de desempeño. Sin embargo, buscando la mejora continua de sus procesos, en las tres últimas décadas, algunas industrias han hecho grandes esfuerzos en la recolección de data diferente a la data de falla, a través de programas de monitoreo de la condición (mantenimiento predictivo) con la finalidad de optimizar las frecuencias de mantenimiento de sus equipos y tomar acciones proactivas para evitar la ocurrencia de la falla.

La mencionada data de condición, ha sido usada principalmente en forma determinística, es decir, para hacer diagnósticos puntuales, debido a la falta de una adecuada metodología de análisis probabilística. En esta sección se establecen las bases conceptuales para el cálculo de confiabilidad y probabilidad de falla de equipos basado en la data de condición. La columna vertebral de este método es el análisis Carga-Resistencia [1].

a. Análisis Carga-Resistencia

El análisis Carga-Resistencia tiene como premisa el hecho de que las fallas son el resultado de una situación donde la carga aplicada excede la resistencia. Carga y Resistencia son usados en el sentido más amplio de la palabra; es decir, la carga pudiera ser la presión de operación, mientras la máxima presión de operación permisible sería la resistencia. Similar análisis se hace para cualquier otro parámetro relevante de la condición como vibración para equipos dinámicos, o reducción de espesor para el caso de equipos estáticos.

En todos los casos existirá un valor actual de la condición que se monitorea, el cual representará la carga, y un valor límite de la condición que representara la resistencia. Esta última normalmente esta regulada por normas y estándares de la ingeniería.

Contrario a la creencia general, en la mayoría de los casos ni la carga ni la resistencia son valores fijos, por el contrario, sus valores son estadísticamente distribuidos. Cada distribución tiene su valor medio, denotado por μY para la carga y μX para la resistencia y sus desviaciones estándar σY y σX respectivamente. Esto es ilustrado en la figura 5.

ingenieria_5

Cuando la distribución de la condición medida o monitoreada en el equipo tiene algún solape con la distribución de la condición límite o criterio de rechazo, en ese momento existe probabilidad de falla. Esta situación es mostrada en la figura 6.

ingenieria_6

La confiabilidad de un elemento bajo la aplicación de una carga es la probabilidad de que su resistencia exceda la carga. Dicha confiabilidad puede calcularse con la siguiente expresión: Confiabilidad = Probabilidad (Resistencia>Carga) [1],[5],[8],[9],[10]

ingenieria_7

Donde μY y μX son las medias de las distribuciones de la resistencia o criterio límite y el esfuerzo o condición monitoreada respectivamente, y σY y σX las respectivas desviaciones estándar.

NOTA: El operador “Φ”, indica que con el resultado obtenido de la ecuación entre paréntesis, debe buscarse el valor de probabilidad correspondiente en una tabla de la distribución normal

b. Estimación de la confiabilidad basada en la condición

Un parámetro de condición (PC) es cualquier variable física que revele información acerca de las características de desempeño de un equipo o componente. Un Parámetro Relevante de Condición (PRC) es un parámetro cuyo valor numérico caracteriza y cuantifica la condición de un equipo o componente en cualquier instante de su vida operativa.

Para que un PC sea un PRC, debe cumplir con los siguientes requisitos:

  • Caracterizar la condición del equipo.
  • Ajustar su valor continuamente durante su vida operativa.
  • Describir numéricamente la condición del equipo o componente.

Un buen ejemplo de un PRC es el espesor de pared “E”, el cual es comúnmente usado en la industria petrolera para caracterizar el proceso de deterioro debido al fenómeno Erosión-Corrosión en tuberías en general y en algunos recipientes a presión. Otros PRC famosos en la industria del gas y del petróleo son:

  • Nivel de Vibración (Equipos Dinámicos)
  • Partículas Metálicas disueltas en el aceite (Equipos Dinámicos)
  • Velocidad de Declinación (Pozos y Yacimientos)
  • Presion Estática de Fondo (Yacimientos)

3.1.2 Predicción del Número de Fallas Basado en el Historial de Fallas

En este punto, se presenta la metodología y la plataforma matemática para predecir la disponibilidad en sistemas reparables, a través del tratamiento estadístico de su historial de fallas y reparaciones. En otras palabras, los equipos son caracterizados usando su distribución probabilística del “tiempo para fallar” y el “tiempo para reparar”.

Este tipo de análisis es particularmente valioso para equipos dinámicos, los cuales tienen una frecuencia de falla relativamente alta. Normalmente, la data de fallas y reparaciones está disponible.

Para equipos reparables existen cinco posibles estados en los que ellos pueden quedar, una vez reparados después de una falla:

  1. Tan bueno como nuevo
  2. Tan malo como antes de fallar.
  3. Mejor que antes de fallar pero peor que cuando estaba nuevo.
  4. Mejor que nuevo.
  5. Peor que antes de fallar.

Los modelos probabilísticos tradicionalmente usados en análisis de confiabilidad, se basan en los estados 1 y 2 (estados límites), sin tomar en cuenta los estados 3, 4 y 5 a pesar de que el estado 3 es más realista en la práctica. La razón para esto radica en la dificultad de desarrollar una solución matemática para modelar este estado.[3],[6]

Este trabajo muestra el modelo probabilístico desarrollado, el cual se denomina “Proceso Generalizado de Restauración” (PGR) [3],[6]. Este modelo elimina las limitaciones antes mencionadas porque toma en cuenta todos los posibles estados de un equipo después de una reparación. Esto da como resultado una nueva plataforma conceptual para análisis de confiabilidad en equipos reparables, la cual se ajusta en mayor grado a lo que sucede en la realidad, eliminando las desviaciones derivadas del uso de los análisis tradicionales, especialmente en cuanto a la predicción del número esperado de fallas y el tiempo para la próxima falla.

Formulación Matemática del PGR:

Las ecuaciones básicas del PGR tienen su base en distribuciones probabilísticas de Weibull condicionales [3], y son las siguientes:

ingenieria_8

A partir de estas ecuaciones básicas y de la data de fallas [(ti)=tiempos de operación entre fallas sucesivas] se calculan los parámetros “α”, “β” y “q”, cuyo significado es:

α : ”parámetro de escala”

β : ”parámetro de forma”

q : ”parámetro de efectividad de la reparación ”. Este parámetro puede interpretarse, según su valor, de la siguiente forma:

q = 0 tan bueno como nuevo

0 < q < 1 mejor que como estaba , pero peor que cuando era nuevo

q = 1 tan malo como estaba

q < 0 mejor que nuevo

q > 1 peor que como estaba

Para obtener los parámetros con este método existen dos alternativas[3] dependiendo del momento de ejecución del análisis.

a. Método de estimación de la Máxima Probabilidad de Ocurrencia (MPO), para aquellos casos en los cuales hay suficiente data disponible para el ciclo en análisis.

b. Teorema de Bayes para aquellos casos en los que no hay suficiente data disponible del ciclo en análisis.

Una vez estimados los parámetros de PGR es posible predecir el número esperado de fallas Λ(t), usando un proceso iterativo basado en simulación de Montecarlo [3],[6]. El diagrama de flujo para este proceso iterativo se muestra en la figura 7.

ingenieria_9

Los resultados de las estimaciones hechas con el PGR son mucho más certeros que las predicciones tradicionales. Como puede observarse en la figura 7.1, se generaron tres líneas de predicción basados en el 25% de los datos de fallas (puntos de falla encerrados con un cuadro) usando las tres teorías de predicción del numero de fallas:

  • Proceso de Renovación Ordinario, basada en la asunción de un estado “tan bueno como nuevo” después de la reparación.
  • Proceso No Homogéneo de Poisson, basada en la asunción de un estado “tan malo como estaba” después de la reparación.
  • Proceso Generalizado de Restauración (PGR) que considera estados intermedios.

De las tres, solo la correspondiente al PGR coincide con gran precisión con las fallas que ocurrieron subsecuentemente.

ingenieria_10

4.- Estimación de Consecuencias.

En esta sección se presenta una metodología para estimar las consecuencias totales que resultan de la falla de un equipo y/o sistema. El modelo básico que soporta el trabajo aquí propuesto es el de “Impacto Total en el Negocio” desarrollado por John Woodhouse [2].

Modelo Propuesto:

El modelo divide las consecuencias asociadas con una falla particular en cuatro grandes categorías: Pérdidas de producción, costos de reparación, impacto ambiental e impacto en seguridad.

a. Pérdida de Producción:

En este paso, las pérdidas de producción debido a tiempo fuera de servicio son estimadas usando la siguiente ecuación: PERDIDA DE PRODUCCIÓN = PP * RF * TTR

Donde PP es el precio del producto ($/Unid), RF es la reducción de flujo (Unid/Hr) y TTR, el tiempo para reparar (Hrs). La variabilidad del costo del producto se incluye con la asunción de una distribución normal.

Reducción de flujo: La reducción puede ser total o parcial, dependiendo de otros factores tales como diseño, redundancias, cargas compartidas o stand by y/o severidad de la falla (critica o degradación). Para representar todos los posibles valores de esta reducción se definió una distribución normal.

Tiempo de reparación: En lo que respecta al tiempo de reparación, es su valor promedio (MTTR) el considerado para representar la distribución de esta variable.

b. Costos de reparación: La distribución de los costos de reparación debe incluir el espectro de todos los posibles costos, los cuales varían dependiendo de la severidad de la falla. Durante los ciclos de vida (tiempo entre overhauls), estos costos tienden hacia una distribución normal.

c. Impacto Ambiental e Impacto en Seguridad: Las distribuciones de estos impactos, en la mayoría de los casos, son difíciles de construir, pues no es fácil encontrar datos y fundamentalmente requieren ser construidas en base a la opinión de expertos.

ingenieria_11

5.- El Diagnóstico Integral en el Proceso de Confiabilidad

Como se ha estado describiendo en este trabajo, el diagnostico integral es un proceso que implica el uso de avanzadas técnicas de cálculo para predecir fallas y eventos no deseados e inferir sus consecuencias; es decir permite estimar el riesgo siguiendo el esquema de la figura 4 y también permite el uso de modelos de decisión como el Modelo Costo Riesgo explicado en el punto 1.

Hasta este punto, se han descrito brevemente las técnicas de la Ingeniería de Confiabilidad que permiten hacer estos cálculos.

El proceso conocido como “Confiabilidad Operacional”; es un enfoque metodológico donde el diagnóstico integrado se combina con otras metodologías tradicionales del área de confiabilidad, tales como: Análisis de Modos y Efectos de Fallas, Análisis Causa Raíz e Inspección Basada en Riesgo, entre otras; con la finalidad de:

  • Inferir probabilísticamente todos los escenarios de producción factibles, a través de la predicción de los periodos de operación normal y de ocurrencia de eventos o escenarios no deseados, basados la configuración de los sistemas, la confiabilidad de sus componentes y la filosofía de mantenimiento
  • Identificar acciones concretas para minimizar y/o mitigar la ocurrencia de estas fallas o eventos no deseados y llevar el riesgo a niveles tolerables
  • Explorar las implicaciones económicas de cada escenario de riesgo posible y diseñar planes y estrategias óptimas para el manejo del negocio.

La figura 9, muestra el esquema de integración del Diagnostico Integrado con otras metodologías en el enfoque de Confiabilidad Operacional.

ingenieria_12

Conclusiones

1. La metodología de diagnóstico propuesta, basada en la estimación del riesgo, integra herramientas reconocidas de la Ingeniería de Confiabilidad, en una sola plataforma que permite:

  • Realizar diagnósticos integrales sustentados en toda la información disponible de un equipo (data histórica, data de condición y data técnica).
  • Hacer seguimiento al estatus de confiabilidad y riesgo de los equipos, subsistemas y sistemas con la finalidad de tomar las decisiones correctas en el momento adecuado.
  • Comparar el costo asociado a una acción de mantenimiento contra el nivel de reducción de riesgo o mejora en el desempeño alcanzado debido a dicha acción.

2. El Proceso Generalizado de Restauración (PGR) usando simulación de Montecarlo para obtener el número esperado de fallas, representa una excelente herramienta para hacer predicciones de fallas en sistemas reparables. Los resultados obtenidos con esta herramienta son más reales que aquellos obtenidos con los métodos tradicionales basados en la asunciones “tan bueno como nuevo” y “tan malo como antes de fallar”. Este punto tiene gran potencial de aplicación en el área presupuestaria.

3. El método propuesto para el cálculo de confiabilidad basado en datos de monitoreo del deterioro o “datos de condición”, ofrece un método alternativo al tradicional método basado en la “historia de fallas”; que resulta particularmente útil para equipos y sistemas con tasas de falla muy bajas; tales como los equipos estáticos y provee además, una vía para incluir estas confiabildades en los modelos generales de plantas y sistemas; fortaleciendo los criterios para el diseño de políticas y estrategias de mantenimiento a las instalaciones.

Lecciones aprendidas

1. “Generalmente, no existen problemas complejos con soluciones sencillas”. El análisis de confiabilidad y riesgo en las instalaciones de procesos no es un problema sencillo, por ende, requiere de herramientas y metodologías de cálculo con complejidad acorde a la complejidad del problema. El uso de indicadores de confiabilidad sustentados en simplificaciones para dar mayor practicidad a su uso, con mucha frecuencia conduce a estimaciones y predicciones alejadas de la realidad, con el respectivo impacto en el negocio.

2. El proceso de diagnóstico de equipos, sistemas y/o procesos es una etapa de vital importancia en la mejora de la confiabilidad operacional, debido a que permite identificar las acciones proactivas que puedan efectivamente optimizar los costos y minimizar el impacto de los mismos en el negocio medular.

3. La ingeniería de Confiabilidad es una herramienta poderosísima para agregar valor a una empresa o proceso productivo; ya que una de las formas mas importantes de agregar valor, es evitar que se destruya.

REFERENCIAS

  1. Yañez, Medardo – Gómez de la Vega, Hernando, Valbuena Genebelin, Ingeniería de Confiabilidad y Análisis Probabilístico de Riesgo – ISBN 980-12-0116-9 - Junio 2003
  2. Woodhouse, John, “Managing Industrial Risk”, Chapman and Hall, Oxford, UK, 1993.
  3. Yañez, Medardo - Joglar, Fancisco - Modarres Mohammad, Generalized Renewal Process for analysis of Repairable Systems with limited failure experience – Reliability Engineering and System Safety Analysis Journal – ELSVIER – USA 2002
  4. Yanez, Medardo – Gómez de la Vega, Hernando, Valbuena Genebelin, Gerencia de la Incertidumbre – ISBN 980-12-0115-0 - Marzo 2003
  5. Roush M.; Webb W., “Applied Reliability Engineering”, vol I, The Center for Reliability Engineering, University of Maryland. College Park. 1999.
  6. Kritsov, Vasily. “A Monte Carlo Approach to Modeling and Estimation of the Generalized Renewal Process in Repairable System Reliability Analysis”. Dissertation For The Degree of Doctor of Philosophy, University of Maryland, 2000.
  7. Meeker, William Q.; Escobar Luis A., “Statistical Methods For Reliability Data”. Jhon Wiley & Sons, New York, 1998.Ahsmmed, M. “Probabilistic Estimation of Remaining Life of a Pipeline in the Presence of Active Corrosion Defects “International Journal of Pressure Vessels and Piping.” Vol. 75, 1998: 321-329.
  8. Ascher, H.;Feingold, H., “Repairable Systems Reliability: Modeling and Inference, Misconception and Their Causes”, Marcel Dekker, NY,1984ASM Metals Handbook, 13, 624, ASM Metals Park, Ohio, 1981.
  9. Ebeling, Charles E. “An Introduction To Reliability And Maintainability Engineering”. McGraw Hill. New York, 1997.
  10. Modarres, Mohammad; Kaminsky, Mark; Kritsov, Vasily. “Reliability Engineering And Risk Analysis”. Marcel Dekker, New York,1999.

 

12/09/2011 21:42 infragon #. Ingeniería Hay 2 comentarios.

ojocientifico.com - Nikola Tesla: Genio, científico e inventor

Nikola Tesla: Genio, científico e inventor

Desde que escribo con tanto cariño esta columna de Grandes Científicos siento un debe constante con una figura clave para la humanidad, al menos para la era moderna y el siglo XX. Se trata de Nikola Tesla, uno de los científicos más importantes de los últimos 2 siglos, y actor fundamental para el desarrollo de la electricidad comercial tal como la conocemos hoy.

Erróneamente se dice que Tesla nació en Croacia. Esto es en parte verdad y en parte una equivocación. Tesla nació en lo que hoy es Croacia, pero que en ese entonces (10 de julio de 1856) era el Imperio Austrohúngaro, y falleció a los 86 años en Estados Unidos, olvidado, pobre y considerado como un científico loco. La vida de Tesla es apasionante, pero preferimos destacar sus aportes científicos a la humanidad, que es lo que a nosotros nos compete.

Tresla fue inventor, ingeniero mecánico e ingeniero eléctrico, y se lo reconoce por sus aportes al electromagnetismo, a la ingeniería en potencia y por haber sido una pieza esencial de la llamada Segunda Revolución Industrial.

A lo largo de su carrera patentó 700 inventos, y su obsesión por la investigación convirtió a su trabajo en el origen de muchos de nuestros actuales inventos. Entre otras cosas es el autor de inventos como:

  • La radio
  • La corriente alterna
  • Dispositivos de electroterapia
  • El submarino
  • El control remoto
  • La lámpara fluorescente
  • Y contribuyó teóricamente al desarrollo del radar y de los rayos X

La visión de este científico le permitió conceptualizar a la corriente alterna. Tesla vio en las cataratas del Niágara una fuente inagotable de corriente alterna. Este tipo de corriente se conocía, pero no era utilizada y tenía mala prensa. Sin embargo, Tesla fue insistente con su aplicación, y en 1895 instaló un generador de corriente alterna junto a las cataratas con el cual consiguió iluminar la ciudad de Búfalo.

Más allá de sus notables aportes al conocimiento científico y a la ingeniería, paradójicamente Tesla jamás ganó un Nobel. Esto habla en parte de la falta de seriedad de la Fundación Nobel (que mantiene hasta el día de hoy), pero en parte a razones ajenas a ella, pues existió una historia interesante que condicionó a Tesla a no ser galardonado con este premio.

Tesla trabajó mucho con Thomas Alva Edison, pero su relación devino en conflictiva hasta llegar al odio mutuo. Esto pasó de ser un rumor a conocimiento público, y tuvo cierta incidencia en que ninguno ganara un Nobel Jamás. Tras haber sido nominados en 1915 para compartir el Nobel, ninguno de los dos quiso compartirlo con el otro, y decidieron rechazar el premio.

Más allá de todos los detalles, premios y reconocimientos materiales y artificiales, Tesla fue un genio, una mente incomparable. Te invitamos a profundizar un poco más en el apasionante trabajo de este Genio en el Nikola Tesla Museum, conociendo este archivo online de sus trabajos o este interesante sitio.

Imagen de Carlos Dan
Publicado por: Carlos Dan
08/06/2011 23:31 infragon #. Ingeniería Hay 1 comentario.

Mapa de constelaciones

 

Mapa de constelaciones

Si en algún momento miras el cielo en una noche estrellada verás estrellas de a montones. Las estrellas que son visibles desde al tierra forman 88 constelaciones y las más conocidas son las doce que representan los signos del Zodíaco. Estas doce y otras 48 constelaciones más fueron establecidas por Ptolomeo en el siglo II D.C. Las restantes fueron definidas por los astrónomos recién el en año 1925.

Reconocer las constelaciones puede ser muy difícil si no tienes a mano un mapa de constelaciones. Tener un punto de partida como referencia es fundamental para identificar las estrellas más luminosas de cada constelación y así poder ir descubriendo el resto de las estrellas que la forman. La clave para observar las distintas constelaciones sin temor a equivocarnos es identificar las estrellas más brillantes para luego ir pasando a la estrella más cercana, y así ir saltando de estrella en estrella.

¿Cómo se lee un mapa de constelaciones?

En un mapa de constelaciones se representa la totalidad del cielo, como si fuera una bóveda celeste, tal cual como vería el cielo un observador acostado en el suelo. Se llama cenit al punto más alto del cielo, que corresponde al centro del mapa. La circunferencia externa que bordea todo el mapa se toma como si fuera el horizonte y la circunferencia interior representa una altura en el cielo de 45 ° desde el punto donde se encuentra el observador.

Para moverse con mayor comodidad es conveniente estimar las medidas angulares con algún punto de referencia, es decir: Si la circunferencia completa mide 360 °, y desde el horizonte hasta el cenit hay 90 °, podemos calcular el diámetro aproximado de la luna llena en 0,5 °.

Comparamos con alguna referencia como puede ser por ejemplo, la uña del dedo meñique con el brazo extendido que cubriría aproximadamente 1 °. El puño cerrado cubriría unos 10 ° y la mano abierta al máximo llegaría a cubrir casi un 20 ° del ángulo. A partir de estas referencias podemos medir el cielo para encontrar las estrellas mucho más fácilmente.

<<Haz click aqui para ver un mapa de constelaciones>>

17/04/2011 20:19 infragon #. sin tema No hay comentarios. Comentar.

Hablando de Ciencia - Caída del puente Tacoma Narrows

 

El puente Tacoma Narrows (en Seattle), uno de los más largos de Estados Unidos en su tiempo, es el clásico ejemplo de los fallos que ha tenido la ingeniería. Medía 1600 metros de longitud, con una distancia de 850 metros entre los soportes. El puente ha sido construido dos veces, debido al famoso derrumbe de la primera de sus construcciones; un colapso estructural desastroso que produjo el viento al manifestarse el fenómeno físico llamado resonancia mecánica.

    Éste consiste en que un cuerpo en reposo con capacidad para vibrar, entra en contacto con una fuerza periódica cuyo periodo de vibración coincide con el de dicho cuerpo, por las características que tengan sus materiales y la circunstancia en que se encuentre. El recurrente ejemplo del vaso que se rompe a causa del canto de una soprano, que alcanza y mantiene la frecuencia de resonancia de aquél, es ideal para representar este fenómeno de manera gráfica.
Este puente, hecho de enormes y pesadas vigas de acero y hormigón, se encuentra en suspensión sobre un desfiladero (Tacoma), y en estas condiciones actúa a modo de cuerda de guitarra en tanto en cuanto vibra con mucha facilidad en frecuencias que se corresponden con su longitud y sus dimensiones. Los fenómenos naturales tienen frecuencias diversas, y los ingenieros tratan de realizar sus construcciones de modo que no respondan a ellas con ningún efecto negativo. No obstante, en este caso no fue de esta manera.
El día 7 de noviembre del año 1940 se produjo el indeseado derrumbe del puente. Afortunadamente, no hubo que lamentar víctimas mortales, excepto un perro al que llamaban Tubby. Se encontraba dentro de un coche que pasaba por el puente, pero sus dueños, aterrorizados, lo abandonaron y salieron corriendo del lugar. Posteriormente, unas personas intentaron rescatar al animal, pero estaba aterrorizado e incluso mordió a una de ellas. Cuando el puente se derrumbó, aquel animal cayó con él.


Aquí les dejo un vídeo de unos 2 minutos en el que se ve claramente el suceso acontecido. Fue grabado por el propietario de un negocio local de fotografía, y está archivado en el National Film Registry de Norte América.



Comentarios (0) 

17/04/2011 19:46 infragon #. sin tema No hay comentarios. Comentar.


Blog creado con Blogia. Esta web utiliza cookies para adaptarse a tus preferencias y analítica web.
Blogia apoya a la Fundación Josep Carreras.

Contrato Coloriuris