Feeds:
Entradas
Comentarios

Archive for 19 junio 2014

-HISTORIA:

Todo empezó cuando en 1968 un joven físico que trabajaba en el CERN (Conseil Européen pour la Recherche Nucléaire u Organización Europea para la Investigación Nuclear) intentando averiguar el porqué de algunas propiedades de la fuerza nuclear fuerte, descubre que la función beta de Euler describe ciertas propiedades de algunas partículas. Sin embargo, nadie sabía el por qué o la explicación de dicha fórmula.

Dos años después, Yoichiro Nambu, Holger Nielsen y Leonard Susskind demostraron que si se toma como cuerdas unidimensionales que vibran a las partículas elementales, eran sus interacciones nucleares las que se describían perfectamente por la fórmula de Euler. Así nació la Teoría de Cuerdas.
Pero la teoría predecía muchas cosas que iban en contra de las observaciones. Aún así, algunos científicos siguieron defendiéndola, y en 1974, Schwarz y Jöel Scherk se dieron cuenta de que ciertos patrones vibratorios se correspondían con algunos patrones de movimiento del gravitón. De este modo la Teoría de Cuerdas pasó de ser una teoría de la fuerza nuclear fuerte a ser una teoría del todo, englobando a la gravedad.

La “Primera Revolución de Supercuerdas” ocurrió de 1984 a 1986, cuando muchos científicos comenzaron a investigar y defender dicha teoría. Posteriormente, en la “Conferencia de Cuerdas en 1995” comenzaría la “Segunda Revolución de Supercuerdas”, en la que participó el ya nombrado Edward Witten.

– LA TEORÍA DE CUERDAS:

Para entender al menos un poco de la Teoría de Supercuerdas, debemos primero acercarnos al modelo de física aceptado actualmente. Este es el Modelo Estándar.
El Modelo Estándar es el modelo más completo conseguido hasta el momento, y que ha pasado las pruebas del falsacionismo de Karl Popper. De acuerdo con este, las partículas elementales serían los leptones y los quarks (de cada uno de los cuales existen seis tipos). Teniendo en cuenta el color de los quarks (una de sus propiedades) y que cada partícula tiene su antipartícula, obtendríamos 12 leptones y 36 quarks (los 6 tipos por los 3 colores posibles).
Las partículas compuestas por los últimos se llamarían hadrones: los mesones los formados por un quark y un antiquark, y los bariones serían los formados por tres quarks (o tres antiquarks, las antipartículas de los quarks). En 2004 se demostró teóricamente la existencia de partículas con cinco quarks, como el teta +, formado por cuatro quarks y un antiquark.

El Modelo Estándar también explica cómo interaccionan dichas partículas entre sí. Según dicho modelo, existen cuatro fuerzas: la fuerza gravitatoria (en la que las “partículas mediadoras” serían los gravitones, aún no detectados), la fuerza electromagnética (en la que las partículas mediadoras serían los fotones), la fuerza nuclear fuerte (en la que las partículas mediadoras serían los gluones) y la fuerza nuclear débil (con las partículas W y Z como partículas mediadoras). Con cada interacción se obtendrían, respectivamente, la masa, la carga eléctrica, el color y la carga débil.

La Teoría de Supercuerdas, complementada con la Teoría M (unificación de las 5 teorías de cuerdas), es un modelo fundamental de la física teórica que defiende que todas las partículas al parecer elementales, como los electrones, están compuestos de “cuerdas”, que se pueden mover de distintas formas (mientras que el electrón concebido fuera de dicha teoría, al ser un punto, no podría). Para ver el tamaño del que serían las cuerdas, puedes seguir el siguiente enlace: http://htwins.net/scale2/  En él, las cuerdas se situarían en el mismo orden que la longitud de Plank (〖Lp=1.61619•10〗^(-35)).

La Teoría de Supercuerdas también intenta ser una teoría que unifique lo más grande con lo más pequeño, Einstein con Plank (refiriéndose únicamente a sus teorías, no a sus logros), pasando por Newton. Es decir, una Teoría Unificadora que explique las cuatro fuerzas sin excluir a la gravedad. Así, la Teoría de Supercuerdas propone la existencia del gravitón, encargado de transmitir la gravedad igual que los fotones la fuerza electromagnética.

La Teoría de Supercuerdas surge al intentar responder a la pregunta (que el Modelo Estándar no puede responder) de por qué las partículas elementales tienen las propiedades que tienen, y que han hecho posible el Universo en el que estamos. Pues bien, siguiendo la Teoría de Supercuerdas, la cuestión se resuelve de un modo quizá demasiado simple: según dichas cuerdas o filamentos se muevan, se observará un electrón, un quark, un fotón,… es decir. La partícula tendrá unas determinadas propiedades (masa, spin,…). Según dicha teoría, las partículas elementales pasarían también a tener estructura interna (por lo que dejarían de ser elementales), y dejarían de tener dimensión cero para moverse en un espacio-tiempo del tipo Kaluza-Klein. Este estaría formado por las cuatro dimensiones habituales, seis dimensiones compactificadas en forma de Calabi-Yau, y una que las engloba (de acuerdo con la Teoría M, propuesta en 1995 por Edward Witten, otro monstruo de la física).
Forma de Calabi-Yau:

calabiyau

Las 7 dimensiones invisibles (nosotros percibimos las 3 del espacio, x, y, z, y la del tiempo), de tamaño menor que el de un átomo, forman membranas, o branas, de tamaños del orden del Universo. Esto podría suponer que el nuestro también está ubicado sobre una brana, pero con más dimensiones. Así las otras branas alojarían otros universos “paralelos”, los cuales no percibiríamos. Las interacciones, menos la gravedad, estarían representadas por cuerdas unidas por sus extremos a la brana en la que nos encontramos. La gravedad se transmitiría mediante el gravitón, representado por cuerdas cerradas que, al no estar unidas a ninguna brana, podrían pasar de un universo a otro, lo que daría también explicación a por qué la gravedad es la interacción más débil, con mucha diferencia. Aún así, este concepto de “universo paralelo” es muy diferente al que la ciencia ficción nos ha inculcado. En estos universos no habría vida, porque las partículas cuánticas, al tener otro peso, no podrían formar enlaces y, por tanto, tampoco moléculas.

Pero no todo es perfecto en la Teoría de Cuerdas. Si ya es difícil concebir que haya esa cantidad de dimensiones, aún más difícil es aceptar que de la Teoría de Cuerdas surge la idea de una superabundancia de universos compatibles con el nuestro.
Además, la Teoría de Supercuerdas y la Teoría pueden no ser falsables, lo que, según Karl Popper, las introduciría en el mismo saco que las pseudociencias, debido, por ejemplo, a que las dimensiones que tanta consistencia matemática le dan no son observables, y por ello rompen las normas del falsacionismo. Aquí un vídeo de Richard Feynmann dejando claro en una clase el método científico:

• Big Bang en la Teoría de Cuerdas:

La Teoría del Big Bang defiende que el Universo se creó a partir de una explosión cosmológica. Pero la física actual, las ecuaciones de Einstein no pueden explicar mediante sus ecuaciones el punto de inicio del Big Bang, llamado por ello singularidad cósmica. ¿O sí?

Según la Teoría de Cuerdas, el Universo, antes de su expansión, era una brana inestable que decayó en muchos bucles (cuerdas cerradas) para formar por fin el Universo. Siguiendo la Teoría M, componente de la Teoría de Cuerdas ideada por Edward Witten, todo ello se habría producido por el choque entre dos branas.

0906083_01-a4-at-144-dpi

Edward Witten (arriba), y esquema del Big Bang según la Teoría M (abajo).

multiversowiki

-VIDEOS:
-Aquí dos vídeos de la Teoría de Cuerdas:

• Concisa aclaración de la Teoría de Cuerdas a partir de una escena de The Big Bang Theory:

• Michio Kaku explica brevemente la Teoría de Cuerdas:

-El documental “El Universo Elegante”, de Brian Greene, entero:

http://yosoyubik.wordpress.com/2007/05/11/la-teoria-de-cuerdas-el-universo-elegante-y-los-viajes-en-el-tiempo-parte-2/

-Otros enlaces interesantes:

• Susskind hablando de Feynmann

• Una de las charlas de Brian Greene, esta vez en TED:

-BIBLIOGRAFIA:

• El Universo Elegante, de Brian R. Greene, documental y libro.
• Slate.com
• Muyinteresante.com
• Youtube.com

Guzmán Calleja, 1º de Bachillerato.

Read Full Post »

“Nuestra concepción del tiempo depende
de la manera en que lo midamos”.
William J. H. Andrewes

“Son las seis”, “Quedan seis segundos para que termine la clase”, “La vida de los perros debe ser multiplicada por siete”, “Debería superar su marca pasada y llegar a los tres minutos y diez segundos”, “En la película viajan al pasado para recuperar el tiempo perdido” o “La trama ocurría en el futuro” son frases que se dicen en el contexto cotidiano, tanto en la actualidad como antiguamente.

A lo largo de la historia, la necesidad de establecer divisiones entre el día y la noche movió a egipcios, griegos y romanos a crear relojes de sol, de arena, clepsidras (relojes de agua) y otros instrumentos. Babilonios y egipcios comenzaron a medir el tiempo hace al menos 5.000 años. Elaboraron calendarios para organizar y coordinar actividades comunales y acontecimientos públicos, planificar los embarques de mercancías y, en particular, regular siembras y cosechas. Sus calendarios se basaban en tres ciclos naturales: el día solar, marcado por los sucesivos periodos de luz y oscuridad a que da lugar la rotación de la Tierra sobre su propio eje; el mes lunar, señalado por las fases de la Luna, y el año solar, definido por el cambio estacional que produce el giro de nuestro planeta en torno al Sol.

images
Desde el reloj solar y la clepsidra (relojes de agua) hasta los primeros relojes mecánicos (los primeros ideados con un mecanismo de pesas), ha pasado un largo periodo de tiempo en el que horólogos han dado lo mejor de sí mismos para innovar aún más en la medición del tiempo. La Iglesia hace mella en este proceso de una forma decisiva, pues requería de un instrumento lo más preciso posible para la estricta observancia de las horas en conventos y monasterios. Pero tampoco existían los conocimientos suficientes acerca de mecánica para crear relojes tal y como los conocemos actualmente. No obstante, con el tiempo se fueron desarrollando relojes mecánicos modernos.

reloj-mecanico-1330
Pero remontándonos a la actualidad, quienes aspiren a construir relojes todavía más precisos han de tomar las sendas que conducen hacia las fronteras de la física y la ingeniería, y hacerlo simultáneamente en varias direcciones. Merced a progresos técnicos de primera magnitud, la horología de ultraprecisión está avanzando con una velocidad no vista desde hace al menos 35 años. Los prototipos de los últimos diseños bases de tiempos que han funcionado con éxito –dispositivos que extraen el tiempo de átomos de calcio o de iones de mercurio, no del cesio– inducen a esperar que en plazo de pocos años la precisión entrará en la escala de 10-18, lo que supondrá mejorar la precisión un millar de veces en menos de diez años.
Tal vez no sea “precisión” la palabra justa. En 1967, el segundo fue definido por el convenio internacional como “la duración de 9.192.631.770 oscilaciones de la radiación correspondiente a la transición entre dos niveles hiperfinos del estado fundamental del isótopo 133 del átomo de Cesio, a una temperatura de 0 K”. En definitiva, que para medir un segundo hemos de recurrir al cesio. Ahora, los relojes más perfectos van muy pronto a dejar de usarlo, por lo que estrictamente hablando, no estarían midiendo segundos. He aquí una de las dificultades que deben resolver los horólogos.
Más fundamental es la limitación que acecha. Como Einstein expuso teóricamente y los experimentos han confirmado, el tiempo no es absoluto. La velocidad de cualquier reloj se ralentiza cuando aumenta la gravitación o cuando el reloj se mueve rápidamente con respecto a su observador; incluso para un fotón emitido que reorienta sus polos magnéticos o salta de una órbita a otra. Con la instalación de relojes ultraprecisos en la Estación Espacial, se confía en someter la teoría de la relatividad a las más estrictas verificaciones jamás realizadas. Pero en cuanto los relojes alcancen la precisión de 10-18, proporciones que corresponden a una desviación de menos de medio segundo en toda la edad del universo, serán los efectos de la relatividad los que nos pongan a prueba a nosotros. No existe técnica alguna capaz de sincronizar relojes situados alrededor del mundo con tamaña exactitud.

INVENTAR LA PRECISIÓN:
Una de las razones de aumentar aún más la precisión estriba en que el segundo se está convirtiendo, cada vez más, en la unidad fundamental. Tres de las seis unidades fundamentales, concretamente, el metro, el lumen (unidad para medir el flujo luminoso, una medida de la potencia luminosa percibida) y el ampère (o amperio), ya se definen en la actualidad con ayuda del segundo. Mediante la celebérrima y decisiva ecuación E=mc^2, se podría convertir la masa en una unidad equivalente de energía, tal vez un conjunto de fotones cuyas frecuencias correspondan a un determinado algoritmo (¿cómo?, dejémosle esta tarea a los físicos).
Para comprender por qué la horología ha experimentado tan súbita aceleración conviene saber algo acerca del funcionamiento de los relojes atómicos. Un reloj atómico se funda, lo mismo que cualquier otro mecanismo de relojería, en un oscilador que “bate” con regularidad, y en un contador, que traduce los “latidos” en segundos. A diferencia de péndulos y cristales, los átomos de cesio son todos iguales. Y cada uno invertirá el espín de su electrón más externo al ser excitado por microondas (un fotón de luz es absorbido por el electrón más externo del átomo de cesio) cuya frecuencia sea de exactamente 9.192.631.770 ciclos por segundo (atendiendo a la definición de segundo).
PRINCIPIO DE HEISENBERG
¿En qué consiste el Principio de Incertidumbre de Heisenberg? Demuestra que a nivel cuántico no es posible conocer de forma exacta el momento lineal y la posición de una partícula. O de forma más correcta, que es imposible conocer dichos valores más allá de cierto grado de certidumbre. A nivel cuántico las partículas no son pequeñas esferas, sino borrones. Si es posible fijar la posición de la partícula con total precisión será imposible conocer su velocidad. Si por el contrario se conoce su velocidad, no se sabrá a ciencia cierta en qué punto se halla, y es cuando entran en juego las leyes de la probabilidad.
Se trata de un principio que impone estrictos límites a la precisión con que se puede medir la frecuencia de un fotón aislado. En nuestros días, los mejores relojes logran explorar una franja de 1 hertz (oscilación por segundo) de anchura para hallar su centro exacto en cada medición individual, a pesar de las limitaciones del principio de indeterminación. Puede ello conseguirse porque cada vez se examinan más de un millón de átomos; puesto que no se trata en realidad de una medida solo, no se violan las leyes de la mecánica cuántica. Sin embargo, esta solución crea otros problemas. A temperatura ambiente, el cesio es un metal maleable de brillo plateado. En el interior de un reloj atómico de haz de cesio, un horno calienta este metal hasta que entra en ebullición. Las partículas calientes emitidas entonces atraviesan la cavidad de microondas a diversas velocidades y ángulos. Algunas se mueven tan rápidamente que (a causa de la relatividad) se comportan como si el tiempo se hubiera detenido. A otros átomos, las microondas les parecen de frecuencia más alta o más baja de la que tienen. Los átomos ya no se comportan todos de idéntica forma, por lo que sus oscilaciones se tornan menos diferenciadas.
Ahora lo que hay que hacer es proyectar bolitas de cesio superfríos, que describen un arco similar al chorro de agua de una fuente a través de una cámara de microondas (como ya se había comentado anteriormente en el párrafo anterior). Para condensar el vapor caliente de cesio, con el fin de que forme diminutas bolitas, seis haces de láser concurrentes en un punto frenan a los átomos hasta temperaturas de menos de dos microkelvin: prácticamente, hasta detenerlos casi por completo. La bajísima temperatura no hace sino suprimir casi del todo los efectos relativistas. Los relojes-fuente introducidos en 1996, eliminaron el 96% de las incertidumbres.
Como ya se ha comentado anteriormente, los más modernos y avanzados relojes atómicos no recurren al cesio como motor de la operación, sino al calcio o iones de mercurio:

relojes atómicos (1)

Y es que como se puede apreciar se trata de un complejo sistema que requiere de la mayor precisión y que, por tanto, no se puede explicar así como así.
Se ha mencionado con anterioridad en la entrada el siguiente hecho: “Algunas se mueven tan rápidamente que (a causa de la relatividad) se comportan como si el tiempo se hubiera detenido.” Algunas partículas en concreto. Este efecto tiene que ver con velocidades cercanas a la luz, y que si indagamos un poco más se puede relacionar con los viajes en el tiempo. Pero, ¿cómo? ¿Es posible viajar en el tiempo?

back-to-the-future
Hagamos el siguiente ejercicio de imaginación: te encuentras en un tren, el cual comienza a acelerar hasta que alcanza velocidades muy cercanas a la luz (pues alcanzar la de la misma es imposible). ¿Qué crees que pasaría? Bien, considerando el tiempo como relativo, el que se encuentra en el interior de la cabina verá el exterior prácticamente paralizado, a una velocidad inapreciable. Sin embargo, aquel que se encuentra fuera no vería el tren, sería inconcebible tal velocidad para el cerebro humano. No obstante, esto no demuestra que estemos viajando hacia el futuro (a pesar de que los de dentro ven a los de fuera paralizados mientras que ellos avanzan en el tiempo), porque si lo tomamos desde una perspectiva exterior, ajena a esta situación, nos encontramos con la siguiente paradoja: el tiempo no puede doblarse sobre sí mismo y deshacer los acontecimientos que ya han sucedido. Los viajes al pasado no son posibles, van contra todo pronóstico de la naturaleza, sin embargo, los viajes en el futuro están más de cerca de lo que creemos. Los físicos han llegado al consenso de que, de poder realizarse un viaje en el tiempo, únicamente sería posible hacia el futuro.
Una de las distintas formas de las que se ha afirmado que podrían servir como instrumento para viajar en el tiempo es a través de los agujeros de gusano, también conocidos como puentes de Einstein-Rosen. Un agujero de gusano es un túnel que nos permite atajar entre dos lugares diferentes del espacio y el tiempo. La idea de agujero de gusano derivó de la concepción de agujero negro, formulada por el físico alemán Karl Schwarzschild, cuando en 1916, utilizando las recién formuladas ecuaciones de la relatividad general de Einstein, calculó el campo gravitatorio de una estrella masiva estacionaria. Pero el puente de Einstein-Rosen era simplemente una curiosidad matemática, ya que para atravesar el centro se debían salvar un gran número de dificultades. La fuerza gravitatoria en el centro del agujero sería enormemente potente, lo que haría que cualquier objeto que intentara atravesarlo quedara aplastado. Para superar con éxito esta fuerza gravitatoria se necesitaría una velocidad mayor a la de la luz, lo cual según la relatividad era imposible. A medida que nos acercáramos al centro del agujero, el tiempo se iría frenando, llegando en el centro a detenerse completamente. Además de estos inconvenientes existían otras pegas: como la propia estabilidad del agujero, qué efectos cuánticos evitarían que el agujero se mantuviese abierto, o que la radiación producida en la entrada del agujero mataría al que intentara atravesarlo. Con toda esta lista de inconvenientes parecía lógico pensar que nunca sería posible, si es que realmente existían, atravesar un agujero de gusano.

llll

Pero en 1985, Carl Sagan buscaba una manera de comunicar dos regiones enormemente distantes del universo de la forma más breve posible, para incluirla en su novela Contact. Carl consultó a Kip Thorne, físico estadounidense, acerca de un posible método que permitiera este viaje de la forma más científica y real posible, y que además permitiera a un ser humano realizar el viaje en un tiempo aceptable. Thorne quedó realmente intrigado por la pregunta de Sagan y buscó, junto a Michael Morris y Ulvi Yurtserver, una respuesta que ofreciera una posibilidad real para este tipo de viaje. La solución que encontraran debía salvar todos los inconvenientes anteriormente enumerados. Finalmente dieron en el clavo, lograron diseñar un agujero de gusano en el cual, un ser humano que lo atravesase no sentiría una fuerza gravitatoria mayor a 1g, el agujero permanecería estable y sin cerrarse, y además el viaje no supondría más de 200 días para el viajero. Solo existía una pega, en el centro del agujero debía existir una materia exótica, que aunque podía estar al alcance de una posible civilización futura y no violaba las leyes de la física, podía perfectamente no existir.
Al fin y al cabo son conjeturas que han pasado a un nivel mayor de certeza, es decir, son hipótesis que por el momento se han llevado al método hipotético-deductivo a baja escala, sin resultados claros que permitan concluir en leyes o teorías. Pero como ya decía Einstein acerca de la relatividad: “Cuando cortejas a una bella muchacha, una hora parece un segundo. Pero te sientas sobre carbón al rojo vivo, un segundo parecerá una hora. Eso es relatividad”.
Documentales:

Albert Einstein y la relatividad : 

El reloj atómico

Pedro Martínez, 1º de Bachillerato.

Fuentes:
http://www.uco.es/geometria/documentos/MedidaTiempoSenovilla.pdf
http://www.quo.es/naturaleza/tienes-hora
http://www.nationalgeographic.es/noticias/ciencia/viajar-en-el-tiempo-es-posible
http://www.investigacionyciencia.es/materias
http://meetthings.com/blog/index.php/17-11-2011/que-es-un-lumen/
http://www.ciencia-ficcion.com/glosario/p/prinince.htm
http://www.hablandodeciencia.com/articulos/2012/02/07/4578/

Read Full Post »

Big Crunch

El Big Crunch es una teoría que explica el fin del universo (aunque lógicamente, no se sabe a ciencia cierta qué pasará si el universo termina). Esta teoría está basada en la teoría de la relatividad de Einstein. ¿Quieres conocerla?

La relación entre el Big Bang y el Big Crunch

Existen varias teorías sobre la formación del universo. La más aceptada es la del “Big bang”, una gran explosión, que presenta la expansión del espacio-tiempo hasta formar galaxias y planetas. Esto se debe a que se observa una relación directa entre la distancia a un objeto remoto, como una galaxia, y la velocidad con que está alejándose. Sí esta expansión ha sido continua en toda la edad del universo, entonces en el pasado estos objetos distantes alejándose tuvieron que estar una vez juntos.


¿Cómo podrían predecir el Big Crunch?

Según el Big Crunch, si el universo tiene una densidad crítica, la expansión del universo, producida por la Gran Explosión (o Big Bang) irá frenándose poco a poco hasta que finalmente comiencen nuevamente a acercarse todos los elementos que conforman el universo, volviendo a comprimir la materia en una singularidad espacio-temporal.

De acuerdo a los estudios realizados, se estima, con un margen de error del 1 por ciento, que el universo tiene 13 mil 700 millones de años. Existen otros rangos que señalan la edad entre 11 mil millones y 20 mil millones. En el libro Los Primeros Tres Minutos del Universo, publicado en 1977 por el premio Nobel Steven Weinberg, se menciona que el inicio del universo, ocurrió justo momentos después del Big Bang.

 

                ¿Qué pasaría si ocurriese el Big Crunch?

La expansión del universo no está frenándose debido a la gravedad, sino que se está acelerando. Así lo muestran evidencias experimentales recientes (concretamente la observación de supernovas lejanas y el mapeo completo de la radiación de fondo de microondas) que han llevado a especular este fenómeno. Aunque, todavía es posible (aunque no respaldado por la observación a la fecha) que el universo finalmente revierta la marcha y causarse un colapso.
La temperatura del fondo de radiación iría subiendo y empezaría a poner en peligro la supervivencia de las formas de vida que existieran por entonces. En un momento dado, dicha temperatura sería de 300 Kelvin, impidiendo a los planetas deshacerse del calor acumulado y acabando por hacerse inhabitables. Más adelante, y con una contracción cada vez más acelerada -y junto a ella un aumento de la temperatura de la radiación cósmica- el universo se convertiría en un lugar infernal e inhabitable con temperaturas de miles de grados debido a una radiación cósmica a ésa temperatura y a colisiones entre estrellas al disponer éstas de cada vez menos espacio.
Al parecer, las estrellas serían en su mayoría destruidas, no por colisiones entre ellas sino por el aumento de temperatura del universo. Éste llegaría a estar tan caliente que las estrellas no podrían deshacerse del calor acumulado en su interior y pasarían a absorberlo del exterior hasta acabar por estallar. Tras ello, sólo quedarían agujeros negros (el principal hecho que diferenciaría la fase de contracción de la de expansión) y un plasma cada vez más caliente en el que el aumento de temperatura destruiría primero los átomos y luego las propias partículas elementales, sólo dejando quarks. A la vez que los agujeros negros empezarán a fusionarse entre sí y a absorber materia hasta dar lugar a un único “super” agujero negro.

 
      

 

 

Y después del Big Crunch… ¿qué pasará?

Tal y como afirma otra teoría, el Big Bounce (en castellano ‘universo oscilatorio’), tras el Big Crunch podría acontecer otro Big Bang, y así sucesivamente. De este modo, no podría descartarse la posibilidad de que nuestro universo provenga de un universo anterior, comprimido y ‘muerto’ tras un Big Crunch.

 

Andreea Istrate 1ºB Bachillerato

 

Read Full Post »

La posibilidad de crear vida a partir de elementos inertes esta cada vez más cerca de nosotros. El científico estadounidense Craig Venter ha anunciado que su equipo ha conseguido sintetizar un cromosoma artificial.

Los cromosomas son pequeños cuerpos en los que se reorganiza la cromatina del núcleo celular durante las divisiones celulares de mitosis y meiosis. Estos cromosomas transportan fragmentos largos de ADN. El ADN es el material que contiene los genes, que determinan las características hereditarias de un organismo, y es el pilar fundamental del cuerpo humano. Las células de los individuos de una especie determinada suelen tener un número fijo de cromosomas, que en las plantas y animales superiores se presentan por pares.

Imagen

John Craig Venter es un biólogo y empresario estadounidense nacido en 1946 en Estados Unidos. Fue el presidente fundador de Celera Genomics, haciéndose famoso al arrancar su propio Proyecto Genoma Humano en 1999, al margen del consorcio público, con propósitos comerciales y utilizando la técnica “shotgun sequencing”. “Shotgun sequencing” es un método usado para secuenciar largas cadenas de ADN. Este método de secuenciación solo puede ser utilizado para cadenas cortas de 100 a 1000 pares de bases nitrogenadas, para secuenciar cadenas más largas deben ser subdivididas en más pequeños fragmentos, y posteriormente vueltas a montar para dar la secuencia total.

Imagen

La búsqueda de vida artificial por parte de Craig Venter se viene llevando a cabo desde hace unos años, y concretamente hace dos años John Craig consiguió crear un genoma sintético que fue uno de los hechos científicos más relevantes de aquel año, fue la base para la creación de vida artificial.

El procedimiento científico que siguió Craig y su equipo de investigadores fue el siguiente:

  1. Lo primero que hicieron los investigadores fue decodificar el cromosoma de una célula bacteriana existente, utilizando una computadora para codificar íntegro su código genético.
  2. Posteriormente los investigadores copiaron el código en un cromosoma sintético construido químicamente, ensamblando pieza por pieza de su ADN hasta darle forma.
  3. Finalmente el equipo insertó este cromosoma en una célula bacteriana que comenzó a replicarse, generando así vida artificial.

Imagen

A continuación incluyo un enlace a un video en que se puede ver una de las muchas noticias publicadas por los medios de comunicación españoles sobre este hecho científico:

 

Esta investigación finalmente se pública en la revista Science el 4 de abril del 2014 (http://www.sciencemag.org/content/344/6179/559) y es sin duda el hecho más importante de la ingeniería genética hasta día de hoy. Desde la creación del genoma sintético, la inserción del mismo en una célula y la replicación automática de la misma, que alcanzó más de dos mil millones de unidades, abre las puertas a un mundo nuevo en esta área de investigación.

Unas de las declaraciones más importantes sobre este hallazgo es la del propio investigador J. Craig:

“Esta es la primera vez que un ADN sintético ha tomado control completo de una célula… Creo que crearán potencialmente una nueva revolución industrial.”

A pesar de que este hallazgo científico supone un claro avance en todos los ámbitos, existe un dilema moral-religioso en el que grupos extremistas defienden que el ser humano no debe modificar la naturaleza creada por Dios. Pero lo que queda claro es que por mucho dilema moral que exista, la creación de un cromosoma artificial se ha convertido en un paso hacia delante para la humanidad entera. Un paso hacia la creación de vida artificial.

Para terminar me gustaría dejar un vídeo de una de las charlas impartidas por el propio Craig Venter sobre este avance y sus implicaciones:

Blanca Iturbe Sanz

Read Full Post »

El 11 de Marzo de 2011 tuvo lugar en japón un terremoto de magnitud 9, es decir el más potente de japón hasta la fecha y el quinto registrado. Como consecuencia de este seísmo vino el posterior tsunami, de entre 5-10 metros cuando llegó a tierra, que arrasó toda la costa Este del país.

 

Dejo un video de la destrucción que originó esta en sólo 20 minutos:

 

 

Tras esta breve introducción me dispongo a abordar el tema de la central nuclear de Fukushima que, como ya se sabe, resultó terriblemente dañada ese día. Se sucedieron explosiones en los edificios que albergan los reactores nucleares, fallos en los sistemas de refrigeración, triple fusión del núcleo y liberación de radiación al exterior.

 

Tras esto se estableció un perímetro de 40 km para proteger a la población, declararon estado de emergencia nuclear y el incidente alcanzó un nivel de gravedad en la escala INES semejante al de Chernobyl. Luego comenzaron a tomar medidas para paliar los efectos del accidente, como inyectar agua marina y ácido bórico en alguno de los reactores, suministrar yoduro de potasio a la población o desplazar los vuelos de la aviación civil del entorno de la central afectada. Después personal adecuado procedió a “limpiar” toda la contaminación y los residuos radiactivos.

 

Hasta aquí nada nuevo, simplemente os estaba refrescando la memoria, porque a alguien puede habersele olvidado el asunto, hace mucho que los medios no dicen nada y parece por lo tanto que los nipones tienen todo bajo control. Pues bien, a continuación revelaré una información totalmente verídica y bastante sorprendente del estado de la central de Fukushima hoy día:

 

Actualmente mendigos limpian la planta nuclear. Para acercarse a la zona en la que hay alta radiación de, no solo uranio, sino también plutonio, subcontratas del estado les ofrecen algo más de 70 euros al día, pero ellos tienen que hacerse cargo de los gastos de comida y alojamiento. A pesar del riesgo que corren por alta radiación, son muchos los que aceptan este trabajo.

 

El nivel de radioactividad que había en la ultima medición en Julio de 2013 es cinco veces mayor de lo que se esperaba para la fecha, evidentemente no se dijo nada en la tele.

 

Cincuenta soldados del portaaviones USS Ronald Reagan que ayudaron tras el tsunami han sufrido varios tipos de cáncer de tiroides y otros tumores malignos. Simplemente imaginar cuantos japoneses afectados habrá de los que no tenemos constancia.

 

Han llegado al Sur de Estados Unidos y a México atunes con un alto nivel de radioactividad, peligrosos para el consumo humano. Esto es una distancia de más de 6000 km.

 

Se está pensando en construir un muro submarino para evitar que la radiación se siga extendiendo. Sería tan caro de construir como complicado.

 

Divid Suzuki, científico asegura que si se produce otro terremoto de magnitud 7, y esto ocurre en japón cada 3 años, supondría el final de Japón y sería necesario evacuar toda la costar Oeste de America. Prueba gráfica:

(video en inglés, pero se entiende)

 

 

Como último punto, no podía faltar la censura informativa. El gobierno japonés ha aprobado una ley que prohíbe dar cualquier tipo de información dentro del país que sea negativa a cerca de Fukushima, cierta o falsa.

Héctor Sánchez Cabello

 

Concluyo con la esperanza de que os haya resultado interesante y diciendo que después de varias horas de investigación estoy seguro de estar dejándome bastantes cosas impresionantes a cerca del tema.

Read Full Post »

INTRODUCCIÓN:

El Proyecto Manhattan fue el nombre en clave de un proyecto científico llevado a cabo durante la Segunda Guerra Mundial por los Estados Unidos. El objetivo era la creación de la primera bomba atómica antes que la Alemania nazi.

Fue dirigida por el físico Julius Robert Oppenheimer. La principal base donde se consiguió la bomba fue en laboratorio Los Álamos, situado en Manhattan.

Imagen

Oppenheimer

La elaboración finalizó con la detonación de la bomba en una prueba para comprobar su validez.

Contexto histórico:

El mundo está sumido en la guerra más dura de la historia, la segunda guerra mundial.

La Alemania nazi en su intento por dominar Europa, empieza a invadir los países adyacentes, el mundo se divide en tres partes, los aliados, el eje y los países neutros.

Según va avanzando la guerra, se empieza a extender la noticia de que los alemanes habían descubierto la fisión nuclear y podían crear una reacción en cadena entre átomos de uranio con una posible utilización caótica, por ello se inició a contra reloj este colosal proyecto, para anticiparse a los nazis.

Imagen

DESARROLLO

Ha de decirse que este proyecto se llevo a cabo, gracias a los científicos judíos que el régimen nazi expulsó, resulta irónico que gracias a ellos no lo consiguiesen los alemanes. Obviamente no trabajaron únicamente científicos judíos, este proyecto contó con más de 130.000 personas.

Todo comienza con una carta firmada por Albert Einstein y otros grandes científicos al presidente de los Estados Unidos. Fue necesaria intervención de Einstein debido a que el vigente presidente Franklin D. Roosevelt no consideró importantes los avisos de Leo Szilard sobre la iniciación nazi (gracias al descubrimiento de Otto Hahn de la fisión nuclear)de una bomba de magnitudes jamás vistas. El proyecto Manhattan se inicia el 2 de agosto de 1939.

Imagen

Franklin D. Roosevelt

En 1940 Vannevar Bush, un famoso ingeniero y científico estadounidense, organizó el Comité de Investigación de la Defensa Nacional para movilizar los recursos científicos de los Estados Unidos hacia las investigaciones orientadas a la guerra.

El Consejo de Investigación de la Defensa Nacional se hizo cargo del “Proyecto Uranio”, nombre con el que se conocía el programa de física nuclear. En un principio era un campo sin mucha importancia por su escasez de información. En 1940 crearon la Oficina de Desarrollo en Investigación Científica con el fin de ampliar este campo, viendo su creciente importancia.

Sin embargo no fue hasta el 1941, tras el ataque a Pearl Harbor llevado a cabo por los japoneses para evitar la intervención de la flota estadunidense en el océano Pacífico, el momento en que EE.UU. entrase en guerra de parte de los aliados. Este ataque creó gran revuelo entre los enemigos del eje, que les veían ganar batalla tras batalla. El presidente Roosevelt viendo crecer el problema destinó más medios a este proyecto. Creó el S-1, un apartado dentro del proyecto global al que designo para su dirección a Arthur H.  Compton, llegaron trabajadores especializados, pero como no solo era un proyecto científico, si no que buscaba el diseño de nuevas armas contrataron ingenieros especializados en este tema. La incompetencia de Compton hizo que Roosevelt pusiera en su cargo al Coronel Leslie Groves. Este reencamino el proyecto y reorganizó científicos, ingenieros y técnicos dotándolos de los equipos necesarios para desarrollar su trabajo. En su primer día Groves encargó 1250 toneladas de uranio.

El coronel decidió encargar a Oppenheimer la tarea de coordinar a un grupo de científicos europeos que se encargarían exclusivamente a la creación de la bomba atómica, también decidió crear las instalaciones de este proyecto en los Álamos, congregando así a todos los trabajadores en un enorme complejo que contaba con laboratorios, espacios de montaje…

Imagen

Los Álamos.

En 1942 Enrico Fermi logró construir un reactor atómico experimental, que denominaron Chicago Pile 1, gracias a esto Estados Unidos daba un importantísimo paso en la carrera nuclear. Hasta 1943 no estuvieron operativas estas instalaciones. Con El fracaso del enriquecimiento de uranio en Oak Ridge se necesitó una completa revisión de todo el proyecto.

1944 fue un mal año para el proyecto, se empezaron a encontrar demasiados problemas, la producción de material radiactivo decreció notoriamente y no se encontraba ningún diseño aceptable para la bomba. Pero a finales de ese año volvió a encauzarse su desarrollo.

Al año siguiente el proyecto Manhattan estaba a punto de llegar a su fin, ya se empezaban a buscar posibles lugares donde poder probar la bomba, manejaban 17 opciones y finalmente fue en el desierto de Nuevo México. El 16 de julio de 1945, se realizó la prueba Trinity, la primera bomba atómica que fue detonada con éxito.

Imagen

Preparación de la prueba Trinity

CONSECUENCIAS

Una vez conseguida la bomba atómica, fue el presidente Harry S. Truman quien autorizo el lanzamiento de la bomba Little Boy en Hiroshima, compuesto por uranio y de la bomba Fat Man en Nagasaki, compuesta de plutonio.

Estas bombas forzaron la rendición de Japón, 5 días después de la tragedia, debido a su devastador poderío. Ambas ciudades quedaros arrasadas. El primer blanco fue Hiroshima. Murió un cuarto de la población unos 150.000 ciudadanos, la temperatura aumento llegando a fundir prácticamente cualquier material, también creó vientos de hasta 1.500 km/h, las personas que no murieron en el acto sufrieron quemaduras graves. En el segundo objetivo, Nagasaki. Aunque la bomba no callera donde debía, fue lo suficientemente cerca para cobrarse la vida de 140.000 personas.

Imagen Imagen

Hiroshima                                                                                   Nagasaki

Las consecuencias no fueron instantáneas, a día de hoy siguen naciendo niños con malformaciones debido a la radiación. ¿Fue necesaria la utilización de estas bombas para ganar la guerra? ¿Se utilizaron correctamente? ¿Se tuvo en cuenta las consecuencias medioambientales? ¿Fue ético el exterminio de casi 300.000 personas inocentes?

Imagen

 

CURIOSIDADES

El coste total fue de 28.000 millones.

Oppenheimer hizo referencia al libro sagrado hindú Bhagavad-guitá con la frase: “Me he vuelto la muerte, el destructor de mundos.” Tras el resultado de las bombas.

Nagasaki no era el blanco inicial pero el mal tiempo en dos ciudades japonesas, una por lluvia y otra por niebla hicieron que fuera finalmente esta ciudad corriese la misma suerte que Hiroshima.

Entre otros muchos trabajaron los siguientes científicos: Robert Oppenheimer (EEUU), Enrico Fermi (Italia); David Bohm (EEUU); Leo Szilard (Hungría); Niels Bohr (Dinamarca); Rudolf Peierls (Alemania); Otto Frisch (Alemania); Klaus Fuchs (Alemania); James Chadwick (Gran Bretaña); Edward Teller (Hungría); Feliz Bloch (Suiza); Emilio Segre (Italia); James Franck (Alemania); Eugene Wigner (Hungría).

Los empleados que no tenían una función relacionada con el proyecto, debían ser analfabetos.

El coronel Groves estaba más preocupado porque acabase la guerra y no pudiese probar la bomba que de acabarla dentro del plazo establecido.

Einstein comentaría: “debería quemarme los dedos con los que escribí aquella primera carta a Roosevelt.”

Imagen

 

 

 Abel del Fresno, 1º de Bachillerato.

 

 

 

 

 

 

 

 

Read Full Post »