Rincón del Conocimiento


La pizarra mágica es un juguete, con forma de tablero, que los niños utilizan para dibujar. Está formada por un marco de plástico de colores llamativos y varios espacios para ubicar diferentes accesorios. Dentro del marco, aparece la pizarra en forma de rectángulo de color blanco con un enrejado muy fino. Para escribir o dibujar se utiliza un "lápiz" de plástico que tiene en la punta un imán; al pintar en la pizarra aparece el dibujo en forma de líneas de color negro. Si queremos borrar el dibujo, basta con pasar una barra que atraviesa toda la pizarra, por detrás, y la tendremos preparada para pintar de nuevo. Entre los accesorios también suelen llevar imanes en forma de estrellas, animales, etc. y al ponerlos sobre la pizarra forman el dibujo directamente.


La pizarra está fabricada con un recipiente plano dividido en pequeños departamentos, o celdas, formando un enrejado hexagonal que se observa a simple vista. El recipiente contiene un gel de color blanco de aspecto aceitoso en el que se encuentran dispersas partículas muy finas de virutas de hierro o de imán cerámico. Al escribir pasamos el imán que se encuentra en el extremo de lápiz y éste atrae a las virutas justo en la zona por donde hemos escrito, destacando en negro el dibujo realizado.
Read More …

Recreación de los nuevos sistemas solares. | NASA
Recreación de los nuevos sistemas solares
El telescopio Kepler de la NASA, prolífico cazador de astros, ha descubierto otros 26 planetas en once sistemas planetarios, informó hoy la agencia espacial estadounidense.

"Estos descubrimientos casi duplican el número de planetas verificados por Kepler y triplican el de astros que se sabe que tienen más de un planeta que transita en su entorno", explicó la NASA en un comunicado. "Esos sistemas ayudará a los astrónomos a entender mejor cómo se forman los planetas", agregó. Desde que fue lanzado en 2009, Kepler detecta planetas y posibles candidatos con un amplio rango de tamaños y en distancias de órbitas también muy variadas, para ayudar a los científicos a entender mejor cuál es nuestro lugar en la galaxia.

Los planetas detectados ahora por Kepler orbitan cerca a sus astros centrales y varían en tamaño desde 1,5 veces el radio de la Tierra a un poco más que Júpiter, el mayor de la Vía Láctea. Además, los 26 planetas orbitan más próximos a sus astros que lo que Venus gira alrededor del Sol, lo que significa que les toma entre seis y 143 días completar una órbita, según los científicos de la NASA.

<<Topografía rocosa>> 

Se requerirán más observaciones para determinar si éstos tienen la topografía rocosa de la Tierra o un atmósfera gaseosa como la de Neptuno, explicó la NASA. "Antes de la misión Kepler, sabíamos que existían quizá 500 exoplanetas" en la bóveda espacial, dijo Doug Hudgins, científico a cargo del programa Kepler en Washington. "Ahora, en tan sólo dos años de mirar hacia un trozo del cielo un poco más grande que un puño, Kepler ha descubierto más de 60 planetas y más de 2.300 candidatos a planeta", explicó Hudgins."Esto nos dice que nuestra galaxia está cargada de planetas de todo tipo de tamaños y órbitas".

Kepler identifica los "candidatos a planeta" mediante una repetición de las mediciones del brillo de luz que emiten más de 150.000 estrellas para detectar cuando un planeta pasa enfrente de ellas. Ese paso produce una pequeña sombra hacia la Tierra y el observatorio Kepler. En ese sentido, Eric Ford, profesor de Astronomía en la Universidad de Florida y principal autor de un informe que confirmó los planetas Kepler-23 y Kepler-24, dijo que hacen falta más observaciones y análisispara confirmar que el pequeño incremento en el brillo de la estrella se debe a un planeta.

"Verificamos estos planetas mediante nuevas técnicas que han acelerado drásticamente su descubrimiento", observó Ford. Con el anuncio de hoy, el número de planetas descubiertos por Kepler aumenta a 61, junto a otros 2.326 candidatos a planeta.
Read More …

Una cuestión por resolver: ¿qué forma tiene el universo?
Dibujar el cosmos exige mirar el borde de un abismo. Da vértigo, pero la curiosidad y un extraño morbo nos asedian. Muchos físicos y astrónomos se han embarcado en esta misión, trazando teorías para todos los gustos sobre una cuestión por resolver: ¿qué forma tiene el universo? Según los científicos, el universo podría ser cerrado, infinito, plano o curvo, retorcido como una cinta de Moebius o enredado como una maraña de lana. Cada uno tiene sus preferencias, aunque apenas hay certezas. Para el resto de los mortales, lo lógico es preguntarse si tiene sentido hablar siquiera de una ‘forma’ para el cosmos.
“Cuando hablamos de la forma del universo nos referimos a la geometría del espacio-tiempo, que va evolucionando”, advierte Mariano Moles, investigador y director del Centro de Estudios de Física del Cosmos de Aragón. La Teoría de la Relatividad de Einstein dice que el espacio y el tiempo son inseparables, así que nos topamos con un objeto de cuatro dimensiones imposible de visualizar. Pero podemos simplificar y obtener fotos de él en cada momento, “aunque en el instante cosmológico después será distinto”, advierte Moles.

<<Una mirada desde fuera>>

Una opción es retratar el entorno desde dentro del propio universo para obtener su curvatura o forma local. La otra es estudiar su forma global o topología. “La topología es la forma que veríamos desde fuera. Claro que ‘fuera’ del universo no existe”, afirma Eduard Salvador, catedrático de Astrofísica de la Universidad de Barcelona. Este es uno de los grandes problemas: no podemos salir a mirar el ‘todo’. “Estamos limitados para entender cuerpos en tres dimensiones por estar nosotros mismos inmersos en un mundo tridimensional”, apunta Vicente Muñoz, catedrático de Geometría y Topología de la Universidad Complutense de Madrid y autor del libro La forma del universo. Nos pasa lo mismo que a los ‘chatoides’, seres planos inventados por Eduardo Battaner, catedrático de Cosmología de la Universidad de Granada.

Los chatoides habitan en la superficie de una esfera y solo perciben la longitud y la anchura. Para ellos el mundo es un plano que se extiende indefinidamente; sin embargo, si emprenden un viaje con rumbo constante, después de recorrer una circunferencia entera llegarán al mismo punto y serán capaces de comprender que viven en ‘algo parecido’ a la superficie de una esfera. Esto mismo, en una dimensión más, es lo que intentan hacer algunos para estudiar la forma global del cosmos. “En un universo cerrado, deberían producirse repeticiones de algún tipo cuando miramos a lo lejos –explica Eduard Salvador–. Pero hasta el momento no hay observaciones que puedan confirmar ninguna hipótesis de topología. Las repeticiones son muy difíciles de detectar y ni siquiera se sabe si se darán, así que no se trabaja mucho en esta línea”.

<<Después de todo, el universo es plano>>

El estudio de la curvatura del espacio está dando mejores frutos. La respuesta es casi unánime: el universo es plano. Es lo que confirman observaciones independientes sobre las anisotropías de la radiación de fondo, lentes gravitatorias, la distribución de materia a gran escala, la temperatura del gas dentro de los cúmulos, etc. “No nos referimos a que sea como un folio, sino a que se cumplen las propiedades de la geometría euclídea”, explica Salvador. “Es decir, si lanzamos dos haces de luz paralelos, nunca se acercarán o se alejarán, como sucedería si fuera curvo”, describe José Alberto Rubiño, cosmólogo del Instituto de Astrofísica de Canarias.

La gran herramienta para estudiar el universo es la radiación de fondo de microondas (CMB, por sus siglas en inglés), el eco electromagnético del Big Bang. Tras siete años de observaciones, la Sonda Anisotrópica de Microondas Wilkinson (WMAP) de la NASA ha trazado en 2011 el primer plano completo del cielo de microondas en alta resolución. “Hasta ahora, la mejor determinación de la forma del universo la ha aportado el WMAP”, asegura a SINC Charles Bennett, investigador principal del proyecto. Si nos fiamos de la NASA, podemos asumir con un margen de error de un 0,5% que estamos en una geometría plana.

Quizá estos datos nos lleven a alguna forma global. Charles Bennett contesta: “si la curvatura es nula, entonces el universo global no puede ser esférico”. ¿Podemos entonces olvidarnos de la esfera? “No”. El especialista de la Nasa recuerda que las observaciones siempre tendrán alguna incertidumbre. “En este momento nuestras medidas son indistinguibles de la curvatura nula, pero no podemos desechar la geometría esférica. Eso sí, el radio de curvatura sería enorme”, explica Bennet.

<<Algunas verdades universales>>

Tenemos sobre la mesa todas las opciones: abierto o cerrado, finito o infinito. “No sabemos si el cosmos es finito o infinito. Sí podemos asegurar que la región que podemos ver es finita”. Bennett se refiere al ‘horizonte cosmológico’, un límite infranqueable a partir del cual no se puede saber absolutamente nada. Hoy podríamos conocer, como mucho, los objetos que estén a distancias inferiores a 13.700 millones de años luz, es decir, lo que ha recorrido la luz desde el Big Bang. “La luz de todo lo que esté más lejos aún no nos ha llegado”, afirma Rubiño. Pero que no se pueda observar no significa que no exista. “Hay pruebas que muestran que el universo es mucho más grande. Si su tamaño fuera menor que 70.000 millones de años luz, entonces veríamos múltiples copias en los mapas de microondas. Hemos buscado este patrón y no lo hemos visto. Esto nos permite situar una cota del mínimo tamaño que tiene el universo”, afirma a SINC David Spergel, profesor de astrofísica en la Universidad de Princeton (EE UU). “También podemos asegurar que no tiene bordes”, añade Rubiño.

Recapitulando: es limitado en el tiempo, es mayor de lo que vemos, no tiene bordes, pero ¿es infinito? El concepto se escapa de nuestras manos y da lugar a paradojas. Spergel plantea una de las más inquietantes: “Sabemos que hay un número finito de átomos en cada ‘parche’ observable del espacio (de radio 13.700 millones de años luz) y las maneras de recolocarlos también son finitas. Nuestra existencia viene determinada por una recombinación de átomos concreta. En un universo infinito tendría que haber otros lugares en los que se volviera a dar esta combinación. De hecho, infinitos lugares. Por tanto, existirían infinitas copias de nosotros mismos. Esto es raro”. Si para el lector lego esto es un galimatías, los cosmólogos tampoco se sienten cómodos con estos trabalenguas. “Yo, personalmente, prefiero un universo finito, aunque muy grande”, admite Spergel.

<<Atrapados por nuestra visión finita>>

Si el universo es más grande que el horizonte cosmológico, puede que nunca lleguemos a conocer su forma global. El espacio podría ser finito, pero tan grande que cualquier señal de su finitud esté fuera de nuestro alcance. “No puede observarse más allá del horizonte cosmológico. Eso violaría el principio de la velocidad finita de la luz –afirma Battaner–. Lo que está más allá puede vislumbrarse por la teoría, pero no por la observación”. La verdad es que, hasta ahora, ‘mirar’ a través de la teoría nos ha permitido saber muchas cosas. “Tenemos un modelo cosmológico que puede explicar todas las medidas, incluyendo las geométricas, con solo seis parámetros”, afirma Benett. Es la Teoría de la Inflación, la revisión del Big Bang que sitúa un periódico de inflación dramático y exponencial en el comienzo del universo.

“Fuera como fuese la curvatura inicial, el cosmos se ‘aplastó’ por la enorme expansión, hasta llegar a un estado prácticamente plano. A partir de entonces, ha seguido expandiéndose y enfriándose. Conocemos su contenido: un 73% de energía oscura, 23% de materia oscura y 4% de átomos. Sabemos que tiene 13.700 millones de años. Entendemos muchas cosas, pero hay todavía tantísimas otras que no comprendemos”, admite el experto de la NASA.

Para los que tienen que ver para creer, los métodos observacionales todavía tienen mucho que ofrecernos. “El camino más prometedor es el que proporcionó WMAP, aunque su sucesor, el satélite Planck de la Agencia Espacial Europea (ESA) está ya orbitando y midiendo con una sensibilidad de tres a diez veces mayor que el WMAP. A principios de 2013 ofrecerá datos que nos permitirán conocer la geometría del universo”, anticipa Battaner. Bueno, digamos ‘conocer mejor’. En particular, corroborar las correcciones de la inflación. “Analizando las anisotropías de la radiación observada por Planck, podremos afirmar, o no, que vivimos en un universo plano, dominado por la energía oscura, que terminará en un ‘gran desgarrón’, con una expansión indefinidamente cada vez más rápida”. Entonces, seremos capaces de ver con un poco más de precisión qué se esconde en el fondo del abismo.
Read More …


Lynn Margulis (Chicago, 5 de marzo de 1938 - 22 de noviembre de 2011) fue una destacada bióloga estadounidense, considerada una de las principales figuras del evolucionismo. Licenciada en ciencias por la Universidad de Chicago, máster en la Universidad de Wisconsin y doctora por la Universidad de California, fue miembro de la Academia Nacional de Ciencias de Estados Unidos desde 1983 y de la Academia Rusa de las Ciencias. En 2008 recibió la Medalla Darwin-Wallace. En 2011 fue nombrada profesora distinguida del Departamento de Geociencias de la Universidad de Massachusetts Amherst.

En el año 1999 recibió, de la mano del presidente estadounidense Bill Clinton, la Medalla Nacional de Ciencia. Es mentora de la Universidad de Boston y ha sido nombrada doctora honoris causa por numerosas universidades, entre otras, por la Universidad de Valencia, Universidad de Vigo, la Universidad Autónoma de Madrid y la Universidad Autónoma de Barcelona, realizando, en colaboración con esta última, trabajos de microbiología evolutiva en el Delta del Ebro.

Entre sus numerosos trabajos en el campo del evolucionismo destaca, por describir un importante hito en la evolución, su teoría sobre la aparición de las células eucariotas como consecuencia de la incorporación simbiótica de diversas células procariotas (endosimbiosis seriada).También, la posible aceptación de su propuesta según la cual la simbiogénesis es la principal fuente de la novedad biológica pondría fin a cien años de prevalencia del neodarwinismo. Su importancia en el evolucionismo y el alcance de sus teorías están todavía por ver.

<< La simbiogénesis >>

Margulis considera que, al igual que las eucariotas surgieron como consecuencia de la interacción simbiogenetica de varias procariotas (bacterias), muchas de las características de los organismos y su especiación son el resultado de parecidas interacciones simbigenéticas.

Esta teoría contradice abiertamente el neodarvinismo, aceptado como valido para explicar la evolución de la vida por la inmensa mayoría de los biólogos y otros colectivos relacionados con la Evolución. Margulis se enfrenta al paradigma de que la novedad biológica se deba a errores en la replicación de ADN:

Los cambios aleatorios en la base de ADN juegan, sin duda, un papel en el proceso evolutivo. Son como errores de imprenta que se multiplican en cada ejemplar del libro. Raramente contribuyen a clarificar o ampliar el sentido del texto. Tales pequeños cambios aleatorios son casi siempre inconsecuentes —o incluso dañinos— para el conjunto de la obra. No es que estemos negando aquí la importancia de las mutaciones. Únicamente insistimos en que, siendo tan sólo una pequeña parte de la saga evolutiva, la mutación ha estado siendo dogmáticamente sobrevalorada. La parte mucho mayor de la historia de la innovación evolutiva, correspondiente a la unión simbiótica de organismos de linajes distintos, parecida —por seguir con la analogía— a la fusión de textos mediante el plagio o la antología, ha estado siendo sistemáticamente ignorada por los autoproclamados biólogos evolutivos (Sapp, 2002).

Lynn Margulis y Dorion Sagan, Adquiriendo genomas, 2002.

Margulis se apoya en conocidos casos de simbigénesis presentes en la naturaleza. Entre otros pone el ejemplo del liquen, "Los líquenes nos proporcionan un ejemplo característico de simbiogénesis. Es más, el individuo liquen es algo diferente de sus dos componentes. No es ni un alga verde o una cianobacteria, ni un hongo. Es un liquen. Los líquenes, novedades evolutivas surgidas por medio de la adquisición de genomas de alga o de cianobacteria, tomaron su propio camino y exhiben características distintas a las de sus antepasados".

Otro ejemplo que nos propone es el de las babosas subacuáticas, en este caso también puede deducirse la unión de dos simbiontes: estas babosas puede considerarse verdaderos híbridos entre animal y planta; sus antepasados, presumiblemente, fagocitaron ciertas algas verdes que, haciéndose resistentes, pasaron con el tiempo a formar parte del ADN del individuo resultante; Hoy en día estas babosas no necesitan alimentarse cuando llegan a su estadio de adultas, mediante un metabolismo propio de las plantas se limitan a adquirir su energía del sol. “tal vez esta adquisición, utilización y herencia permanente de genomas pueda parecer anecdótica, pero de hecho, ha sucedido en numerosas ocasiones a lo largo de la historia de la evolución”, dice Margulis.

<<Teoría de la simbiogénesis y Lamarck>>

Margulis ve en su teoría un paralelismo con la teoría evolutiva de Lamarck. Como lamarck, y al contrario del neodarwinismo que considera al genoma agente principal de la Evolución, considera que son los organismos los protagonistas de su propia evolución. Considera que el genoma es simplemente un registro que los organismos se encargan de imprimir. Margulis visualiza este concepto poniendo como ejemplo un ordenador (computadora): la CPU, la computadora, sería el organismo y el disco duro el genoma. Considera que la adquisición de genomas, base de su teoría, y su posterior incorporación en el acerbo genético, siendo una trasferencia horizontal, tiene carácter lamarckiano. Los organismos no heredarían los caracteres como propuso Lamarck, heredando conjuntos de genomas completos.

<<Teoría de la simbiogénesis, Darwin y neodarwinismo>>

La teoría de la simbiogénesis se refiere a la aparición de novedad biológica, no poniendo en duda la selección natural, sino que, por el contrario, Margulis ha manifestando en numerosas ocasiones que es la selección natural la que fija los procesos simbiogenéticos. Cuestionando, sí, aspectos darvinistas como lo es el gradualismo para la formación de especies y adquisción de determinados órganos y característica de los organismos.

También contradice la visión de Darwin de una naturaleza estática con recursos limitados en la que las especies y los individuos luchan por encontrar un hueco. Esta se explica por la metáfora de las cuñas, donde se representa a la naturaleza con una superficie limitada que, cuando está completa, al insertar una cuña (una nueva especie o un nuevo individuo) salta desplazada otra. Margulis hace hincapié en la capacidad de la propia vida para modificar el ambiente y generar nuevos recursos. Margulis considera que la propia vida genera recursos y que posibilita su propia extensión.

Con el neodarwinismo, teoría respaldada actualmente por la comunidad científica, sin embargo, plantea un choque frontal ya que éste mantiene que la novedad biológica proviene de las mutaciones aleatorias (errores genéticos) y la simbiogénesis propone que una gran parte de las características de los organismos y la especiación proceden de la interacción de estos organismos, principalmente, con bacterias.

<<Simbiogénesis y selección natural>>

La teoría de la simbiogénesis intenta describir la aparición de la diversidad biológica, se refiere a la fuente sobre la que actuaría la selección natural, selección natural que Margulis no cuestiona. Lo que sí cuestiona es el reduccionismo según el cual la naturaleza sería un campo de batalla donde únicamente prevalecería la competencia, una naturaleza de dientes y garras ensangrentadas

Margulis evita hablar de "competencia", "cooperación",... términos que considera economicistas e inaceptables para explicar la evolución de la vida. Los organismos interactuarían con naturalidad, en principio serían asociaciones incómodas, probablemente parasitarias y, posteriormente, esas asociaciones alcanzarían una serie de ventajas adaptativas. La selección natural primaría estas asociaciones.
Read More …

Lo llamaban «electroshock» y el imaginario popular lo asocia todavía a la larga lista de atrocidades que la historia de la medicina ha alumbrado. Hoy recibe el nombre de terapia electroconvulsiva (TEC) y se sigue aplicando. Se trata de un arma terapéutica eficaz en muchos casos y que administrada de manera controlada ayuda a muchos enfermos mentales que no habían respondido a otro tipo de tratamientos a superar el drama de su enfermedad.

Aunque muchos pacientes piensan que la terapia electroconvulsiva es cosa del pasado y ya no se aplica, en la actualidad es un tratamiento eficaz y frecuente para patologías tan cotidianas como la depresión en casos severos, en los que el enfermo delira o se siente arruinado. También está indicada contra la esquizofrenia y diversas psicosis delirantes y agudas e incluso se utiliza para tratar patologías no psiquiátricas como laenfermedad de Parkinson. En cualquier caso, es una técnica a la que solo se recurre cuando otras opciones se han revelado insuficientes o ineficaces. Suelen pasar varios meses antes de que el psiquiatra prescriba la electroconvulsión. Ese momento solo llega cuando los fármacos, las pastillas, no han funcionado Y para muchas personas, con las descargas se abre paso también la esperanza.

«Salva vidas»

Es raro que se detecten cambios significativos antes de la tercera sesión, pero a partir de esta suele percibirse la mejoría. Las descargas estimulan la actividad de los neurotransmisores, las sustancias químicas que operan en la sinapsis, la transmisión de señales entre una neurona y la próxima. Reactivando su actividad, se contribuye a que el cerebro, prodigioso y enigmático procesador central del ser humano, recupere la normalidad. El tratamiento suele oscilar entre siete y nueve sesiones .

     

El doctor Juan José López-Ibor, jefe del servicio de Psiquiatría del Hospital Clínico de Madrid, cuenta que, pese a su mala prensa, la TEC «salva vidas». Puede parecer una afirmación exagerada, pero la práctica terapéutica revela que no es así. De hecho, muchos pacientes con alto riesgo de suicidio o que se niegan a comer, apartan estos funestos pensamientos tras someterse a ella.

Una sesión de terapia electroconvulsiva en la actualidad dista mucho de la imagen cruenta que ha transmitido frecuentemente el cine y la literatura. Hoy el paciente es anestesiado previamente y se le administran relajantes musculares para prevenir cualquier riesgo de fractura. Después se le colocan unos electrodos sobre uno o los dos lados de la cabeza y se le aplica una descarga que no dura más de diez o quince segundos. Es entonces cuando sucede la crisis convulsiva. Es algo bastante tranquilo. Ni sale humo de la camilla ni el enfermo se retuerce en ella chillando como la niña de «El exorcista». Según López-Ibor, en la mayoría de los casos apenas se aprecia un leve movimiento en los dedos de la mano.

«Leyenda negra»

La TEC, no obstante, es una terapia, no un milagro, y en consecuencia tiene efectos secundarios. El más frecuente e inquietante para los pacientes es la pérdida de memoria que muchos sufren tras las sesiones. Suele ser reversible, y prolongarse por unas horas o días, pero también hay casos en los que esta amnesia persiste durante meses. Otros menos alarmantes son el dolor de cabeza o cierta confusión.

Pero no son los efectos secundarios lo que hace todavía hoy perviva en el imaginario colectivo la imagen brutal de esta técnica, asociada a la leyenda negra de la psiquiatría y muchos pacientes se muestren reticentes. El doctor López-Ibor cree que a la TEC le ocurre lo que todo lo relacionado con los enfermos mentales, que «carga con un estigma». Y no toda la culpa es de la ficción cinematográfica: «En el pasado se utilizó abusivamente, muchas veces para enfermos en los que no estaba indicado», cuenta el doctor, que añade que «fue sobre todo en Estados Unidos, en un tiempo en que la psiquiatría era muy aguerrida y se entendía que había que combatir la enfermedad como fuera y se utilizaba la TEC indiscriminadamente». Todo aquello quedó superado y, aunque entre el gran público siga predominando aquel tópico, todos los psiquiatras cuentan entre su arsenal terapéutico con la terapia electroconvulsiva.
Read More …

El aumento de las emisiones de dióxido de carbono (CO2) en los mares trastorna el sistema nervioso de los peces y reduce sus posibilidades de supervivencia, advierte un estudio científico difundido en Australia. "La concentración de dióxido de carbono que se calcula habrá en los océanos a finales de siglo afectará la habilidad de los peces para oír, oler, moverse y escapar de los depredadores", afirmó el jefe del equipo investigador, Phillip Munday, del 'Centre of Excellence for Coral Reef Studies ARC' y la Universidad James Cook de Australia, según un comunicado de prensa.
Los océanos absorben cada año unas 2.300 millones de toneladas de CO2 producidas por el hombre, cantidad que producen un cambio en el mar como la acidificación del agua.


El equipo de científicos analizó durante varios años zonas marinas con grandes concentraciones de dióxido de carbono y el efecto que este tenía en bebés de peces de arrecife, como el pez payaso y la doncella amarilla, y los depredadores. Lo primero que descubrieron es que los pececillos perdían sentido del olfato, "lo que significa que les resultaba más difícil hallar atolones donde vivir o reconocer los olores que avisan de la presencia de un depredador", explicó Munday.Después se dieron cuenta que el siguiente sentido afectado fue el del oído y luego la habilidad para darse la vuelta, un movimiento importante para permanecer unidos y evitar ser víctima de los depredadores.
"Todo esto nos llevó a sospechar de que no se trataba solamente del daño a determinados sentidos, sino que la concentración de dióxido de carbono estaba afectando a todo el sistema nervioso central", apuntó el científico.

"Hemos establecido que no es simplemente la acidificación de los océanos lo que causa perturbaciones, como en el caso de los mariscos y plancton con esqueletos calcáreos, sino que es el CO2 disuelto lo que daña el sistema nervioso de los peces", afirmó Munday. El efecto del dióxido de carbono en los depredadores es mucho más suave, según el estudio publicado recientemente en la revista 'Nature' sobre Cambio Climático.
Read More …

Los reactores de fusión nuclear prácticos están ahora un poco más cerca de la realidad gracias a nuevos experimentos con el reactor experimental Alcator C-Mod del MIT. Este reactor es, de entre todos los de fusión nuclear ubicados en universidades, el de mayor rendimiento en el mundo.

Los nuevos experimentos han revelado un conjunto de parámetros de funcionamiento del reactor, lo que se denomina "modo" de operación, que podría proporcionar una solución a un viejo problema de funcionamiento: cómo mantener el calor firmemente confinado en el gas caliente cargado (llamado plasma) dentro del reactor, y a la vez permitir que las partículas contaminantes, las cuales pueden interferir en la reacción de fusión, escapen y puedan ser retiradas de la cámara

.

La mayoría de los reactores experimentales de fusión nuclear del mundo, como el del Centro de Ciencia del Plasma y Fusión del MIT, son del tipo tokamak, en los que se usan poderosos campos magnéticos para retener el plasma caliente dentro de una cámara en forma de donut (o toroidal). El término tokamak proviene del nombre ruso del primer reactor de esta clase, desarrollado en Rusia en la década de 1960.

Por regla general, dependiendo de cómo se configuren la fuerza y la forma del campo magnético, tanto el calor como las partículas pueden escaparse (en una configuración llamada modo-L) o bien pueden ser retenidos con firmeza en el plasma (en una configuración llamada modo-H).

Ahora, después de unos 30 años de pruebas usando la serie de reactores Alcator (que con los años ha evolucionado), unos investigadores del MIT, incluyendo al profesor Dennis Whyte, han descubierto otro modo de funcionamiento, al cual han llamado modo-I, en el que el calor permanece firmemente retenido mientras que las partículas, incluyendo las contaminantes, pueden escapar. Este modo de funcionamiento debería ser capaz de evitar que esos agentes contaminantes "envenenen" la reacción de fusión.
Read More …