Psicología


More

by : Pedro Donaire
Referencia: EurekAlert.org .
contacto: Marta Cyperling, 22-Apr-2014

Una nueva investigación publicada por el Instituto Brain de Calgary (HBI) de la Universidad de Hotchkiss descubre un mecanismo que promueve el crecimiento de las células nerviosas dañadas, como medio para restaurar dichas conexiones después de una lesión. El Dr. Doug Zochodne y su equipo, han descubierto una molécula clave que regula directamente el crecimiento de las células nerviosas en el sistema nervioso dañado. Su estudio fue publicado en la prestigiosa revista Nature Communications, en cuya cabecera de autores están los Dres. Kim Christie y Anand Krishnan.

Dr. Doug Zochodne
"Hemos hecho el sorprendente descubrimiento de la proteína llamada Retinoblastoma (Rb) presente en las neuronas adultas", explica Zochodne, profesor en el Departamento de Neurociencias Clínicas, "que parece actuar habitualmente como freno y previene el crecimiento del nervio. Lo que hemos demostrado es que mediante la inactivación de la Rb, podemos liberar este freno y promover el crecimiento mucho más rápido de los nervios."

Zochodne y su equipo decidieron buscar la Rb en ​​las células nerviosas debido a su conocido papel en la regulación del crecimiento de las células en otras partes del cuerpo.

"Sabemos que el cáncer se caracteriza por un crecimiento celular excesivo, y también sabemos que la Rb a menudo funciona de forma anormal en el cáncer", continuó Zochodne. "Así que si el cáncer es capaz de liberar ese freno e incrementar el crecimiento celular; pensamos que nos gustaría probar en imitar esta misma acción en las células nerviosas y fomentar su crecimiento, allí donde lo necesitáramos."

Los investigadores pudieron desactivar la Rb durante un corto periodo de tiempo sin observar resultados negativos, lo que les lleva a sentirse optimista para que esto algún día pueda ser usado como un tratamiento seguro para los pacientes que sufren de daños en los nervios.

Hasta ahora, Zochodne sólo está investigando esta técnica en el sistema nervioso periférico. Los nervios periféricos se conectan al cerebro y la médula espinal al cuerpo, sin ellos, no hay movimiento ni sensibilidad. El daño en los nervios periféricos puede ser muy debilitante, los pacientes que experimentan síntomas de dolor, hormigueo, entumecimiento o dificultad para coordinar sus extremidades.

Por ejemplo, la neuropatía diabética es más común que la esclerosis múltiple, la enfermedad de Parkinson y que la esclerosis lateral amiotrófica (ALS) combinadas. Más de la mitad de todos los diabéticos tienen alguna forma de dolor en los nervios, y en la actualidad no existe un tratamiento para detener ese daño o revertirlo.

El desarrollo de terapias seguras y eficaces para estas enfermedades, como las derivadas de trastornos de los nervios periféricos, requiere de la habilidad para llevar estas investigaciones desde las células de una placa de Petri a los pacientes de una clínica. Zochodne y su equipo han sido capaces de hacer eso, en parte, gracias a una instalación preclínica inaugurada en HBI en 2010. La Unidad de Regeneración de Neurobiología (RUN) se creó a través tras la asociación entre HBI, la Universidad de Calgary y Canada-Alberta Western Economic Partnership Agreement.

"La instalación de RUN ha sido fundamental para esta investigación, dice Zochodne."Proporciona los recursos y equipos de última generación que necesitamos en una misma instalación. RUN nos ha permitido llevar esta idea partiendo de las células nerviosas a los modelos animales y, finalmente, ayudaremos a investigar la posible viabilidad de un tratamiento en seres humanos. Es un activo increíble."


- Fuente: Universidad de Calgary .
- Esta investigación fue financiada por Canadian Institutes of Health Research.
- Imagen: Dr. Doug Zochodne by Rebecca Rowley
- Publicación: Kimberly J. Christie, Anand Krishnan, Jose A. Martinez, Kaylynn Purdy, Bhagat Singh, Shane Eaton y Douglas Zochodne. Nature Communications 5, Article number: 3670 doi:10.1038/ncomms4670 .
.



Posted on : lunes, 21 de abril de 2014 [0] comments Label:

Buscando eficiencias ocultas en la arquitectura de ordenadores

by : Pedro Donaire
Referencia: Phys.org .
por Aaron Dubrow, 18 de abril 2014

El ordenador es una de las máquinas más complejas jamás concebida, y la mayoría de nosotros sólo interactuamos con sus características más simples. Por cada golpe de teclado y clic en la web, miles de instrucciones deben ser comunicadas en diversos idiomas y calculados millones de datos.

Pregunta clave: ¿Cómo avanzar en el rendimiento computacional sin un progreso tecnológico significativo? Hill y otros están trabajando para cosechar nuevos aumentos durante el período de "descanso" de ese futuro próximo. Crédito: Advancing Computer Systems without Technology Progress, ISAT Outbrief, Mark D. Hill and Christos Kozyrakis, DARPA/ISAT Workshop, March 26-27, 2012
Mark Hill sabe más sobre el funcionamiento interno del hardware de los computadores que la mayoría. Como profesor de Ciencias de la Computación en la Universidad de Wisconsin, estudia la forma en que las computadoras transforman los 0 y 1 en las redes sociales o en las compras en eBay, siguiendo la reacción en cadena desde el ordenador personal al concentrador de red y a la nube, y viceversa.

La intrincadas capas de computadoras se ocultan deliberadamente de aquellos que las utilizan, e incluso de aquellos que los diseñan, construyen y programan los ordenadores. Los lenguajes máquina, compiladores y los protocolos de red manejan gran parte de las desordenadas interacciones entre los distintos niveles dentro y entre los ordenadores.

"Nuestras computadoras son muy complicadas y nuestro trabajo consiste, la mayor parte del tiempo, en ocultar la mayor parte de esta complejidad, para que no tengas que enfrentarla, si no, usted no podría hacer lo que quiere hacer, tanto si estás resolviendo un problema o proporcionando entretenimiento", explicó Hill.

Durante las últimas cuatro décadas del siglo XX, conforme las computadoras crecían más rápido y más rápido, tenía cierta ventaja mantener esta complejidad oculta. Sin embargo, en la última década, la velocidad lineal de aceleración en la capacidad de procesamiento a la que nos habíamos acostumbrado (a menudo referida como la "ley de Moore") ha comenzado a estabilizarse. Ya no es posible duplicar la capacidad de procesamiento del ordenador cada dos años con sólo hacer transistores más pequeños y empaquetarlos en un chip.

Como respuesta, los investigadores como Hill y sus colegas de la industria, están reexaminando las capas ocultas de la arquitectura de computación y las interfaces entre ellas, con el propósito de exprimir más la potencia de procesamiento al mismo costo.

Preparados, listos ..., a calcular

Una de las principales formas en que Hill y los demás hacen esto, es mediante el análisis de rendimiento de tareas de la computadora. Igual que un entrenador con su cronómetro, Hill mide el tiempo que tarda un procesador ordinario, por ejemplo, en analizar una consulta en Facebook o realizar una búsqueda en Internet. Él no sólo está interesado en la velocidad total de la acción, sino en cuánto tiempo le lleva cada paso en el proceso.

A través de un cuidadoso análisis, Colina revela las ineficiencias, a veces muy importantes, de los flujos de trabajo, por las cuales las computadoras operan. Recientemente, investigó las ineficiencias en la forma en que las computadoras implementan la memoria virtual y determinó que estas operaciones pueden desperdiciar hasta un 50 por ciento de los ciclos de ejecución de un ordenador. (La memoria virtual es una memoria de gestión técnica, que asigna las direcciones de memoria utilizadas por un programa determinado, llamando direcciones virtuales a aquellas asignaciones físicas en la memoria del ordenador; es lo que, en parte, hace que cada programa puede parecer que se ejecuta como si estuviera solo en un ordenador).

Las ineficiencias que descubrió se debían sobre todo a la forma en que las computadoras han evolucionado con el tiempo. La memoria se ha incrementado un millón de veces desde la década de 1980, pero la forma en que se ha utilizado apenas ha cambiado en absoluto. Hay un método heredado llamado paginación, que se creó cuando la memoria era mucho más pequeña, que estaba impidiendo que los procesadores de ahora alcancen su máximo potencial.

Hill diseñó una solución que utiliza la paginación de forma selectiva, adoptando un método más simple de traducción de direcciones para las partes clave de las aplicaciones importantes. Esto reduce el problema, haciendo que la pérdida de caché no llegue a menos del 1 por ciento. En la edad del nanosegundo, fijar tales ineficiencias se cobra dividendos. Por ejemplo, con esta solución, Facebook podría hacer compras con menos ordenadores para una misma carga de trabajo, ahorraría millones.

El software genera direcciones virtuales, ya que tiene acceso a la memoria. Cada proceso tiene su propio espacio de direcciones virtuales. Crédito: Mark D. Hill
"Un pequeño cambio en el sistema operativo y el hardware puede traer grandes beneficios", dijo.

Hill y sus colegas publicaron los resultados de su investigación en el Simposio Internacional de Arquitectura de Computadoras en junio de 2013.

Empresas de informática, como Google e Intel, se encuentran entre las más ricas del mundo, con miles de millones en sus arcas.Entonces ¿por qué, cabe preguntarse, los investigadores universitarios, con el apoyo de la National Science Foundation (NSF), tienen que resolver los problemas con el hardware existente?

"Las empresas no pueden hacer este tipo de investigación por sí mismas, especialmente cuando es un trabajo transversal que pasa a través de muchas corporaciones", dijo Hill. "Para aquellos que trabajan en el campo, si se puede cruzar capas y optimizar, creo que hay un montón de oportunidades para mejorar los sistemas informáticos. Esto crea valor en EE.UU. para la economía y para todos los que utilizan ordenadores."

"La National Science Foundation se ha comprometido a apoyar la investigación que hace que los ordenadores de hoy sean más productivos en términos de rendimiento, eficiencia energética, y que ayuden a resolver los problemas que surjan de todo el espectro de los dominios de aplicación, al mismo tiempo que, el estudio de dichas tecnologías sirvan de base para las computadoras del mañana", declarab Hong Jiang, director del programa Computer Information Science and Engineering en la NSF .

"En el proceso de expansión de los límites de la computación, es muy importante encontrar soluciones tanto a corto como a largo plazo para mejorar el rendimiento, la eficiencia energética y la resiliencia++.. La investigación pionera del profesor Mark Hill en sistemas de memoria de computador, es un excelente ejemplo de este tipo de esfuerzos."

El enfoque de "divide y vencerás" es un diseño de arquitecturas de ordenador, que mantiene las distintas capas de computación separadas, ayudando a acelerar la industria, al tiempo que minimiza los errores y la confusión en una era en que las velocidades más rápidas parecen inevitables. Aunque Hill cree que puede haber llegado el momento de romper con las capas y crear un marco más integrado de computación.

"En la última década, las mejoras de hardware se han reducido enormemente y lo que queda por ver es lo siguiente por venir", subrayó Hill. "Pienso que vamos a ir sacando una gran montón de ineficiencias, y aún así, obtener ganancias. No va a ser todo lo grande que hemos visto antes, pero espero que sea suficiente para que todavía podemos permitirnos nuevas creaciones, que es de lo que realmente se trata."

Más recientemente, Hill ha estado explorando cómo las unidades de procesamiento gráfico (GPU), que se han vuelto comunes en la computación personal y la nube, pueden procesar grandes tareas de memoria de manera más eficiente.

Al escribir para las actas del Simposio Internacional sobre High-Performance Computer Architecture, Hill, junto con Jason Poder y David Wood (también de la Universidad de Wisconsin), demostraron que es posible diseñar protocolos de memoria virtual que sean más fáciles de programar, sin frenar significativamente el rendimiento global. Esto abre la puerta a la utilización de sistemas acelerados de GPU que puede calcular más rápido que las computadoras tradicionales que sólo tienen unidades de procesamiento.

Acelerar durante la desaceleración

Las mejoras en la memoria virtual y en el rendimiento de la GPU son algunos ejemplos de sitios donde el pensamiento cross-layer ha mejorado el rendimiento del hardware del ordenador, y también son el emblema de una transformación total en la forma que investigadores están ideando la arquitectura de los ordenadores de principios del siglo XXI.

Hill dirigió la creación de un libro blanco, escrito por docenas de los mejores científicos de computación de Estados Unidos, donde esbozó algunos de los cambios de paradigma que enfrenta la informática.

"El siglo XXI va a ser diferente del siglo XX en varias maneras", explicó Hill. "En el siglo 20, nos centrábamos en un ordenador genérico. Esto no es de ninguna manera apropiado, sin duda hay que tener en cuenta dónde y para qué sirve. ¿es un cacharro inteligente? ¿Está en tu teléfono móvil, o en tu portátil o en el nube? Hay diferentes restricciones."

Entre los otros hallazgos clave del informe un cambio de enfoque del simple computador a la red o centro de datos; la creciente importancia de las comunicaciones en los flujos de trabajo de hoy en día, en especial en lo relacionado con los grandes datos; el crecimiento del consumo de energía como una preocupación de primer orden en el chip y en el diseño por ordenador; y la emergencia de nuevas e impredecibles tecnologías, que podrían resultar rompedoras.

Sin embargo, estas tecnologías punta están todavía a décadas de distancia. Entre tanto, le toca a los informáticos repensar qué se puede hacer para optimizar el hardware y el software existente. Para Hill, este esfuerzo es similar al trabajo de los detectives, donde la velocidad de un proceso sirve como una pista de lo que está ocurriendo bajo la cubierta de un portátil.

"Es un todo acerca de la resolución de problemas", dijo Hill. "La gente se concentra en la parte final, que es como el acabado del rompecabezas, pero en realidad la parte creativa es la definición de cuál es el rompecabezas. Ahí es donde está la satisfacción de haber creado algo nuevo, algo que nunca ha existido antes. Puede ser una pequeña cosa no bien conocida por todos, pero uno sabe que es nuevo y que encuentras gran satisfacción en eso."


- Más información: El libro blanco titulado "21st Century Computer Architecture", disponible en línea.
- Fuente: National Science Foundation.
- Imagen.1. Pregunta clave: ¿Cómo avanzar en el rendimiento computacional sin un progreso tecnológico significativo? Hill y otros están trabajando para cosechar nuevos aumentos durante el período de "descanso" de ese futuro próximo. Crédito: Advancing Computer Systems without Technology Progress, ISAT Outbrief, Mark D. Hill and Christos Kozyrakis, DARPA/ISAT Workshop, March 26-27, 2012 .
- Imagen.2. El software genera direcciones virtuales, ya que tiene acceso a la memoria. Cada proceso tiene su propio espacio de direcciones virtuales. Crédito: Mark D. Hill
.



by : Pedro Donaire
Referencia: Sci-News.com, 18 de abril 2014

En dos estudios separados, los geólogos dirigidos por el Dr. Haley Sapers, de la Universidad Western, en Ontario, y el Dr. Pete Schultz, de la Universidad Brown, han encontrado materia orgánica floral y microbiana en el vidrio creado por antiguos impactos de asteroides, cometas y meteoritos. Tales muestras vitrificadas pueden proporcionar una instantánea de las condiciones ambientales en el momento de los impactos, y podría ser un buen lugar para buscar signos de vida antigua en Marte.


En el primer estudio, publicado en la revista Geology, el Dr. Schultz con sus colegas, encontraron fragmentos de hojas y compuestos orgánicos conservados y alojados en el vidrio creado por varios antiguos impactos en Argentina.

"La tierra del este de Argentina, al sur de Buenos Aires, está plagada de vidrios de impactos, creados por lo menos por siete impactos diferentes que se produjeron hace entre 6.000 y 9 millones de años", explicó el Dr. Schultz. "Uno de esos impactos, fechado hace alrededor de 3 millones de años, coincide con la desaparición de 35  géneros de animales."

"Sabemos que estos fueron los mayores impactos, debido a la distancia a la que se distribuyó el vidrio y al tamaño de los trozos. Estos vidrios están presentes en diferentes capas de sedimentos a lo largo de un área aproximadamente del tamaño de Texas", añadió.

Dentro del vidrio asociado con dos de estos impactos, uno de hace 3 millones de años y otro de hace 9.000 millones de años, el equipo encontró materia vegetal exquisitamente conservada.

"Estos vidrios conservan la morfología de la planta tanto de características macro como a escala micrométrica. Es realmente notable", observó el Dr. Schultz.

Las muestras de vidrio contienen fragmentos de hojas de tamaño centimétrico, que incluyen intactas estructuras como las papilas, pequeñas protuberancias que recubren las superficies de las hojas. Los bloques de estructuras vetosas descubiertas en diversas muestras son muy similares a las modernas hierbas de las Pampas, una especie común en esa región de Argentina .

El análisis químico de las muestras también reveló la presencia de hidrocarburos orgánicos, la firma química de la materia viva.

Para entender cómo se podrían haber conservado estas estructuras y compuestos, los científicos trataron de replicar dicha preservación en el laboratorio.

Mezclaron el vidrio pulverizado del impacto con fragmentos de hojas de hierba de las pampas, calentaron la mezcla a distintas temperaturas durante diferentes cantidades de tiempo. Los experimentos mostraron que el material vegetal se conservaba cuando las muestras era calentado rápidamente por encima de los 1.500 ºC.

"Parece que el agua de las capas externas de las hojas aísla las capas internas, permitiéndoles permanecer intactas. Lo externo de las hojas le lleva más tiempo que el interior. Es parecido a una fritura. Lo externo de las patatas fritas se calienta rápidamente, pero el interior necesita mucho más tiempo para cocinarse" , explicó el Dr. Schultz.

En el segundo estudio, publicado también en la revista Geology, el Dr. Sapers y sus colegas, descubrieron que los microbios también se habían conservado en los vidrios de los impactos.

Analizaron las características tubulares de alteración hidrotermal del vidrio en la Ries Impact Structure, Germany, que son notablemente similares a las texturas bioalteradas observadas en los vidrios volcánicos.

Los procesos de formación de minerales no pueden explicar fácilmente la distribución y las formas de resmas de las características tubulares; por lo tanto, ellos sugieren que los túbulos formados por los microbios grabaron sus formas a través de la cristalización por el impacto, ya que excretaron sus ácidos orgánicos.

El impacto de un meteorito en un destino tan rico en agua como la Tierra o Marte, tiene el potencial de generar un sistema hidrotermal post-impacto.

Las estructuras de impacto, especialmente los sistemas hidrotermales post-impacto, representan un hábitat poco estudiado, con una potencial relevancia para los inicios de la vida y la evolución de la vida primitiva en la Tierra.

Comprender la importancia biológica de los productos de impacto, como el vidrio de impacto en la Tierra, informará mejor la búsqueda de evidencias de vida, y de vidas pasadas, en otros planetas terrestres como Marte.


- Publicación.1. P.H. Schultz et al. Preserved flora and organics in impact melt breccias. Geology, published online April 15, 2014; doi: 10.1130/G35343.1 .
- H.M. Sapers et al. Enigmatic tubular features in impact glass. Geology, published online April 10, 2014; doi: 10.1130/G35293.1 .
- Imagen: Tazas fósiles microbianas vitrificadas por impacto de hace 15 millones de años de antigüedad, Crédito: H.M Sapers et al.
.



by : Pedro Donaire
Referencia: ScienceDaily.com, 18 de abril 2014

Dos psicólogos de la Universidad Simon Fraser han hecho un descubrimiento relacionado con el cerebro que podría revolucionar la percepción y el tratamiento médico de los trastornos por déficit de atención. Este descubrimiento abre la posibilidad de que los factores ambientales y/o genéticos pueden impedir o reprimir una actividad específica del cerebro que los investigadores han identificado como soporte para evitar la distracción.

El Journal of Neuroscience acaba de publicar un estudio sobre este descubrimiento de John McDonald, profesor asociado de psicología y su estudiante de doctorado John Gaspar, que hizo el descubrimiento durante la investigación de su tesis de maestría .

Este es el primer estudio que revela que nuestros cerebros se basan en un mecanismo de supresión activa, para evitar ser distraído por la preeminente información irrelevante cuando queremos enfocar un tema o una tarea en particular.

McDonald, presidente de investigación de Canadá de Cognitive Neuroscience y otros científicos, descubrieron primero la existencia del índice neural específico de supresión en su laboratorio en 2009. Pero, hasta ahora poco se sabía sobre la forma en que nos ayuda a ignorar las distracciones visuales.

"Este es un descubrimiento importante para los neurocientíficos y psicólogos, dado que la mayoría de las ideas contemporáneas sobre los procesos cerebrales de alta atención están involucrados en la selección de objetos relevantes del campo visual. Viene a ser como un ¿Dónde está Wally?", comenta Gaspar, autor principal del estudio.

"Nuestros resultados muestran claramente que esto es sólo una parte de la ecuación y que la supresión activa de los objetos irrelevantes es otra parte importante."

Dada la proliferación de dispositivos distractivos de consumo de nuestra corriente tecnológica, del ritmo rápido da la sociedad, los psicólogos dicen que su descubrimiento podría ayudar a los científicos y profesionales de la salud a un mejor tratamiento de las personas con déficit de atención relacionado con la distracción.

"La distracción es la principal causa de lesiones y muerte en la conducción y otros entornos de alto riesgo", apunta McDonald, autor principal del estudio. "Existen diferencias individuales en la capacidad para hacer frente a la distracción. Los nuevos productos electrónicos están diseñados para acaparar la atención y la supresión de tales señales requiere esfuerzo, y a veces, la gente parece no poder hacerlo.

"Por otra parte, los trastornos relacionados con el déficit de atención, como el TDAH y la esquizofrenia, pueden ser así debido a las dificultades para suprimir los objetos irrelevantes, en lugar de dificultades para seleccionar los relevantes."

Los investigadores ahora están volcando su atención en la comprensión de cómo hacer frente a la distracción. Están viendo cuando y por qué no podemos suprimir los objetos potencialmente distractores, por qué algunos de nosotros somos mejores haciéndolo y por qué esto es así .

"Hay evidencias de que las habilidades atencionales disminuyen con la edad, y que las mujeres son mejores que los hombres en ciertas tareas de atención visual", señala Gaspar.

El estudio se basó en tres experimentos en los que 47 alumnosrealizaron una tarea de búsqueda visual de una atención exigente. Su edad media era de unos 21 años. Los investigadores estudiaron sus procesos neuronales relacionados con la atención, la distracción y la supresión, mediante el registro de señales eléctricas cerebrales de los sensores incrustados en una gorra que llevaban.


- Fuente: Simon Fraser University
- Publicación: J. M. Gaspar, J. J. McDonald. Suppression of Salient Objects Prevents Distraction in Visual Search. Journal of Neuroscience, 2014; 34 (16): 5658 DOI: 10.1523/JNEUROSCI.4161-13.2014.
- Imaggen: TDAH. Crédito: © Feng Yu / Fotolia

.



by : Pedro Donaire
Referencia: Sci-News.com, 17 de abril 2014

Geólogos estadounidenses han descubierto lo que ellos llaman un paisaje del Pleistoceno, conservado a unos 3 km. por debajo de la capa de hielo de Groenlandia.

Tundra de Alaska. Wikipedia.

"Descubrimos un suelo orgánico que se quedó congelado en el fondo de la capa de hielo durante 2,7 millones de años", declaraba el Dr. Paul Bierman, geólogo de la Universidad de Vermont y el autor principal del artículo que aparece en línea en la revista Science.

"Este antiguo suelo bajo la capa de hielo de Groenlandia nos ayuda a desentrañar un misterio importante que rodea el cambio climático, ¿cómo las grandes capas de hielo se derriten o crecen en respuesta a cambios en la temperatura?", decía el co-autor del estudio, Dr. Dylan Rood del Scottish Universities Environmental Research Center y la Universidad de California, Santa Barbara.

El descubrimiento indica que, incluso en los períodos más cálidos, una vez que la capa de hielo se formó, el centro de Groenlandia se mantuvo estable. Esto permitió que se quedara encerrada un paisaje de tundra bajo los hielos, y sin modificar a través de millones de años de calentamiento global y el enfriamiento.

"El conocimiento tradicional sobre los glaciares es que son agentes erosivos muy poderosos y despojan un paisaje dejándolo limpio. Pero, tal como se demuestra, la capa de hielo de Groenlandia no está actuando como un agente de la erosión, de hecho, en su centro, se ha llevado a cabo muy poca erosión desde su creación hace casi tres millones de años", señalaba el co-autor Lee Corbett, estudiante graduado en la Universidad de Vermont.

Según añadió el Dr. Bierman, "en lugar de rozamiento y esculpir el paisaje, la capa de hielo fue congelando el suelo, una especie de refrigerador que ha preservado este paisaje tan antiguo."

Los científicos testearon 17 muestras sucias de hielo desde los doce metros más profundos de los 3.053 metros perforados en el proyecto GISP2, donde extrajeron muestras de hielo en Summit, Groenlandia, en 1993.

De este sedimento, extrajeron una forma rara del elemento berilio, un isótopo llamado berilio-10. Formado por rayos cósmicos que vienen del cielo y se quedan adheridos a la rocas y el suelo. El suelo ya estuvo largamente expuesto en la superficie de la Tierra, que acumuló la mayor parte de berilio-10. Mediendo cuánto hay en el suelo o en una roca, ofrece a los geólogos una especie de reloj de la exposición.

Los investigadores esperaban encontrar solamente suelos de la roca madre erosionados por el glaciar en el sedimento del fondo de las muestras de hielo.

Planearon su trabajo diligentemente, hasta encontrar estas pequeñas cantidades de berilio, ya que el paisaje bajo la capa de hielo no había estado expuesto al cielo.

"A nivel global, sólo encontramos este tipo de concentraciones de berilio en los suelos que se han desarrollado a lo largo de cientos de miles hasta millones de años", explicaba el co-autor Joseph Graly de la Universidad de Wyoming.

Los hallazgos muestran que el suelo se ha mantenido estable y expuesto a la superficie de algún momento entre 200.000 y 1 millón de años antes de ser cubierto por el hielo. Para facilitar la interpretación de los datos, los científicos también midieron el nitrógeno y el carbono que podrían haber sido dejados por el material vegetal de las muestras.

"El hecho de encontrar cantidades medibles de material orgánico en el hielo limoso, indica que ese mismo suelo debió estar presente bajo el hielo", dijo el co-autor Dr. Andrea Lini, de la Universidad de Vermont.

"Groenlandia tuvo un paisaje realmente verde. No obstante, eso fue hace millones de años. Groenlandia se parecía a la tundra verde de Alaska, antes de que fuera cubierto por el segundo mayor volumen de hielo de toda la Tierra", concluyó el Dr. Rood.

Para confirmar sus hallazgos acerca de este antiguo paisaje, los investigadores también midieron los niveles de berilio en un suelo de tundra de moderno permafrost en la Ladera Norte de Alaska.

"Los valores son muy similares, lo que nos ha dejado más seguros de que lo que encontramos debajo de Groenlandia era suelo de tundra", concluyó el Dr. Bierman .


- Publicación: Paul R. Bierman et al. Preservation of a Preglacial Landscape Under the Center of the Greenland Ice Sheet. Science, published online April 17, 2014; doi: 10.1126/science.1249047.
- Imagen: Tundra de Alaska. Wikipedia.
- Relacionados: Proyecto Inlandsis (GISP), Proyecto de muestras de hielo de Groenlandia (GRIP).
,



Posted on : sábado, 19 de abril de 2014 [3] comments Label: ,

¿Qué es la realidad?

by : Pedro Donaire



¿Qué es la realidad?

Si llamo realidad a aquello que conozco y lo que puedo llegar a conocer

Entonces,

Parece inferirse que existe una realidad todavía por descubrir a la que podríamos llamar "realidad en sí"

Sin embargo,

Esta inferencia nos hace concebir una realidad distinta a la nuestra, y que supuestamente distingue entre nosotros y una realidad independiente. Pero ¿acaso no somos nosotros parte de esa misma realidad?

Luego entonces,

¿Por qué creer que existe una realidad distinta?

La susodicha inferencia establece una falsa dualidad entre nosotros y esa supuesta realidad de "ahí fuera"

Se crea una contradicción performativa: Si somos parte de la realidad, ¿que nos hace suponer otra realidad?

La solución a tan aparente irresoluble enigma no es otra que, la realidad es sólo una, y lo que nosotros observamos y creamos es puro conocimiento, incluyendo el mismo concepto de realidad

Por tanto, como conclusión,

No existe una "realidad en sí" independiente de nosotros. Solamente existe una realidad: lo que conocemos y podemos conocer, porque es aquello que valoramos como conocimiento.

Corolario: Nosotros no vamos conociendo la realidad, sino que la realidad no es otra cosa que aquello que conocemos.


.



by : Pedro Donaire
Referencia: ScienceDaily.com, 15 de abril 2014

Todos los organismos, desde los mamíferos a los hongos, tienen ciclos diarios controlados por un reloj interno estrictamente regulado, llamado reloj circadiano. El reloj circadiano del cuerpo en su totalidad está influenciado por la exposición a la luz, lo que determina el ciclo sueño-vigilia. A nivel celular, dicho reloj está controlado por una compleja red de genes y proteínas que se conmutan entre sí, activándose y desactivándose, según las señales de su entorno .

La mayoría de los genes implicados en la regulación del reloj circadiano ya se han caracterizado, pero Akihiro Goriki, Toru Takumi y sus colegas de RIKEN y de la Universidad de Hiroshima, en Japón, y la Universidad de Michigan en los Estados Unidos, sabían que hay un componente clave perdido que faltaba por descubrir en los mamíferos.

En el estudio, el equipo realizó un análisis de inmunoprecipitación de la cromatina de todo el genoma genético de BMAL1, un componente central de este reloj capaz de unirse a muchos otros genes del reloj, regulando su transcripción.

Los autores caracterizan a este nuevo gen circadiano con el nombre de Chrono. Y muestran las funciones de Chrono, como un represor transcripcional del bucle de realimentación negativa del reloj de los mamíferos: la proteína Chrono se une a la región reguladora de los genes del reloj, con su oscilante función represora de la forma circadiana. La expresión de los genes del núcleo de reloj se alteraba en los ratones que carecían del gen Chrono, y los ratones tienen largos ciclos circadianos.

"Estos resultados sugieren que Chrono funciona como un represor de reloj central", concluyen los autores.

Además, demuestran que el mecanismo represivo de Chrono está bajo el control epigenético y los vinculado, a través de un receptor de glucocorticoides, a las vías metabólicas desencadenadas por un comportamiento estresado.

Tales hallazgos son confirmados por otro estudio realizado por la Universidad de Pennsylvania, también publicado en PLoS Biology. En el estudio, John Hogenesch y su equipo, demuestran la existencia de Chrono utilizando un análisis computacional.

- Fuente: RIKEN, vía AlphaGalileo.org .
- Imagen:  PLoS Biology
- Publicación: Akihiro Goriki, Fumiyuki Hatanaka, Jihwan Myung, Jae Kyoung Kim, Takashi Yoritaka, Shintaro Tanoue, Takaya Abe, Hiroshi Kiyonari, Katsumi Fujimoto, Yukio Kato, Takashi Todo, Akio Matsubara, Daniel Forger, Toru Takumi. A Novel Protein, CHRONO, Functions as a Core Component of the Mammalian Circadian Clock. PLoS Biology, 2014; 12 (4): e1001839 DOI: 10.1371/journal.pbio.1001839.
.



Posted on : viernes, 18 de abril de 2014 [2] comments Label:

Relaciones lingüísticas del Amazonas

by : Pedro Donaire
Referencia: ScienceDaily.com .
por Sandra Jacob, 16 de abril 2014

Se han revelado relaciones entre las lenguas raras de la Amazonía colombiana. Los únicos datos lingüísticos disponibles para el Carabayo, una lengua hablada por un grupo indígena que vive en aislamiento voluntario, es un conjunto de unas 50 palabras. Esta lista fue compilada en 1969 durante un breve encuentro con una familia Carabayo. Frank Seifart, del Instituto Max Planck de Antropología Evolutiva en Leipzig, Alemania, y Juan Alvaro Echeverri de la Universidad Nacional de Colombia en Leticia, Colombia, han analizado este conjunto de datos históricos y los compararon con otros idiomas que se hablan (o se hablaron) en la región. El análisis mostró que, el Carabayo comparte varias similitudes con la lengua extinta Yurí y con la Ticuna, una lengua que aún hoy día se habla en la región.

Rio Caquetá, Japurá en Brasil
A partir de los resultados de su estudio, los investigadores concluyen que los Carabayo, directa o indirectamente, descienden del pueblo Yuri, cuya lengua y costumbres fueron descritas por los exploradores en el siglo XIX, antes de que ellos mismos decidieran su aislamiento voluntario.

Según Survival International, hay alrededor de 100 grupos indígenas no contactados en todo el mundo, unas pocas docenas de ellos viven en la selva amazónica. Uno de ellos, el Carabayo, vive en aislamiento voluntario en la región remota superior del río puro, en la selva amazónica colombiana. La prueba más reciente de la permanencia de los Carabayo son fotografías aéreas de sus viviendas circulares tomadas en 2010, publicadas en el libro Cariba Malo por el investigador colombiano Roberto Franco.

A principios de 1969, una comisión militar en una misión de rescate, tuvo un contacto violento con los Carabayo y tomaron un rehén de la familia. "Mientras esta familia estuvo cautiva, los hablantes de todas las lenguas vivas de la región trataron de comunicarse con ellos, pero no pudieron", contaba Frank Seifart, del Instituto Max Planck de Antropología Evolutiva. "Los investigadores por lo tanto concluyeron que los Carabayo no estaban relacionados con ninguna lengua viva en la región."

Frank Seifart y Juan Alvaro Echeverri han comparado ahora las palabras Carabayo con las listas de palabras históricas de las lenguas extintas de la región, que fueron documentadas por los exploradores en el siglo 19. "Nuestra comparación de los datos reveló que un buen número de formas Carabayo se corresponden con elementos Yurí, pero ninguna de las formas coincidió con las otras lenguas", dice Seifart. Los investigadores identificaron cuatro formas Carabayo –el prefijo de la primera persona del singular, las palabras para "caliente", "niño" y "padre"– que coincidían con sus correspondientes formas Yurí. "La evidencia más fuerte para una relación entre Carabayo y Yuri viene del prefijo de la primera persona del singular", explica Seifart . "Los pronombres personales son conocidos por ser especialmente resistentes a los préstamos, por lo que su similitud indica un vínculo genealógico más que un contacto entre lenguas."

Los investigadores luego compararon el Carabayo con las lenguas que se hablan hoy en día en la zona amazónica de Colombia, y encontraron una serie de muy buenas coincidencias entre Carabayo y ticuna, pero no con ninguna otra lengua viva de la región. "Lo que añade credibilidad a estos coincidencias es que presentan correspondencias fonéticas regulares: Por ejemplo, la g Carabayo se corresponde con la ng Ticuna en una serie de palabras que difícilmente puede ser una coincidencia", dice Seifart.

Los investigadores concluyen que tanto Yuri, Carabayo como Ticuna están genealógicamente relacionadas, y que la Carabayo lo está en algún punto intermedio entre Yuri y Ticuna, aunque probablemente más cercana a Yuri. "La facilidad con las palabras Carabayo podían ser interpretadas por un hablante nativo Ticuna, sugiere además, que estas lenguas están de manera relativa estrechamente relacionadas, y que pudieron incluso formar  en el pasado un dialecto continuo", dice Seifart .


- Fuente: Max- Planck -Gesellschaft .
- Publicación: Frank Seifart, Juan Alvaro Echeverri. Evidence for the Identification of Carabayo, the Language of an Uncontacted People of the Colombian Amazon, as Belonging to the Tikuna-Yurí Linguistic Family. PLoS ONE, 2014; 9 (4): e94814 DOI: 10.1371/journal.pone.0094814.
- Relacionado: Lenguas indígenas de América
- Imagen: El río Caquetá (llamado Japurá en Brasil), es un largo río amazónico de 2.280 km de longitud, que discurre por Colombia y Brasil. Crédito Wikipedia.
.



by : Pedro Donaire
Referencia: Filosofía.net . (2009)
por Navarro Cordón, Juan Manuel y Pardo, José Luis 

Immanuel Kant (Königsberg, Prusia, 22 de abril de 1724 – Königsberg, 12 de febrero de 1804) fue un filósofo prusiano de la Ilustración. Es el primero y más importante representante del criticismo y precursor del idealismo alemán y está considerado como uno de los pensadores más influyentes de la Europa moderna y de la filosofía universal. (ref. Wikipedia).


Libertad y razón práctica. El formalismo moral

1. Razón teórica y razón práctica

En la Crítica de la razón pura, cuyas doctrinas fundamentales acabamos de exponer, Kant hizo un notable esfuerzo por explicar cómo es posible el conocimiento de la naturaleza y hasta dónde es posible el conocimiento de objetos.

Ahora bien, la actividad racional no se limita al conocimiento de los objetos. El ser humano también necesita saber cómo ha de obrar, cómo ha de ser su conducta: la razón tiene también una función moral, en correspondencia con la segunda pregunta que proponíamos en el primer epígrafe: ¿qué debo hacer?

Esta doble vertiente puede expresarse por medio de la distinción entre razón teórica y razón práctica (no se trata, por supuesto, de dos razones, sino de dos usos de la razón): la razón teórica se ocupa de conocer cómo son las cosas; la razón práctica, de saber cómo debe ser la conducta humana.

A la razón práctica no le corresponde conocer cómo es de hecho la conducta humana, sino cómo debe ser: no le interesan los motivos que determinan empírica y psicológicamente a los hombres (deseos, sentimientos, egoísmo, etc.), sino los principios que han de moverlos a obrar para que su conducta sea racional y, por tanto, moral.

Esta separación entre ambas esferas suele expresarse diciendo que la ciencia (la razón teórica) se ocupa de lo que es, mientras que la moral (la razón práctica) se ocupa de lo que debe ser.

La diferencia entre estas actividades racionales se manifiesta, según Kant, en el modo totalmente distinto en que una y otra expresan sus principios o leyes: la razón teórica formula juicios teórico-objetivos («El calor dilata los metales», etc.), mientras que la razón práctica formula imperativos o mandamientos («No matarás», etc.).

2. El formalismo moral

La teoría moral de Kant no es menos original que su teoría del conocimiento científico. La ética kantiana representa una auténtica novedad dentro de la historia de la filosofía: si antes de él todas las éticas habían sido materiales, la ética de Kant es formal.

2.1 Las éticas materiales

Para comprender el significado de la teoría kantiana, es necesario entender qué es una ética material.

En primer lugar, no debe confundirse ética material con ética materialista: lo contrario de una ética materialista es una ética espiritualista; lo contrario de una ética material es una ética formal (por ejemplo, la ética de Tomás de Aquino es material, pero no materialista).

De modo general, podemos decir que son materiales las éticas que fijan un bien supremo para el ser humano como criterio de la bondad o de la maldad de su conducta; por tanto, los actos serán buenos cuando nos acerquen a la consecución de tal bien y malos (reprobables, no aconsejables) cuando nos alejen de él.

De acuerdo con esta definición, en toda ética material encontramos estos dos elementos:

1) Hay bienes, cosas buenas para el hombre (el placer, la felicidad, etc.).

2) Una vez establecido el bien supremo, la ética propone unas normas o preceptos encaminados a alcanzarlo.

Con otras palabras, la ética material es una ética que tiene contenido, y lo tiene en el doble sentido que acabamos de señalar: en cuanto que establece un bien supremo (por ejemplo, el placer en la ética epicúrea) y en cuanto que dice lo que ha de hacerse para conseguirlo (preceptos de la ética epicúrea son, por ejemplo, «No comas en exceso» o «Aléjate de la política»).

2.2 Crítica de Kant a las éticas materiales

Kant rechazó las éticas materiales porque, a su juicio, presentan las siguientes deficiencias:

1) Las éticas materiales son empíricas, son a posteriori, es decir, su contenido está extraído de la experiencia.

En el caso de la ética epicúrea, ¿cómo sabemos que el placer es un bien máximo para el hombre? Indudablemente, porque la experiencia nos muestra que desde niños los hombres buscan el placer y huyen del dolor. ¿Cómo sabemos que para conseguir un placer duradero y razonable se ha de comer sobriamente y se ha de permanecer alejado de la política? Sin duda, porque la experiencia nos muestra que el exceso produce, a la larga, dolor y enfermedades, y la política, disgustos y sufrimientos. Se trata, pues, de generalizaciones a partir de la experiencia.

Tal vez a un epicúreo le preocupe bastante poco que su ética sea empírica, a posteriori. A Kant, sin embargo, esto le preocupa sobremanera, porque pretende formular una ética cuyos imperativos sean universales y necesarios, y, como ya hemos visto, considera que de lo empírico de la experiencia no pueden extraerse principios universales ni se sigue necesidad alguna.

2) Los preceptos de las éticas materiales son hipotéticos o condicionales: no valen absolutamente, sino solo de un modo condicional, como medios para conseguir un fin.

Cuando el sabio epicúreo aconseja «No bebas en exceso», quiere decir «No bebas en exceso si quieres alcanzar una vida moderada y largamente placentera». ¿Qué ocurre si alguien contesta «Yo no quiero alcanzar esa vida de placer moderado y continuado»? Evidentemente, el precepto epicúreo carece de validez para él. He aquí un segundo motivo por el cual una ética material no puede ser, a juicio de Kant, universalmente válida.

3) Las éticas materiales son heterónomas: la heteronomía consiste en recibir la ley desde fuera de la propia razón. Justo lo contrario de la autonomía, que consiste en que el sujeto se dé a sí mismo la ley desde su naturaleza y determinación racional, en que el sujeto se determine a sí mismo a obrar.

Las éticas materiales son heterónomas, según Kant, porque la voluntad es determinada a obrar de este modo o del otro por el deseo, por la inclinación, por la ley divina o por meras normas sociales. Siguiendo con el ejemplo del epicureísmo, el hombre es determinado en su conducta por una ley natural, por la inclinación al placer; es dominado por este.

2.3 La ética formal de Kant

Sentido de una ética formal

Las éticas materiales se encuentran inevitablemente aquejadas, según Kant, de esas tres deficiencias. A partir de esta crítica, el razonamiento kantiano es sencillo y puede ser expuesto del siguiente modo:

1) Todas las éticas materiales son empíricas, hipotéticas en sus imperativos y heterónomas.

2) Ahora bien, una ética estrictamente universal y racional no ha de ser empírica (sino a priori), ni hipotética en sus imperativos (sino que estos han de ser absolutos, categóricos), ni heterónoma (sino autónoma; es decir, el sujeto ha de determinarse a sí mismo a obrar, ha de darse a sí mismo la ley).

3) Luego, una ética estrictamente universal y racional no puede ser material; ha de ser formal.

¿Qué es entonces una ética formal? Pues una ética que carece de contenido en los dos sentidos en que la ética material lo tiene:

1) No establece ningún bien o fin distinto de la ley moral que haya de ser perseguido por el ser humano.

2) Y, por tanto, no nos dice lo que hemos de hacer, sino cómo debemos actuar, la forma en que debemos obrar.
«Así pues, el valor moral de la acción no reside en el efecto que de ella se espera, ni tampoco, por consiguiente, en ningún principio de la acción que necesite tomar su fundamento determinante en ese efecto esperado. Pues todos esos efectos –el agrado del estado propio, o incluso el fomento de la felicidad ajena–, pudieron realizarse por medio de otras causas, y no hacía falta para ello la voluntad de un ser racional, que es lo único en donde puede, sin embargo, encontrarse el bien supremo y absoluto. Por tanto, no otra cosa, sino solo la representación de la ley en sí misma –la cual desde luego no se encuentra más que en el ser racional–, en cuanto que ella y no el efecto esperado es el fundamento determinante de la voluntad, puede constituir ese bien tan excelente que llamamos el bien moral».
 Kant, I.: Fundamentación de la metafísica de las costumbres. Real Sociedad Económica Matritense de Amigos del País, Madrid, 1992, p. 31.

El deber

La ética formal no establece, pues, lo que hemos de hacer: se limita a señalar cómo debemos obrar siempre, trátese de la acción concreta de que se trate. Un hombre actúa moralmente, según Kant, cuando actúa por deber.

El deber «es la necesidad de una acción por respeto a la ley» (Fundamentación de la metafísica de las costumbres, ed. cit., p. 30); es decir, el sometimiento a una ley no por la utilidad o satisfacción que su cumplimiento pueda proporcionarnos, sino por respeto a ella.

Kant distingue tres tipos de acciones: contrarias al deber, conformes al deber y hechas por deber. Solamente estas últimas tienen valor moral.

Tomemos el ejemplo (que utiliza el mismo Kant) de un comerciante que no cobra precios abusivos a sus clientes. Su acción es conforme al deber. Ahora bien, tal vez lo haga para asegurarse así la clientela, en cuyo caso la acción es conforme al deber, pero no por deber: la acción (no cobrar precios abusivos) se convierte en un medio para conseguir un fin (asegurarse la clientela).

Si, por el contrario, actúa por deber, por considerar que ese es su deber, la acción no es un medio para conseguir otro propósito, sino un fin en sí misma, algo que debe hacerse por sí.

El valor moral de una acción no radica, pues, en el fin que se pretende conseguir, sino en la máxima, en el móvil que determina su realización, cuando este móvil es el deber: «Una acción hecha por deber tiene su valor moral no en el propósito que por medio de ella se quiera alcanzar, sino en la máxima por la cual ha sido resuelta; no depende, pues, de la realidad del objeto de la acción, sino meramente del principio del querer» (Kant, I.: Fundamentación de la metafísica de las costumbres, ed. cit., p. 29).

El imperativo categórico

La exigencia de obrar moralmente se expresa en un imperativo que no es –ni puede ser– hipotético (como los mandamientos de las éticas materiales), sino categórico. Kant ha ofrecido diversas formulaciones del imperativo categórico:

1) «Obra solo según una máxima tal que puedas querer al mismo tiempo que se torne en ley universal» (Kant, I.: Fundamentación de la metafísica de las costumbres, ed. cit., p. 55).

Esta fórmula muestra claramente su carácter formal. En efecto, no establece ninguna norma concreta, sino la forma que han de tener las normas que determinan la conducta de cada uno: cualquier máxima ha de ser tal que el sujeto pueda querer que se convierta en norma para todos los hombres, en ley universal. Esta formulación del imperativo categórico muestra igualmente la exigencia de universalidad propia de una moral racional.

2) «Obra de tal modo que uses la humanidad, tanto en tu persona como en la persona de cualquier otro, siempre como un fin y nunca meramente como un medio» (Kant, I.: Fundamentación de la metafísica de las costumbres, ed. cit., pp. 64-65).

Al igual que la anterior, esta fórmula muestra su carácter formal y su exigencia de universalidad. A diferencia de aquella, en esta se incluye la idea de fin. Solo el hombre, en tanto que ser racional, es fin en sí mismo. No ha de ser utilizado nunca, por tanto, como simple medio.

3) Fin en sí mismo y, por tanto, sujeto de todos los fines lo es todo ser racional. De ahí se sigue, según Kant, el tercer principio práctico de la voluntad: «la idea de la voluntad de todo ser racional como una voluntad universalmente legisladora» (Kant, I.: Fundamentación de la metafísica de las costumbres, ed. cit., p. 67).

3. Libertad, inmortalidad y existencia de Dios

La Crítica de la razón pura había puesto de manifiesto la imposibilidad de la metafísica como ciencia, es decir, como conocimiento objetivo del mundo, del alma y de Dios. Ahora bien, el alma –su inmortalidad– y la existencia de Dios constituyen interrogantes de interés fundamental para el destino del hombre.

Kant nunca negó la inmortalidad del alma o la existencia de Dios. En la Crítica de la razón pura se limitó a establecer que el alma y Dios no son fenómenos que se den en la experiencia, por lo que no son asequibles al conocimiento científico, que solo tiene lugar en la aplicación de las categorías a los fenómenos. Dios y la inmortalidad del alma no son, pues, cognoscibles por la razón teórica, pero se nos imponen en el análisis de la razón práctica.

La libertad, la inmortalidad del alma y la existencia de Dios son, según Kant, postulados de la razón práctica. El término «postulado» ha de entenderse aquí en su sentido estricto, como algo que no es demostrable, pero que es supuesto necesariamente como condición de la moral misma:

1) La exigencia moral de obrar por respeto al deber supone la libertad, la posibilidad de obrar por respeto al deber venciendo las inclinaciones contrarias.

2) La inmortalidad del alma se argumenta así: la razón nos ordena aspirar a la virtud, es decir, a la concordancia perfecta y total de nuestra voluntad con la ley moral. Esta perfección es inalcanzable en una existencia limitada. Solo es realizable en un proceso indefinido, infinito, que, por tanto, exige una duración ilimitada: la inmortalidad.

3) Por lo que se refiere a la existencia de Dios, Kant afirma que la disconformidad que encontramos en el mundo entre el ser y el deber ser exige la existencia de Dios como realidad en quien el ser y el deber ser se identifican y en quien se da una unión perfecta de virtud y felicidad.

Aunque también la inmortalidad del alma y la existencia de Dios son postulados de la moral, según Kant, en estos dos casos su razonamiento es más complicado y ha sido objeto de diversas objeciones.


- Autores: Navarro Cordón, Juan Manuel y Pardo, José Luis. Historia de la Filosofía, Madrid, Anaya, 2009
- Imagen:  Immanuel Kant, painting from Dresdner Kunsthandel around 1790, taken from: Karl Heinz Clasen, Kant-Bildnisse, Koenigsberg 1924, underlined by Kant’s writing in Ms. germ. fol. 1702, “Opus postumum”, 1st fascicle, p. 19. Imagen de http://www.bbaw.de/en/research/kant_II.
.



by : Pedro Donaire
Referencia: EurekAlert.org, 17 abril 2014
Contacto: Ann Rae Jonas o Doug Levy

La causa de la muerte neuronal en la enfermedad de Parkinson es aún desconocida, pero un nuevo estudio propone que las neuronas pueden confundidas como invasores extranjeros y ser asesinadas por el propio sistema inmune de la persona, algo similar al funcionamiento de las enfermedades autoinmunes como la diabetes de tipo I, la enfermedad celíaca o la esclerosis múltiple atacando a las células del cuerpo. El estudio fue publicado el 16 de abril en Nature Communications.

"Este es una nueva, y probablemente polémica, idea de la enfermedad de Parkinson, pero de ser cierta, podría dar lugar a nuevas formas de prevenir la muerte neuronal en el Parkinson semejante a los tratamientos para las enfermedades autoinmunes", señaló el autor principal del estudio, David Sulzer, profesor de neurobiología en los departamentos de psiquiatría, neurología y farmacología en la Universidad de Columbia Colegio de Médicos y Cirujanos .

La nueva hipótesis sobre el Parkinson surge de otros hallazgos en el estudio donde vuelcan una suposición profundamente arraigada acerca de las neuronas y el sistema inmunológico.

Durante décadas, los neurobiólogos han pensado que las neuronas están protegidas de los ataques del sistema inmune, esto se debe, en parte, a que no muestran antígenos sobre sus superficies celulares. La mayoría de las células, cuando están infectados por virus o bacterias, muestran fragmentos de los microbios (antígenos) en su superficie externa. Cuando el sistema inmunitario reconoce a estos extraños antígenos, las células T atacan y matan a dichas células infectadas. Dado que los científicos pensaban que las neuronas no muestran antígenos, por tanto pensaban que las neuronas estaban exentas de ataques de las células T.

"Esa idea tenía sentido, ya que, excepto en raras circunstancias, nuestros cerebros no podrían crear neuronas nuevas para reponer las que morirían por el sistema inmune", dice el Dr. Sulzer. "Pero, inesperadamente, encontramos que algunos tipos de neuronas pueden mostrar antígenos."

Las células presentan antígenos con unas proteínas especiales llamadas MHC. Utilizando el tejido cerebral postmortem, donado al Banco de Cerebros de Columbia por donantes sanos, el Dr. Sulzer y su postdoc Carolina Cebrián, observaron por primera vez, para su sorpresa, que las proteínas MHC-1 estaban presentes en dos tipos de neuronas. Estos dos tipos de neuronas, una de las cuales es la dopamina de la región cerebral llamada sustancia negra, degeneran en la enfermedad de Parkinson.

Para ver si las neuronas vivas utilizan MHC-1 para mostrar los antígenos (y no con otros propósitos), los Dres. Sulzer y Cebrián llevaron a cabo experimentos in vitro con neuronas de ratón y neuronas humanas creadas a partir de células madre embrionarias. Los estudios demostraron que bajo ciertas circunstancias –incluso en condiciones conocidas como las del Parkinson–, las neuronas utilizan MHC-1 para mostrar los antígenos. Entre los diferentes tipos de neuronas testeadas, hay dos tipos afectadas en el Parkinson que eran mucho más sensibles que las otras neuronas a las señales que desencadenan la muestra del antígeno.

Los investigadores confirmaron entonces que, las células T reconocen y atacan a las neuronas que presentan antígenos específicos.

Estos resultados plantean la posibilidad de que el Parkinson es una enfermedad autoinmune, al menos en parte, dice el Dr. Sulzer, pero se necesita más investigación para confirmar la idea.

"Hasta el momento, hemos demostrado que ciertas neuronas presentan antígenos y que las células T pueden reconocerlos y matar a las neuronas", dice el Dr. Sulzer, "pero todavía tenemos que determinar si esto es lo que está sucediendo realmente en la gente. Tenemos que demostrar que hay ciertas células T en los pacientes de Parkinson que pueden atacar a sus neuronas."

Si el sistema inmunitario no mata a las neuronas en la enfermedad de Parkinson, el Dr. Sulzer advierte que no es la única cosa que va mal en la enfermedad. "Esta idea podría explicar el paso final", dice. "No sabemos si prevenir la muerte de neuronas dejaría a la gente con células enfermas y ningún cambio en sus síntomas, o no."


 - Imagen: de Meedicina.com
- Fuente: Columbia University Medical Center. Artículo original "MHC-1 expression renders catecholaminergic neurons susceptible to T-cell-mediated degeneration." Other contributors are: from CUMC, Ellen Kanter, Jonathan Mandelbaum, Jean P. Vonsattel, and John D. Loike; from Sloan-Kettering Institute, Julius Steinbeck, Lorenz Studer, Sadna Budhu, and Luigi Zecca; from the National Research Council of Italy, Fabio Zucca and Pierluigi Mauri.
- La investigación fue apoyada por el NIH (R01NS064155 and U01NS082157), Caja Madrid Foundation; the JPB Foundation; the Parkinson's Disease Foundation; the Udall Center of Excellence at Columbia; the University of Milan the Italian Ministry of Education, University and Research; the Department of Defense; the Michael J. Fox Foundation; the M.E.M.O. Hoffman Foundation; the German Research Council; and NYSTEM.



Posted on : miércoles, 16 de abril de 2014 [0] comments Label: , ,

Hayek y el Renacimiento del Liberalismo Clásico

by : Pedro Donaire
por John N. Gray .

Lectura recomendada:
Ensayo de John N. Gray .
"F. A. Hayek y el Renacimiento del Liberalismo Clásico"

Expongo a continuación los apartados que lo componen:

Introducción:
- El resurgimiento del interés por Hayek. ¿Hay un programa de investigación unificado en la literatura de Hayek?

- La unidad y coherencia en los escritos de Hayek: concepción de la mente y unidad del conocimiento

- Revisión de los temas tratados en este ensayo

- Filosofía general de Hayek. La herencia kantiana

- Hayek como kantiano escéptico

* * * 

Tres influencias en el kantianismo escéptico de Hayek: Mach, Popper y Wittgenstein

- 1. Ernst Mach y la neutralidad metafísica

- 2. Karl Popper: El crecimiento del conocimiento

- 3. Wittgenstein y Hayek

* * *

El conocimiento y la mente según Hayek. Implicancias para la teoría social

- Hayek y su filosofía kantiana de la mente

- La filosofía de la mente de Hayek y su teoría social: más allá del kantianismo

* * * 

La aplicación del orden espontáneo en la vida económica: la catalaxia

- El orden cataláctico, el conocimiento práctico y el debate sobre el cálculo

- Refinamiento del debate del cálculo misesiano realizado por Hayek

* * * 

Teoría y método de la ciencia económica

- Predicción vs. "fenómenos complejos"

- Oposición de Hayek a la ciencia a priori

- "Conjeturas y refutaciones" popperianas

* * * 

Algunas aplicaciones de los puntos de vista metodológicos de Hayek: Keynes, Friedman y Shackle en política económica

- Hayek en contra del constructivismo y la ingeniería social

- Hayek contra Keynes

- Hayek contra Friedman

- Hayek y Shackle

* * * 

The Constitution of Liberty de Hayek: Fundamentos éticos de la estructura jurídica de la libertad individual

- Esclarecimiento sobre la teoría moral de Hayek

- La influencia de Hume en la filosofía social de Hayek

- El utilitarismo de Hayek y la libertad

* * * 

Justicia, libertad y el estado de derecho en la Constitution of Liberty de Hayek

- Críticas al "estado de derecho" universalizable de Hayek

- Enfrentando objeciones a la prueba de la posibilidad de universalización

- Posibilidad de universalización kantiana y justicia liberal

* * * 

Algunas críticas al sistema de ideas de Hayek: Buchanan y Oakeshott

- James Buchanan y Hayek

- Michael Oakeshott y Hayek
* * * 

La variante de Hayek del liberalismo clásico: ¿una fusión de ideas libertarias y tradicionalistas?

- El tradicionalismo voluntarista de Hayek: un mercado de tradiciones

* * * 

Conclusión: 
Programa de investigación de Hayek y liberalismo clásico 


- Imagen: F. A. Hayek y John N. Gray, crédito: Freddy Rikken.
.



by : Pedro Donaire
Referencia: Wired.com .
por Nick Stockton, 15 abril 2014

Las tribus errantes de Tanzania, llamados hadza, comen una dieta de raíces, bayas y de la caza. Según un nuevo estudio, sus intestinos son el hogar de una comunidad microbiana diferente a cualquiera que se haya visto antes en una población humana moderna, y proporciona, quizá, una instantánea de lo que era el microbioma intestinal humano antes de que nuestros antepasados ​​descubrieran el cultivo hace unos 12.000 años.

Las mujeres hadza cocinan tubérculos que recogen a lo largo de todo el día. Los hombres pasan el día cazando. En comparación, las mujeres tienen muchas más bacterias intestinales para descomponer las verduras fibrosas. Crédito. Alyssa Crittenden.
"Han habido relativamente pocos estudios de la microbiota intestinal de humanos que comieran dietas pre-industriales, en relación con los de comida post-industrial", afirma Lawrence David, microbiólogo de la Universidad de Duke, que no formó parte del estudio. Este nuevo estudio, publicado en Nature Communications, es oportuno e importante, comenta David, ya que proporciona una instantánea de la microbiota intestinal de humanos pre-industriales. Asimismo, indica que el ecosistema en nuestras intestinos se adapta no sólo a nuestra dieta, sino a los ambientes en que vivimos.

Los investigadores ya saben desde hace décadas que la biota en nuestro intestino varía en función de lo que comemos. Pero el microbioma de los hadza, aún así, ha resultado ser sorprendentemente distinto.

Para estudiar la diferencia entre el intestino antiguo y el moderno, los investigadores analizaron muestras de heces de 16 habitantes urbanos italianos y de 27 recolectores hadza, de ambos sexos.

La flora intestinal de los italianos, en general, eran lo que se esperaba en las dietas occidentales, con algunas influencias mediterráneas. La caca de hadza fue como entrar en un continente perdido de la biodiversidad microbiana. "El mibrobioma intestinal hadza tiene una combinación totalmente única de bacterias respecto a cualquier población occidental o población rural de África, de los que se estudió la muestra", señalaba la co-autora Alyssa Crittenden, antropóloga nutricional de la Universidad de Nevada, Las Vegas.

Muchas de las bacterias son especies que los investigadores nunca habían visto antes. Incluso los microbios presentes conocidos estaban en niveles inusuales. "Los hadza no sólo carecen de ‘bacterias saludables' y no sufren de las enfermedades que nosotros padecemos, sino que además tienen altos niveles de bacterias comúnmente asociadas con enfermedades", añadió Crittenden .

Muestras de la abundancia relativa y diversidad de la biota intestinal en diferentes culturas. Los hadza tienen cantidades inesperadas de bacterias conocidas, y muchas especies que nunca han sido observadas antes. Crédito Amanda Henry.
En los occidentales, el Bifidumbacterium es un microbio que muchos científicos nutricionales pensaban que era esencial para la buena salud del intestino; sin embargo, brilla por su ausencia en estos recolectores. Asimismo, los altos recuentos de la bacteria Treponema ha sido relacionado con enfermedades como la enfermedad de Crohn y síndrome del intestino irritable. Y ninguna de estas enfermedades existen entre los hadza, pero sus intestinos contienen la Treponema con abundancia.

Los modernos humanos sólo hemos pasado el 5 por ciento de nuestra historia como agricultores. Antes de eso, la mayoría de nuestra especie eran recolectores de un tipo u otro. "Los estudios como éste son raras oportunidades para generar hipótesis sobre las bacterias que son más sensibles a la dieta y al metabolismo del intestino", dijo David. Los vientres del hadza representan un ecosistema de referencia para la comparación con nuestros estilos de vida modernos.

Esto no quiere decir que debamos comenzar a abastecernos de raíces exóticas, bayas y de caza silvestre con la esperanza de crear el equilibrio perfecto de bacterias beneficiosas en nuestro vientre. Crittenden y sus colegas de investigación advierten que, no es su objetivo convertir su investigación en una dieta, aunque el vínculo entre microbioma intestinal de los hadza y sus más bajos índices de enfermedad gastrointestinal sea cierto. "Incluso si se intenta emular la dieta de los hadza, no estás viviendo en su medio ambiente", explica Amanda Henry, ecóloga dietista, del Instituto Max Planck en Alemania, y co-autora del estudio. "Hay transferencias desde los suelos y de los animales. "En otras palabras, no es únicamente lo que comen los hadza lo que contribuye a una flora intestinal notable, también hay que tener en cuenta dónde y cómo están comiendo.

Entre las comunidades de microbioma intestinal que fueron incluidas en la muestra, desde estadounidenses a italianos, coreanos y veganos, los hadza se muestran drásticamente diferentes. Pero lo que realmente sorprendió a los investigadores fue la diferencia de comunidades intestinales que había entre los sexos hadzianos. Las mujeres tenían niveles mucho más altos de varias bacterias conocidas por romper las verduras fibrosas. Ambos sexos comían grandes cantidades de raíces tuberosas, donde las mujeres realizan la mayor parte de excavaciones, y los hombres cazan y recogen miel. "Aunque ambos grupos traen su distinta comida al campamento, y unos y otros comen más de lo que recogen", señaló Henry. Para el equipo de investigación, esto era una prueba más de lo mucho que la biota intestinal puede variar, incluso entre las personas que pasan sus vidas enteras comiendo diferentes cantidades de más o menos la misma dieta.

Esta investigación es provocativa, pero hay más trabajo que hacer antes de las muchas nuevas preguntas que nos plantea puedan traernos respuestas sobre el intestino humano. Henry dice que le gustaría obtener muestras de un mayor número de personas, y a través de una franja más amplia de tiempo. "Necesitamos ver cómo el microbioma intestinal varían según las estaciones", dijo ella.


- Imagen.1. Las mujeres hadza cocinan tubérculos que recogen a lo largo de todo el día. Los hombres pasan el día cazando. En comparación, las mujeres tienen muchas más bacterias intestinales para descomponer las verduras fibrosas. Crédito. Alyssa Crittenden.
- Imagen.2. Muestras de la abundancia relativa y diversidad de la biota intestinal en diferentes culturas. Los hadza tienen cantidades inesperadas de bacterias conocidas, y muchas especies que nunca han sido observadas antes. Crédito Amanda Henry.
.



Posted on : martes, 15 de abril de 2014 [0] comments Label:

El comportamiento extrovertido nos hace más felices

by : Pedro Donaire
Referencia: Eurek.Alert.org .
contacto: Timothy Church, 15 abril 2014

La felicidad, al parecer, es importante para todo el mundo. No se trata sólo de que la extroversión conduzca a sentimientos más positivos en las diversas culturas, sino que la gente también informa de un comportamiento más optimista cuando se sienten libres para ser ellos mismos.


Estos hallazgos fueron recientemente publicados en la revista Journal of Research in Personality, en un documento de Timothy Church, profesor de asesoramiento en psicología y decano de investigación en la Facultad de Educación de la Universidad estatal de Washington. La investigación fue financiada por la Fundación Nacional de Ciencia.

"No somos los primeros en mostrar que el ser más extrovertido en la conducta diaria puede conducir a estados de ánimo más positivos. Sin embargo, somos probablemente los primeros en extender este hallazgo a una variedad de culturas", declaró Church.

En estudios previos, incluido el documento de 2012 de William Fleeson, profesor de psicología en la Universidad de Wake Forest en Carolina del Norte, ya se demostró que en los estadounidenses  introvertidos experimentaban mayores niveles de felicidad cuando se involucraban en comportamientos extrovertidos, como sonreir a un transeúnte o llamar a un viejo amigo.

Intrigado, Church quería ver si estos resultados se mantenían en culturas no occidentales. Él y su equipo estudió el comportamiento y estado de ánimo de los estudiantes universitarios en EE.UU., Venezuela, China, Filipinas y Japón. Utilizando la encuesta de rasgos de personalidad "Big Five", se encontró que, en general, las personas informaban de emociones más positivas en situaciones cotidianas donde se sentían o actuaban de manera más extrovertida.

Un segundo hallazgo reveló que los estudiantes se sentían más extrovertidos, agradables, concienzudos, emocionalmente estables y abiertos a la experiencia en situaciones en las que podían elegir su propio comportamiento, en lugar de verse limitados por presiones externas.

Cada uno de los cinco grandes rasgos se hallan en una curva de campana de características que va de un extremo al otro. La extroversión se encuentra en el polo opuesto de la introversión, por ejemplo, y la agradabilidad en el lado opuesto de antagonismo. En una base cotidiana, la mayoría de toda la gente se encuentra en algún lugar del medio.

Hasta ahora, se habían llevado a cabo este tipo de estudios, principalmente en EE.UU. y en otros países occidentales, donde la independencia y el individualismo son altamente valorados. El estudio de Church es uno de los primeros en demostrar que estos resultados trascienden la cultura occidental y se aplican también a otras culturas más relacionadas y orientadas hacia el colectivo, como es el caso de Asia y América del Sur.

A nivel mundial, los psicólogos que estudian la personalidad han identificado cinco grandes similitudes en más de 60 países.

"Los psicólogos transculturales gustan hablar de unidad psíquica", dijo Church. "A pesar de todas nuestras diferencias culturales, la forma en que se organiza la personalidad parece ser bastante comparable entre los grupos culturales. Hay pruebas que demuestran que del 40 al 50 por ciento de la variación en los rasgos de personalidad tiene una base genética."

También señala que, si bien los cinco grandes rasgos parecen bastante universales, las culturas pueden variar el promedio de expresión de los rasgos, por ejemplo, algunas culturas se presentan como más gregarias o más meticulosas.

Sin embargo, el Homo sapiens, ya sea de Europa, China o América del Sur, sí parece poner un muy alto valor en felicidad. Una búsqueda rápida en Internet revela un sinfín de títulos sobre la manera de encontrar y mantener una alegría difícil de alcanzar.

Hay una buena razón para eso. Un amplio estudio de la Universidad de Illinois en el 2011 encontró que, las personas felices tienden a vivir más tiempo y experimentar una mejor salud que las personas pesimistas. Los estados de ánimo positivos ayudan a reducir los niveles de estrés y promover la función inmune saludable, incluso acortan el tiempo de recuperación del corazón después de un entrenamiento.

Los hallazgos de Church sugieren que el ser más extrovertido puede ser una manera de aumentar los niveles de felicidad de la mayoría, si no de todas las culturas.

Las similitudes en la personalidad, y sabiendo que los humanos somos más parecidos que lo contrario, podría suavizar las relaciones internacionales mediante la mejora de la comunicación, la comprensión y la capacidad de predecir el comportamiento de los demás. Esto se aplica a las grandes y complejas sociedades, como en Estados Unidos cuya población crece cada vez más diversa.


- Fuente: Universidad del Estado de Washington .
.



Posted on : lunes, 14 de abril de 2014 [0] comments Label: ,

Los matemáticos han creado una aplicación que supera el 'jet lag'

by : Pedro Donaire
Referencia: Science.Alert.com .
por Fiona MacDonald, 14 de abril 2014

Una aplicación gratuita utiliza modelos matemáticos para decirle cuando acostarse y cuando levantarse para superar el jet lag (descompensación horaria).

El jet lag, ese efecto secundario tan agotador y lamentable de atravesar los husos horarios de distintas zonas que impiden la sincronización con el ritmo circadiano, ese reloj biológico de 24 horas que determina el momento en que nuestro cuerpo debe dormir, comer y curar.

Los investigadores saben que la exposición a la luz es la clave para superar el problema, que en los casos crónicos, como el trabajo por turnos, se ha relacionado con enfermedades del corazón y diabetes, aunque el consejo varía en cuanto a la mejor exposición de hora, longitud y tipo.

Ahora, unos matemáticos de la Universidad de Michigan han desarrollado un modelo para probar todas estas teorías, y lo han utilizado para crear la aplicación Entrain, que ayuda a dormir bien en sólo dos días, y recuperarse completamente en cuatro. Actualmente, se viene tardando de siete a 13 días o más para resincronizarse .

Tal como informa Amber Williams en los blogs de Scientific American, el modelo es capaz de poner a prueba infinitos escenarios posibles para determinar exactamente qué rutinas y comportamientos pueden ayudar a las personas a superar el jet lag.

Los resultados, publicados en PLOS Computational Biology, revelan que todo lo que realmente se necesita es modificar la percepción de su cuerpo del amanecer y el anochecer, con largos períodos ya sea de luz brillante o de total oscuridad

Daniel Forger, biólogo matemático de la Universidad de Michigan, dijo que la solución de Ámbar Williams fue, en realidad, más simple de lo que esperaban. "Pensamos que la respuesta sería sumamente complicada: A las 3:40, se necesita tener gran cantidad de luz, y en este momento, necesita obtener mucha."

Para ayudarle a averiguar cuándo deben producirse estos períodos de luz u oscuridad, la estudiante graduada, Olivia Walch, desarrolló una aplicación para el iPhone con el modelo.

Los usuarios de Entrain introducen sus patrones normales de sueño y luego seleccionan el lugar donde están viajando y el tipo de luz al que van a estar expuestos, y Entrain crea un calendario actualizado que deben seguir con regularidad.


- Fuente: Observaciones blog en Scientific American .
- Imagen: Blend Images / Shutterstock
.



Posted on : domingo, 13 de abril de 2014 [0] comments Label: , ,

Resuelta la controversia sobre el ciclo del nitrógeno

by : Pedro Donaire
Referencia: ScienceDaily.com, 11 de abril 2014

Un debate de hace décadas sobre la principal forma en que el nitrógeno se elimina del océano puede estar ya resuelta. Los investigadores de la Universidad de Princeton y sus colaboradores en la Universidad de Washington, encontraron que las dos "estrategias de salida" del nitrógeno, desnitrificación y anammox, están funcionando en los océanos. El debate se centra en cómo el nitrógeno –una de las fuentes de alimento más importantes para la vida marina y un controlador del dióxido de carbono atmosférico–, se convierte de forma que puede salir del océano volviendo a la atmósfera, donde es reutilizado en el ciclo global del nitrógeno.

A la derecha, Andrew Babbin, estudiante graduado de la Universidad de Princeton, prepara un dispositivo de recogida de agua de mar conocido como rosetón. El equipo utilizó muestras de agua marina para determinar cómo se elimina el nitrógeno de los océanos. Crédito cortesía de A. Babbin.
Los investigadores han discutido sobre cuál de los dos mecanismos de eliminación del nitrógeno, la desnitrificación y la anammox, es más importante en los océanos. La cuestión quedaría como sólo una curiosidad científica, si no fuera porque tiene aplicaciones del mundo real, dado que un mecanismo contribuye más a los gases de efecto invernadero a la atmósfera que el otro

"El nitrógeno controla gran parte de la productividad del océano", subrayó Andrew Babbin, primer autor del estudio y estudiante graduado que trabaja con Bess Ward, profesora de Geociencias en Princeton. "Entender el ciclo del nitrógeno es crucial para comprender la productividad de los océanos, así como del clima global."

En el nuevo estudio, los investigadores encontraron que ambas "estrategias de salida" del nitrógeno funcionan en los océanos, con la desnitrificación que absorbe alrededor del 70 por ciento del nitrógeno y la anammox deshaciéndose del resto.

Los investigadores también descubrieron que esta relación 70-30 podría cambiar en respuesta a los cambios en la cantidad y calidad del nitrógeno que necesita eliminarse. El estudio fue publicado en línea esta semana en la revista Science.

Los otros dos miembros del equipo de investigación fueron Richard Keil y Allan Devol, ambos profesores de la facultad de Oceanografía de la Universidad de Washington.

El nitrógeno es esencial para la vida y el clima de la Tierra, es un elemento cuyo ciclo se mueve entre el suelo y la atmósfera, y entre la atmósfera y el océano. Las bacterias cerca de la superficie, ayudan a su transporte a través de la cadena alimenticia del océano, mediante la conversión o "fijación" del nitrógeno atmosférico en formas que el fitoplancton puede utilizar.

Sin este nitrógeno fijado, el fitoplancton no podía absorber el dióxido de carbono del aire, una hecho que está ayudando a revisar los crecientes niveles de dióxido de carbono en la atmósfera actual. Cuando las pequeñas algas marinas mueren, o son consumidas por los depredadores, su biomasa se hunde en el interior del océano donde se convierte en alimento para otros tipos de bacterias.

Hasta hace unos 20 años , la mayoría de los científicos pensaban que la desnitrificación , llevado a cabo por algunas de estas bacterias , era la manera en que el nitrógeno fijado se recicla de nuevo en gas nitrógeno . El segundo proceso, conocido como la oxidación anaerobia del amonio (anammox), fue descubierto por investigadores holandeses cuando estudiaban cómo se elimina el nitrógeno en las plantas de tratamiento de aguas residuales.

Ambos procesos ocurren en las regiones del océano que están naturalmente bajos en oxígeno, o anoxia, debido a la falta local de circulación del agua y a la intensa productividad del fitoplancton que cubre dichas regiones. Dentro de los océanos del mundo, estas regiones están en el Mar Arábigo y en las costas de Perú y México.

En estos ambientes anóxicos, bacterias anaerobias se dan un banquete con el fitoplancton en descomposición, y en el proceso causan la desnitrificación del nitrato en el gas nitrógeno, que no puede ser utilizado como nutriente por la mayoría de fitoplancton. Durante este proceso, también se produce amonio, aunque los geoquímicos marinos no habían sido capaces de detectar el amonio, sabían que debía estar ahí.

Este enigma se resolvió a principios de la década de 2000 tras el descubrimiento de la reacción anammox en el medioambiente marino, en el cual las bacterias anaerobias se alimentan de amonio y lo convierten en nitrógeno.

Pero pronto apareció otro acertijo: las tasas de anammox que los equipos investigadores holandeses y alemanes midieron en los océanos parecían dar cuenta de una completa pérdida de nitrógeno, sin dejar ningún papel para la desnitrificación.

Más tarde, en 2009, el equipo de Ward publicó un estudio en el journal Nature, demostrando que la desnitrificación seguía siendo un factor importante en la devolución del nitrógeno a la atmósfera, por lo menos en el Mar Arábigo. El estudio alimentó aún más la polémica .

De vuelta en Princeton, Ward sospechaba que ambos procesos eran necesarios, la desnitrificación perdiendo amonio que luego la anammox convertía en nitrógeno.

Para resolver la cuestión, Ward y Babbin decidieron estudiar exactamente lo que estaba pasando en las aguas anóxicas del océano cuando a las bacterias se les daba el nitrógeno y otros nutrientes a su disposición.

Recogieron muestras de agua de una región anóxica del océano sureño de Baja California y trajeron los tubos de ensayo con el agua al laboratorio del barco. Trabajando dentro de un robusta y flexible bolsa para preservar el aire de la contaminación de las aguas con poco oxígeno. Babbin añadió cantidades y tipos de nitrógeno y compuestos orgánicos específicos a cada tubo de ensayo, entonces señalaban si se había producido o desnitrificación anammox .

" Hemos llevado a cabo una serie de experimentos en los que hemos añadido diferentes tipos de materia orgánica, con un contenido de amonio variables, para ver si cambiaba la relación entre la desnitrificación y anammox", dijo Babbin. "Encontramos que no sólo no aumentó el amonio a favor de la anammox como se predijo, sino que las proporciones exactas de la pérdida de nitrógeno correspondían exactamente a como se predijo en base al contenido de amonio."

La explicación de por qué, en los experimentos anteriores, algunos investigadores encontraban principalmente desnitrificación, mientras que otros encontraban sólo anammox, se reducía a una especie de ciclo "floración y caída" de la vida del fitoplancton, explicó Ward.

"Si tenemos una gran floración de plancton, cuando los organismos mueren hay una gran cantidad de materia orgánica que se hundirá y degradará", dijo ella, "pero los científicos no siempre están ahí para medir esto. En otras palabras, si usted no está ahí en el momento del almuerzo, no va a poder medir estos procesos."

Los investigadores también vinculan las tasas de pérdida de nitrógeno con el suministro de materia orgánica que impulsan esos ratios: más materia orgánica equivale a más pérdida de nitrógeno, por lo que la cantidad de material importa mucho, dijo Babbin.

Las dos vías tienen metabolismos diferentes que resultan ser importantes en el cambio climático global, dijo. "La desnitrificación produce dióxido de carbono y produce y consume el óxido nitroso, que es otro de los principales gases de efecto invernadero y también un agente de agotamiento del ozono", declaró. "La anammox, sin embargo, consume dióxido de carbono y no tiene ningún subproducto conocido de óxido nitroso. El equilibrio entre los dos procesos, por tanto, tiene un impacto significativo en la producción y consumo de gases de efecto invernadero en el océano."


- Fuente: Universidad de Princeton.
- Publicación: A. R. Babbin, R. G. Keil, A. H. Devol, B. B. Ward. Organic Matter Stoichiometry, Flux, and Oxygen Control Nitrogen Loss in the Ocean. Science, 2014; DOI: 10.1126/science.1248364 .
- Imagen: A la derecha, Andrew Babbin, estudiante graduado de la Universidad de Princeton, prepara un dispositivo de recogida de agua de mar conocido como rosetón. El equipo utilizó muestras de agua marina para determinar cómo se elimina el nitrógeno de los océanos. Crédito cortesía de A. Babbin.
.