Select Menu

Astrofísica

Biología

Filosofia

Tecnología

Psicologia

Personas

Medicina

Vídeo


Referencia: News.MIT.edu .
por Larry Hardesty, 26 de mayo 2015

* * * * *
Los ordenadores cuánticos son dispositivos en gran parte teóricos que podrían realizar algunas computaciones exponencialmente más rápidas que los ordenadores convencionales. Lo verdaderamente importante en el diseño de los ordenadores cuánticos es la corrección de errores cuánticos, la cual ayuda a preservar esos frágiles estados cuánticos de los que depende la computación cuántica.

Nuevo código de corrección de errores cuántido.
Jose-Luis Olivares/MIT
El código de corrección de errores cuánticos ideal sería el de poder corregir los errores de los datos cuánticos, y requeriría la medición de tan sólo unos pocos bits cuánticos, o qubits, a un mismo tiempo. Pero hasta ahora, los códigos que podrían hacer unas mediciones limitadas corregirían sólo un número limitado de errores, más o menos equivalente a la raíz cuadrada del número total de qubits. Así que, podrían corregir ocho errores en un ordenador cuántico de 64 qubits, por ejemplo, ni tan siquiera 10.

En un estudio de la Asociación para Computing Machinery’s Symposium sobre la Teoría de la Computación en junio, los investigadores del MIT, Google, la Universidad de Sydney y la de Cornell, presentan un nuevo código que puede corregir los errores que aquejan, casi a una fracción concreta de qubits de una computadora, no sólo a la de la raíz cuadrada de su número. Y para los ordenadores cuánticos de tamaño considerable, esa fracción puede ser arbitrariamente grande, aunque cuanto más grande sea, más qubits requiere el equipo.

"Hubo muchas, muchas propuestas diferentes, y todas parecían quedar atrapadas en este punto de la raíz cuadrada", apunta Aram Harrow, profesor asistente de física en el MIT, que dirigió la investigación. "Así que, esta es una de las razones por las que estamos entusiasmados con este trabajo."

Como un bit en un ordenador convencional, un qubit puede representar 1 ó 0, pero también puede habitar en un estado conocido como "superposición cuántica", donde representa 1 y 0 a la vez. Esta es la razón de las potenciales ventajas de los ordenadores cuánticos: Una cadena de qubits en superposición podrían, de alguna forma, llevar adelante un gran número de cálculos en paralelo.

Sin embargo, una vez que se realiza una medición sobre los qubits, la superposición se derrumba, y los qubits asumir valores determinados. La clave para diseñar algoritmos cuánticos está en la manipulación del estado cuántico de los qubits, de modo que cuando la superposición se derrumba, el resultado sea (con alta probabilidad) la solución a un problema.

Determinación o no

Pero la necesidad de preservar la superposición hace difícil la corrección de errores. "En los años de 1990 se pensaba que era imposible la corrección de errores", señala Harrow. "Se tenía la impresión que averiguar cuál era el error que había que medir, y su medición destruiría la información cuántica."

El primer código de corrección de errores cuántico fue inventado en 1994 por Peter Shor, ahora el profesor Morss, de Matemática Aplicada en el MIT, también responsable del resultado teórico que puso a la computación cuántica en el mapa, un algoritmo que permitía a un ordenador cuántico poder factorizar números grandes exponencialmente más rápido que un ordenador convencional. De hecho, su código de corrección de errores fue una respuesta al escepticismo sobre la viabilidad de implementar el susodicho algoritmo de factorización.

La idea de Shor es que es posible medir las relaciones entre los qubits sin medir los valores almacenados por los propios qubits. Un código de corrección de errores simple podría, por ejemplo, crear una instancia de un solo qubit con los datos de tres qubits físicos. Es posible determinar si el primero y el segundo qubit tienen el mismo valor, y si el segundo y el tercero tienen el mismo valor, sin determinar cuál es su valor. Si uno de los qubits resulta no estar en acuerdo con los otros dos, se puede restablecer a su valor.

En la corrección de errores cuántica, explica Harrow, "Estas mediciones siempre tienen la forma '¿A está en desacuerdo con B?' Salvo que sea, en lugar de A y B, sea A B C D E F G, y así un bloque entero de cosas. Esos tipos de mediciones, en un sistema real, puede ser muy difícil de hacer. Es por eso que es muy deseable reducir el número de qubits que deben medirse a la vez."

Tiempo personificado

Una computación cuántica es una sucesión de estados de bits cuánticos. Los bits están en un estado; entonces se modifican, por lo que asumen otro estado; después, se modifican de nuevo, etcétera. El estado final representa el resultado de la computación.

En su artículo, Harrow y sus colegas le asignan a cada estado de computación su propio banco de qubits; es como girar la dimensión temporal de la computación en una dimensión espacial. Supongamos que el estado del qubit 8 en el momento 5 tiene implicaciones para los estados del qubit 8 y del 11 en el momento 6. Los protocolos llevados a cabo por los investigadores realizan una de esas mediciones de acuerdo sobre los tres qubits, modificando el estado de cualquier qubit que esté fuera de la alineación con los otros dos.

Dado que esta medición no revela el estado de cualquiera de los qubits, la modificación de un qubit desalineada podría, en realidad, introducir un error donde no existía previamente. Mas eso es el diseño: El objetivo del protocolo es asegurar que los errores se propaguen a través de los qubits de una manera lícita. De esta forma, las mediciones realizadas en el estado final de los qubits están garantizadas para que puedan revelar las relaciones entre qubits sin revelar sus valores. Si se detecta un error, el protocolo puede rastrearlo de nuevo hasta su origen y corregirlo.

Es posible implementar el plan de los investigadores sin duplicar los bancos de qubits; pero, dice Harrow, probablemente sea necesaria cierta redundancia en el hardware para hacer el esquema eficiente. La cantidad de redundancia aún queda por ver: Ciertamente, si cada estado de computación requiere su propio banco de qubits, el computador podría llegar a ser tan complejo como para compensar las ventajas de una buena corrección de errores.

Según Harrow, "Casi todos los esquemas empezaron con no muchos qubits lógicos, más tarde se descubrió la manera de llegar a mucho más. Por lo general, ha sido más fácil de aumentar el número de qubits lógicos que incrementar la distancia (el número de errores que puede corregir). Así que esperamos que éste sea también nuestro caso."

Stephen Bartlett, profesor de física en la Universidad de Sydney, estudioso de la computación cuántica, no encuentra que esos qubits adicionales requeridos por Harrow y su esquema particularmente desalentadores.

"Parece mucho," apunta Bartlett, "pero en comparación con las estructuras existentes, se trata de una reducción masiva. Así que uno de los aspectos más destacados de esta construcción es que, efectivamente, se consiga mucha reducción."

"La gente tenían todos estos ejemplos de códigos que estaban bastante mal, limitados por la raíz cuadrada 'N' ", añade Bartlett. "Pero la gente trata de poner límites a lo posible, y esos límites sugirieron que tal vez usted podría hacerse mucho mejor. Aunque no teníamos ejemplos constructivos para llegar aquí. Y eso es lo que realmente ha conseguido entusiasmar a la gente. Sabemos que ahora podemos llegar, y este ahora es una cuestión de un poco más práctica."

# # # # #
Referencia: News.MIT.edu .
"Uncovering diversity in an invisible ocean world"
por Cassie Martin, 26 de mayo 2015
* * * * *
El plancton es vital para la vida en la Tierra, absorbe el dióxido de carbono, genera casi la mitad del oxígeno que respiramos, descompone los residuos, y es la piedra angular de la cadena alimentaria marina. Ahora, una nueva investigación nos indica que estas criaturas diminutas no sólo son más diversas de lo que se pensaba, sino que están profundamente afectadas por su entorno.

Mezcla de organismos multicelulares, pequeños
animales zooplanctónicas, larvas y células protistas
individuales recogidas en el Océano Pacífico.
Foto: Christian Sardet/CNRS/Tara Expeditions
Tara Oceans, un consorcio internacional de investigadores del MIT y otros sitios han estado explorando los océanos del mundo con la esperanza de aprender más sobre esos pequeños habitantes, ellos publicaron sus resultados iniciales esta semana en un número especial de Science. De 2009 a 2012, la pequeña tripulación navegó en su goleta de 110 pies, recogiendo 35.000 muestras de microbios marinos y virus de 200 ubicaciones a lo largo del mundo, enfrentándose a piratas, fuertes vientos y tormentas de hielo en el camino. Pero el esfuerzo valió la pena. Entre los hallazgos se hallan millones de nuevos genes, miles de nuevos virus, nuevas interacciones microbianas, y el impacto de la temperatura del océano en la diversidad de especies.

Los investigadores identificaron 40 millones de genes en la capa superior del océano, la mayoría de las cuales son nuevos para la ciencia. En comparación, el microbioma intestinal humano sólo tiene 10 millones de genes. Además, los investigadores identificaron más de 5.000 virus, de los cuales sólo el 39 eran conocidos con anterioridad.

Debajo de la superficie del océano, los virus, el plancton y tantos otros microbios luchan entre sí por la supervivencia. Estas interacciones, encontraron los autores del estudio, la gran mayoría son de naturaleza parasitaria, pero vitales para el mantenimiento de la diversidad, ya que impiden que una especie de domine el medio ambiente. La expedición también reveló que la diversidad de especies está configurada por la temperatura del océano, la cual va en aumento. La nueva gran cantidad de datos debe permitir a los investigadores para construir modelos predictivos que muestran cómo las comunidades microbianas va a cambiar en un mundo de calentamiento y sus impactos resultantes sobre la producción de oxígeno, la absorción de dióxido de carbono, y la dinámica de los ecosistemas.

"El hallazgo de que la temperatura da forma a las especies presentes, por ejemplo, es especialmente relevante en el contexto del cambio climático, aunque hasta cierto punto esto es sólo un comienzo", señala Chris Bowler, biólogo del Centro Nacional de Investigaciones Científicas. "Los recursos que hemos generado nos permitirán ahondar con más profundidad y, finalmente, empezar a entender realmente el funcionamiento de este mundo invisible."

Mick Follows, oceanógrafo del MIT, y co-autor de uno de los estudios hicieron precisamente eso, proporcionar una nueva comprensión de cómo la física y la química del océano afectan a la diversidad microbiana. Los remolinos anillados son remolinos que transportan las aguas del Océano Índico al Atlántico Sur, llevando con ellos las poblaciones enteras de plancton. Como las corrientes viajan desde el Océano Índico y alrededor de la punta de Sudáfrica, barriendo el plancton en su camino, los grandes remolinos (o anillos) conforman, mezclan y enfrían a estos autoestopistas microscópicos. Sólo una fracción de las especies sobrevive al viaje. Es más, el ambiente tan único que existe dentro de los anillos, caracterizado por un ciclo complejo de nitrógeno, puede actuar como filtro.

"La oceanografía controla la comunicación de los diferentes organismos a través del canal," apunta Follows. "Nuestra contribución ha sido ayudar a desenredar el complejo ciclo del nitrógeno dentro de los anillos".

Los miembros de la tripulación de la expedición Tara recogieron muestras de algunos de estos anillos y examinaron cómo los marcadores biológicos del agua cambian con el tiempo. Descubrieron un gran aumento en los niveles de nitrito en los anillos más pequeños, pero no tenía la menor idea de su causa. Ahí es donde Follows y sus colegas, Oliver Jahn y Chris Hill, centraron su labor.

Usando el General Circulation Model del MIT, descubrieron que la combinación de energía proporcionada por las tormentas y un gradiente débil de temperatura en el agua, contribuían a una fuerte mezcla en los anillos, lo que ponía en marcha un ciclo de nitrógeno único. La mezcla fuerte saca a relucir el nitrato y otros nutrientes, y ello desata una explosión de poblaciones de plancton. La fiesta del plancton va convirtiendo el nitrato en amonio, que luego es devorado por otros microbios y convertido en nitrito.

"La nitrificación es un proceso de importancia mundial", observa Follows. "Lo que sucede en un anillo no es necesariamente una cantidad de significancia mundial, pero es tan exagerado que podemos interpretarlo como uno de los factores ambientales que impulsan la mismo."

Otro de los co-autores examinaron la abundancia de genes relacionados con el ciclo del nitrógeno de los anillos, que reveló un conjunto muy complejo de interacciones. "Eso es algo que me sorprendió", dijo. "Todo un conjunto de genes que se han regulado para todo tipo de procesos del ciclo de nitrógeno. No es una calle de sentido único. Hay un complejo de mejoramiento del ciclo del nitrógeno local, lo cual llevará algún tiempo desentrañar completamente."

La investigación de Follows es una pequeña parte de un esfuerzo mayor para entender las complejidades de este ecosistema. Los cinco estudios publicados esta semana presentaron los principales puntos de vista de solamente 579 de las 35.000 muestras. Los miembros del equipo de investigación, de más de 200 personas, compuesto por expertos de 18 instituciones, continúan analizando la montaña de datos, que ahora está disponible al público.

# # # #

Referencia: Nature.com .
"Quantum physics: What is really real?"
por Zeeya Merali, 20 de mayo 2015

* * * * *
A Owen Maroney le preocupa que los físicos hayan pasado la mayor parte de un siglo participando en un fraude.
Desde que se inventó la teoría cuántica a principios de 1900, explica Maroney, físico de la Universidad de Oxford, Reino Unido, han estado hablando de lo extraña que es --cómo es que las partículas y los átomos se mueven en muchas direcciones a la vez, por ejemplo, o girar en sentido horario y en sentido antihorario simultáneamente. Pero hablar no es una prueba, dice Maroney. "Si le decimos al público que la teoría cuántica es rara, es mejor salir y probar que en realidad es cierto", dice. "De lo contrario no estamos haciendo ciencia, sólo estamos explicando algunos divertidos garabatos en una pizarra."

Este sentimiento es el que ha llevado a Maroney y a otros a desarrollar una nueva serie de experimentos que revelen la naturaleza de la función de onda, esa misteriosa entidad que se encuentra en el corazón de la rareza cuántica. Sobre el papel, la función de onda es simplemente un objeto matemático que los físicos denotan con la letra griega psi (Ψ) --uno de divertidos garabatos de Maroney-- y se usa para describir el comportamiento cuántico de una partícula. Dependiendo del experimento, la función de onda les permite calcular la probabilidad de observar un electrón en cualquier lugar determinado, o las posibilidades de que su giro se oriente hacia arriba o hacia abajo. Pero las matemáticas no arrojan luz sobre lo que realmente es una función de onda. ¿Es una cosa física? ¿O simplemente es una herramienta de cálculo para manejar la ignorancia de un observador acerca del mundo?

Las pruebas que se utilizan para trabajar en ello son extremadamente sutiles, y todavía tienen que producir una respuesta definitiva. Pero los investigadores son optimistas acerca de que una solución está cerca. Si esto es así, puede que finalmente seamos capaces de responder a las preguntas que han persistido durante décadas. ¿Puede una partícula realmente estar en varios lugares al mismo tiempo? ¿Está el universo continuamente escindiéndose en mundos paralelos, cada uno con una versión alternativa de nosotros mismos? ¿Existe eso llamado realidad objetiva?

"Esta clase de preguntas son las que todo el mundo se ha preguntado en algún momento", dice Alessandro Fedrizzi, físico de la Universidad de Queensland, en Brisbane, Australia. "Qué es realmente lo real?"

Los debates sobre la naturaleza de la realidad se remontan a los primeros días que los físicos de la teoría cuántica constataron que las partículas y las ondas son dos caras de la misma moneda. Un ejemplo clásico es el experimento de doble rendija, en el que los electrones individuales se encienden en una barrera con dos aberturas: el electrón parece pasar a través de ambas rendijas exactamente de la misma manera que lo hace una onda de luz, creando un patrón de bandas de interferencia en el otro lado (ver 'rarezas onda-partícula'). En 1926, el físico austriaco Erwin Schrödinger inventó la función de onda para describir este comportamiento, e ideó una ecuación que permite a los físicos calcularla en cualquier situación (1) dada. Pero ni él ni nadie podía decir nada sobre la naturaleza de la función de onda.

La ignorancia es felicidad

Desde una perspectiva práctica, su naturaleza no importa nada. El libro de texto de la interpretación de Copenhague de la teoría cuántica, desarrollada en la década de 1920, principalmente por los físicos Niels Bohr y Werner Heisenberg, trata a la función de onda como nada más que una herramienta para predecir los resultados de las observaciones, y advierte a los físicos que no se preocupen por la realidad que hay debajo . "No se puede culpar a la mayoría de los físicos de seguir este etos 'cállate y calcula', ya que ha dado lugar a grandes avances en la física nuclear, la física atómica, la física de estado sólido y la física de partículas", señala Jean Bricmont, un físico estadístico de la Universidad Católica de Lovaina, en Bélgica. "Así que, ellos dicen, venga, no nos preocupemos por las grandes preguntas."

Pero algunos físicos sí se preocupan de alguna manera. Allá por la década de 1930, Albert Einstein rechazó la interpretación de Copenhague, y no tanto porque permitiera que dos partículas entrelazaran sus funciones de onda, produciendo una situación en la que las mediciones en una pudiesen determinar instantáneamente el estado de la otra, incluso cuando las partículas estuvieran separadas por grandes distancias. En vez de aceptar lo que llamó la "acción fantasmal a distancia", Einstein prefería creer que funciones de onda de las partículas estaban incompletas. Quizás, sugirió, las partículas tienen algún tipo de "variables ocultas" que determinan el resultado de la medición, pero que las teorías cuánticas no captan.

Los experimentos desde entonces han demostrado que esta acción fantasmal a distancia es muy real, lo que descarta la versión particular de variables ocultas que defendía Einstein. Pero eso no ha impedido que otros físicos den sus propias interpretaciones. Estas interpretaciones se dividen en dos grandes campos. Los que están de acuerdo con Einstein de que la función de onda representa nuestra ignorancia --eso que los filósofos llaman, modelo epistémico-psi. Y los que vern la función de onda como una entidad real, modelo óntico-psi.

Para apreciar la diferencia, considere el experimento mental que Schrödinger describió a Einstein en una carta de 1935. Imagine que un gato está encerrado en una caja de acero. E imagine que la caja también contiene una muestra de material radiactivo que tiene un 50% de probabilidades de emitir en una hora un producto desintegrante, y a su lado un aparato que va a envenenar el gato si detecta tal desintegración. Debido a que la desintegración radiactiva es un evento cuántico, escribió Schrödinger, las reglas del estado de la teoría cuántica dice que, al cabo de la hora, la función de onda en el interior de la caja debe ser una mezcla igual a la de gato vivo y gato muerto.


"Hablando claro", dice Fedrizzi, "según el modelo epistémico-psi el gato de la caja está vivo o está muerto, y nosotros simplemente no lo sabemos porque la caja está cerrada". Sin embargo, la mayoría de los modelos ónticos-psi, de acuerdo con la interpretación de Copenhague, hasta que un observador no abre la caja y mira, el gato está vivo y está muerto.

Pero aquí es donde el debate se queda atascado. ¿Cuál de las diversas interpretaciones de la teoría cuántica es la correcta? Eso es una pregunta difícil de responder de forma experimental, debido a que las diferencias entre los modelos son sutiles: para ser viable, tienen que predecir esencialmente los mismos fenómenos cuánticos tal como tuvo éxito la interpretación de Copenhague. Andrew White, físico de la Universidad de Queensland, afirma que, en la mayor parte de sus 20 años de carrera en las tecnologías cuánticas "el problema era como subir una montaña lisa y gigante sin puntos de apoyo, no hay manera de atacarla".

Eso cambió en 2011, con la publicación de un teorema sobre las mediciones cuánticas que parecía descartar los modelos de la ignorancia de la función de onda (2). Sin embargo, bajo una inspección más cercana, el teorema resultó dejar suficiente margen de maniobra para que dichos modelos puedan sobrevivir. No obstante, esto inspiró a los físicos acerca de pensar seriamente en la manera de resolver el debate de probar la realidad [óntica] de la función de onda. Maroney ya había ideado un experimento que en principio debería funcionar (3), y tanto él como otros pronto encontraron la manera de hacer que funcionara en la práctica (4), (5), (6). El experimento fue llevado a cabo el año pasado por Fedrizzi, White y otros (7).

Para ilustrar la idea que había detrás de la prueba, imagine dos mazos de cartas. Una conteniendo sólo cartas rojas; la otra conteniendo solamente ases. "Tú das una carta y pides que la identifiquen sobre la mesa", explica Martin Ringbauer, físico de la Universidad de Queensland. “Si es un as rojo, hay una superposición y usted no será capaz de decir de qué mazo viene". Pero si usted sabe cuántas cartas de cada tipo están en cada mesa, al menos podrá calcular con qué frecuencia se producirán este tipo de situaciones ambiguas.

En la estacada

Una ambigüedad similar ocurre en los sistemas cuánticos. No siempre es posible que una sola medición en el laboratorio pueda distinguir cómo se polariza un fotón. "En la vida real, es bastante más fácil decir al oeste desde un poco al sur del este, pero en los sistemas cuánticos, no es tan simple", dice White. De acuerdo con la interpretación estándar de Copenhague, no hay ningún punto al que preguntar qué polarización es, porque la pregunta no tiene respuesta, o al menos, no hasta que otra medición puede determinar que una respuesta precisa.

Eso es esencialmente lo que probó el equipo de Fedrizzi. El grupo midió la polarización y otras características en un haz de fotones, y se encontró con un nivel de solapamiento que no podía ser explicado por los modelos de la ignorancia. Los resultados apoyan el punto de vista alternativo de que, si existe una realidad objetiva, entonces, la función de onda es real. "Es realmente impresionante que el equipo haya sido capaz de abordar un tema tan profundo, con lo que en realidad es un experimento muy simple", dice Andrea Alberti, físico de la Universidad de Bonn en Alemania.

La conclusión, aun asi, sigue sin estar blindada, porque los detectores solamente recogen alrededor de una quinta parte de los fotones utilizados en la prueba, el equipo tuvo que asumir que los fotones perdidos se comportaban de la misma forma (7). Eso es una gran suposición, y el grupo está actualmente trabajando en cerrar la brecha de muestreo para producir un resultado definitivo. Entre tanto, el equipo de Maroney, en Oxford, está colaborando con un grupo de la Universidad de Nueva Gales del Sur en Australia, para realizar pruebas similares con iones, que son más fáciles de seguir que los fotones. "En los próximos seis meses podremos tener una versión indiscutible de este experimento", dice Maroney.

Pero incluso si sus esfuerzos tienen éxito y los modelos de función de onda como realidad óntica se ven favorecidos, tales modelos vendrán en una variedad de sabores, y los experimentadores aún tendrán que elegir aparte.

Uno de esas primeras interpretaciones fue establecida en 1920 por el físico francés Louis de Broglie (8), y ampliada en 1950 por el físico estadounidense David Bohm (9), (10). De acuerdo con los modelos de Broglie-Bohm, las partículas tienen ubicaciones y propiedades definidas, pero son guiadas por algún tipo de 'onda piloto’ que a menudo se identifica con la función de onda. Esto explicaría el experimento de la doble rendija, ya que la onda piloto sería capaz de viajar a través de las dos rendijas y producir un patrón de interferencia en el otro lado, a pesar de que el electrón que lo guía tendría que pasar a través de una u otra hendidura.

En 2005, la mecánica de Broglie-Bohm recibieron un impulso experimental desde una fuente inesperada. Los físicos, Emmanuel Fort, ahora en el Instituto Langevin de París, e Yves Couder, en la Universidad Diderot de París, dieron a los estudiantes en una clase de laboratorio, lo que pensaban que sería una tarea bastante sencilla: construir un experimento para ver cómo las gotas de aceite que caen en un bandeja llena de aceite se fusionarían conforme se hiciera vibrar la bandeja. Para sorpresa de todos, se empezaron a formar ondas alrededor de las gotitas cuando la bandeja topaba con una cierta frecuencia de vibración. "Las gotas estaban auto-propulsándose --surfeaban o caminaban sobre sus propias ondas--", relataba Fort. "Esto era un objeto dual que estábamos viendo, una partícula impulsada por una onda."

Desde entonces, Fort y Couder han demostrado que tales ondas pueden guiar a estos 'caminantes' a través del experimento de la doble rendija según lo predicho por la teoría de la onda piloto, y puede imitar otros efectos cuánticos (11). Esto no prueba que existan ondas piloto en el reino cuántico, advierte Fort. Pero sí muestran cómo podría funcionar una onda piloto a escala atómica. "Nos enseñaron que tales efectos no podían suceder en la física clásica, y aquí se demuestra que sí lo hacen."

Otro conjunto de modelos basados ​​en la realidad, ideado en la década de 1980, trata de explicar las sorprendentemente distintas propiedades de los objetos pequeños y los grandes. "¿Por qué los electrones y los átomos pueden estar en dos lugares diferentes al mismo tiempo, y las mesas, las sillas, la gente y los gatos no pueden", espeta Angelo Bassi, físico de la Universidad de Trieste, Italia. Las conocidas como "modelos colapso', estas teorías postulan que las funciones de onda de las partículas individuales son reales, pero que pueden perder espontáneamente sus propiedades cuánticas y pasar a partícula en, digamos, de una sola ubicación. Los modelos están configurados de manera que las probabilidades de que esto ocurra son infinitesimales para una sola partícula, por lo que los efectos cuánticos dominan a escala atómica. Sin embargo, la probabilidad de colapso crece astronómicamente conforme las partículas se agrupan, por lo que los objetos macroscópicos pierden sus características cuánticas y se comportan de manera clásica.

Una forma de probar esta idea es buscar el comportamiento cuántico en objetos más y más grandes. Si la teoría cuántica estándar es correcta, no hay límite. Y los físicos ya han llevado a cabo experimentos de interferencia de doble rendija con grandes moléculas (12). Pero si los modelos de colapso son correctos, entonces los efectos cuánticos no aparecerían por encima de una cierta masa. Varios grupos están planeando para buscar ese punto de corte usando átomos, moléculas, cúmulos y nanopartículas metálicas frías. Tienen la esperanza de ver resultados dentro de una década. "Lo bueno de todo este tipo de experimentos es que vamos a estar sometiendo la teoría cuántica a pruebas de alta precisión, a las que nunca se ha sometido antes", comenta Maroney.

Mundos paralelos

Un modelo de función de onda como realidad ya es famoso y querido por los escritores de ciencia-ficción: la interpretación de varios mundos desarrollado en 1950 por Hugh Everett, entonces estudiante graduado en la Universidad de Princeton en Nueva Jersey. En esta imagen de muchos mundos, la función de onda gobierna la evolución de la realidad tan profundamente que siempre que se hace una medición cuántica, el universo se divide en copias paralelas. En otras palabras, abres la caja del gato y se ramifican dos mundos paralelos, uno con un gato vivo y otro que contiene un cadáver.

La distinguida interpretación de universos paralelos de Everett desde la teoría cuántica estándar es difícil, porque ambas hacen exactamente las mismas predicciones. Pero el año pasado, Howard Wiseman, en la Universidad de Griffith, en Brisbane, y sus colegas, propusieron un comprobable modelo multiverso (13). Su marco no contiene la función de onda: las partículas obedecen reglas clásicas como las leyes del movimiento de Newton. Los efectos extraños observados en los experimentos cuánticos surgen porque hay una fuerza de repulsión entre partículas y sus clones en los universos paralelos. "La fuerza de repulsión entre ellos crea ondas que se propagan a través de todos estos mundos paralelos", dice Wiseman.

El uso de simulaciones por ordenador con 41 mundos interactuando, ha demostrado que este modelo reproduce más o menos un número de efectos cuánticos, incluyendo las trayectorias de las partículas en el experimento de la doble rendija (13). El patrón de interferencia se hace más cercano al predicho por la teoría cuántica estándar conforme el número de mundos aumenta. Dado que esta teoría predice resultados diferentes en función del número de universos, apunta Wiseman, debería ser posible idear maneras de comprobar si su modelo multiverso es correcto, lo que significaría que no hay una función de onda y la realidad es enteramente clásica.

Debido a que el modelo de Wiseman no necesita una función de onda, seguirá siendo viable incluso si los experimentos futuros descartan los modelos epistémicos de la ignorancia. También le sobrevivirían modelos, como la interpretación de Copenhague, que sostienen que no hay realidad objetiva, sólo mediciones.

Pero entonces, dice White, este es el último desafío. Aunque, claro, no se sabe cómo hacerlo, dice, "lo que de verdad sería realmente emocionante es idear una prueba para comprobar si existe, de hecho, alguna realidad objetiva por ahí."

####
Imagen, El experimento de las gotas de aceite. Dan Harris/MIT
Imagen, Rarezas onda-partícula
Referencia:
(1) Schrödinger, E. Phys. Rev. 28, 1049 (1926).
(2) Pusey, M. F., Barrett, J. y Rudolph, T. Nature Phys. 8, 475–478 (2012).
(3) Maroney, O. J. E. Preprint at http://arxiv.org/abs/1207.6906 (2012).
(4) Barrett, J., Cavalcanti, E. G., Lal, R. & Maroney, O. J.E. Phys. Rev. Lett. 112, 250403 (2014).
(5) Leifer, M. S. Phys. Rev. Lett. 112, 160404 (2014).
(6) Branciard, C. Phys. Rev. Lett. 113, 020409 (2014).
(7) Ringbauer, M. et al. Nature Phys. 11, 249–254 (2015).
(8) de Broglie, L. J. Phys. Radium 8, 225–241 (1927).
(9) Bohm, D. Phys. Rev. 85, 166–179 (1952).
(10) Bohm, D. Phys. Rev. 85, 180–193 (1952).
(11) Couder, Y. & Fort, E. Phys. Rev. Lett. 97, 154101 (2006).
(12) Eibenberger, S., Gerlich, S., Arndt, M., Mayor, M. y Tüxen, J. Phys. Chem. Chem. Phys. 15, 14696–14700 (2013).
(13) Hall, M. J. W., Deckert, D.-A. & Wiseman, H. M. Phys. Rev. X 4, 041013 (2014).
-
Referencia: News.Discovery.com .
"Could Crowdfunding Help Finance Future Research?"
por Renee Morad, 21 de mayo 2015

* * * * *

El Congreso de EE.UU. ha propuesto recortes presupuestarios para la investigación, pero cada vez más científicos están recurriendo al crowdfunding para llevar a cabo sus proyectos.


A pesar de que aumenta ligeramente la financiación científica global para este año, de $ 7.3 mil millones a $ 7.6 mil millones en 2016, se recortan los presupuestos para los programas de investigación del clima y de la energía.

Tradicionalmente, la mayor parte de la financiación científica en los Estados Unidos proviene del gobierno en forma de subvenciones distribuidas por las agencias federales de ciencia, salud y defensa.

Pero con los cambios de vías de financiación, los científicos se ven obligados a encontrar formas alternativas para el progreso de sus investigaciones. Ahora, un nicho de sitios de crowdfunding, como 'Experiment and Petridish' están llenando esos sitios donde los fondos se van quedando cortos.

He aquí hay algunos detalles sobre cómo estos sitios están ayudando a dar forma en se llevará a cabo la ciencia en el futuro.
  • -    Experiment: Se utiliza para respaldar proyectos en áreas de economía, física y medicina; este sitio permite a los investigadores publicar proyectos científicos, recaudar fondos y compartir actualizaciones si los proyectos alcanzan sus objetivos.
  • -    Petridish: Este sitio también proporciona una plataforma a los científicos para recaudar fondos. Mientras que los promotores no ofrezcan participación en proyectos, pueden recibir beneficios, como los derechos de cita o invitaciones para visitar sitios de campo.
  • -    USEED: Esta campaña de crowdfunding de objetivo universitario apoya a estudiantes, profesores y personal que buscan proyectos de "aprendizaje experiencial".
  • -    Consano: Este sitio, lanzado por supervivientes de cáncer Molly Lindquist, apoya la investigación médica innovadora. Cualquiera puede navegar por el sitio en la lista de los proyectos examinados, encontrar un proyecto que signifique algo para ellos y donar cualquier cantidad. A cambio, recibirán actualizaciones trimestrales del investigador sobre el proyecto.
Sólo desplazarse a través de algunos de los proyectos en estos sitios que han sido financiados es una lección de humildad. Una gran parte de las solicitudes son por pequeñas sumas de dinero.

Sólo con $ 1.100 para estudiar el impacto de la urbanización y el cambio de los ecosistemas de los manglares costeros de la Florida; solamente $ 3.085 para responder a la pregunta, ¿Cómo afecta el turismo voluntario a la conservación del orangután? $ 3.000 para estudiar el impacto humano sobre los delfines mulares de Belice. Unos 654 dólares requeridos para grabar voces de la lengua Sizang de Birmania.

No se necesita mucho para profundizar un poco más en las cuestiones que enfrenta nuestro planeta, sus gentes y sus animales.

El Crowdsourcing ha revolucionado por completo el espíritu empresarial. Esperemos que se pueda hacer lo mismo por la ciencia.

# # # #
Imagen, Investigadores .  Thinkstock
-

"Newly Created Fungus Is Part Human, Part Yeast"
por Jennifer Viegas, 21 de mayo 2015

* * * * *
Se ha sido diseñado una levadura viva, que es parte humana y parte hongo, mostrando cómo, a pesar de mil millones de años de evolución que separa a los humanos de la levadura, las dos especies comparten cientos de genes en común.

 Levadura del panadero creciendo en una placa de agar .
Rainis Venta
Los genes siguen formando parte de los seres humanos y la levadura desde último ancestro común.

"Las células utilizan un conjunto común de parte de esas partes, incluso después de mil millones de años de evolución independiente, son intercambiables", según decía Edward Marcotte, profesor de la Universidad de Texas en Austin, en un comunicado de prensa.

"Es una hermosa demostración de la herencia común de todos los seres vivos, ser capaz de tomar el ADN de un ser humano y reemplazarlo por un ADN coincidente de una célula de levadura y apoyar con éxito la vida de la célula."

Esto es justo lo que hicieron Marcotte y sus colegas, tal como lo describen en su estudio publicado en la revista Science. Aunque la levadura (como la levadura de ese pan que guarda en su refrigerador ahora) se compone de una sola célula, y los seres humanos tienen miles de millones de células organizadas en sistemas complejos, aun así comparten múltiples genes entre ambos.

De ellos, unos 450 son críticos para la supervivencia de la levadura, por lo que los investigadores quitaron la versión de levadura de cada uno y lo reemplazaron con la versión humana, entonces esperaron para ver si moría la levadura.

Terminaron crando cientos de nuevas cepas de levaduras, cada una con un solo gen humano. Alrededor de la mitad de ellos dio lugar a un organismo que podía sobrevivir y reproducirse.

Si bien esto puede sonar como un inquietante experimento de Frankenstein, el objetivo es producir una nueva forma de investigación de enfermedades genéticas humanas causadas por mutaciones.

De hecho, es una investigación de vanguardia, dado que la técnica podría ayudar a reducir o incluso eliminar el testeo en animales vivos.

Otro de los beneficios es que el testeo podría conducir a tratamientos diseñados para un individuo en particular. Por ejemplo, los investigadores podrían insertar versiones precisas de una mutación genética humana en la levadura y luego exponerla a diferentes fármacos para probar nuevas terapias. Como resultado, los tratamientos podrían ser adaptados a la mutación genética exacta de una persona.

Una técnica similar podría ser utilizada para probar tratamientos en perros y gatos.

"Podríamos averiguar si uno de los tratamientos estándar funcionaría en su versión particular del gen o si tal vez otro fármaco sería aún mejor", explicó el coautor Noel Wilke.

Los diversos genes también podrían ser capaces de ser insertados a su vez en la levadura, y permitir que los investigadores examinen los sistemas de forma más completa en lugar de solamente un único gen mutado.

# # # #
por Roger Bartra, "Antropología del Cerebro"
- La Plasticidad del Cerebro
* * * * *
Transcribo aquí el capítulo 2 del libro "Antropología del Cerebro", de Roger Bartra, con la intención de aclarar los aspectos principales de ese siempre controvertido asunto de la conciencia, de si ésta existe de manera innata debido al sustrato biofisiológico o si su desarrollo depende de la interacción dinámica y experiencial con el medio ambiente. Este libro de Bartra me lo recomendó mi hijo David, y la verdad es que debo darle la razón, pocos autores pueden situarse a su altura en cuanto a su acertadísimo enfoque integrador y su capacidad sistemática de conceptos que lo convierte en un libro de referencia, de fluida lectura y gran claridad.


Antropología del Cerebro - Roger Bartra
- La Plasticidad del Cerebro -

Antes de buscar circuitos neuronales incompletos que requieren de prótesis externas para funcionar es necesario abordar un problema más amplio: la forma en que las redes cerebrales se configuran para adaptarse a las experiencias con las que se enfrenta un individuo en su interacción con el contorno ambiental a lo largo de su vida. Los investigadores han demostrado la existencia, en los cerebros de los mamíferos y otros animales, de procesos de plasticidad neuronal en circuitos que requieren de experiencias provenientes del medio externo para completarse de manera normal. Hay que advertir que no toda plasticidad depende de factores externos. La plasticidad no se reduce a la manera en que ciertos circuitos cerebrales son modelados por el medio ambiente. El estudio clásico de Donald Hebb, publicado en 1949, muestra que la misma actividad neuronal puede fortalecer determinadas conexiones sinápticas cuando se produce una simultaneidad en las actividades de la terminal presináptica y del elemento postsináptico (1).

(1) Donald D. Hebb, The organization of behavior: a neuropsychological theory. Una idea muy similar fue expuesta por F.A. Hayek en 1952 en su estimulante libro The sensory arder, un ensayo injustamente olvidado que expone una teoría que debería hacer reflexionar a muchos neurobiólogos actuales, y que se adelanta a ideas expuestas mucho tiempo después por filósofos dedicados a las ciencias cognitivas. Hayek, gran economista, se formó primeramente como psicólogo y fue durante su época de estudiante, en 1920, cuando escribió un ensayo (que nunca publicó) donde exponía las hipótesis que mucho tiempo después presentó en su libro.

Un ejemplo muy citado de plasticidad en sinapsis hebbianas son las células ganglionares en la retina de los mamíferos, que organizan capas del cuerpo geniculado lateral en el tálamo al disparar oleadas de impulsos a través del ojo. Las secuelas de actividad al parecer se producen al azar, tanto en su ritmo como en su dirección, de manera que las células distantes entre sí tienen pocas posibilidades de disparar simultáneamente, por lo que la conexión que las une se debilita o desaparece. Este tipo de actividad puede observarse aun en retinas separadas del ojo y mantenidas vivas en soluciones líquidas, lo que demuestra la independencia de estos procesos de plasticidad con respecto de estímulos exteriores. Se suele explicar este tipo de plasticidad por el hecho de que permite disminuir el caudal genómico de información, pues de otra forma el surgimiento de cada neurona y de cada conexión, a lo largo del crecimiento y desarrollo de un individuo, debería estar codificado previamente en el genoma.(1)

(1) C. J. Shatz, "The developing brain"

La plasticidad cerebral está relacionada con los procesos de génesis y desarrollo de circuitos que no están determinados genéticamente en forma directa. Prácticamente todas las células de nuestro organismo contienen los mismos genes. Cada gen, hecho de DNA, produce una clase de proteína, que es la sustancia de que está hecho básicamente nuestro cuerpo. Pero en cada clase de célula unos genes están encendidos y otros apagados: por ello, como se sabe desde hace mucho, el gen que produce insulina sólo lo hace en el páncreas y no en el cerebro. Lo que es un descubrimiento más reciente es el hecho de que hay genes que no están permanentemente apagados o encendidos, sino que se activan o desactivan de acuerdo con la experiencia. Es el caso de algunos genes en las neuronas, que no se pasan todo el día haciendo lo mismo. Por ello, las proteínas en el cerebro cambian según la experiencia.

Esto nos lleva a las formas de plasticidad en circuitos neuronales que requieren de experiencias provenientes del medio externo para completarse en forma normal. Uno de los ejemplos más citados es el de la formación de las columnas correspondientes al dominio ocular en el córtex visual. Si se impide la visión de uno de los dos ojos en periodos sensitivos del crecimiento, las columnas correspondientes no se desarrollan bien y se encogen.(1)

(1) D. H. Hubel y T. N. Wiesel, "The period of susceptibility to the physiological effects of unilateral eye closure in kittens".

Los estudios de los efectos de la sutura monocular del párpado en monos y gatos han intentado determinar el comienzo y el final del periodo de crecimiento durante el cual el desarrollo de las columnas en la corteza visual es sensible a los estímulos externos. Al parecer el inicio mismo del periodo sensible es afectado por los impulsos visuales. Gatos que fueron impedidos de recibir estímulos visuales en ambos ojos vieron retardado el principio del proceso de formación del dominio ocular.(2)

(2) Helen J. Neville y Daphne Bavelier, "Specificity and plasticity in neurocognitive  development in humans".

En los niños, es sabido que las cataratas pueden causar ceguera permanente si no son tratadas, mientras que en humanos adultos solamente causan molestias hasta el momento en que son removidas.(3)

(3) Erin Clifford, "Neural plasticity: Merzenich, Taub, and Greenough".

Otro experimento se propuso mostrar la influencia del movimiento en la configuración de conceptos visuales. Se seleccionaron dos grupos de gatitos: los del primer grupo podían moverse libremente, pero arrastraban un cochecito que llevaba a un gatito del segundo grupo que no podía moverse aunque tenía una amplia visión del medio ambiente. Cuando después de un tiempo todos fueron liberados, los gatitos que se habían movido jalando el carrito se comportaron normalmente. Pero los que habían permanecido inmovilizados en el coche se comportaban como si estuviesen ciegos: topaban con objetos y se caían desde los bordes. Al parecer es necesaria la experiencia para que en los lóbulos parietales se formen "mapas" que permitan a los individuos ser conscientes del espacio que los rodea. El mismo problema, visto desde otra perspectiva, es revelador: personas que han sufrido heridas en los lóbulos parietales son incapaces de percatarse de lo que hay en cierta área de su campo visual (generalmente el lado izquierdo). No obstante, se ha demostrado que los objetos en el área invisible activan las neuronas del córtex visual, mientras que los objetos visibles activan, además, algunas regiones del córtex prefrontal y de los lóbulos parietales.(1)

(1) P. Vuillemier et al., "Neural fate on seen and unseen faces in visuospatial neclect: a cambined event-related functional MRI and event-related potential study".

Hay que subrayar el hecho de que la plasticidad que depende de la experiencia para completarse puede combinarse con otras formas. Diversos estudios muestran que la actividad neuronal espontánea proporciona guías para la construcción de circuitos en el córtex visual. Experimentos en hurones, a los que se les cortaron los nervios ópticos sin afectar la conexión talámico-cortical, mostraron que al cabo de unas siete horas retornaron los impulsos talámicos de alta frecuencia en forma incluso más correlacionada que lo normal. Esto puede indicar que la construcción de las columnas del dominio óptico no depende totalmente de la actividad generada en la retina.(2)

(2) Lawrence C. Katz et al., "Activity and the development of the visual cortex: new perspectives".

Los ejemplos que he dado se refieren a un tipo de plasticidad que espera la experiencia de estímulos externos para desencadenarse. Hay que agregar otra forma de plasticidad que nos acerca más a mi hipótesis: se trata de procesos de plasticidad que, aunque no requieren de los estímulos exteriores, son modificados por la experiencia.

Esta forma de plasticidad se refiere a los cambios neuronales que ocurren como consecuencia del aprendizaje. Los experimentos de William Greenough han explorado este tipo de plasticidad. Este investigador y sus colegas criaron dos grupos separados de ratas desde una edad temprana, de 28 a 32 días, en ambientes muy diferentes.

Las ratas del primer grupo fueron colocadas en jaulas individuales y se le proporcionó solamente comida y agua. El segundo grupo fue puesto en amplias jaulas junto con otras ratas; allí tenían juguetes diversos y una gran variedad de estímulos interesantes y cambiantes que podían explorar libremente. Al examinar sus cerebros un mes después se encontraron grandes diferencias: las ratas que habían crecido en un medio estimulante tenían un 60 por ciento más de espinas dendríticas multicéfalas en las neuronas del cuerpo estriado.(1)

(1) Erin Clifford, "Neural plasticity: Merzenich, Taub, and Greenough".

Es posible que las espinas multicéfalas indiquen la presencia de conexiones paralelas entre neuronas, lo que podría reforzar, debilitar o crear conexiones a nuevas sinapsis, con lo que se alteraría el mapa neuronal.

Haplochromis burtoni
Hay un ejemplo particularmente revelador de los cambios provocados por el medio ambiente social en el cerebro. En el lago Tanganica habita una comunidad de peces cíclidos denominada Haplochromis burtoni. En su medio natural se observa en ella la presencia de dos clases de machos: los que dominan un territorio yaquellos que carecen de territorio. Aproximadamente sólo uno de cada diez machos tiene un comportamiento dominante, y se distingue por su color brillante, azulo amarillo, con una notable raya negra a través del ojo, barras verticales negras, una mancha negra en la punta de la cubierta de la agalla y otra gran mancha roja detrás. Esta apariencia espectacular contrasta con los colores poco llamativos yapagados con que se camuflan los machos no territoriales, quienes se parecen mucho a las hembras y se confunden con el contorno en que viven. Los coloridos machos dominantes defienden con violencia sus respectivos territorios en torno a fuentes de alimentación, pelean con los machos de territorios vecinos, persiguen a los machos no dominantes y cortejan a las hembras. Los machos no dominantes sobreviven gracias a que imitan el comportamiento de las hembras y se confunden entre ellas, aunque con frecuencia son descubiertos y expulsados.

Pero hay otra peculiaridad que distingue a los machos dominantes: las neuronas en la región pre-óptica del hipotálamo ventral que contienen la hormona que emite gonadotropina (GnRH)son mucho más grandes que en las hembras y los machos no dominantes. Sin embargo, esta situación no es estable. Cuando, en los experimentos, se trasladó a un macho adulto dominante a una comunidad donde los otros machos eran más grandes, al cabo de apenas cuatro semanas se convirtió en macho dominado y sus neuronas con GnRH se redujeron de tamaño. Mucho menos tiempo (una semana) necesita un macho no territorial, colocado en un nuevo medio donde los otros machos son más pequeños, para que sus neuronas con GnRH adquieran un tamaño mayor. Habría que agregar que no todo es ventajoso para el vistoso y activo macho que domina un territorio: sus colores llaman fácilmente la atención de las aves predadoras, de manera que su reino territorial suele ser relativamente breve. Resulta evidente que las interacciones sociales y la jerarquía influyen poderosamente en el tamaño de las neuronas.

¿Qué es lo que determina esta extraordinaria plasticidad cerebral?

Las investigaciones han señalado la probable existencia de una hormona, el cortisol, que sería la señal mediadora entre la tensión a que son sometidos los animales cuando cambia el contorno social y los procesos fisiológicos que aumentan o disminuyen el tamaño de las neuronas. Así, tendríamos un circuito o una cadena que comprendería la posición social, la generación de una hormona, su función como señal que desencadena cambios en la expresión genética y en la configuración de cierto tipo de neuronas. Lo más revelador de este proceso es que inscribe en un mismo circuito señales celulares y moleculares endógenas con cambios exógenos en las relaciones sociales de dominación.(1)

(1) Russell o. Fernald y Stephanie A. White, "Social control ofbrains: from behavior to genes".


Otros estudios, en animales y humanos, han mostrado la sensibilidad y vulnerabilidad del hipocampo ante las tensiones psicosociales, y revelado su plasticidad como respuesta a cambias hormonales. Una continua tensión ocasionada por un contorno social dificultoso puede causar una supresión de los procesos de neurogénesis en la circunvolución dentada y una atrofia de las neuronas piramidales del hipocampo.(1)

(1) Bruce s. McEwen, "Stress, sex, and the structural and functional plasticity of the hippocampus".

Quiero ahora examinar un tipo de circuito neuronal en el que interviene también un proceso de retroalimentación exógeno. El canto de muchas aves canoras, una vez pasado el periodo de aprendizaje, manifiesta una estructura acústica repetitiva cuya gran estabilidad es independiente del hecho de que el animal escuche a otras aves. Sin embargo, se ha mostrado que en el caso de los pinzones zebra es requerida la retroalimentación que implica escuchar a las otras aves para mantener estable la estructura acústica de su canto. Cuando se provocó sordera en pinzones adultos se descubrió que paulatinamente su canto se iba deteriorando. Ello ocurre debido a que existe un circuito neuronal de retroalimentación.

Las investigaciones, además, han mostrado que en estas aves hay un circuito en la parte ros-
tral del cerebro anterior, esencial durante el aprendizaje, que modula la plasticidad neuronal. Este circuito no forma parte de las conexiones motoras básicas que unen el núcleo del canto (HVc) con el núcleo premotor (RA), que a su vez se liga con las áreas de control vocal, las neuronas respiratorias y las neuronas de la musculatura de los órganos vocales. La actividad del primer circuito continúa después del periodo de aprendizaje, se activa durante el canto y es muy sensible al contexto social en el que los pinzones interactúan. Es una especie de circuito mediador entre el ámbito externo y la plasticidad interna.(2)

(2) Allison J. Ooupe et al. "The song system: neural circuits essential throughout life for vocal behavior and plasticity". Véase también Arturo Álvarez Buylla y Carlos Lois, "Mecanismos de desarrollo y plasticidad del sistema nervioso central".

La mayor parte de los estudios sobre la plasticidad cerebral vinculada al contorno ambiental y social se ha orientado a buscar los caminos que sigue la influencia del medio externo en el proceso de modificar las redes neuronales. Es decir, la investigación ha observado principalmente el proceso en un solo sentido: de afuera hacia adentro. Un estimulante ensayo de Stephan Kennepohl se pregunta si es posible una neuropsicología cultural que investigue la asociación entre las variaciones en el contexto cultural y las diferencias en el sistema nervioso. Los factores culturales contribuyen a modelar el cerebro en diversas formas: el contorno ecológico propio de cada cultura podría activar ciertas conexiones neuronales, el aprendizaje infantil altera en forma diferencial el desarrollo del cerebro y en los adultos se mantiene, aunque con menor flexibilidad, la adaptación del cerebro a nuevas experiencias.(1)

(1) Stephan Kennepohl, "Toward a cultural neuropsychology: an alternative view and preliminary model".

El modelo es esencialmente unidireccional, centrado en la aprehensión de lo que está afuera para depositar su representación (o algo similar) en el interior del cerebro, provocando con ello modificaciones en las conexiones neuronales. Prácticamente no se considera la posibilidad de que los canales que conducen la influencia de la cultura en el cerebro sean de doble sentido, formando auténticos circuitos.

Numerosas experiencias muestran que los obstáculos y los cambios en el contorno social y cultural generan modificaciones de la estructura neuronal. Acaso el ejemplo antiguo más espectacular es el de los llamados niños salvajes, así como los casos de cruel encierro y privación de contacto con otros seres humanos. Aunque alguna vez se creyó que se trataba de humanos en estado puro de naturaleza, ha resultado evidente que los niños que crecen en esa situación ven profunda y en ocasiones permanentemente afectadas sus facultades cognitivas, muestran señales de retraso mental y carecen de habilidades lingüísticas. Ello parece indicar que las condiciones de extrema privación modifican algunas estructuras neuronales. Pero más allá de este fenómeno de plasticidad cerebral, cabe preguntar si parte de las modificaciones se debe al hecho de que algunos circuitos cerebrales quedan incompletos y eventualmente se atrofian. Ello podría indicar que existen estructuras neuronales cuya función normal depende de que logren extender sus circuitos fuera del cerebro.

En este punto me parece importante reflexionar sobre la tradicional dualidad a la que recurren los neurocientíficos: lo interior y lo exterior. Se suele partir de una consideración general: para entender a los organismos vivos es necesaria la definición del límite que los separa del exterior. Las estructuras propias del organismo se encuentran dentro de sus límites y la vida se define como el mantenimiento de estados internos que definen una singularidad individual. Para Antonio Damasio el medio interior es un precursor de la conciencia.

La regulación del estado interno contrasta con la variabilidad del medio que rodea al organismo. Aun la ameba, que no tiene ni cerebro ni mente, "se las arregla para mantener en equilibrio el perfil químico de su medio interno, mientras que alrededor, en el ambiente exterior, se puede desencadenar el infierno". A partir de este tipo de consideraciones elementales, Damasio asegura que la conciencia "ocurre más bien en el interior de un organismo que en público, aunque se asocia con varias manifestaciones públicas". Está convencido de que la conciencia es "un sentido interior", según ha establecido una tradición apuntalada por pensadores tan diversos como Locke, Brentano, Kant y William lames.(1)

(1) Antonio Damasio, The feeling of what happens, pp. 136, 83 Y 126.

Comprendo y apoyo la resistencia de los neurólogos ante ideas metafísicas que no aceptan que las funciones mentales, incluyendo la conciencia, están basadas en la actividad cerebral. Por ello suelen rechazar el dualismo cartesiano. Sin embargo, dibujar los límites del cerebro no es una tarea tan fácil como podría suponerse.

Sin duda la actividad cerebral en que se basa la conciencia tiene un carácter estable y organiza el medio mental interno de tal manera que asegura la coherencia y la continuidad del organismo individual. Esta actividad cerebral interna acumula en la memoria información sobre el contorno exterior. Sin embargo, como han señalado Gerald Edelman y Giulio Tononi, esta memoria no tiene un carácter representacional. Aparentemente no existe un lenguaje cerebral que -como en una computadora- opere mediante representaciones que impliquen una actividad simbólica. No parece haber en los procesos neuronales códigos semánticos. El cerebro funciona de manera similar al sistema inmunológico: los anticuerpos no son representaciones de peligrosos antígenos, aunque forman parte de una memoria inmunológica. Igualmente, un animal reacciona a las peculiaridades de su contorno sin que por ello su organismo sea una representación del nicho ecológico.(1)

(1) GeraId Edelman y Giulio Tononi, A universe of consciousness. How matter becomes imagination, p. 94.

Este nicho no es un enrevesado caos de información, sino que en cierta manera funciona como un sistema de códigos relativamente estable. Pero si aumenta la inestabilidad ambiental, la manera humana de sobrevivir consiste en que algunos circuitos internos no representacionales se conectan con circuitos culturales altamente codificados y simbólicos, con representaciones semánticas y estructuras sintácticas y con poderosas memorias artificiales.

Me parece que la conexión entre los circuitos neuronales internos y los procesos culturales externos nos ayuda a tender un puente entre el cerebro y la conciencia. En una fascinante discusión entre lean Pierre Changeux y Paul Ricoeur, este último se resiste tercamente a aceptar que la neurobiología pueda encontrar ese puente. En cambio Changeux, el neurobiólogo, no acepta poner límites a priori, y confía en que su ciencia terminará por resolver el misterio. Y sin embargo es Ricoeur quien hace una afirmación que abre nuevas perspectivas: "la conciencia no es un lugar cerrado del que me pregunto cómo alguna cosa entra desde afuera, porque ella está, desde siempre, fuera de ella misma". Changeux acepta la idea, pero señala que es difícil darle una base experimental seria a una posible abolición de la relación interior/exterior. (1)

(1) Sin embargo, Changeux señala como ejemplo las neuronas-espejo, un descubrimiento que ya ha estimulado muchos estudios y discusiones, y al cual me referiré más adelante. Iean-Pierre Changeux y Paul Ricoeur, Ce qui nous [ait penser. La nature et la regle, pp. 137 Y 141.

Es posible que la solución del problema se encuentre en un tipo de investigación que no acepte la separación tajante entre el espacio neuronal interior y los circuitos culturales externos. Para ello, en mi interpretación, habría que pensar que los procesos cognitivos son como una botella de Klein, donde el interior es también exterior. Pero esta clase de investigación avanza con grandes dificultades debido a que muchos neurocientíficos suelen ser alérgicos al uso de los descubrimientos de las ciencias de la sociedad y la cultura. La psicología, que era supuestamente un puente de comunicación, en realidad obstruyó los contactos y se ha convertido, como afirma Michael S. Gazzaniga, en una disciplina muerta. La neurociencia dura sólo acepta a la lingüística, aunque suele despojarla de su rico contexto antropológico.

Es sintomático que Gazzaniga tenga la necesidad de suponer la existencia de un aparato neuronal traductor e interpretador ubicado en la corteza cerebral izquierda, encargado de generar la ilusión de una conciencia individual coherente.(2) ¿No se trata de una nueva visión dualista que ha sustituido al viejo homúnculo con un mecanismo interpretador?

(2) Michael S. Gazzaniga, The mind's past, pp. 24ss.

# # # # #
Imágenes de la web, 1 enfoque conciencia, 2 pez Haplochromis burtoni, 3 aprendizaje.

Prof. Ian T. Baldwin, 15 de abril 2015
"Diversity in a monoculture"

* * * * *
Las diferencias funcionales dentro de una especie aseguran su supervivencia y mejoran la productividad de todo el ecosistema.

La agricultura moderna de tecnología amigable está dominada por los monocultivos. En las grandes áreas se cultiva una variedad única, el genotipo de una sola especie. Estos cultivos favorecidos están optimizados para altos rendimientos y, con frecuencia, sólo contienen unos pocos compuestos de defensa natural de la planta.

 Desafortunadamente, estos extensos monocultivos de plantas idénticas pueden convertirse en un páramo ecológico y causar daños permanentes al ecosistema, especialmente cuando se combina con una amplia aplicación de fertilizantes y pesticidas. Los científicos del Instituto Max Planck para la Ecología Química en Jena, Alemania, ha demostrado en experimentos de campo, con plantas de Nicotiana attenuata, que sería suficiente con alterar la expresión de ciertos genes de defensa en plantas individuales para proteger a toda la población, y así alterar la diversidad del ecosistema como un todo.

Según los científicos, la diversidad funcional, basada en la variación de la expresión génica, se puede comparar con la diversidad de especies de ciertos hábitats aun tan lejanas como se refieren los servicios de los ecosistemas. "La diversidad funcional significa otra cosa que la capacidad de varios individuos de una especie para realizar distintas tareas ecológicas. Tener a todo el mundo haciendo lo mismo, rara vez es la mejor manera para una especie para maximizar su capacidad de producir descendencia exitosa, en otras palabras, es la aptitud darwiniana", explica Ian Baldwin.

Los investigadores incluso van un paso más allá al indicar que sus hallazgos pueden ser utilizados en la agricultura moderna. "La variación de la expresión de unos pocos genes en tan sólo unos pocos individuos puede tener grandes efectos protectores para todo el campo", subraya Meredith Schuman. "Hoy por hoy, sugerimos una manera económicamente sostenible para recuperar algunos de los beneficios perdidos de la biodiversidad, para esas grandes extensiones de tierra que ya han sido convertidas desde los hábitats naturales y la biodiversidad en monocultivos agrícolas".

Según estimaciones de las Naciones Unidas, la población actual del mundo es de más de 7,2 mil millones de personas, habrá alcanzado 10 mil millones a finales de siglo, y todas estas personas necesitan ser alimentadas. La demanda de alimentos aumentará constantemente con el crecimiento de la población. Los conocimientos básicos derivados de la investigación en ecología vegetal molecular pueden contribuir a un uso más sostenible de las tierras agrícolas, y conseguir así una mejor adaptación de los cultivos a determinados entornos naturales.

# # # # #
- Imagen: experimento con poblaciones de cinco plantas que se cultivan en monocultivos o en diferentes combinaciones y disposiciones de plantas, cuyos genes de defensa se expresaron de manera diferente. © MPI f. Chemical Ecology/ eLife/ M. Schuman
-
Profesores F. Ulrich Hartl y Dr. Matthias Mann, 7 de mayo 2015
"Protein aggregates save cells during aging"
 
* * * * *
Los científicos del Instituto Max Planck identifican un nuevo papel de los agregados de proteínas en la neurodegeneración.


Cuando un organismo envejece, se produce una pérdida gradual del control de calidad de la proteína celular. Esto se traduce en un aumento de la producción de cúmulos proteicos tóxicos, los llamados agregados. Mediante un enfoque integral, los investigadores de los equipos de F.-Ulrich Hartl y Matthias Mann, del Instituto Max Planck de Bioquímica en Martinsried, cerca de Munich, han analizado los cambios en la composición de proteínas durante el envejecimiento. Los resultados se han publicado en la revista Cell y muestran que el volumen de proteínas se ve sometida a un cambio severo. Esto también arroja nueva luz sobre el origen y la función de agregados de proteínas. El estudio también involucra a los equipos de Michele Vendruscolo y Chris Dobson en Cambridge y de Richard Morimoto en Chicago.

"Este estudio es el más extenso de su tipo sobre un organismo completo, gusanos, donde se ha cuantificado más de 5.000 proteínas diferentes en multiples momentos durante el envejecimiento", señala Prasad Kasturi, que igualmente contribuye como primer autor junto con Dirk Walther.

Los investigadores fueron capaces de mostrar que el proteoma sufre grandes cambios con el envejecimiento en gusanos. Alrededor de un tercio de las proteínas cuantificadas cambiaron significativamente. Se pierde la relación normal entre diferentes proteínas, la cual es crítica para la función apropiada de la célula. Este cambio abruma la maquinaria del control de calidad proteínico alterando la funcionalidad de las proteínas. Esto tiene su reflejo en la agregación general de proteínas excedentes que, en última instancia, contribuyen a la muerte de los animales.

"Estos resultados demuestran que las células acumulan, específicamente, agregados ricos en proteínas chaperona como un mecanismo de seguridad. Por lo tanto, los agregados parecen ser una parte importante del envejecimiento saludable", explica Kasturi. De hecho, se sabe que los agregados de proteínas insolubles también se acumulan en los cerebros de personas sanas de edad avanzada."

"Hasta ahora, los investigadores asumían que la neurodegeneración y la demencia parecían ser causados ​​principalmente por especies aberrantes de proteínas que se iban acumulando en los agregados. Esta suposición debe ser reconsiderada nuevamente: "Está claro que los agregados no son siempre perjudiciales. Hallar la manera de concentrar las proteínas nocivas en depósitos insolubles podría ser una estrategia útil para evitar o posponer enfermedades neurodegenerativas a medida que envejecemos", calificaba Hartl los resultados.


# # # #
- Imagen: CIB. Centro de Investigaciones Biológicas. CSIC.
Referencia: News.Discovery.com
por Renee Morad, 12 de mayo 2015
"Sperm Grown in a Lab for the First Time"

* * * * *
En un avance que podría conducir a un tratamiento para miles de hombres infértiles, los científicos han conseguido por primera vez hacer crecer espermatozoides humanos en un laboratorio.

El laboratorio Kallistem, un centro de investigación privada con sede en Lyon, Francia, ha logrado madurar espermatogonias en esperma maduro en tubos de ensayo. Los científicos llevan detrás de hacer esta hazaña los últimos 15 años.

Este complejo proceso, por lo general, conlleva 72 días en el cuerpo humano.

"Kallistem está abordando un tema importante cuyos efectos se podrán sentir en todo el mundo: el tratamiento de la infertilidad masculina", dijo al Daily Mail Isabelle Cuoc, CEO de Kallistem Laboratory.

"Nuestro equipo es el primero del mundo que ha desarrollado la tecnología necesaria para obtener espermatozoides completamente formados in vitro con el rendimiento suficiente para la FIV (fecundación in vitro)", agregó Cuoc.

Los resultados aún no se han publicado en una revista de revisión por pares, pero Kallistem planea llevar a cabo ensayos preclínicos el próximo año.

Si estas pruebas tienen éxito, la empresa va a extraer una muestra de espermatogonias inmaduras de un hombre y transformar ese material genético en espermatozoides maduros. Luego, se utilizará un procedimiento de FIV, o el esperma podrá congelarse para su uso posterior.

Esta investigación abre el camino a futuros tratamientos que preserven y restauren la fertilidad masculina, lo cual afecta a un estimado de 50.000 hombres cada año. Según se estima, el valor de esta tecnología en el mercado global puede llegar a 2.580 millones de dólares.

# # #
Fuente: DailMail.co.uk .

-
Referencia: Science Daily.com, 11 de mayo 2015
"Turning point in the physics of blood"
* * * * *
 Los investigadores trazan una ecuación que produce sencillas predicciones en cuanto a la rapidez con que los glóbulos migran más allá de las paredes de los vasos sanguíneos, cómo se comportarán cuando chocan entre sí y, en consecuencia, cómo van a segregarse durante el flujo.

La imagen de una simulación que muestra un caso
en el que los glóbulos más rígidos (en blanco) son
dirigidos hacia las paredes de un vaso sanguíneo. El estudio de
Mike Graham establece una nueva teoría que predice
las condiciones en las que se produce este proceso.
Crédito: Universidad de Wisconsin-Madison
Mike Graham sabe que la dinámica de fluidos pueden revelar mucho acerca de cómo el flujo de sangre ayuda y obstaculiza glóbulos individuales a medida que avanzan en su trabajo.

Graham, profesor de Vilas Distinguished Achievement y Harvey D. Spangler, profesor de Ingeniería Química y Biológica en la Universidad de Wisconsin-Madison, establecieron una base teórica para estas ideas mediante la creación de estímulos complejos por ordenador que muestran cómo los relativamente rígidos glóbulos blancos y plaquetas interactúan con las más flexibles células rojas sanguíneas. Conforme las diferentes células chocan entre sí mientras fluye la sangre, las células blancas tienden a ser empujadas hacia las paredes del vaso sanguíneo. Este proceso de segregación, llamado marginación, tiene algunas ventajas, por ejemplo, permitir que los glóbulos blancos de la sangre salgan rápidamente del vaso sanguíneo para dirigirse al sitio de una lesión o infección.

Sin embargo, los detalles mecánicos de la sangre podrían dar cuenta tanto de buenas como malas noticias en los campos que se estudian, desde la administración de fármacos para trastornos de la sangre a la propagación de una enfermedad. "Veo mi labor como la de proporcionar una base fundamental para la comprensión de profesionales y otros ingenieros que están conectados más directamente con estas aplicaciones", comenta Graham.

El trabajo de Graham ha alcanzado un importante punto de inflexión, ofreciendo una teoría que abre una puerta para que otros investigadores puedan aprovechar lo aprendido y observado por el grupo de Graham a lo largo de años de simulaciones computacionales sobre la física del flujo sanguíneo. En un artículo publicado 1 de mayo 2015, en la revista Physical Review Letters, Graham y los doctorandos Kushal Sinha y Rafael G. Henríquez Rivera, han sido capaces de formular una ecuación que hace predicciones sencillas sobre la rapidez con que los glóbulos se alejan de las paredes de los vasos sanguíneos, sobre cómo se comportarán cuando chocan entre sí y, consiguientemente, cómo van a segregarse durante el flujo.

A la larga, estas ideas podrían ayudar a los profesionales a manipular la mecánica de la sangre para diseñar mejores tratamientos de transfusiones de sangre, en las técnicas artesanales de entrega de medicamentos a través de pequeñas partículas en la sangre, y tal vez, incluso diseñar procesos capaces de aislar las células tumorales de transmisión sanguínea que propagan el cáncer por todo el cuerpo.

"Estoy muy entusiasmado con esta investigación, porque es la primera teoría analítica sobre este fenómeno", subraya Graham. "No es muy común que una teoría vaya por delante de los experimentos, pero  ahora mismo estamos en esa posición."

Dicho esto, Graham está procediendo en ambos frentes para dibujar una más firme conexión entre estos conocimientos mecánicos y las muchas funciones biológicas sobre las que podría tener impacto. El camino por delante, llevará a su grupo a refinar una nueva ecuación para adaptarse a situaciones de flujo más complejas y llevar a cabo una colaboración experimental con Wilbur Lam, hematólogo en Georgia Tech y de la Universidad Emory en Atlanta.

Sobre la base de estos trabajos teóricos y de simulación de Graham, el grupo de investigación de Lam creará dispositivos de microfluidos para estudiar el comportamiento de las células sanguíneas en su hábitat natural. Lam ha desarrollado una manera de hacer crecer células endoteliales (las que revisten las paredes interiores de los vasos sanguíneos) dentro de los canales artificiales de dispositivos microfluídicos. "Creo que nuestros laboratorios han tropezado realmente sobre cómo la mecánica de fluidos es capaz de explicar muchos de los fenómenos biológicos que vemos en la sangre", explica Lam. "Esto puede estar relacionado con una nueva forma de entender la inflamación, las infecciones, incluso la medicina transfusional. En realidad, impregna muchos de los distintos problemas que observamos en hematología."

Incluso en el desarrollo de la parte computacional y teórica de este trabajo, Graham piensa en cómo asegurarse de que su trabajo sea creíble para los médicos. Esto es especialmente difícil para un investigador ocupado en simulaciones computacionales, ya que una simulación simplemente no puede tener en cuenta todas las variables sin una cantidad prohibitiva de recursos informáticos.

Sin embargo, Graham dice que capturar los matices físicos de los vasos sanguíneos, forma, tamaño y rigidez relativa, tiene un enorme valor, incluso el tener en cuenta otras innumerables fuerzas que trabajan en el cuerpo humano.

"Nos gustaría ser capaces de convencer a los médicos de que no es necesario saber todos los detalles para capturar la comprensión fundamental de lo que está pasando", continuó. "Es un enorme desafío incorporar todos los fenómenos que podrían ser importantes en una simulación. Hay que exponer el caso de manera convincente, si quieres a alguien quiera aplicar esta investigación, manteniendo las partes importantes."

Ambos investigadores señalan que la anemia de las células falciformes se ha entendido durante mucho tiempo como un problema tanto mecánico como biológico. Los glóbulos rojos defectuosos que causan la enfermedad no sólo son deformes, pero también más rígidos que los glóbulos rojos sanos, lo que significa que bloquean el flujo de sangre. Sin embargo, a un nivel mecánico más detallado, Graham y Lam señalan que, incluso puede ser que las células falciformes, literalmente irriten las paredes internas de los vasos sanguíneos. Si esto es así, haría que la anemia de células falciformes no sólo sean un trastorno de la sangre, sino un trastorno de todo el sistema circulatorio. Sus puntos fuertes de investigación, combinados ahora, crean una oportunidad para poner a prueba esta hipótesis. "Los biólogos y los hematólogos ya conocían desde hace décadas que estas células pueden atascarse, pero lo que menos se entiende es que las paredes de todos los vasos sanguíneos del paciente estén muy inflamados, y no se sabe muy bien por qué", señala Lam.

Los investigadores dicen que una mejor comprensión de la mecánica del flujo sanguíneo también podría ayudar a hacer más seguras las transfusiones de sangre. Las transfusiones pueden a veces desencadenar infartos o daños en los pulmones, y la comunidad médica no sabe bien por qué. Lam quiere averiguar si ciertas células de la sangre donada almacenada tiene propiedades mecánicas que ponen en alto riesgo a los pacientes.

Aunque su colaboración con Lam se encuentra todavía en una fase inicial, ambos investigadores ven la posibilidad de abrir una nueva frontera en la investigación de la sangre. "Esta supondría una nueva categoría de cosas a tener en cuenta, y es por lo que resulta tan emocionante", dice Lam. "De repente, tenemos aplicaciones donde la mecánica puede ser muy importante."

 # # # # #
- Fuente: University of Wisconsin-Madison .
- Publicación: : Rafael G. Henríquez Rivera, Kushal Sinha, Michael D. Graham. Margination Regimes and Drainage Transition in Confined Multicomponent Suspensions. Physical Review Letters, 2015; 114 (18) DOI: 10.1103/PhysRevLett.114.188101 .

-