Select Menu

Astrofísica

Biología

Filosofia

Tecnología

Psicologia

Personas

Medicina

Vídeo

Referencia: Nature.com .
por Boer Deng, 1 de julio 2015
* * * * * *
Idear cómo construir robots éticos es uno de los desafíos más espinosos de la inteligencia artificial.

En el relato corto de 1942, 'Círculo vicioso', el afamado escritor de ciencia ficción Isaac Asimov introdujo las Tres Leyes de la Robótica, ingeniería de salvaguardias de unos principios éticos incorporados que pasarían a ser utilizados en decenas de cuentos y novelas. Estos eran: 1) Un robot no puede dañar a un ser humano ni, por inacción, permitir que un ser humano sufra daño; 2) Un robot debe obedecer las órdenes dadas por los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley; y 3) Un robot debe proteger su propia existencia, hasta donde esta protección no entre en conflicto con la Primera o la Segunda Ley.

El robot Nao, totalmente programable, se ha utilizado para experimentar con la ética de la máquina. Peter Adams
Oportunamente, el planteamiento de 'Círculo vicioso' [Runaround] se continúa en 2015. La robótica de la vida real está citando mucho las leyes de Asimov en estos días, dado que sus creaciones se convierten en lo suficientemente autónomas para necesitar ese tipo de orientación. En mayo, una charla panel sobre los coches sin conductor en la Brookings Institution, un centro de estudios en Washington DC, se convirtió en una discusión sobre cómo se comportarían los vehículos autónomos en una crisis. ¿Qué pasa si los esfuerzos de un vehículo para salvar a sus propios pasajeros, por ejemplo, frenando de golpe arriesgan un choque en cadena con los vehículos que vienen detrás de él? O ¿qué ocurre si un coche autónomo se desvía para evitar a un niño, pero arriesga el atropello de alguien más cerca?

"Cada vez vemos más sistemas autónomos o automatizados en nuestra vida diaria", señala el participante en panel Karl-Josef Kuhn, ingeniero de Siemens en Munich, Alemania. Pero, él se pregunta, ¿cómo pueden los investigadores dotar a un robot para reaccionar cuando la "la decisión a tomar está entre dos malas opciones"?

El ritmo de desarrollo es tal que, estas dificultades pronto afectarán a los robots de atención a la salud, drones militares y otros dispositivos autónomos, capaces de tomar decisiones que podrían ayudar o dañar a los seres humanos. Los investigadores están cada vez más convencidos de que la aceptación de la sociedad de tales máquinas dependerá de si pueden ser programados para actuar de manera que maximicen la seguridad, estar en consonancia con las normas sociales y fomenten la confianza. "Necesitamos algunos progresos serios para averiguar lo que es relevante en la inteligencia artificial a fin de razonar con éxito en las situaciones éticas", subraya Marcello Guarini, filósofo de la Universidad de Windsor en Canadá.

Varios proyectos están abordando este reto, incluyendo iniciativas financiadas por la Oficina de Investigación Naval y el consejo de gobierno sobre financiación de ingeniería del Reino Unido. Deben abordar cuestiones científicas difíciles, como qué tipo de inteligencia, y cuánta es necesaria para la toma de decisiones éticas, y cómo se puede traducir eso en instrucciones para una máquina. Científicos informáticos, expertos en robótica, especialistas en ética y filósofos están manos a la obra.

"Si me hubieran preguntado hace cinco años si podríamos fabricar robots éticos, habría dicho que no", apunta Alan Winfield, un experto en robótica del Laboratorio de Robótica de Bristol, Reino Unido. "Ahora ya no creo que sea una idea tan loca."

Máquinas de aprendizaje

En un experimento citado frecuentemente, un robot comercial de juguete, llamado Nao, fue programado para recordarle a la gente que tomara su medicina.

"A primera vista, esto parece sencillo", dice Susan Leigh Anderson, filósofa de la Universidad de Connecticut, en Stamford, que hizo el trabajo con su marido, el informático Michael Anderson de la Universidad de Hartford, en Connecticut. "Pero incluso en este tipo de tarea tan limitada, hay cuestiones involucradas de ética nada triviales." Por ejemplo, ¿cómo debe proceder Nao si un paciente se niega su medicación? Si le permite saltarse la dosis podría causar daño a esa persona. Pero, insistir en que la tome sería intervenir en su autonomía.

Al enseñar a Nao a navegar en tales dilemas, los Anderson dieron ejemplos de casos en los que los bioéticos habían resuelto los conflictos que involucran la autonomía y el daño y beneficio a un paciente. Los algoritmos de aprendizaje, entonces, se ordenaron a través de muchos casos hasta encontrar patrones que pudieran guiar al robot en situaciones nuevas (1) .

Con este tipo de 'aprendizaje automático', un robot puede extraer conocimiento útil incluso de entradas ambiguas (véase go.nature.com/2r7nav). El enfoque sería, en teoría, ayudar al robot a mejorar en la toma de decisiones éticas, dada la posibilidad de encontrarse con más situaciones. Pero muchos temen que estas ventajas tienen un precio. Los principios que emergen no están escritos en el código computerizado, por lo que "no hay manera de saber por qué un programa podría llegar a una regla particular diciendo que algo es éticamente "correcto, o no", señala Jerry Kaplan, profesor de inteligencia artificial y ética de la Universidad de Stanford en California.

Superar este problema requiere una táctica distinta, según dicen muchos ingenieros; la mayoría lo intentan mediante la creación de programas con reglas formuladas explícitamente, en lugar de pedir a un robot que lo deduzca por sí mismo. El año pasado, Winfield publicó los resultados (2) de un experimento que se preguntaba: ¿cuál es el conjunto más simple de reglas que permitiría a una máquina rescatar a alguien en peligro de caer en un agujero? Lo más obvio, se percataba Winfield, es que el robot necesita la capacidad de detectar sus alrededores, reconocer la posición del agujero y de la persona, así como su propia posición con respecto a ambos. Pero el robot también necesita normas que le permiten anticiparse a los posibles efectos de sus propias acciones.

El experimento de Winfield utiliza robots del tamaño de un disco de hockey en movimiento sobre una superficie. Designó algunos de estos 'H-robots" como representaciones los seres humanos, y uno de ellos -en representación de máquina ética- el 'A-robot", en nombre de Asimov. Winfield programó el A-robot con una regla análoga a la primera ley de Asimov: si percibe un H-robot en peligro de caer en un agujero, tiene que moverse en la trayectoria del H-robot para salvarlo.

Winfield, hizo que los robots pasaran docenas de prueba, y encontró que el A-robot salvaba su cargo cada vez. Pero entonces, para ver lo que la norma de no-daño podría lograr frente a un dilema moral, enfrentó al A-robot con dos H-robots que vagaban en peligro de forma simultánea. Y ahora, ¿cómo se comportaría?

Los resultados sugieren que incluso un robot mínimamente ético podría ser útil, cuenta Winfield: el A-robot con frecuencia se las arregló para salvar a un "humano", usualmente, moviéndose hacia el primero más cercano a él. A veces, moviéndose rápido, incluso se las arreglaba para salvar a ambos. Pero el experimento también mostraba los límites del minimalismo. En casi la mitad de los ensayos, el A-robot entraba en un titubeo indefenso y dejaba perecer a los dos 'seres humanos'. Solucionar esto requeriría reglas adicionales sobre cómo tomar esas decisiones. Si un H-robot fuera un adulto y otro fuera un niño, por ejemplo, ¿a quién salvaría primero el A-robot? En materia de juicios como estos, ni siquiera los seres humanos se ponen de acuerdo. Y, a menudo, como Kaplan señala, "no sabemos cómo codificar lo que tales reglas explícitas deberían ser, y están necesariamente incompletas".

Los defensores argumentan que un enfoque basado en reglas tiene una virtud importante: siempre queda claro por qué la máquina hace la elección que hace, ya que sus diseñadores establecen las reglas. Esa es una cuestión fundamental para los militares de Estados Unidos, para el que los sistemas autónomos son un objetivo estratégico clave. Si las máquinas ayudan a soldados o llevan a cabo misiones potencialmente letales, "la última cosa que uno quiere es enviar a un robot autónomo a una misión militar y tener que funcionar bajo unas reglas éticas que debe seguir en el medio de esas situaciones", comenta Ronald Arkin, que trabaja en el software de ética robótica en el Instituto de Tecnología de Georgia en Atlanta. Si un robot tenía que elegir entre salvar a un soldado o ir a combatir a un enemigo, sería importante saber de antemano lo que debería hacer.

'Robeair' está diseñado para atender
a personas enfermas o de edad avanzada.
Jiiji Press/AFP/Getty
Con el apoyo del Departamento de Defensa de Estados Unidos, Arkin está diseñando un programa para asegurarse de que un robot militar opere de acuerdo con las leyes internacionales de compromiso. Un conjunto de algoritmos, denominado gobernador ético, calcula si una acción, como el disparar un misil es permisible, y permite que se continúe sólo si la respuesta es "sí".

En una prueba virtual del gobernador ético, en una simulación, se le dio la misión a un vehículo autónomo no tripulado, de atacar objetivos enemigos; pero no se le permitió hacerlo si había edificios con civiles cerca. En unos escenarios dados, que variaban la ubicación del vehículo respecto a una zona de ataque y de complejos civiles, como hospitales y edificios residenciales, los algoritmos decidieron cuándo sería permisible para el vehículo autónomo llevar a cabo su misión (3) .

Los autónomos y militarizados robots toman a mucha gente como peligrosos, y ha habido innumerables debates sobre si deben ser permitidos. Pero Arkin argumenta que estas máquinas podrían ser mejores que los soldados humanos en algunas situaciones, si están programados para no romper nunca unas reglas de combate que los humanos sí podrían burlar.

Los científicos informáticos trabajan en una rigurosamente programada ética de la máquina en un código que utiliza los estados lógicos, como "Si un enunciado es verdadero, avanzar; si es falso, no moverse”. La lógica es la opción ideal para la codificación de la ética-máquina, afirma Luís Moniz Pereira, científico computacional del Laboratorio Nova de Ciencias de la Computación e Informática en Lisboa. "La lógica es cómo razonamos y llegamos a nuestras decisiones éticas".

La elaboración de instrucciones capaces de los pasos lógicos que intervienen en la toma de decisiones éticas es un desafío. Por ejemplo, señala Pereira, los lenguajes lógicos utilizados por los programas de ordenador tienen problemas para llegar a conclusiones sobre escenarios hipotéticos, pero estos contrafactuales son cruciales en la resolución de ciertos dilemas éticos.

Una de ellos se ilustra con el problema de la carretilla, usted se imagina un carro de tren fuera de control, está a punto de matar a cinco personas inocentes que se encuentran en las vías. Puede salvarlos solamente si usted tira de una palanca que desvía el tren a otra vía, donde golpeará y matará a un transeúnte inocente. ¿qué haces? En otra configuración, la única manera de detener el carro es empujar el transeúnte a las vías.

La gente a menudo responden que está bien detener el carro pulsando la palanca, pero rechazan visceralmente la idea de empujar el transeúnte. La intuición básica, conocida por los filósofos como la doctrina del doble efecto, es que el daño infligido intencional está mal, incluso por buena causa. Sin embargo, infligir un daño podría ser aceptable si no es deliberado, simplemente como consecuencia de hacer un bien a otros, como el caso de que el transeúnte simplemente pasaba por las vías.

Esta es una línea muy difícil de análisis para un programa de toma de decisiones. Para empezar, el programa debe ser capaz de ver los dos futuros diferentes: uno en el que el carro mata a cinco personas, y otro en el que sólo mata a uno. El programa debe entonces preguntarse si la acción necesaria para salvar a los cinco es inadmisible, por el volumen de daño causado, o permisible porque el daño es sólo un efecto secundario de una buena causa.

Para averiguarlo, el programa debe ser capaz de decir lo que sucedería si elige no empujar al transeúnte o tirar de la palanca, para dar cuenta de los contrafactuales. "Sería como si un programa estuviese constantemente depurándose a sí mismo", comenta Pereira, "encontrar dónde en una línea de código algo podría cambiar, y predecir cuál sería el resultado del cambio". Pereira y Ari Saptawijaya, un científico computacional de la Universidad de Indonesia en Depok, han escrito un programa lógico (4) que puede sacar con éxito una decisión basada en la doctrina del doble efecto, así como de la doctrina más sofisticada del triple efecto, que tiene en cuenta si el daño causado es producto de la intención de la acción, o simplemente necesario para ello.

Humanos, moral y máquinas

El cómo se construya la ética de robots podría tener importantes consecuencias para el futuro de la robótica, dicen los investigadores. Michael Fisher, informático en la Universidad de Liverpool, Reino Unido, cree que los sistemas de seguir reglas obligadas podría ser tranquilizador para el público. "La gente va a tener miedo de los robots, si no están seguros de lo que están haciendo", dice. "Pero si podemos analizar y probar las razones de sus acciones, somos más propensos a superar ese problema de confianza". Él está trabajando con Winfield y otros, en un proyecto financiado por el gobierno para verificar que los resultados de los programas éticos de las máquinas sean siempre cognoscibles.

Por el contrario, el enfoque de la máquina que aprende promete que los robots pueden aprender de la experiencia, que en última instancia podría hacerlos más flexibles y útiles que sus contrapartes más rígidamente programados. Muchos expertos en robótica dicen que el mejor camino a seguir sería una combinación de ambos enfoques. "Es casi como una psicoterapia", apunta Pereira. "Probablemente no sólo se tiene que utilizar una teoría". El desafío, aún no resuelto, es combinar los enfoques de una manera viable.

Estos problemas pueden surgir más pronto que tarde en el campo del rápido movimiento del transporte autónomo. Actualmente, los coches sin conductor de Google están rodando a través de distintas partes de California (véase Nature 518, 20–23; 2015+++ ). En mayo, los camiones autónomos del fabricante alemán de automóviles Daimler, empezaron a conducir solos a través del desierto de Nevada. Los ingenieros están pensando seriamente en cómo programar estos coches tanto para obedecer las reglas como para adaptarse a las situaciones en la carretera. "Hasta ahora hemos estado tratando de hacer que los robots no hagan cosas que para los seres humanos están mal", como el no despegar la atención en los viajes largos o ser rápido con los frenos cuando ocurre algo inesperado, dice Bernhard Weidemann, portavoz de Daimler en Stuttgart. "En el futuro, tendremos que intentar programar cosas que para los seres humanos vemos como naturales, pero no así en las máquinas."

# # # # # #
- Fuente: Nature 523, 24–26 (02 July 2015) doi:10.1038/523024a
(1) Anderson, M. & Anderson, S. L. AI Magazine 28, 15–26 (2007).
(2) Winfield, A. F. T., Blum, C. & Liu, W. in Advances in Autonomous Robotics Systems 85–96 (Springer, 2014).
(3) Arkin, R. C., Ulam, P. & Duncan, B. An Ethical Governor for Constraining Lethal Action in an Autonomous System Technical Report GIT-GVU-09-02 (2009).
(4) Pereira, L. M. & Saptawijaya, A. in Logic, Argumentation and Reasoning (eds Urbaniak, R. & Payette, G.) (Springer, in the press); available at http://go.nature.com/3xlske .

- -
Referencia: AlphaGalileo.org .
por Daniel Kopperud, 3 de julio 2015
* * * * * *
Las baterías de iones de litio (LIB) son un gran avance tecnológico de las baterías de plomo ácido, que han existido desde 1850. Gracias a su bajo peso, alta densidad energética y de pérdida lenta de carga cuando no está en uso, las LIBs se han convertido en la opción preferida para la electrónica de consumo. Las celdas de iones de litio con cátodos de cobalto tienen el doble de energía de una batería a base de níquel, y cuatro veces mayor que la de ácido de plomo. A pesar de ser una batería de consumo superior, las LIBs todavía tienen algunos inconvenientes. Su actual tecnología de fabricación está llegando al límite de densidad teórica de energía y el sobrecalentamiento conduce a un desenfrenado térmico, es decir a "una ventilación de la llama" lo cual es una seria preocupación.

Simple incorporación de diversos precursores de litio para CB[6] poroso exhibe una alta conductividad de iones de litio, con movilidad y seguridad de electrolitos de litio sólido

Investigadores de Corea del Sur en el Centro for Self-assembly and Complexity del Instituto de Ciencias Básicas (IBS), el Departamento de Química y la División de Ciencias de Materiales Avanzados de la Universidad de Pohang, han creado la nueva LIB hecha de un sólido poroso que mejora notablemente su rendimiento así como la reducción de los riesgos debido a un sobrecalentamiento.

Desde 2002 ha habido más de 40 retiradas del mercado en EE.UU. debido a haberse incendiado o por riesgo de explosión de las LIBs utilizadas en dispositivos electrónicos de consumo. Estos tipos de baterías, en todas sus diferentes combinaciones de litio-ánodo, siguen siendo una parte esencial de la electrónica moderna de consumo a pesar de su pobre historial en temperaturas altas.

El equipo coreano intentó un enfoque totalmente nuevo en la fabricación de las baterías. Según el Dr. Kimoon Kim en el IBS, "hemos investigado la anisotropía alta y muy alta [direccionalmente dependiente] de protones de comportamiento conductor en el CB[6] poroso, para los electrolitos de pila de combustible. Esto es posible en el iones de litio conductor CB[6] poroso por ser más seguros que el existente electrolito de litio sólido, basado en materiales orgánicos de porosidad molecular, que utilizando el método de inmersión simple. "La tecnología LIB actual se basa en el litio intercalado que funciona bien, pero debido a la cada vez mayor demanda de los dispositivos electrónicos para que sean más ligeros y potente, se hace necesaria la investigación de nuevos electrolitos.

Esta nueva batería se construye a partir de moléculas con forma de calabaza, llamadas cucurbit[6] uril (CB[6]), las cuales se organizan en una estructura en forma de panal. Las moléculas tienen un canal 1D increíblemente delgado, de un promedio de 7,5 Å [una de ion de litio tiene 0,76 Å, ó 0.76 x 10-10 m] que se ejecuta a su través. La estructura física del CB[6] poroso permite que los iones de litio de la batería se difundan más libremente que en las LIBs convencionales, además de existir sin los separadores que se encuentran en las otras baterías.

En las pruebas, los electrolitos sólidos porosos CB[6] mostraron una impresionante conductividad de iones de litio. Para comparar esto con electrolitos de baterías existentes, el equipo utilizó una medición del número de transferencia de litio (tLi+) que fue registrado en 0,7-0,8 comparado con el 0,2-0,5 de los electrolitos existentes. También sometieron las baterías a temperaturas extremas de hasta 99.85 °C, muy por encima de la temperatura típica de 80 °C de salida de las LIBs. En las pruebas, las baterías con cliclos a temperaturas entre 24.85 °C y 99.85 °C durante una duración de cuatro días, y después de cada ciclo los resultados no mostraron escapes térmicos y casi ningún cambio en la conductividad.

Varios electrolitos líquidos convencionales pueden incorporar un marco de CB[6] poroso y ser convertido a electrolitos de litio sólido más seguros. Además, el uso de electrolitos no se limita a usarlo sólo en las LIBs, sino que una batería de litio de aire es potencialmente factible. Mas lo que hace que esta nueva técnica sea más interesante es que se trata de un nuevo método de preparación del electrolito de litio sólido, el cual comienza como líquido, y no necesita modificación post-sintética o tratamiento químico.

# # # # #
- Institute for Basic Science. Press Center .
- Imagen: Simple incorporación de diversos precursores de litio para CB[6] poroso exhibe una alta conductividad de iones de litio, con movilidad y seguridad de electrolitos de litio sólido.
- Publicación: Jun Heuk Park, Kyungwon Suh, Md. Rumum Rohman, Wooseup Hwang, Minyoung Yoon and Kimoon Kim, (2015), “Solid lithium electrolytes based on an organic molecular porous solid”, The Royal Society of Chemistry, DOI: 10.1039/c5cc02581h.
-

Referencia: Phys.org .
por Por Malcolm Ritter 03 de julio 2015
* * * * * *
Shakespeare dijo que una rosa bajo ningún otro nombre olería tan bien. De hecho, muchos tipos de rosas de hoy tienen poca fragancia. Pero un nuevo descubrimiento puede cambiar eso.


Estudiando las rosas que tienen un fuerte olor se ha descubierto un proceso químico hasta ahora desconocido en sus pétalos. Un proceso clave para su olor seductor.

Los expertos dicen que este hallazgo podría permitir restaurar el olor agradable de las variedades que lo han perdido, a causa del cultivo de rasgos como el color o la longevidad.

Los científicos franceses han idenficado un gen mucho más activo en una especie de rosa fuertemente aromática. Este gen, que produce una enzima que ha revelado el proceso de producción de olor.


# # # # #
- Fuente: journal Science.
- Imagen: Rosas.
- Publicación: "Biosynthesis of monoterpene scent compounds in roses," www.sciencemag.org/lookup/doi/10.1126/science.aab0696.

-

Referencia: Motherboard.vice.com .
“The Town Where Everyone Got Free Money”
por Whitney Mallett, 4 de febrero 2015
* * * * * * *
El lema de Dauphin, Manitoba, una pequeña ciudad agrícola en el centro de Canadá, es "todo lo que te mereces". Lo que se merece un ciudadano, y qué efectos tienen tales merecimientos, fue la cuestión central de un experimento de hace 40 años, que se ha convertido últimamente en el punto focal de un debate sobre la asistencia social desde Suiza a Silicon Valley.

Entre 1974 y 1979, el gobierno canadiense puso a prueba la idea de una renta básica garantizada (RBG) a todo una ciudad, dando a la gente el dinero suficiente para sobrevivir de una manera que en ningún otro lugar de América del Norte se ha dado antes ni después. Durante cuatro años, hasta que el proyecto fue cancelado, y sus conclusiones fueron selladas, los residentes más pobres de la ciudad obtuvieron mensualmente cheques que complementaban modestamente su existencia, además de estar más recompensados ​​al trabajar. Durante ese tiempo, los efectos de la pobreza comenzaron a desaparecer. Las visitas a médicos y a hospitales bajaron, la salud mental pareció mejorar, y más adolescentes completaron la escuela secundaria.

"¿Hemos de comportarnos de alguna manera particular para justificar la compasión y el apoyo?" me preguntó retóricamente Evelyn Forget, una socióloga canadiense que reveló algunos de los resultados del experimento en Dauphin. "¿O simplemente se trata de dignidad humana?"

Los críticos a la renta básica garantizada siempre han insistido en que dar a los pobres un dinero valdría para desincentivar el trabajo, y apuntan a estudios que muestran una caída en la voluntad de la gente a trabajar bajo los programas piloto. Sin embargo, en Dauphin, pensado para ser el experimento más grande llevado a cabo en América del Norte, los experimentadores descubrieron que pese a que el recibir tales estipendios era el principal sostén de unas familias, ellas no estaban, de hecho, menos motivadas para trabajar que antes. Aunque hubo cierta reducción en el esfuerzo laboral de las madres de niños pequeños y de adolescentes en la escuela secundaria, las madres querían permanecer más tiempo en casa con sus hijos recién nacidos y los adolescentes no tenían que soportar tanta presión por mantener a sus familias; la reducción no era ni de lejos desastrosa, como los escépticos habían predicho.

"La gente trabaja duro y que todavía no es suficiente", dijo Doreen Henderson, que ahora tiene 70 años y fue un participante en el experimento, en Winnipeg Free Press en 2009. Su marido Hugh, de 73 años, trabajó como conserje mientras ella se quedaba en casa con sus dos hijos. Juntos cuidaron gallinas y crecieron mucho con las sobras de su propia comida. "Deberían haberla mantenido", dijo acerca del programa de renta mínima. "Marcó una diferencia real".

Los datos recuperados de "Mincome", tal como era conocido el experimento Dauphin, dio un mayor impulso a esa demanda cada vez mayor de algún tipo de ingreso garantizado. Este año, el Swis​s Parliament votará sobre si se debe extender un estipendio mensual a todos los residentes y el gobierno indio ha comenzado ya unos programas de sustitución de las ayudas por transferencias directas de efectivo. El ex secretario de Trabajo de Estados Unidos, Robert Reich, lo ha llamado la “casi inevitable” RBG. En EE.UU., Canadá, y gran parte de Europa Occidental, donde el debate en torno a la adaptación de la seguridad social sigue siendo mayormente hipotética, las lecciones de Dauphin pueden ser especialmente relevantes para ayudar a que estas ideas se materialicen más pronto que tarde.

Hay ahora otros argumentos de peso para un ingreso garantizado. A pesar del récord de los beneficios empresariales, la mayoría de las personas no se están beneficiando. Los salarios están estancados, el desempleo es alto, los costos de la deuda de los estudiantes y del cuidado de la salud se han disparado, y el mercado de trabajo no está recompensando a los que ya están empleados con el dinero suficiente para un estilo de vida digna. La así llamada Uberización de la fuerza laboral, donde a los trabajadores se les paga por la tarea y no por un sueldo o bajo horario establecido, aumentando así la precariedad del trabajo. (Y eso por no mencionar los empleos que quitan los robots y la inteligencia artificial). Conforme el concepto del cuidado de salud universal y el salario mínimo amplían el debate, las conversaciones en torno a reconsiderar o ampliar la seguridad social van creciendo.

"En un principio, el interés principal era la preocupación de que este sistema de asistencia desalentaba a la gente para trabajar", Ron Hikel, que coordinó el programa Mincome, según comentó a la televisión holandesa el último año. Hoy, dice, la motivación para la renta garantizada es un aumento de la desigualdad. "En algún momento, la desigualdad de ingresos empieza a interferir en la capacidad de las personas para tener una educación, y también para atender el cuidado de su propia salud. En la medida en que los que va afectando a las relaciones sociales, comienzan a acentuarse las divisiones y diferencias, se obtiene un aumento de patologías sociales, adicción al alcohol, uso de drogas, aumento de las enfermedades mentales, disminución en la prevención de ofertas educativas y un aumento en las tasas de delincuencia."

En EE.UU., el apoyo a la renta básica no ha tenido apoyos sólo por la izquierda, sino, tal vez sorprendentemente, por la derecha, y en especial por los libertarios.

"Siempre ha habido un cierto apoyo a la renta básica universal desde la derecha política, porque el régimen es menos intrusivo que la mayoría de programas sociales", explicó Forget. Thomas Paine y Martin Luther King, Jr,. pidieron algo parecido a una renta básica, pero también lo hicieron los economistas libertarios seminales como F. A. Hayek y Milton Friedman (Friedman lo llamó un "impuesto por ingreso negativo"). El representante de Wisconsin, Paul Ryan, ha propuesto una combinación de diversas formas de asistencia federal para combatir la pobreza de un solo fondo de financiación, reconociendo que los efectos que los ricos son cada vez más ricos y, por tanto, más difíciles de ignorar.

Sus defensores han argumentado que un único programa coordinado que proporcione un renta básica es más eficiente que la panoplia actual de los programas de asistencia, seguridad social, y de la burocracia necesaria para su mantenimiento (en EE.UU. en la actualidad hay 79 programas de asistencia social, sin incluir el Medicare o Medicaid). "Los programas de asistencia social existentes están plagados de superposiciones y lagunas que permitían a algunas familias estar calificados en dos o más programas, mientras que otros no entraban en ninguno", señala Forget.

Cuando fue concebido el Mincome, a principios de los años 70 con la reforma de la asistencia social, algunos pensaron que el experimento en Dauphin podría ser el preludio de un programa que podría ser introducido en todo Canadá. Al sur de la frontera, también hubo un amplio apoyo a la renta mínima. Una encuesta de Harris en 1969 para la revista Life, descubrió que el 79 por ciento de los encuestados apoyaba el programa federal que el presidente Nixon había propuesto, llamado Plan Family Assi​stance Plan(FAP), que garantizaba a una familia de cuatro un ingreso anual de $ 1.600, lo que sería actualmente unos $ 10.000. El FAP de Nixon (no era una renta garantizada, insistía él, aunque lo era) fue llevado a cabo en la Cámara antes de que fuera asesinado en el Senado, y votado por los demócratas. Sin embargo, seguía teniendo un sentido de experimentación en el aire. Se produjeron cuatro ensayos de rentas mínimas en los EE.UU. entre 1968 y 1975, y lo que parecía mostrar era que las horas de trabajo de los perceptores de ingresos básicos caían más bruscamente de lo esperado.

Sin embargo, estos experimentos se realizaron con pequeños tamaños de muestra; el experimento en Dauphin era inusual, ya que abarcaba toda la ciudad. Forget, ahora profesora de salud comunitaria en la Universidad de Manitoba, donde estudia una serie de programas de asistencia social, vio en los datos de Mincome una rara oportunidad de examinar los efectos de la RBG (renta básica garantizada) en una escala más amplia.

La opción de Toronto en aquel momento fue el primero en realizar el experimento, recuerda ella al oír hablar de ella en clase. "Mi profesora nos diría que este maravilloso e importante experimento revolucionaría la forma en que desarrollamos los programas sociales. "

Años después, cuando terminó, ella misma comenzó juntando la información que pudo encontrar sobre Dauphin. Después de una lucha de cinco años, Forget, con acceso seguro a todos los 51 m3 de datos del experimento, perdidos dentro de un almacén que pertenecían a los archivos del gobierno provincial en Winnipeg. Desde 2005, ha estado analizándolo a fondo, comparando cuidadosamente las encuestas de residentes a Dauphin con los recogidos en los pueblos vecinos de aquel tiempo.

El análisis de los datos Forget reveló que tener una renta mínima provista puede tener un impacto positivo muy importante en una comunidad, más allá de la reducción de la pobreza por sí sola. "El contactos de los participantes con los médicos disminuyeron, especialmente en salud mental, y más adolescentes continuaron hasta último grado", concluye en su artículo, "La ciudad sin pobreza", publicado en Políticas Públicas de Canadá en 2011. Forget también documentó un 8,5 por ciento de reducción en la tasa de hospitalizaciones, lo que sugiere que la renta mínima podría ahorrar costes en la atención de salud. (Su investigación fue incapaz de fundamentar las demandas de los investigadores estadounidenses que mostraban aumentos en las tasas de fertilidad, mejoraron a su vez los resultados neonatales o el aumento de la ratio de disolución de la familia de los receptores de ingresos garantizados.)

El experimento Dauphin nació en un momento particularmente izquierdista en la política canadiense, cuando irrumpió en escena el progresivo y provincial New Democratic Party (NDP), y Pierre Trudeau fue elegido primer ministro. El plan, elaborado en 1973, reclamaba que dos tercios del programa lo pagara el gobierno federal con $ 17 millones y el resto por la provincia.

Cualquier persona o familia que cayera en el grupo de ingresos más bajo era elegible para participar, con la cantidad variable según el tamaño de la familia, año y otras fuentes de ingresos. Las familias de dos padres y dos hijos que ganaban más de $ 13,000 no eran elegibles. Para 1978, según Forget, las familias que no recibían ingresos de ninguna otra fuente habrían recibido entre 3.800 y 5.800 dólares canadienses por año; aquellos con ingresos de otras fuentes recibían menos, a veces tan poco como 100 dólares al mes.

El mercado de trabajo temía que la gente dejaría de trabajar, pero eso no pasó. En parte fue por su diseño, dice Forget. "Mincome fue diseñado de tal manera que siempre había un incentivo para trabajar más horas y no menos", porque cada dólar recibido de otras fuentes reduciría beneficios en sólo cincuenta centavos, mientras que los programas de asistencia típicos no proporcionan beneficios adicionales cuando los destinatarios ganan dinero de fuentes adicionales. "Si trabajabas una hora más, conseguías mantener el 50 por ciento del beneficio que habrías obtenido de todos modos, por lo que era mejor trabajar que no."

Algunos receptores utilizaban el dinero para pagar lo esencial; otros lo utilizaron como ingreso complementario para comprar las cosas que podrían ayudarles a aumentar su potencial de ingresos, como vehículos nuevos. Una ventaja importante del programa fue la sensación de seguridad, que contrarresta la preocupación que pesa tanto en las mentes de cualquier pobre.

"Lo más importante para un pueblo que depende de la agricultura, con una gran cantidad de trabajo por cuenta propia", escribe Forget en su estudio, "es que Mincome ofrecía estabilidad y previsibilidad; las familias sabían que podían contar con al menos un poco de apoyo, no importa lo que pasara con los precios agrícolas o el clima. Ellos sabían que una enfermedad repentina, alguna discapacidad o imprevisibles acontecimientos económicos ya no serían financieramente devastadores."

Mientras que todas las familias en Dauphin era elegibles para participar en el experimento, únicamente alrededor de un tercio tenía ingresos suficientemente bajos para recibirlo. En algunos casos, los efectos sobre la ciudad parecieron extenderse más allá del tercio que participaba. Al mirar las tasas de graduación, por ejemplo, Forget anota que era probable un efecto de "multiplicador social" en el trabajo. Un estudiante podría haberse dado la posibilidad de continuar en la escuela debido a esta renta mínima, y entonces sus amigos, cuya familia no estaba participando en el programa, podían verse influenciados a permanecer también en la escuela.

"No podemos separar los efectos directos de los efectos indirectos que pueden operar a través de las redes sociales o en otros mercados o en mecanismos ajenos al mercado", explica Forget en su estudio. "Irónicamente, la incapacidad para aleatorizar en un sitio saturado, lejos de ser una carga, podría generar una respuesta que sería invisible en otro sitio experimental aleatorizado clásico."

Dauphin no ha sido el único experimento de renta mínima en América del Norte, en la década de 1960, se realizaron estudios en Nueva Jersey, Pennsylvania, Seattle y Denver, pero Mincome fue único, ya que fue el único experimento que tuvo un ingreso disponible garantizado a disposición para toda la ciudad, en lugar de sólo una muestra seleccionada al azar de la población. Esta era la forma, escribe Forget, "de responder a preguntas sobre cuestiones administrativas y de la comunidad en un entorno menos artificial."

Sin embargo, el proyecto se topó con problemas financieros. La economía en América del Norte cambió drásticamente, una recesión y una estanflación más alta de lo esperado hizo que el proyecto no pudiera seguir adelante. Después de dos años, se tomó la decisión de archivar los datos, dado que los investigadores ya no tenían el presupuesto para pagar por su análisis.


Más tarde, pasados cuatro años, las nuevas realidades económicas como las crisis del petróleo habían alterado el clima político; nuevos partidos llegaron al poder, con perspectivas ideológicas que rechazaban la idea de una renta mínima. Mientras que Mincome fue inicialmente un proyecto piloto para un programa universal nacional, el nuevo gobierno tenía otras preocupaciones más urgentes y abandonó la idea. Los hallazgos de los experimentos fueron archivados.

En 2005, después de Forget descubriera las 1.800 cajas de registros de Mincome, ella trató de llenar los espacios en blanco hablando con las familias que habían participado realmente en el programa. Para evitar romper las reglas éticas que prohibían entrar en contacto con cualquiera de ellos directamente, Forget planteó historias en la prensa local y en la radio, invitando a los participantes a llamarla. Muchos lo hicieron.

"Ellos recordaron que fue una cosa muy positiva y pensaban que debía ser reintroducida de nuevo porque lo veían como una cosa muy positiva. Lo encontraron útil, y señalaron que sin duda había mejorado la calidad de vida", cuenta Forget. "Por otra parte", añadió, "si aquello fuera apenas una muestra aleatoria. Si la gente tuviera recuerdos negativos probablemente no me habrían llamado."

La investigación metódica de Forget, nos ofrece una prueba más sustancial que estos recuerdos y anécdotas. "Yo soy una científica social, por lo que siempre tengo una gran esperanza de que la gente preste atención a la evidencia", decía. "Siempre hay un temor de que si se introduce un programa así al final no funcionará. Tenemos una buena cantidad de evidencias de que ese no es el caso, y la gente todavía piensa en aquello. Así que creo que, a veces se necesita más que la evidencia para cambiar la opinión pública."

James Manzi, investigador principal en el Instituto Manhattan, cree que establecer una renta mínima sería "una colina bastante difícil de escalar". En general, algún tipo de ingreso garantízado o el impuesto negativo que se había propuesto como sustitución de todo o parte del sistema de asistencia actual, y mientras los libertarios están a favor de esa idea porque significa menos burocracia gubernamental, Manzi señaló que los grupos de intereses especiales se verían afectados negativamente.

"Las organizaciones de proveedores para el programa entero de asistencia se resistirían porque está esencialmente describiendo la eliminación de todos sus puestos de trabajo", señaló. Y también que el costo del programa sería otro reto a superar. "Cualquier análisis presupuestario serio que he visto afirma que va a requerir de un aumento neto en los pagos de impuestos; Incluso si fuera gratis, ¿podría obtener el electorado apoyar esta idea? Entonces, no lo es, el impuesto del contribuyente medio iba a subir."

Manzi también señaló que en los años 90, cuando se estaba debatiendo la reforma de la asistencia, el electorado estaba a favor de más requerimientos de trabajo, no de menos. "La principal característica distintiva de TANF [Asistencia Temporal para Familias Necesitadas, introducido en 1997], en comparación con la AFDC [Ayuda a Familias con Hijos Dependientes, que se desarrolló desde 1935 hasta 1996] es la introducción de un requisito de trabajo", dice.

A pesar de los datos Dauphin, los efectos negativos y positivos en la voluntad de las personas para el trabajo y de otros aspectos de sus vidas bajo la RBG y programas similares sigue sin resolverse. Incluso los estudios que parecían mostrar una caída en los incentivos laborales con la renta garantizada pueden haber exagerado el caso. Tal como Dylan Matthews apunta en Vox, la evidencia muestra que la plena retirada de la fuerza de trabajo era una rareza relativa. En cambio, los trabajadores pasaron largos periodos de tiempo en busca de mejores puestos de trabajo. Otros pueden haber pasado más tiempo en la escuela. Forget vio este efecto en Dauphin, y los experimentadores en los ensayos de Nueva Jersey y Seattle-Denver mostraron unos ++aumentos en los adolescentes por completar la escuela secundaria, de un 25 a un 30 por ciento y de un 11 por ciento, respectivamente.

Cuando Forget mira la política, la cultura y la economía ahora, puede ver que las fuerzas convergen para crear un clima más hospitalario para los experimentos de rentas mínimas en una escala mayor que antes.

"Este es un momento interesante", dijo. "Muchos de nuestros servicios sociales se basan en la idea de que hay por ahí una gran cantidad de puestos de trabajo de 40 horas por semana, trabajos a tiempo completo, y que sólo es cuestión de conectar a las personas con los puestos de trabajo y todo vuelve a estar bien. Por supuesto, una de las cosas que sabemos es que, desde luego, ese no es el caso, sobre todo para los jóvenes que a menudo se encuentran trabajando en empleos precarios, trabajando en contratos durante largos períodos de tiempo sin beneficios y sin el apoyo a largo plazo que muchos de nosotros que durante más tiempo han dado por sentado."

En el contexto canadiense, por lo menos, dijo, "Soy lo suficientemente optimista para creer que en algún momento terminaremos con una renta garantizada."

# # # # #
Imagen: Renta básica incondicional.
- -
Referencia: Quanta Magazine.org .
Por: Emily Singer 16 de abril 2015
* * * * *
Primera época de la vida vIvió avances increíbles, las células, el metabolismo y el ADN, por nombrar algunos. Los investigadores están resucitando proteínas antiguas para averiguar de esta edad oscura biológica.

Elementos básicos de la vida.
Olena Shmahalo/Quanta Magazine.
Hace unos 4 mil millones de años, las moléculas comenzaron a hacer copias de sí mismas, un evento que marcó el comienzo de la vida en la Tierra. Unos cuantos millones de años después, los organismos primitivos comenzaron a dividirse en las distintas ramas que componen el árbol de la vida. Entre estos dos acontecimientos seminales, surgieron algunas de los mayores innovaciones de la  existencia: la célula, el código genético y un sistema de energía para alimentar todo ello. Estos tres son esenciales para la vida tal y como la conocemos, pero los científicos saben decepcionantemente poco acerca de cómo sucedió cualquiera de estas notables innovaciones biológicas.

"Es muy difícil inferir incluso, el orden relativo de acontecimientos evolutivos antes de la aparición del último ancestro común", comentaba Greg Fournier, geobiólogo en el Instituto de Tecnología de Massachusetts. Las células pudieron aparecer antes del metabolismo energético, o quizá después. Sin fósiles o un ADN preservado de tales organismos vivos durante este período, los científicos no han tenido muchos datos para trabajar.


Fournier es líder en el intento de reconstruir la historia de la vida en aquellos años oscuros, los cientos de millones de años entre el momento en el que surgió la vida y cuando se dividió, convierte la existencia en una interminable maraña.

Él está utilizando datos genómicos de organismos vivos para deducir la secuencia de ADN de genes antiguos, como parte de un campo cada vez conocido como paleogenómica. En una investigación publicada en marzo en el Journal of Molecular Evolution, Fournier mostraba que, la última letra química añadida al código era una molécula llamada triptófano, el aminoácido más famoso, presente en las cenas de pavo. Este trabajo apoya la idea de que el código genético evolucionó gradualmente.

Utilizando métodos similares, él espera descifrar el orden temporal de más de un código —determinar cuando se añadió cada letra al alfabeto genético—, y hasta la fecha de los eventos clave de los orígenes de la vida, como la aparición de las células.

Por ejemplo, si las ancestrales proteínas involucradas en el metabolismo carecían de triptófano, algo hizo, de alguna forma, que el metabolismo evolucionara tempranamente. Si las proteínas que dirigían la división celular tenían triptófano, sugiere que esas proteínas evolucionaron relativamente tarde.

Greg Fournier
Los diferentes modelos para los orígenes de la vida hacen diferentes predicciones para cuáles de estos tres procesos vino primero. Fournier espera que su enfoque proporcione una manera de descartar algunos de estos modelos. Sin embargo, advierte que no va a solucionar definitivamente el calendario de estos eventos.

Fournier tiene previsto utilizar estas mismas técnicas para averiguar el orden en que se añadieron otros aminoácidos en el código. "Esto realmente refuerza la idea de que la evolución del código, en sí mismo fue un proceso progresivo", señaló Paul Schimmel, profesor de biología molecular y celular del Instituto de Investigación Scripps, quien no participó en el estudio. "Se habla de la elegancia y sutileza que la naturaleza estaba utilizando para perfeccionar estas proteínas, y la diversidad que necesitaba para formar este gran árbol de la vida."

 # # # # #
- Imagen: Elementos básicos de la vida. Olena Shmahalo/Quanta Magazine.
- Imagen.2: Olena Shmahalo/Quanta Magazine. El tramo de tiempo entre los orígenes de la vida y el último ancestro común universal vivió una serie de innovaciones notables: El origen de las células, el metabolismo y el código genético. Pero los científicos saben muy poco sobre cuándo sucedieron o el orden en que se produjeron.
- Imagen.3: Greg Fournier, geobiólogo en el MIT, investiga los orígenes del código genético.

-----
-

Referencia: Phys.org .
por Elizabeth Zubritsky, 26 de junio 2015

* * * * * * *
El día será oficialmente un poquito mayor de lo habitual el Martes, 30 de junio 2015, porque se añadirá un segundo extra. "La rotación de la Tierra se está desacelerando gradualmente, así que este salto en segundos es una forma de dar cuenta de ello", comentaba Daniel MacMillan del Centro de Vuelo Espacial Goddard de la NASA, en Greenbelt, Maryland.

La técnica llamada interferometría de gran línea de base proporciona información acerca de las ubicaciones relativas de las estaciones de observación y sobre la rotación y la orientación de la Tierra en el espacio. Crédito: NASA Goddard Space Flight Center.
En sentido estricto, un día tiene 86.400 segundos. Según el estándar de tiempo usado en la tiempo universal coordinado, o UTC (Coordinated Universal Time). El UTC es el "tiempo atómico", la duración de un segundo está basado en las transiciones electromagnéticas extremadamente predecibles de los átomos de cesio. Estas transiciones son tan fiables que el reloj de cesio tiene una precisión de un segundo cada 1.400.000 años.

Sin embargo, el día solar, con una longitud media de un día, se basa en el tiempo que tarda la Tierra en su rotación, que es de unos 86.400,002 segundos de duración. Esto se debe a que la rotación de la Tierra se está desacelerando poco a poco, debido a la fuerza de frenado ejercida por la guerra gravitatoria entre la Tierra, la luna y el Sol. Los científicos estiman que el día solar medio no ha sido de 86.400 segundos desde el año 1820, más o menos.

Esta diferencia de 2 milisegundos, mucho menos que un abrir y cerrar de ojos, no parece notable al principio. Pero si esta pequeña discrepancia se repite todos los días durante un año entero, aumentaría a casi un segundo. En realidad, eso no es exactamente lo que sucede. Aunque la rotación de la Tierra se está desacelerando en su promedio, la duración de cada día individual varía de una manera impredecible.

La longitud del día se ve influida por muchos factores, sobre todo la atmósfera, durante períodos de menos de un año. Nuestros variaciones climáticas diarias y estacionales pueden afectar a la duración del día por unos cuantos milisegundos más al año. Otros factores que contribuyen a esta variación son la dinámica del núcleo interno de la Tierra (periodos más largos de tiempo), las variaciones en la atmósfera y océanos, las aguas subterráneas y el almacenamiento de hielo (períodos de tiempo medidos de meses a décadas), y las mareas oceánicas y atmosféricas. Las variaciones atmosféricas como 'El Niño' pueden causar una frenada en la rotación de la Tierra, aumentando la duración del día hasta en una milésima de segundo.

Los científicos monitorean el tiempo que tarda la Tierra para completar una rotación usando una técnica, extremadamente precisa, llamada interferometría de gran línea de base (VLBI=Very Long Baseline Interferometry). Estas mediciones se llevan a cabo mediante una red mundial de estaciones, con la que Goddard proporciona la coordinación esencial de VLBI, así como el análisis y archivo de los datos recogidos.

El estándar de tiempo llamado Tiempo Universal 1, o UT1, se basa en las mediciones VLBI de la rotación de la Tierra. El UT1 no es tan uniforme como el reloj de cesio, por lo que el UT1 y el UTC tienden a separarse. Se agregan saltos de segundos, cuando sea necesario, para mantener los dos estándares de tiempo dentro de 0,9 segundos de diferencia. La decisión de añadir segundos intercalados se hace por una unidad dentro de la International Earth Rotation y el Reference Systems Service.

Por lo general, se inserta un salto de un segundo ya sea el 30 de junio o el 31 de diciembre. Normalmente, el reloj se movería al día siguiente desde 23:59:59 a 00:00:00. Pero el salto de un segundo el 30 de junio de UTC sería de 23:59:59 a 23:59:60, y luego a las 00:00:00 del 1 de julio. En la práctica, muchos sistemas se apagan durante un segundo.

Los anteriores saltos de segundos han provocado desafíos para algunos sistemas informáticos y han generado llamadas a abandonarlo por completo. Una de las razones es que la necesidad de añadir el salto de un segundo no se puede anticipar con mucha antelación.

"A corto plazo, este salto de segundo no es tan predecible como a todos nos gustaría", señalaba Chopo Ma, geofísico en el Centro Goddard y miembro del consejo de dirección de International Earth Rotation y Reference Systems Service. "El modelado de la Tierra predice que, cada vez más se pidan estos segundos intercalados a largo plazo, sin embargo, no podemos predecir cuántos se necesitarán cada año."


Desde 1972, cuando se implementaron los segundos intercalados, hasta 1999, se añadieron segundos intercalados a una tasa promedio de cerca de uno por año. Desde entonces, los segundos intercalados se han vuelto menos frecuentes. El salto de segundo de este junio será el cuarto que se añade desde el año 2000. (Antes de 1972, se hacían tales ajustes de distinta manera.)

Los científicos no saben exactamente por qué se han necesitado un menor número de segundos intercalados últimamente. A veces, acontecimientos geológicos repentinos, como terremotos y erupciones volcánicas, pueden afectar a la rotación de la Tierra a corto plazo, pero el panorama es aún más complejo.

El seguimiento de VLBI de estas variaciones a corto y a largo plazo, se hace mediante el uso de redes globales de estaciones capaces de observar los objetos astronómicos llamados quásares. Los cuásares sirven como puntos de referencia, ya que son esencialmente inmóviles al encontrarse a miles de millones de años luz de la Tierra. Dado que las estaciones de observación se extienden por todo el mundo, la señal procedente de un quásar necesitará más tiempo para llegar a unas estaciones que a otras. Los científicos pueden utilizar estas pequeñas diferencias en la hora de llegada para determinar la información detallada sobre la posición exacta de las estaciones de observación, la tasa de rotación de la Tierra y la orientación de nuestro planeta en el espacio.

Las mediciones actuales del VLBI tienen una precisión de al menos 3 microsegundos, ó 3 millonésimas de segundo. Un nuevo sistema está siendo desarrollado por el Proyecto de Geodesia Espacial de la NASA, coordinado con sus socios internacionales. Gracias a los avances en el hardware, la participación de más estaciones y una distribución diferente de las estaciones por todo el mundo, se espera que las futuras mediciones UT1 del VLBI tengan una precisión que supere los 0,5 microsegundos.

"El sistema de próxima generación está diseñado para satisfacer las necesidades de las aplicaciones científicas más exigentes, ahora y en un futuro cercano", añade Stephen Merkowitz gerente del Space Geodesy Project de Goddard.

Se han hecho propuestas para abolir el salto de segundo; pero no se espera decisión alguna sobre ello hasta finales de 2015 como muy pronto, por la Unión Internacional de Telecomunicaciones, un organismo especializado de las Naciones Unidas que se ocupa de cuestiones de tecnologías de la información y la comunicación.

####
La técnica llamada interferometría de gran línea de base proporciona información acerca de las ubicaciones relativas de las estaciones de observación y sobre la rotación y la orientación de la Tierra en el espacio. Crédito: NASA Goddard Space Flight Center.
- Más información: Proyecto Geodesia Espacial de la NASA, y también de VLBI .
- Fuente: NASA's Goddard Space Flight Center.
- Vídeo: NASA Goddard .

Referencia: Science Alert.com .
No podemos esperar.
David Nield, 26 junio 2015
* * * * * * *
Probablemente estás acostumbrado a conseguir Wi-Fi (de calidad variable) en hoteles, bibliotecas o en casa, pero si Google se sale con la suya, las calles de nuestra ciudad van a estar en línea con acceso inalámbrico a Internet por todas partes. Es uno de los visionarios proyectos de la compañía, 'moonshots', nombre dado a sus proyectos ambiciosos como el de una flota de vehículos auto-conducidos o el acceso a la Web a través de globos de aire caliente, y que sólo le falta funcionar.


El proyecto es parte de una nueva startup Sidewalk Labs de Google, trayendo la última tecnología para la infraestructura de nuestras ciudades. En palabras de Google, la empresa tiene la misión de "mejorar la vida en las ciudades de todo el mundo a través de la aplicación de la tecnología para resolver los problemas urbanos", y uno de esos problemas viene siendo las conexiones de datos lentas y potencialmente costosas.

La nueva empresa se llama 'Intersection' y está basada en la adquisición del Sidewalk Labs de LinkNYC, que anteriormente había estado trabajando para ofrecer Wi-Fi para la ciudad de Nueva York. Google está estudiando el uso de todo tipo de mobiliario urbano existente, desde las paradas de autobús hasta teléfonos de pago, para hacer disponible el despliegue de Internet inalámbrico en toda la ciudad y cualquiera pueda aprovecharlo.

"La visión es hacer de las ciudades lugares donde se puede caminar por cualquier calle y tener acceso a esa ultra alta velocidad de conexión Wi-Fi", decía el jefe de Sidewalk Labs, Dan Doctoroff. "Las posibilidades que ofrece todo ello son infinitas."


A primera vista, la extensión del Wi-Fi parece un lujo innecesario, ¿se necesita estar comprobando Facebook mientras caminas por la acera? Pero el acceso a Internet está creciendo de forma cada vez más crucial para la educación, la salud y todo tipo de otros fines. Mientras que muchos lo tienen garantizado, hay, p.ej., 55 millones de personas en EE.UU. que todavía no tienen acceso a la banda ancha de alta velocidad.

Y ahí es donde entra Sidewalk Labs. El startup está lista para proporcionar sistemas a medida y diseños basados ​​en la configuración particular de cada ciudad, según el caso: "Lo que pasa con las ciudades es que no hay dos iguales", explica Colin O'Donnell, fundador de una de las empresas adquiridas por Sidewalk Labs. "Tal vez estamos reemplazando una cabina telefónica en Nueva York, pero podría ser el tablón de servicios de una parada de autobús en Filadelfia o un recurso compartido de bicicletas en San Francisco."

Es posible que durante un tiempo las ciudades aparte de Nueva York no estén recibiendo los beneficios de este tipo de tecnología (es un moonshot después de todo), pero el acceso generalizado a Internet es realmente el interés de Google, con más gente en línea significa que más personas que utilizarán sus servicios. Hasta el momento, la compañía no ha revelado ninguna información sobre qué ciudades lo tendrán más allá de Nueva York.

También es una bendición para las autoridades locales, que pueden utilizar la cobertura Wi-Fi para realizar un seguimiento de los servicios y de la gente a través del paisaje urbano. Por ejemplo, los bomberos pueden responder mucho más fácilmente a una emergencia cuando hay un receptor Wi-Fi de alta velocidad en cada farola. En unos pocos años nadie deberá estar sin una conexión súper rápida a Internet.

####
Image: Sidewalk Labs.
-
Referencia: Science Alert.com .
"Here’s why heavy metal is good for you"
por Peter Dockrill, 26 junio de 2015

* * * * * *
En contraste con la visión popular de que la música extrema, como el heavy metal ​​es responsable de causar sentimientos de ira, depresión o aislamiento, ya es un hecho que es capaz de combatir estas mismas emociones negativas, según un nuevo estudio publicado esta semana.


Los investigadores de la Universidad de Queensland, en Australia, han descubierto que cuando se expuesieron los voluntarios a los géneros de música extremas, entre ellas heavy metal, emo, hardcore, punky, y screamo, en realidad experimentaron una gama de sentimientos positivos, como tranquilidad, felicidad o sentirse inspirado. (Vale la pena reseñar que los participantes en dichas pruebas ya eran fans de estos géneros, si no, los resultados individuales pueden variar)

El estudio, realizado por la estudiante Leah Sharman y la psicóloga Genevieve Dingle, llevó a 39 oyentes regulares de música extrema, con edades comprendidas entre 18 y 34 años, y les sometió a una sesión de inducción de ira, durante un período de 16 minutos, donde se les hizo recordar experiencias personales infelices haciéndoles sentir enojados o estresados, ya sea con sus parejas, el trabajo o las finanzas.

Después de la inducción de ira, los participantes fueron monitorizados, entonces, durante un espacio de 10 minutos uno de los dos grupos escuchó 10 minutos de música extrema y el otro tuvo que guardar silencio durante la misma cantidad de tiempo.

Los investigadores hallaron que, en contra de lo que se piensa popularmente, los que escucharon 10 minutos de fuertes melodías, en vez de amplificar las emociones negativas de ira o estrés, en realidad les hacía sentirse mejor.

Según la investigación, publicada este mes en Frontiers in Human Neuroscience, "Los resultados indican que la música extrema no hacía que los participantes se sintieran más enojado; más bien, parecía coincidir con una excitación fisiológica y un aumento de las emociones positivas. Escuchar música extrema puede representar una forma saludable de procesar la ira de estos oyentes."

Los investigadores sostienen que nuestras suposiciones han entendido al revés tanto la música heavy como el estado emocional del oyente. Estos hallazgos sugieren que las personas que escuchan hardcore, thrash o punk no les da un resultado de enojo; más bien, los oyentes pueden elegir formas musicales que responden a su actuales niveles de estrés o agitación, y utilizan la energía y el ritmo de las grabaciones para ayudarles a procesar cómo se sienten.

"Encontramos que la música regula la tristeza y mejora las emociones positivas", subrayó Sharman. "Al experimentar ira, los aficionados a la música extrema le gusta escuchar música que puede coincidir con su ira. La música no sólo les ayuda a explorar toda la gama de emociones que sienten, sino que también les da una sensación más activa e inspiradora. Los resultados mostraron que los niveles de hostilidad, irritabilidad y estrés disminuyeron después de la escucha musical, y el cambio más significativo fue que informaron sentir mayor nivel de inspiración."

Lo más destacable es cómo esta música extrema, que tiene una mala reputación en algunos temas bastante oscuros, puede resultar tan edificante para aquellos que gustan de escucharla. Estos hallazgos sorprendieron incluso a los mismos investigadores.

"Fue más que interesante comprobar que la mitad de las canciones elegidas contenían temas de ira o agresión, y el resto contenían temas, aunque no exclusivamente, de aislamiento y tristeza", añadió Sharman.

"No obstante, los participantes informaron que la música les ayudaba a mejorar su felicidad, sumergirse en sentimientos de amor y mejorar su bienestar."

###
Imagen: heavy metal. de http://es.forwallpaper.com/
-
Referencia: Phys.org, 26 de junio 2015
* * * * * *
A través del fondo marino circulan enormes cantidades de agua, que fluyen a través de la roca volcánica desde la corteza oceánica superior. Un nuevo estudio, realizado por científicos de la Universidad de California en Santa Cruz, publicado el 26 de junio en Nature Communications, explica lo que impulsa este proceso global y cómo se mantiene el flujo.

Los estudios realizados por Andrew Fisher y sus colegas han demostrado que los montes submarinos proporcionan conductos por donde circulan enormes cantidades de agua entre el océano y las rocas bajo el fondo marino.
Crédito: Nicolle Rager
Mediante este proceso, alrededor del 25 por ciento del calor que fluye desde el interior de la Tierra se transfiere a los océanos, de acuerdo con Andrew Fisher, profesor de geología y ciencias planetarias en la Universidad de California Santa Cruz, y coautor del estudio. Gran parte de la transferencia de calor y de la corriente de líquido se produce a través de miles de volcanes extintos submarinos (llamados montes submarinos), y de otros lugares donde la porosa roca volcánica está expuesta al fondo marino.

Fisher dirigió un equipo internacional de científicos que ya en la década de 2000, descubrió el primer sitio donde este proceso podría ser rastreado desde su entrada hasta la salida del fluido, al noreste del Océano Pacífico. En un artículo de 2003, publicado en la revista Nature, Fisher y otros informaron de que el agua del fondo de mar entraba en una montaña submarina, viajaba horizontalmente a través de la corteza ganando calor y reaccionando con las rocas de la corteza terrestre, después, era vertida de nuevo al océano a través de otra montaña submarina a más de 50 kilómetros de distancia.

"Desde que descubrimos el lugar donde se producen estos procesos, hemos intentado entender lo que impulsa esta corriente de fluidos y lo que determina la dirección del flujo", comentó Fisher.

En este nuevo estudio, el primer autor, Dustin Winslow, doctorando de UCSC, graduado este mes, desarrolló los primeros modelos informáticos tridimensionales que muestran cómo funciona dicho proceso. Los modelos revelan un 'sifón hidrotermal' impulsado por la pérdida de calor de las profundidades de la Tierra, el flujo de agua de mar fría hacia debajo de la corteza y del agua calentada fuera de la corteza.

"Los modelos de Dustin proporcionan el punto de vista más realista de estos sistemas hasta la fecha, abriendo las posibilidades de aprender ese reino oculto de agua, roca y vida", dijo Fisher.

Los modelos muestran que el agua tiende a entrar en la corteza ('recarga') a través de las montañas submarinas, donde la corriente de fluido es más fácil, debido a las propiedades favorables de las rocas y el gran tamaño de los montes submarinos. El agua tiene tendencia a descargarse donde es más difícil la corriente de fluido, dadas las propiedades de rocosas menos favorables o el tamaño más pequeño del monte submarino. Este hallazgo es consistente con las observaciones de campo, sugieriendo que las montañas submarinas más pequeñas son lugares más favorables a la descarga hidrotermal.

"Este resultado modelado fue sorprendente al principio, y tuvimos que recorrer muchas simulaciones para convencernos de que tenía sentido", señaló Winslow. "También descubrimos que los modelos configurados para fluir en la dirección opuesta, espontáneamente se volteaban de manera que la descarga se producía a través de las montañas submarinas menos transmisoras. Esto parece fundamental para explicar cómo se sostienen estos sistemas."

# # # # #
- Publicación: Nature Communications .
- Fuente: University of California - Santa Cruz.
-
Referencia: MedicalXpress.com .
"Word recognition 'could be the key' to early diagnosis of Alzheimer's"
por Alistair Keely, 24 de junio 2015
* * * * *
Los científicos dicen que parecen comprender mejor por qué la gente con Alzheimer luchan por reconocer y entender palabras, y su investigación puede ser convertida en una prueba que podría ayudar a los médicos a tomar un diagnóstico precoz.

En las primeras etapas, las dos quejas más comunes de las personas con enfermedad de Alzheimer son, precisamente, la dificultad para recordar eventos y la comprensión y producción de palabras.

Académicos de las Universidades de York y Oviedo, España, querían analizar si la capacidad del paciente para reconocer palabras se ve afectada en las primeras etapas de la enfermedad, y si es así, qué propiedades de las palabras lo convierten en  más fácil o más difícil reconocer para el paciente.

La investigación, que se llevó a cabo en el norte de España, con los colegas del Hospital de Cabueñes en Gijón, se publicará en el Journal of Neuropsicología.

Una prueba de reconocimiento de palabras basada en estos resultados puede contribuir al diagnóstico, reseñaba el profesor Andrew Ellis, del Departamento de Psicología de York. "El mayor impacto potencial es en la diagnosis. Sería una técnica más añadida al arsenal que los médicos utilizan para hacer el diagnóstico...”

"La enfermedad de Alzheimer no es fácil de diagnosticar en sus primeras etapas. Hay otras formas de demencia que son relativamente comunes y difíciles de distinguir entre ellas en esas primeras etapas. Una prueba de reconocimiento de palabras, en base a estos hallazgos, podría contribuir al diagnóstico, pero necesitaría más trabajo por hacer."

Como parte del estudio, a los participantes se les mostró en una pantalla de ordenador una serie de palabras reales mezcladas con palabras inventadas. En cada ensayo del experimento, había una palabra real y tres inventadas. La tarea del participante era simplemente señalar la palabra real en la pantalla.

Los investigadores eligieron esta tarea principalmente porque evaluaba si las palabras parecen familiares o no, sin requerir que los pacientes explicaran los significados de las palabras, algo que ellos se esfuerzan en hacer.

Se llevó a cabo el estudio en español. Los investigadores eligieron las palabras que esperaban que personas mayores sanas fueran capaces de reconocer.

Cuarenta personas con enfermedad leve o moderada de Alzheimer, entre 66 a 91 años, participaron en el estudio, y 25 controles sanos equivalentes en edad, sexo y años de educación con los pacientes. Los controles sanos señalaron las palabras reales sin mucha dificultad, de lo que deducen que los pacientes también conocían estas palabras antes de la aparición de su demencia.

En contraste, los pacientes con enfermedad de Alzheimer perdieron aproximadamente una de cada cinco de palabras reales. Cuando observaron qué propiedades de las palabras les hacía más o menos fácil reconocerlas, encontraron que los pacientes reconocieron las palabras comunes mejor que las menos comunes, las palabras con significados concretos mejor que las que tenían significados abstractos y palabras aprendidas tempranamente en la vida mejor que las palabras aprendidas en la infancia tardía o la edad adulta. Otros factores, como la longitud de las palabras no afectaban al rendimiento.

El profesor Ellis agregó que, "Se ha hecho mucho trabajo con pacientes de Alzheimer con tareas de nombrar imágenes de objetos; pero, "en este estudio hemos querido buscar si la capacidad para reconocer palabras se altera en las primeras etapas de la enfermedad. Si se altera el reconocimiento de palabras, y qué propiedades hacen a las palabras más o menos fácil su reconocimiento por los pacientes de Alzheimer.

"Especulamos que el daño responsable de los problemas en el reconocimiento y producción de palabras que tanto nosotros como otros investigadores han identificado, se derivan sobre todo de la pérdida de células en un área de la parte delantera del lóbulo temporal izquierdo, que está involucrado crucialmente en el procesamiento de los significados de los conceptos y palabras.

"El estudio es fundamental para la investigación aplicada. Su propósito es enseñarnos más acerca de cómo la enfermedad de Alzheimer afecta a la capacidad de utilizar palabras, pero también tiene el potencial de informar sobre la evaluación clínica de la demencia".

####
- Publicación: Journal of Neuropsychology .
- Fuente: la Universidad de York .
- Imagen: ilustración cerebro Alzeimer. anónima web.