Filosofía

Astrofísica

domingo, 26 de julio de 2015

Henry George, de Progreso y miseria, cap.16

No hay comentarios :

Referencia: Eumed.net y Prosperidad.org .
George, Henry (1880) "Progreso y miseria".
* * * * * *
HENRY GEORGE (1839-1897)
"PROGRESO Y MISERIA"
Indagación acerca de la causa de las crisis económicas y del aumento de la pobreza con el aumento de la riqueza. El remedio.
Capítulo 16.  EL ENIGMA RESUELTO - LA PRIMERA GRAN REFORMA

Para suprimir un mal hay un solo medio, que es suprimir su causa. Para extirpar la pobreza, para convertir los salarios en lo que la justicia ordena que sean, la plena ganancia del trabajador, hemos de sustituir la propiedad individual de la tierra por la propiedad común de la misma. Ningún otro medio llegará hasta la causa del mal, en ningún otro medio radica la más leve esperanza.

Henry George
Pero esta es una verdad que, en el estado actual de la sociedad ha de despertar el más rudo antagonismo y que tendrá que luchar para abrirse paso palmo a palmo. Por esto será necesario salir al encuentro de las objeciones de quienes, aun viéndose obligados a admitir esta verdad, declararán que no puede ser aplicada a la práctica.

Al hacerlo así, someteremos nuestro anterior razonamiento a una nueva prueba definitiva. Del mismo modo que probamos la suma con la resta y la multiplicación con la división, al probar la suficiencia del remedio, podremos probar la corrección de nuestras conclusiones respecto a la causa del mal.

Las leyes del universo son armónicas. Y si el remedio a que hemos venido a parar es el verdadero, ha de estar conforme con la justicia; ha de ser posible aplicarlo en la práctica; ha de estar de acuerdo con las tendencias del desenvolvimiento social y ha de armonizar con otras reformas.

Me propongo demostrar que esta sencilla medida no solamente es fácil de aplicar, sino que es un remedio suficiente para todos los males que, a medida que el moderno progreso avanza, nacen de la creciente desigualdad en la distribución de la riqueza; que substituirá la desigualdad por la igualdad, la penuria por la abundancia, la injusticia por la justicia, la debilidad social por el vigor social y que abrirá camino a mayores y más nobles adelantos de la civilización.

Pero queda una cuestión de método. ¿Cómo hemos de hacerlo?

Satisfaríamos la ley de la justicia, cumpliríamos todos los requisitos económicos, aboliendo de golpe todos los derechos de propiedad particular de tierra; declarando ésta de propiedad pública y arrendándola, en lotes al mejor postor, en condiciones que respetasen como sagrado el derecho de propiedad particular de las mejoras.

De esta manera aseguraríamos en una sociedad más compleja la misma igualdad de derechos que en una sociedad más tosca se aseguraba por repartos iguales del suelo y, al otorgar el uso del suelo a quienquiera le sacase el máximo producto, aseguraríamos la máxima producción.

Pero semejante plan, aunque completamente factible, no me parece el mejor. Hacer esto implicaría molestar sin necesidad las actuales costumbres y maneras de pensar, lo cual debe evitarse.

Hacer esto implicaría aumentar sin necesidad la maquinaria gubernamental, lo cual debe evitarse.

Es un axioma político, comprendido y aplicado por los fundadores afortunados de las tiranías, que los grandes cambios se pueden realizar mejor bajo las antiguas formas. Nosotros, que queremos libertar al hombre, hemos de fijarnos en esta verdad. Es el método natural. Cuando la naturaleza va a formar un tipo superior, toma otro inferior y lo desarrolla. Esta es también la ley del desarrollo social. Trabajemos conforme a la misma. Con la corriente nos deslizaremos aprisa y lejos. Contra ella hay que remar mucho y se avanza poco.

No propongo comprar ni confiscar la propiedad privada de la tierra. Lo primero sería injusto; lo segundo, innecesario. Dejad a los individuos que ahora la ocupan, conservar todavía, si gustan, la posesión de lo que les place llamar su tierra. Dejadles que sigan llamándola suya. Dejadles comprarla y venderla, donarla y legarla. No es necesario confiscar la tierra; hasta confiscarla renta.

Para tomar la renta para usos públicos, tampoco es necesario que el Estado cargue con la tarea de arrendar las tierras. No es necesario crear nuevos organismos oficiales. El organismo oficial ya existe. En vez de aumentarlo, todo lo que hemos de hacer es simplificarlo y reducirlo. Utilizando la organización actual, podemos, sin molestias ni trastornos, asegurar el derecho común a la tierra, tomando la renta para usos públicos.

Ya se cobra en impuestos algo de la renta. Para recaudarla toda bastaría hacer algunos cambios en nuestro sistema tributario.

Por esto lo que yo propongo es apropiarse la renta de la tierra por medio del impuesto.

En su forma, la posesión de la tierra quedaría tal como está ahora. No se necesita desposeer a ningún propietario ni restringir la cantidad de tierra que cualquiera puede tener. Porque, recaudando el Estado la renta en impuestos, la tierra, esté a nombre de quienquiera y parcelada como quiera, será realmente propiedad común y todos los individuos de la sociedad participarán de las ventajas de su propiedad.

Pues bien, como el impuesto sobre la renta o valor de la tierra ha de aumentarse necesariamente, así que suprimamos los demás impuestos, podemos dar al método una forma práctica proponiendo abolir todos los impuestos excepto el impuesto sobre el valor de la tierra.

Como hemos visto, el valor de la tierra en los comienzos de la sociedad es nulo, pero, a medida que ésta se desarrolla con el aumento de población y el avance de las artes, va aumentando cada vez más. Por esto no basta poner solamente todos los impuestos sobre el valor de la tierra. Donde la renta exceda a los actuales ingresos gubernamentales, será necesario aumentar, como corresponda, la cantidad exigida en impuestos y continuar este aumento a medida que la sociedad progrese y la renta suba. Pero esto es una cosa tan natural y fácil que puede considerarse implícita o por lo menos sobreentendida en la proposición de poner todos los impuestos sobre el valor de la tierra.

Dondequiera que la idea de concentrar todos los impuestos sobre el valor de la tierra halla atención suficiente para inducir a considerarla, invariablemente se abre paso. Pero, en las clases más beneficiadas por esa idea, son pocos los que, por lo menos al principio, o aún mucho tiempo después, ven toda su importancia y fuerza. Les es difícil a los obreros superar la creencia de que hay un verdadero antagonismo entre el capital y el trabajo. Les es difícil a los pequeños labradores y dueños de vivienda propia superar la creencia de que poner todos los impuestos sobre el valor de la tierra sería gravarles indebidamente. Les es difícil a ambas clases superar la creencia de que eximir de impuestos al capital sería hacer más rico al rico y más pobre al pobre. Estas creencias provienen de confusión en el pensamiento. Pero detrás de la ignorancia y el prejuicio hay unas conveniencias poderosas que hasta ahora han dominado la literatura, la enseñanza y la opinión. Una gran injusticia siempre tiene la muerte difícil y la gran injusticia que en todos los países civilizados condena las multitudes a la pobreza y la penuria no morirá sin un rudo forcejeo.

#####
George, Henry (1880) "Progreso y miseria". Henry George, de Progreso y miseria, cap.8 .
- Autor: Henry George . Relacionado: Georgismo .
- Imagen: Henry George.
- Centro Educativo Internacional Henry George (Managua, Nicaragua)
- Instituto Henry George. Prosperidad.org .
- Fundación Henry George .

Henry George, de Progreso y miseria, cap.8

No hay comentarios :
Referencia: Eumed.net y Prosperidad.org .
George, Henry (1880) "Progreso y miseria".
* * * * * *
HENRY GEORGE (1839-1897)
"PROGRESO Y MISERIA"
Indagación acerca de la causa de las crisis económicas y del aumento de la pobreza con el aumento de la riqueza. El remedio.
Capítulo 8. LA LEY DE LA RENTA

El término renta, en su sentido económico, tiene un significado diferente del que vulgarmente se da a la palabra renta. En algunos aspectos el significado económico es más limitado que el ordinario, en otros aspectos es más amplio.

Henry George. 1865, Wikipedia.
Es más limitado en lo siguiente: en el lenguaje usual, aplicamos la palabra renta a los pagos por el uso de edificios, maquinaria, locales, etc., lo mismo que a los pagos por el uso de la tierra u otros bienes naturales; y al hablar de la renta de una casa o una granja, no separamos del pago por el uso de la sola tierra el pago por el uso de las mejoras. Pero en el significado económico de renta excluimos los pagos por el uso de todo producto del trabajo humano; y en los pagos globales por el uso de casas, granjas, etc., sólo es renta la parte que se paga por usar la tierra. La parte pagada por el uso de edificios u otras mejoras es propiamente interés, pues remunera el uso de capital.

Es más amplio en lo siguiente: en el lenguaje usual, sólo hablamos de renta cuando el propietario y el usuario son personas distintas. Pero en el sentido económico hay también renta cuando una misma persona es a la vez propietario y usuario. Donde una misma persona posee y usa la tierra, una parte de sus ingresos, la que podría obtener dejando arrendada su tierra a otro, es renta, mientras que la recompensa de su trabajo y capital es la parte de su ingreso que éstos le darían si tomase arrendada la tierra en vez de ser dueño de ella.

La renta se expresa también en un precio de venta. Cuando se compra tierra, el pago hecho por la propiedad o derecho a uso perpetuo es renta capitalizada. Si compro tierra a bajo precio y la retengo hasta que puedo venderla a un precio elevado, me hago rico, no por el salario de mi trabajo ni por el interés de mi capital, sino por el aumento de la renta. En resumen, la renta es la participación que, en la riqueza producida, tiene el propietario por el derecho exclusivo a usar los recursos naturales. Donde quiera que la tierra tenga valor de cambio, allí hay renta en el sentido económico del término. Donde quiera que una tierra que tenga valor es utilizada, sea por su dueño, sea por su arrendatario, allí hay renta actual; donde quiera que no es utilizada, pero tiene valor, allí hay renta potencial. Esta facultad de dar renta es lo que da valor a la tierra. Mientras la posesión de la tierra no da ninguna ventaja, la tierra no tiene valor. (Al hablar del valor de la tierra, uso y usaré estas palabras refiriéndome al valor de la sola tierra. Cuando quiera hablar del valor de la tierra y las mejoras, emplearé estas palabras.)

Origen de la Renta

Así, pues, la renta o valor de la tierra no procede de la productividad o utilidad de la tierra. En modo alguno representa un auxilio o ventaja dado a la producción, sino que representa sencillamente el poder de quedarse con una parte de los resultados de la producción. Cualquiera que sea su productividad, la tierra no puede dar renta ni tiene valor, mientras no haya alguien dispuesto a dar su trabajo o el resultado de su trabajo por el privilegio de usarla; y por lo tanto, lo que alguien dará depende, no de la productividad de la tierra, sino de su productividad en comparación con la de la tierra que se pueda conseguir gratis. Yo puedo tener tierra muy buena, pero no me dará renta mientras haya otra tierra de igual calidad, que se pueda conseguir sin pagar. Pero cuando se han apropiado esta otra tierra y la mejor tierra que se puede obtener de balde es inferior en fertilidad, situación u otra cualidad, mi tierra empieza a tener un valor y dar una renta. Y aunque la capacidad productiva de mi tierra puede disminuir, si, no obstante, disminuye en mayor proporción la de la tierra gratuitamente asequible, la renta que puedo obtener y, por lo tanto, el valor de mi tierra, seguirán aumentando.

Si un hombre poseyese toda la tierra accesible de un país, podría, naturalmente, exigir por su uso cualquier precio o condición que tuviera por conveniente; y en tanto que su propiedad fuese reconocida, los otros individuos del país no tendrían otra alternativa sino la muerte, la emigración o someterse a sus condiciones. Esto ha ocurrido en muchos países; pero, en la forma moderna de la sociedad, la tierra, aunque generalmente reducida a propiedad individual, está en manos de demasiadas personas para permitir que el precio obtenido por su uso se fije por el mero capricho o deseo. Mientras que cada propietario individual procura obtener tanto como puede, lo que pueda obtener tiene un limite, y éste constituye el precio o renta en el mercado, variable según las tierras y los tiempos.

Ley de la Renta

En régimen de libre competencia (condición indispensable para investigar los principios de la Economía política), la relación que determina qué renta o precio puede obtener el propietario, se denomina ley de la renta. Una vez fijada con corteza esta ley, tenemos algo más que un punto de partida para averiguar las leyes que regulan el salario y el interés. Pues, siendo la distribución de la riqueza un reparto, al averiguar lo que fija la parte del producto tomada por la renta, averiguamos también lo que fija la parte que queda para el salario, donde el capital no colabora; y lo que fija la parte que queda para salario o interés juntos, donde el capital colabora en la producción.

A la admitida ley de la renta se la llama a veces «de Ricardo» por el hecho de haber sido este autor el primero, si no en enunciarla, sí en dar a conocer su importancia.

Esta ley es:

La renta de la tierra se determina por el exceso de su producto sobre el que una igual aplicación de trabajo y capital puede obtener de la menos productiva de las tierras que se utilizan.

Su mero enunciado tiene toda la fuerza de una afirmación evidente por sí misma, pues es claro que, a causa de la competencia, la recompensa máxima que el trabajo y el capital pueden exigir, es la recompensa mínima por la que ellos se pondrán a producir. Esto permite al propietario de tierra más productiva apropiarse como renta todo el producto que exceda del necesario para recompensar el trabajo y el capital al tipo corriente, que es lo que ellos pueden obtener sobre la tierra en uso menos productiva (o en el punto menos productivo) por el cual, claro está, no se paga renta.

Quizá pueda conducir a una más plena comprensión de la ley de la renta el ponerla en esta forma: la propiedad de un agente natural de producción dará el poder de adueñarse de toda aquella parte de riqueza, producida aplicando a dicho agente trabajo y capital, que exceda de la recompensa que la misma aplicación de trabajo y capital podría obtener en la ocupación menos productiva a la cual se dediquen libremente.

Pero esto significa precisamente lo mismo, pues no hay ocupación en ,que el trabajo y el capital se puedan emplear, que no requiera el uso de tierra; además, el cultivo u otro uso de tierra será siempre llevado hasta un punto en que la remuneración es tan baja, todo considerado, como la que se acepta libremente en cualquier otra ocupación.

Deducción Partiendo de la Ley de la Competencia

Supongamos, por ejemplo, una colectividad en que una parte del trabajo y capital se dedica a la agricultura y otra a la industria. La tierra cultivada más pobre produce una ganancia que designaremos por 20, y, por consiguiente, 20 será la retribución media del trabajo y del capital, lo mismo en la industria que en la agricultura. Supongamos que, por alguna causa permanente, la retribución media en las fábricas queda ahora reducida a 15. Es claro que el trabajo y el capital empleado en la industria se dirigirá hacia la agricultura y el movimiento no se detendrá hasta que, o por extensión del cultivo hacia tierras inferiores o puntos inferiores de las mismas tierras, o por un aumento en el valor relativo de los productos industriales, debido a su menor producción, o, de hecho, por ambas causas, la retribución del trabajo y capital en ambas ocupaciones, todo considerado, haya sido llevada de nuevo al mismo nivel. De este modo, cualquiera que el punto final de productividad en el cual la industria prosigue, sea 19, 18, 17 o 16, el cultivo se extenderá también hasta este punto. Por esto, decir que la renta será el exceso de productividad sobre la del margen o lo inferior de cultivo, es como decir que será el exceso de producto sobre el que la misma cantidad de trabajo y capital obtiene en la ocupación menos remunerativa.

De hecho, la ley de la renta no es más que una deducción de la ley de la competencia y consiste simplemente en afirmar que, al tender a un nivel común los salarios y el interés, toda aquella parte de la riqueza total producida, que excede de lo que el trabajo y el capital empleados podrían obtener aplicándose a los más pobres agentes naturales en uso, irá, en forma renta, a los propietarios. ¿No es tan claro como la demostración métrica más sencilla que el corolario de la ley de la renta es la ley del salario, donde el producto se reparte entre renta y salarios sólo; o la ley de salarios y el interés juntos, donde el reparto se hace entre renta, salario e interés?

Relación de la Renta con el Salario y el Interés

Enunciada al revés, la ley de la renta es forzosamente la ley del salario e interés reunidos, pues afirma que, cualquiera que sea el resultado de la aplicación de trabajo y capital, estos dos factores sólo recibirán en salario e interés aquella parte del producto que habrían producido en tierra libre pago de renta, esto es, en la tierra menos productiva entre las que se utilizan. Pues, si del producto, todo lo que exceda de la suma que el trabajo y el capital obtendrían de una tierra donde no se pague renta ha de ir, en forma de renta, a los propietarios, entonces todo lo que el trabajo y el capital pueden exigir como salario e interés es lo que podrían obtener de la tierra e no da renta.

Por lo tanto, el salario y el interés no dependen del producto del trabajo y el capital, sino de lo que queda una vez sacada la renta, o del producto que obtendrían sin pagar renta, o sea, de la tierra menos productiva. Por esto, por mucho que aumente el poder productivo, si el aumento de la renta pone a su nivel, ni el salario ni el interés pueden aumentar.

Desde el momento en que se reconoce esta sencilla relación, un torrente de luz penetra en lo que antes era inexplicable, y hechos, al parecer discordantes, se agrupan bajo una ley evidente. Se ve de pronto que el aumento de la renta que avanza en los países progresivos es la clave que explica por qué el salario y el interés no logran subir con el aumento del poder productivo. Pues la riqueza producida en toda sociedad queda dividida en dos partes por lo que podríamos llamar línea de la renta, la cual es determinada por el margen de cultivo, que es la retribución que el trabajo y el capital podrían obtener de aquellas oportunidades naturales que les son accesibles sin pago de renta. De la parte del producto por debajo de esta línea, se han de pagar el salario y el interés. Todo lo que queda encima va a los dueños de la tierra.

#####
- George, Henry (1880) "Progreso y miseria". Capítulo 16.  EL ENIGMA RESUELTO — LA PRIMERA GRAN REFORMA .
- Autor: Henry George. Relacionado: Georgismo .
- Imagen: Henry George. 1865, Wikipedia.
- Centro Educativo Internacional Henry George (Managua, Nicaragua)
- Instituto Henry George. Prosperidad.org .
- Fundación Henry George .

sábado, 25 de julio de 2015

El porqué suceden las cosas

No hay comentarios :
Referencia: AEON.co.Magazine .
"Why things happen"
por Mathias Frisch, 23 June 2015
(traducción al español de los cuatro primeros párrafos)
*****
¿Son la causa y el efecto el pegamento del cosmos o se trata de una ingenua ilusión dada la insuficiencia de las matemáticas?

¿Causan autismo los vacunas de primera infancia, tal como sostiene el modelo estadounidense de Jenny McCarthy? ¿Son las emisiones de carbono humanas la base del calentamiento global? Vamos que, si yo aprieto el interruptor, se encenderá la luz del porche ¿no? Es de suponer que no necesito persuadirte de que estas cosas serían muy útiles de saber.

causa y efecto
Si las emisiones de gases de efecto invernadero antropogénicos causaran el cambio climático, reducir nuestras emisiones marcaría la diferencia del futuro calentamiento. Pero por el contrario, el autismo no puede ser prevenido dejando a los niños sin vacunar. Aquí ya nos encontramos con una sutileza. Para que nuestros juicios nos sean de la máxima utilidad, tenemos que distinguir entre relaciones causales y simples correlaciones. Desde 1999 a 2009, el número de personas en EE.UU. que cayeron en una piscina y se ahogaron varía según el número de películas en las que aparecía Nicholas Cage; sin embargo, parece poco probable que pudiéramos reducir el número de ahogamientos en piscinas eliminando a Cage de las pantallas, lo más seguro es que se produjeran por otras razones.

En resumen, un conocimiento práctico de la forma en que las causas y efectos se relacionan entre sí parece indispensable para que seamos capaces de labrar nuestro camino por este mundo. Sin embargo, hay una larga y venerable tradición en filosofía, que se remonta al menos a David Hume en el siglo XVIII, que encuentra que las nociones de causalidad son más que dudosas. Y eso por decirlo amablemente.

****
Hume argued that when we seek causal relations, we can never discover the real power; the, as it were, metaphysical glue that binds events together. All we are able to see are regularities – the ‘constant conjunction’ of certain sorts of observation. He concluded from this that any talk of causal powers is illegitimate. Which is not to say that he was ignorant of the central importance of causal reasoning; indeed, he said that it was only by means of such inferences that we can ‘go beyond the evidence of our memory and senses’. Causal reasoning was somehow both indispensable and illegitimate. We appear to have a dilemma.

Hume’s remedy for such metaphysical quandaries was arguably quite sensible, as far as it went: have a good meal, play backgammon with friends, and try to put it out of your mind. But in the late 19th and 20th centuries, his causal anxieties were reinforced by another problem, arguably harder to ignore. According to this new line of thought, causal notions seemed peculiarly out of place in our most fundamental science – physics.

There were two reasons for this. First, causes seemed too vague for a mathematically precise science. If you can’t observe them, how can you measure them? If you can’t measure them, how can you put them in your equations? Second, causality has a definite direction in time: causes have to happen before their effects. Yet the basic laws of physics (as distinct from such higher-level statistical generalisations as the laws of thermodynamics) appear to be time-symmetric: if a certain process is allowed under the basic laws of physics, a video of the same process played backwards will also depict a process that is allowed by the laws.

The 20th-century English philosopher Bertrand Russell concluded from these considerations that, since cause and effect play no fundamental role in physics, they should be removed from the philosophical vocabulary altogether. ‘The law of causality,’ he said with a flourish, ‘like much that passes muster among philosophers, is a relic of a bygone age, surviving, like the monarchy, only because it is erroneously supposed not to do harm.’

Neo-Russellians in the 21st century express their rejection of causes with no less rhetorical vigour. The philosopher of science John Earman of the University of Pittsburgh maintains that the wooliness of causal notions makes them inappropriate for physics: ‘A putative fundamental law of physics must be stated as a mathematical relation without the use of escape clauses or words that require a PhD in philosophy to apply (and two other PhDs to referee the application, and a third referee to break the tie of the inevitable disagreement of the first two).’

This is all very puzzling. Is it OK to think in terms of causes or not? If so, why, given the apparent hostility to causes in the underlying laws? And if not, why does it seem to work so well?

A clearer look at the physics might help us to find our way. Even though (most of) the basic laws are symmetrical in time, there are many arguably non-thermodynamic physical phenomena that can happen only one way. Imagine a stone thrown into a still pond: after the stone breaks the surface, waves spread concentrically from the point of impact. A common enough sight.

Now, imagine a video clip of the spreading waves played backwards. What we would see are concentrically converging waves. For some reason this second process, which is the time-reverse of the first, does not seem to occur in nature. The process of waves spreading from a source looks irreversible. And yet the underlying physical law describing the behaviour of waves – the wave equation – is as time-symmetric as any law in physics. It allows for both diverging and converging waves. So, given that the physical laws equally allow phenomena of both types, why do we frequently observe organised waves diverging from a source but never coherently converging waves?

Physicists and philosophers disagree on the correct answer to this question – which might be fine if it applied only to stones in ponds. But the problem also crops up with electromagnetic waves and the emission of light or radio waves: anywhere, in fact, that we find radiating waves. What to say about it?

On the one hand, many physicists (and some philosophers) invoke a causal principle to explain the asymmetry. Consider an antenna transmitting a radio signal. Since the source causes the signal, and since causes precede their effects, the radio waves diverge from the antenna after it is switched on simply because they are the repercussions of an initial disturbance, namely the switching on of the antenna. Imagine the time-reverse process: a radio wave steadily collapses into an antenna before the latter has been turned on. On the face of it, this conflicts with the idea of causality, because the wave would be present before its cause (the antenna) had done anything. David Griffiths, Emeritus Professor of Physics at Reed College in Oregon and the author of a widely used textbook on classical electrodynamics, favours this explanation, going so far as to call a time-asymmetric principle of causality ‘the most sacred tenet in all of physics’.

On the other hand, some physicists (and many philosophers) reject appeals to causal notions and maintain that the asymmetry ought to be explained statistically. The reason why we find coherently diverging waves but never coherently converging ones, they maintain, is not that wave sources cause waves, but that a converging wave would require the co‑ordinated behaviour of ‘wavelets’ coming in from multiple different directions of space – delicately co‑ordinated behaviour so improbable that it would strike us as nearly miraculous.

It so happens that this wave controversy has quite a distinguished history. In 1909, a few years before Russell’s pointed criticism of the notion of cause, Albert Einstein took part in a published debate concerning the radiation asymmetry. His opponent was the Swiss physicist Walther Ritz, a name you might not recognise.

It is in fact rather tragic that Ritz did not make larger waves in his own career, because his early reputation surpassed Einstein’s. The physicist Hermann Minkowski, who taught both Ritz and Einstein in Zurich, called Einstein a ‘lazy dog’ but had high praise for Ritz.  When the University of Zurich was looking to appoint its first professor of theoretical physics in 1909, Ritz was the top candidate for the position. According to one member of the hiring committee, he possessed ‘an exceptional talent, bordering on genius’. But he suffered from tuberculosis, and so, due to his failing health, he was passed over for the position, which went to Einstein instead. Ritz died that very year at age 31.

Months before his death, however, Ritz published a joint letter with Einstein summarising their disagreement. While Einstein thought that the irreversibility of radiation processes could be explained probabilistically, Ritz proposed what amounted to a causal explanation. He maintained that the reason for the asymmetry is that an elementary source of radiation has an influence on other sources in the future and not in the past.
If two lamps go out, it is unlikely that both bulbs just happened to burn out simultaneously: we look for a common cause

This joint letter is something of a classic text, widely cited in the literature. What is less well-known is that, in the very same year, Einstein demonstrated a striking reversibility of his own. In a second published letter, he appears to take a position very close to Ritz’s – the very view he had dismissed just months earlier. According to the wave theory of light, Einstein now asserted, a wave source ‘produces a spherical wave that propagates outward. The inverse process does not exist as elementary process’. The only way in which converging waves can be produced, Einstein claimed, was by combining a very large number of coherently operating sources. He appears to have changed his mind.

Given Einstein’s titanic reputation, you might think that such a momentous shift would occasion a few ripples in the history of science. But I know of only one significant reference to his later statement: a letter from the philosopher Karl Popper to the journal Nature in 1956. In this letter, Popper describes the wave asymmetry in terms very similar to Einstein’s. And he also makes one particularly interesting remark, one that might help us to unpick the riddle. Coherently converging waves, Popper insisted, ‘would demand a vast number of distant coherent generators of waves the co‑ordination of which, to be explicable, would have to be shown as originating from the centre’ (my italics).

This is, in fact, a particular instance of a much broader phenomenon. Consider two events that are spatially distant yet correlated with one another. If they are not related as cause and effect, they tend to be joint effects of a common cause. If, for example, two lamps in a room go out suddenly, it is unlikely that both bulbs just happened to burn out simultaneously. So we look for a common cause – perhaps a circuit breaker that tripped.

Common-cause inferences are so pervasive that it is difficult to imagine what we could know about the world beyond our immediate surroundings without them. Hume was right: judgments about causality are absolutely essential in going ‘beyond the evidence of the senses’. In his book The Direction of Time (1956), the philosopher Hans Reichenbach formulated a principle underlying such inferences: ‘If an improbable coincidence has occurred, there must exist a common cause.’ To the extent that we are bound to apply Reichenbach’s rule, we are all like the hard-boiled detective who doesn’t believe in coincidences.

This gives us a hint at the power of causal inferences: they require only very limited, local knowledge of the world as input. Nevertheless, causal skeptics have argued that such inferences are superfluous in physics, which is supposed to proceed in a very different way. In this rather majestic vision of scientific inference, we simply feed the laws a description of the complete state of a system at one time, and then they ‘spit out’ the state of the system at any other time. The laws are a kind of smoothly humming engine, generating inferences from one time to another – and given this magnificent machine, the skeptics claim, causal principles are practically irrelevant.
How do we know that the points of light in the night sky are stars?
It’s an appealing idea. However, a moment’s reflection tells us that very few investigations could actually proceed in this manner. For one thing, we rarely (if ever) have access to the complete initial data required for the laws to deliver an unequivocal answer. Suppose we wanted to calculate the state of the world just one second from now. If the laws are relativistic – that is, if they stipulate that no influence can travel faster than light – our initial state description would need to cover a radius of 300,000 km. Only then could we account for any possible influences that might reach our location within one second. For all practical purposes this is, of course, impossible. And so we find that, even in physics, we need inferences that require much less than complete states as input.

Astronomical observations provide a particularly stark example. How do we know that the points of light in the night sky are stars? The approach using laws and initial (or, in this case, final) conditions to calculate backward in time to the existence of the star would require data on the surface of an enormous sphere of possibly many light years in diameter. Stuck here on Earth as we are, that just isn’t going to happen. So what do we do? Well, we can make use of the fact that we observe points of light at the same celestial latitude and longitude at different moments in time, or at different spatial locations, and that these light points are highly correlated with one another. (These correlations can, for example, be exploited in stellar interferometry.) From these correlations we can infer the existence of the star as common cause of our observations. Causal inference may be superfluous in some idealised, superhuman version of physics, but if you actually want to find out how the Universe works, it is vital.

It can sometimes seem as if the debate over wave asymmetry hasn’t advanced much since 1909. And yet, doesn’t the comparison with other common-cause inferences show that Ritz and then later Einstein were right and the earlier Einstein was wrong? Indeed, if we take Popper’s remark seriously, it seems as if the probabilistic explanation itself relies on implicit causal assumptions. Let’s think again about a wave coherently diverging from a source compared with a wave coherently converging into a source.

Both scenarios involve ‘delicately set up’ correlations among different parts of the wave; after all, each of the two processes is simply the other one run backwards in time. But then, contrast our familiar experience with that of the narrator in Martin Amis’ time-flipped novel Time’s Arrow (1991), who takes a boat journey across the Atlantic:
John is invariably to be found on the stern, looking at where we’re headed. The ship’s route is clearly delineated on the surface of the water and is violently consumed by our advance. Thus we leave no mark on the ocean, as if we are successfully covering our tracks.

That the ship’s wake pattern should be laid out before the ship, so that it is made to disappear as the ship advances, seems miraculous and all but impossible. And yet the correlations are the very same ones that exist between a ship and its familiar wake-pattern in the real world. Why on earth should that be? Why does a wave coherently converging into a source strike us as miraculous, while a wave coherently diverging from a source is completely ordinary?

The answer must be that, in the case of the diverging wave, there is an obvious explanation for the ‘delicate’ correlations: the source acts as common cause. This is in sharp contrast with a converging wave, for which the correlations cannot be explained by appealing to the source into which the wave converges. Since the two processes are the time-reverse of each other, the only possible difference between the two cases, it seems, concerns their different causal structures. I think this answer is essentially correct. And so, as far as it goes, perhaps we can declare victory for Ritz.

However, victory might prove rather hollow. Formal advances in causal modelling in the past two decades suggest that the difference between the two explanatory strategies – causal and probabilistic – is much smaller than it first appears. As the computer scientist Judea Pearl at the University of California, Los Angeles and others have shown, causal structures can in fact be represented with mathematical precision. This answers Earman’s vagueness worry: one PhD is more than enough to be able to apply them coherently, and it might even help if the degree is not in philosophy.
 We face a chicken-and-egg dilemma
More importantly, it turns out that the causal asymmetry of common-cause structures and the assumption of probabilistic independence are really two sides of the same coin. More precisely, common-cause inferences need the initial inputs to the system to be probabilistically independent of one another. This makes intuitive sense: if the inputs to your model are correlated, downstream relationships between variables could be due to matches that were present from the beginning, rather than due to anything that happened inside the model. So common-cause inferences depend on an assumption of independence. And from this perspective it might seem that the early Einstein was correct after all: probability comes first.

But not so fast! As we saw above, the explanatory direction can be reversed so that the assumption of probabilistic independence is taken to reflect a causal assumption about the system. And this, again, seems to indicate that Ritz was right. We face a chicken-and-egg dilemma. In fact there might not be a uniquely correct answer to the question which of the two assumptions is logically prior.

This opens up a third interpretive option. Why not see both the probabilistic independence assumption and the common-cause principle as mutually dependent aspects of causal structures? We can accept that these structures have an important role to play in physics, just as they do in other sciences and in common sense, without having to commit to the metaphysical priority of either.

This third view is reminiscent of the late US physicist Richard Feynman’s view about physical laws. Feynman argued that the laws of physics do not exhibit a unique, logical structure, such that one set of statements is more fundamental than another. Instead of a hierarchical ‘Euclidean conception’ of theories, Feynman argued that physics follows what he calls the ‘Babylonian tradition’, according to which the principles of physics provide us with an interconnected structure with no unique, context-independent starting point for our derivations. Given such structures, Feynman said: ‘I am never quite sure of where I am supposed to begin or where I am supposed to end.’

I want to suggest that we should think of causal structures in physics in the very same way. Contrary to Russellian skeptics, causal structures play as indispensible a role in physics as in other sciences. And yet we do not need to take sides in the debate between Einstein and Ritz. Derivation doesn’t have to start anywhere in particular. Rather, we can understand the probabilistic independence assumption and the causal asymmetry as two interrelated aspects of causal structures.

This final view, however, presupposes that we agree with Hume that our use of causal reasoning is not underwritten by any kind of metaphysical ‘glue’. As Hume taught us, causal representations are incredibly useful – we couldn’t get very far in the world without them, in physics or elsewhere. But this doesn’t mean we must believe in a richly metaphysical idea of causal powers, ‘producing’ or ‘bringing about’ causal regularities like muscular enforcers of the laws of nature. We still see only the patterns, the constant conjunctions of different sorts of event.

It’s a vaguely unsettling thought, isn’t it? But that might be enough.


#####
- Autor: Mathias Frisch is a philosopher at the University of Maryland, and a member of its Foundations of Physics Group. He is the author of Causal Reasoning in Physics, Cambridge University Press, 2014.
- Imagen:  Causa y efecto.

Tus gustos musicales nos hablan de tu personalidad

No hay comentarios :

Referencia: Science Alert.com .
por Chris Pash, 24 julio de 2015
*****
Los científicos han definido más a fondo el vínculo entre los gustos musicales y el tipo de personalidad. La investigación ha demostrado que las preferencias musicales y la personalidad están relacionados pero poco se sabe acerca de otras influencias, como los estilos de pensamiento.


El último estudio muestra que las personas más empáticas prefieren la música más melódica como el rock suave y el jazz, mientras que los más analíticos tienden hacia una música intensa, como el punk y el heavy metal.


Los investigadores dicen que estos hallazgos podrían tener implicaciones para el tratamiento del autismo, donde a menudo se muestra la lucha por empatizar con los demás.

"A pesar de que opciones musicales de la gente fluctúa con el tiempo, hemos descubierto que los niveles de empatía de una persona y el estilo de pensamiento predice qué clase de música les gusta más", dice David Greenberg, del Departamento de Psicología de la Universidad de Cambridge en el Reino Unido.


"De hecho, su estilo cognitivo, ya sea fuerte en empatía o fuerte en sistematización, puede ser quien mejor predice qué música le gusta más a tu personalidad."

Los investigadores llevaron a cabo múltiples estudios con más de 4.000 personas reclutadas principalmente a través de “myPersonality”, una aplicación de Facebook.

Utilizaron la teoría de sistematización y empatía, para medir la intensidad de interés de empatía de una persona en la comprensión de los demás, y el de sistematización sobre el análisis.

Los que obtuvieron altos resultados de empatía preferían una música de baja energía con elementos suaves, reflectantes, sensuales y cálidos, o las emociones negativas con características tristes y deprimentes, o la profundidad emocional con poética, relajante y características bien pensadas.

Los que obtuvieron altos resultados en sistematización prefirieron la música con alta energía y elementos fuertes, intensos y excitantes, o las emociones positivas y que también cuenten con un alto grado de profundidad y complejidad.

Los investigadores creen que las siguientes canciones probablemente den con estos estilos particulares:

Alto en empatía
  • Hallelujah - Jeff Buckley
  • Come away with me - Norah Jones
  • All of me - Billie Holliday
  • Crazy little thing called love - Queen

Alto en sistematización
  • Concerto in C - Antonio Vivaldi
  • Etude Opus 65 No 3 - Alexander Scriabin
  • God save the Queen - The Sex Pistols
  • Enter Sandman - Metallica

David Greenberg, un experto saxofonista de jazz, dice que la investigación podría resultar útil para la industria de la música.

"Se pone en juego una gran cantidad de dinero en unos algoritmos para elegir qué música es posible que desee escuchar, por ejemplo en Spotify y Apple Music", dice. "Conocer el estilo de pensamiento de un individuo, haría capaz a estas aplicaciones afinar sus recomendaciones de música para una sujeto."

#####
- Imágenes: Metallica y Leonard Cohen
Publicación: PLoS ONE.
Fuente: Business Insider.

viernes, 24 de julio de 2015

¿Qué es la electricidad estática?

No hay comentarios :

Referencia: LiveScience.com .
“What Is Static Electricity?”
por Jim Lucas, 24 de julio
*******
 La electricidad estática puede ser una molestia o incluso un peligro. Esa misma energía que hace que su cabello ponerse de punta también puede dañar los componentes electrónicos y causar explosiones. Sin embargo, adecuadamente controlada y manipulada, puede resultar una gran bendición para la vida moderna.

Rayos cayendo en la Torre CN de Toronto, Canadá.
La torre, de 553 metros es golpeada cerca
de 80 veces al año, pero unas tiras de cobre que
van desde la parte superior de su antena
hasta las 52 varillas enterradas bajo tierra
canalizan las descargas.
"La carga eléctrica es una propiedad fundamental de la materia", según Michael Richmond, profesor de física del Instituto de Tecnología de Rochester. Casi toda la carga eléctrica en el universo es transportada por los protones y electrones. Los protones se dice que tienen una carga de +1 electrón, mientras que los electrones tienen una carga de -1, aunque estos signos son completamente arbitrarios. Debido a que los protones están generalmente confinados en los núcleos atómicos, que a su vez están embebidos dentro de los átomos, y no son tan libres para moverse como los electrones. Por lo tanto, cuando hablamos de corriente eléctrica, casi siempre significa un flujo de electrones, y cuando hablamos de la electricidad estática, por lo general significa un desequilibrio entre las cargas negativas y las positivas en los objetos.

Causas de la acumulación de carga estática

Una causa común de acumulación de carga estática es el contacto entre los materiales sólidos. Según la Universidad de Hawai: "Cuando dos objetos se rozan entre sí crean electricidad estática, un objeto cede electrones cargándose de manera más positiva, mientras que el otro material asume los electrones y su carga se vuelve más negativa". Esto se debe a que un material tiene electrones enlazados más débilmente, y el otro tiene muchas vacantes en sus capas electrónicas externas, de esta manera los electrones pueden pasar de la primera capa a la última creando un desequilibrio de carga cuando se separan los materiales. Los materiales, los cuales pueden perder o ganar electrones de esta manera, se llaman triboeléctricos, de acuerdo con la Universidad de Northwestern. Un ejemplo típico de esto se estaría dando bajo sus pies a través de la alfombra, sobre todo por la baja humedad que hace que el aire, menos conductor, aumente el efecto.

 Debido a que las cargas iguales se repelen entre sí, éstas tienden a migrar a las extremidades del objeto cargado, a fin de alejarse la una de la otra. Esto es lo que hace que tu cabello se enerve cuando tu cuerpo adquiere una carga estática. Cuando tocas entonces una pieza aislada de metal, como un tornillo en la placa del interruptor de la luz, le estás proporcionando, a la carga que se ha acumulado en tu cuerpo, un camino al suelo. Esta descarga repentina crea una chispa visible y audible a través del aire entre el dedo y el tornillo. Esto se debe a la gran diferencia de potencial entre tu cuerpo y el suelo que puede llegar a 25.000 voltios.

Peligros de la acumulación de carga estática

 Además de causar un impacto doloroso, estas descargas repentinas de alta tensión pueden ser una fuente de ignición de sustancias inflamables, de acuerdo con la Occupational Safety and Health Administration (OSHA). Las descarga estática puede dañar los componentes electrónicos delicados. De acuerdo con la NASA, una simple chispa desde un dedo puede dañar componentes sensibles y hacerlos inservibles, así pues, se deben tomar precauciones a la hora del mantenimiento de placas de circuitos en bolsas plásticas conductoras, y usar correas de conexión a tierra para disipar la continua carga estática de tu cuerpo.


Otra fuente de carga estática es el movimiento de fluidos a través de un tubo o manguera. Si ese líquido es inflamable --como la gasolina--, una chispa por descarga repentina podría dar lugar a un incendio o una explosión. Las personas que manejan combustibles líquidos deben tener mucho cuidado de evitar la acumulación de carga y descarga súbita. En una entrevista, Daniel Marsh, profesor de física en la Universidad Estatal de Missouri Sur, advirtió que al poner gasolina en tu coche, siempre hay que tocar una parte metálica del automóvil después de hacerlo, para disipar cualquier carga que podría haberse desarrollado por deslizamiento a través del asiento. Además, al comprar gas para tu cortadora de césped, siempre debes cogerla de tu coche y colocarla en el suelo mientras la llenas. Esto disipa la carga estática continua y evita crear una chispa.

Los grandes parques de depósitos presentan un mayor peligro de incendios y explosiones, por lo que la National Transportation and Safety Board (NTSB) ha emitido directrices que incluyen minimizar la generación de carga estática, previniendo la acumulación de carga, evitando la descarga de la chispa, y controlando el medio ambiente en el interior del depósito.

El gas y vapor en movimiento, también puede generar carga estática. El caso más conocido de esto es el rayo. Según Martin A. Uman, autor de "Todo sobre los rayos" (Dover, 1987), Benjamin Franklin demostró que el rayo era una forma de electricidad estática cuando él y su hijo volaban una cometa durante una tormenta eléctrica. Ataron una llave a la cuerda de la cometa, y la cuerda húmeda condujo la carga de la nube hasta la llave que despidió chispas cuando él la tocó. (Contrariamente a algunas versiones de la leyenda, la cometa no fue alcanzada por un rayo. Si así hubiera sido, los resultados podrían haber sido desastrosos.)

Franklin, de hecho, dio forma a la manera en que pensamos acerca de la electricidad. Se interesó en el estudio de la electricidad en 1742. Hasta entonces, la mayoría de la gente pensaba que los efectos eléctricos eran el resultado de la mezcla de dos fluidos eléctricos diferentes. Sin embargo, Franklin se convenció de que sólo había un fluido eléctrico y que los objetos podían tener un exceso o deficiencia de este fluido. Inventó los términos "positivo" y "negativo", en referencia al exceso o la deficiencia, según la Universidad de Arizona. Hoy en día, sabemos que el "fluido" son en realidad electrones, pero estos no fueron descubiertos hasta pasados unos 150 años.

Según el Laboratorio de Propulsión Jet, las nubes desarrollan zonas de carga estática debido a las gotas de agua caliente de las corrientes ascendentes, que intercambian electrones de los fríos cristales de hielo con las corrientes descendentes. De acuerdo con la NASA, el potencial entre estas cargas atmosféricas y el suelo puede exceder de 300 000 voltios, por lo que las consecuencias de ser alcanzado por un rayo pueden ser letales. En un rayo, la corriente tiende a moverse sobre la superficie del cuerpo en un proceso llamado "external flashover" [combustión súbita externa], lo que puede causar quemaduras graves, sobre todo en el punto inicial de contacto. Parte de la corriente, sin embargo, puede viajar a través del cuerpo y dañar el sistema nervioso, de acuerdo con el National Weather Service. Además, la conmoción de la explosión puede causar lesiones internas traumáticas y la pérdida permanente de la audición, y el flash brillante puede dañar la visión de manera temporal o permanente. Como ejemplo de la tremenda energía liberada por un rayo, Marsh comentó acerca de la observación personal de un gran roble que se dividió en dos, literalmente, por el impacto y la alta presión creada por un rayo.

Si uno puede oír un trueno, en general, ya se encuentra en un rango sorprendentemente cerca, de acuerdo con la Universidad de la Florida. Si uno está fuera, y una tormenta se acerca, usted debe buscar inmediatamente refugio en un edificio o vehículo y evitar tocar cualquier metal. Si no hay un interior donde refugiarse, es mejor alejarse de objetos altos como árboles, torres o cerros, quedarse en cuclillas, y si es posible, en equilibrio sobre las puntas de sus pies, haciendo tan poco contacto con el suelo como sea posible, según la Brigham Young University .


Aplicaciones de la electricidad estática

Mientras que la electricidad estática puede ser una molestia o incluso un peligro, como en el caso de una descarga estática, en otros casos puede ser bastante útil. Por ejemplo, las cargas estáticas pueden ser inducidas por corriente eléctrica. Un ejemplo de esto es un condensador, que tiene la capacidad de almacenar carga eléctrica, análogamente a un muelle reserva su energía mecánica. Una tensión aplicada al condensador crea una diferencia de carga entre las placas. Si el condensador se carga y el voltaje se desconecta, se puede mantener la carga durante algún tiempo. Esto puede ser útil, como en el caso de los supercondensadores, que pueden sustituir las baterías recargables en algunas aplicaciones, aunque también puede ser peligroso. Los equipos electrónicos, como los viejos monitores de ordenador CRT y los televisores contienen grandes condensadores que pueden retener una carga de hasta 25.000 voltios, lo cual pueden causar lesiones o ser mortal, incluso después de que el dispositivo haya sido apagado durante varios días.

Otra forma de crear una carga estática útil es la tensión mecánica. En los materiales piezoeléctricos, los electrones, literalmente, pueden ser expulsados ​​del lugar, obligados a pasar a la región de baja tensión. Debido al desequilibrio de voltaje, la carga resultante puede ser aprovechada para trabajar. Una aplicación recolecta la energía, por lo que dispositivos de baja potencia pueden funcionar con la energía producida por las vibraciones ambientales.

Otra aplicación son los micrófonos de cristal. Las ondas de sonido en el aire pueden desviar un diafragma, conectado a un elemento piezoeléctrico, capaz de convertir las ondas de sonido en una señal eléctrica. En la operación inversa, la señal eléctrica puede convertir un transductor piezoeléctrico en un altavoz de movimiento, reproduciendo así el sonido.

las cargas estáticas localizadas también pueden verse afectadas por una luz intensa. Este principio es el que hay detrás de las fotocopiadoras e impresoras láser. En las fotocopiadoras, la luz puede provenir de una imagen proyectada en una hoja de papel; en las impresoras láser, la imagen se traza sobre el tambor por un rayo láser de exploración. El tambor entero está cargado inicialmente por un cable de descarga coronal que emite electrones libres a través del aire, explotando el mismo principio que causa el Fuego de San Telmo. Los electrones del cable son atraídos a un tambor cargado positivamente. La imagen se proyecta sobre el tambor fotoconductor, y la carga es disipada por las zonas iluminadas, mientras que las áreas oscuras de la imagen permanecen cargadas. Las áreas cargadas en el tambor pueden entonces atraer las partículas del tóner con carga opuesta, que son las que luego se pegan sobre el papel, el cual está respaldado por un rodillo de carga positiva, que se funden en el lugar por una resistencia eléctrica.

Marsh señaló que, las plantas eléctricas de carbón utilizan precipitadores electrostáticos que recogen partículas de las chimeneas para ser eliminadas como residuos sólidos en lugar de ser descargadas en el aire. En otra aplicación, él describió cómo se aplica la carga estática a los herbicidas que se pulverizan sobre las malezas en una fina niebla. Las gotitas cargadas son atraídas y distribuidas uniformemente sobre las hojas de las plantas indeseables, en lugar de caer al suelo y desperdiciadas. El mismo principio se utiliza para la pintura a pistola electrostática, de manera que la mayoría de pintura vaya sobre el objetivo y se descargue menos en el aire o las paredes o en el suelo.

###
- Relacionados: Princeton Plasma Physics Lab: Electricity and Magnetism.

Los mamuts cayeron ante el rápido calentamiento de la Tierra

No hay comentarios :
Referencia: LiveScience.com .
“Mighty Mammoths Fell Prey to Rapidly Warming Earth”
por Laura Geggel, 23 de julio 2015
*******
La poderosa megafauna de la última edad de hielo, incluyendo los mamuts lanudos, osos de hocico corto y leones cavernarios, en gran parte se extinguieron debido a eventos climáticos de rápido calentamiento, según un estudio reciente.


Durante el inestable clima del Pleistoceno, hace unos 60.000 a 12.000 años, los picos bruscos del clima, llamados interestadiales, aumentaron las temperaturas entre 4 y 16 ºC en cuestión de décadas. Los animales grandes tuvieron probablemente muchas dificultades para sobrevivir en tales condiciones de calor, posiblemente debido a los efectos que tuvo sobre su hábitat y presas.

Los interestadiales "se sabe que han causado dramáticos cambios en los patrones de lluvia y la vegetación global", indica el primer autor del estudio, Alan Cooper, director del Centro Australiano de Antiguo ADN de la Universidad de Adelaida en Australia.

Las bajas temperaturas durante el Pleistoceno tardío no mostraron ninguna asociación con las extinciones de animales, aseguró Cooper. En su lugar, sólo los períodos interestadiales calientes se asociaron con las grandes mortandades que golpearon las poblaciones locales (eventos) y de especies enteras de animales (eventos globales),

Los antiguos humanos también jugaron un papel en la extinción de la megafauna, aunque en grado más pequeño, dijo. Al interrumpir el medioambiente de los animales, las sociedades humanas y partidas de caza, probablemente hicieron más difícil a la megafauna migrar a nuevas áreas y rellenar otras áreas ya extinguidas, dijo.

####
- Imagen: Esta imagen muestra a un trabajador del museo inspeccionando una réplica de un mamut lanudo. Crédito: Jonathan S. Blair/National Geographic.

jueves, 23 de julio de 2015

Diseñan un nuevo modelo de pantalla acústica de alto rendimiento y bajo coste

No hay comentarios :
Referencia: AlphaGalileo.org, 23 de julio de 2015
*****
Investigadores de la Universitat Politècnica de València han diseñado un nuevo modelo de pantalla acústica de altas prestaciones y bajo coste, que permite absorber o reflejar de forma muy eficiente el ruido. Podría aplicarse para reducir el ruido procedente del tráfico de carretera o ferroviario, aislar y separar ambientes en un edificio o disminuir el ruido generado por instalaciones industriales como máquinas refrigeradoras, centros de transformación, compresores, etc. Sus resultados han sido publicados recientemente en la revista AIP Advances.

Patentada por la UPV, la pantalla ha sido desarrollada por un equipo del Centro de Tecnologías Físicas: Acústica, Materiales y Astrofísica. Su ventaja más importante es el reducido espesor de los postes que la componen. Según apuntan los investigadores, con un espesor de 0,3 m se obtienen atenuaciones de 25 dB en el rango de 600-1000 Hz. Además, destaca también por ser modular y transportable, lo que hace que su construcción sea muy sencilla, y ajustable en frecuencia lo que la hace más versátil que las pantallas tradicionales.

“En el mercado la mayoría de productos son barreras consistentes en muros o pantallas rígidas y continuas, que no dejan pasar el aire y que para determinadas aplicaciones no resultan adecuadas, tales como en máquinas refrigeradoras que necesitan de ventilación. Nuestra pantalla es abierta, con lo que además, desde el punto de vista visual el impacto es mucho menor, y desde el punto de vista constructivo, al ser modular resulta fácilmente instalable y adaptable al uso que se le desee dar”, apunta Constanza Rubio, investigadora del Centro de Tecnologías Físicas: Acústica, Materiales y Astrofísica de la UPV.

La pantalla se compone de, al menos, dos filas de postes dispuestos de manera periódica con una separación -entre los elementos de la misma fila- subsónica, es decir, mucho menor que la longitud de onda del sonido.

Respecto al material, el prototipo desarrollado en los laboratorios del Centro de Tecnologías Físicas: Acústica, Materiales y Astrofísica está construido con tableros de madera, si bien podría hacerse con cualquier otro material sólido. Los investigadores de la UPV apuntan que podría construirse con materiales como deshechos de obra, residuos cerámicos o vegetales. “Simplemente habría que compactar todo el material y conformar así los postes, para distribuirlos ya en el espacio en el que se quiera conseguir una atenuación acústica”, añade Antonio Uris, investigador también del Centro de Tecnologías Físicas: Acústica, Materiales y Astrofísica de la UPV.

Los investigadores del Centro de Tecnologías Físicas: Acústica, Materiales y Astrofísica de la UPV centran sus esfuerzos ahora en mejorar el rendimiento de la pantalla diseñada. Entre sus objetivos, buscan reducir más si cabe el espesor de los postes, e introducir nuevos mecanismos que las hagan más versátiles.

####
- Fuente: Asociación RUVID .
- Publicación: Constanza Rubio, Antonio Uris, Pilar Candelas, Francisco Belmar, Vicente Gomez-Lozano A tunable acoustic barrier based on periodic arrays of subwavelength slits. AIP Advances 5, 057150 (2015); http://dx.doi.org/10.1063/1.4921834 .
- Vídeo: Nueva pantalla acústica de alto rendimiento y bajo coste .
- Imágenes: Constanza Rubio, Antonio Uris y Paco Belmar, junto al prototipo.

lunes, 20 de julio de 2015

Descubren cómo hacer células solares que producen combustible y electricidad

No hay comentarios :
Referencia: Science Alert.com .
por Bec Crew, 20 julio 2015
*****
Un nuevo tipo de célula solar puede convertir el agua líquida en combustible de hidrógeno limpio 10 veces más eficaz que cualquier otra tecnología, y usa unas 10.000 veces menos material en el proceso.

Inventado por unos investigadores de los Países Bajos, el secreto de este nuevo prototipo de células solares son nanocables de fosfuro de galio, capaces de dividir el agua en sus componentes esenciales, hidrógeno y oxígeno, de forma mucho más barata y eficiente que las baterías y materiales semiconductores que se han utilizado en el pasado.

La eficiencia de la tecnología de células solares ha mejorado drásticamente en la última década, y ahora está proporcionando a Alemania, al menos la mitad de sus necesidades energéticas nacionales. A principios de este año, en los Países Bajos, que cubrir un pequeño tramo de 70 metros de carretera con células solares generaba electricidad suficiente para alimentar un hogar durante un año.

En los últimos años, los científicos han ido descubriendo la manera de llevar las cosas un paso más allá, mediante el uso de células solares para que produzcan tanto combustible como electricidad. El sueño es que llegue un día que tan sólo utilicemos nada más que la energía ilimitada del Sol, no sólo para alimentar nuestras casas, sino nuestros coches, trenes y autobuses.

En estudios previos ya se ha demostrado que la conexión de una actual célula solar de silicio a una batería de disociación de agua puede producir combustible de hidrógeno, pero ciertamente, no es un proceso barato para ser una alternativa realista. La opción más prometedora está usando algún tipo de material semiconductor que puede convertir la luz solar en una carga eléctrica, y la división del agua en componentes utilizables, así como en una pila de combustible solar, todo-en-uno, pero los materiales semiconductores no son nada baratos.

Un equipo de Universidad Tecnológica de Eindhoven investigó el potencial del fosfuro de galio (GAP), que es un compuesto de galio y fosfuro que también se utiliza en la producción de las luces LED roja, naranja y verde, y ha demostrado un gran potencial en cuanto a sus propiedades eléctricas. Pero el fosfuro de galio es caro de producir, y cuando se utiliza en grandes planos, no es capaz de absorber la luz solar tan eficientemente como sería necesario para un sistema de célula solar viable. Así que los investigadores intentaron producir una cuadrícula de pequeños nanocables de fosfuro de galio que miden 90 nanómetros de espesor y 500 de largo, y los integraron en la tecnología de células solares existentes.

No sólo terminan usando 10.000 fosfuro de galio menos  que si lo hubieran usado para construir una superficie plana, sino que descubrieron una nueva forma de hacer combustible solar. "Esto inmediatamente impulsó el rendimiento de hidrógeno a un factor de 10 al 2,9 por ciento. Un récord para las células GaP, a pesar de que esto está todavía un poco lejos del 15 por ciento alcanzado por las células de silicio acopladas a una batería."

El equipo sostiene que, no es sólo el rendimiento lo que deberíamos estar buscando en cuanto a lo que se refiere a la producción de combustible solar, sino el costo del sistema, porque si no es más barato que lo que ya conseguimos a partir de combustibles fósiles, nadie va a utilizarlo sin importa cuán mucho mejor sea para el medio ambiente. Su reto ahora es encontrar la manera de aumentar el rendimiento de sus redes de fosfuro de galio para que sus células solares puedan cumplir con este 15 por ciento de rendimiento de la batería.

"Para dichos nanocables necesitámos 10.000 veces menos material de GaP que con las células en una superficie plana. Eso hace a este tipo de células potencialmente mucho más baratas", dice el investigador principal, Erik Bakkers. "Además, el GaP también es capaz de extraer el oxígeno del agua, así que, en realidad, uno tiene una pila de combustible en la que se puede almacenar temporalmente la energía solar. En resumen, para el futuro del combustible solar no podemos ignorar el fosfuro de galio por más tiempo."

#####
Publicación: Nature Communications.

domingo, 19 de julio de 2015

Puntos Weyl, después de 86 años

No hay comentarios :

Referencia: eScienceNews.com, 17 de julio 2015
y EurekAlert.org, 16 julio 2015
"Weyl points: Wanted for 86 years"
por Dr. Ling Lu y prof. Marin Soljačić

*******
Los puntos Weyl, analogías 3D de las estructuras que conforman el excepcional grafeno, se predijeron teóricamente en 1929. Actualmente, un equipo internacional de físicos del MIT y la Universidad de Zhejiang, los han descubierto en los cristales fotónicos, abriendo con ello una nueva dimensión en la fotónica.

Gráfico 1: Cristal fotónico.Crédito Dr. Ling Lu
En 1928 el físico inglés Paul Dirac descubrió una ecuación fundamental en la física de partículas y la mecánica cuántica, ahora conocida como ecuación de Dirac, que describe ondas-partículas relativistas. Los electrones muy rápidos eran soluciones a la ecuación de Dirac. Por otra parte, dicha ecuación predijo la existencia de anti-electrones o positrones, partículas con la misma masa que los electrones pero con carga opuesta. Tal como predijo Dirac, los positrones fueron descubiertos cuatro años más tarde, en 1932, por el físico estadounidense Carl Anderson.

Gráfico 2: Puntos Weyl en espacio recíproco.
Crédito Dr. Ling Lu
En 1929 Hermann Weyl, un matemático alemán, encontró otra solución a la ecuación de Dirac, esta vez sin masa [1]. Un año más tarde, el físico teórico de origen austriaco Wolfgang Pauli postuló la existencia del neutrino, que entonces se pensaba que no tenía masa, y supuestamente era la codiciada solución a la ecuación de Dirac formulada por Weyl. Los neutrinos aún no se habían detectado en la naturaleza, pero el caso parecía ya estar cerrado.

Pasarían décadas para que los físicos estadounidenses Frederick Reines y Clyde Cowan finalmente descubrieran los neutrinos en 1957, y a partir de ahí, numerosos experimentos fueron indicando que los neutrinos podrían tener masa. En 1998, el Super-Kamiokande (un observatorio de neutrinos ubicado en Japón), anunció ya se había especulado durante años: los neutrinos tienen masa no-cero. Este descubrimiento permitía una nueva cuestión: ¿qué fue entonces, la solución de masa cero encontrada por Weyl?

La respuesta vino de la mano del Dr. Ling Lu (MIT), el Dr. Zhiyu Wang (Universidad de Zhejiang, China), el Dr. Dexin Ye (Universidad de Zhejiang), Prof. Lixin Ran (Universidad de Zhejiang), el profesor Liang Fu (MIT), el profesor John D. Joannopoulos (MIT), y el profesor Marin Soljačić (MIT).

Ling Lu, primer autor del artículo publicado en Science, es muy entusiasta: "¡Los puntos Weyl existen realmente en la naturaleza! Construimos un cristal fotónico de doble giroide con la simetría de paridad rota. La luz que pasa a través del cristal muestra la firma de los puntos de Weyl en el espacio recíproco: Dos bandas lineales de dispersión que se tocan en puntos aislados."

Los puntos Weyl, las soluciones sin masa a la ecuación de Dirac, no se encontraron en los experimentos de partículas. El equipo de investigación tuvo que construir un material adaptado para observarlos. El cristal fotónico de doble giroide es en sí mismo una obra de arte. Un giroide, de hecho, se puede encontrar en la naturaleza, en sistemas tan diversos como las alas de mariposa y la salsa de tomate [2,3]. Sin embargo, el grupo de investigación quería un doble giroide con una simetría rota muy específica, que fue la primera propuesta de un trabajo teórico del mismo grupo [4]. A fin de fabricar esta estructura, junto a las partes que están conectadas y los defectos ad hoc (como que los agujeros de aire rompen la simetría), Lu y sus colaboradores tuvieron que fabricar, perforar la pila de placas de plástico rellenas de cerámica (Gráfico 1).


Una vez que la muestra estaba lista, era el momento para observar si se comportaba como se esperaba, por el resplandor de la luz a través de ella y el análisis de la señal de salida. Los físicos analizaron estos experimentos en lo que se llama el espacio recíproco, o el momentum espacial. El panel de la derecha de la Gráfico 2 muestra lo que se supone que son los puntos de Weyl apareciendo en el espacio recíproco: puntos degenerados, los puntos donde dos bandas de dispersión lineales se encuentran. El panel izquierdo muestra un ejemplo de los datos medidos, una prueba sólida de que los puntos de Weyl existen de facto en la naturaleza.

"El descubrimiento de los puntos de Weyl no sólo es la prueba irrefutable de un misterio científico", comenta el profesor del MIT, Marin Soljačić, "sino que allana el camino para absolutamente nuevo fenómenos y aplicaciones fotónicas. Pensemos en la revolución del grafeno: El grafeno es una estructura 2D, y sus propiedades electrónicas son, en un grado sustancial, una consecuencia de la existencia de puntos degeneración lineales (conocidos como puntos de Dirac) en su momentum espacial.

Los materiales que contienen puntos de Weyl hacen lo mismo, pero en 3D. Literalmente añaden un grado de libertad, una dimensión". El descubrimiento del grafeno y sus propiedades electrónicas únicas fue laureado con el Premio Nobel de Física 2010, pero puntos de Dirac del grafeno no son estables a las perturbaciones. Por otra parte, las estructuras introducidas por Lu et al., sí son muy estables a las perturbaciones*, ofreciendo una nueva herramienta para controlar cómo está confinada la luz, cómo rebota y cómo irradia. Este descubrimiento abre un nuevo campo intrigante en la física básica. Las aplicaciones potenciales son igualmente prometedoras. Los ejemplos incluyen la posibilidad de construir angularmente materiales 3D selectivos y láseres más potentes de frecuencia única.

#####
- Fuente: Massachusetts Institute of Technology, Institute for Soldier Nanotechnologies.
- Publicación: "Experimental observation of Weyl points", Ling Lu, Zhiyu Wang, Dexin Ye, Lixin Ran, Liang Fu, John D. Joannopoulos, and Marin Soljači?, Science .
- Imágenes: Gráfico 1: Cristal fotónico. Gráfico 2: Puntos Weyl en espacio recíproco. Crédito ambas Dr. Ling Lu.
- Referencias:
[1] H. Weyl, "Elektron und gravitation," Z. Phys. 56, 330- 352 (1929)
[2] V. Saranathan, et al. "Structure, function, and self-assembly of single network gyroid (I4132) photonic crystals in butterfly wing scales."Proc. Natl Acad. Sci. USA 107, 11676-11681(2010).
[3] W. Longley, & , T. J. McIntosh "A bicontinuous tetrahedral structure in a liquid-crystalline lipid" Nature 303, 612-614 (1983)
[4] L. Lu, L. Fu, J. D. Joannopoulos and M. Soljači? "Weyl points and line nodes in gyroid photonic crystals" Nature Photonics, Vol. 7, No. 4, P. 294-299 (2013)
[5] J. Fleischer "Achieving robust Weyl points", news &views Nature Photonics Vol 7 No 3 (2013) Written by Dr. Paola Rebusco (pao@mit.edu).

sábado, 18 de julio de 2015

La rápida evolución de los mamíferos

No hay comentarios :
Referencia: eScience.News.com , 16 de julio 2015
*****

Mamíferos fueron evolucionando hasta diez veces más rápido a mitad del Jurásico de lo que eran al final del periodo, coincidiendo con una explosión de nuevas adaptaciones, según muestra una investigación. 


Los primeros mamíferos vivieron junto a los dinosaurios durante la era Mesozoica (hace 252 a 66 millones de años). Se pensaba que eran exclusivamente pequeños comedores nocturnos de insectos, pero los descubrimientos de fósiles de la última década, en particular en China y América del Sur, han demostrado que desarrollaron diversas adaptaciones para su alimentación y ocomoción, incluido el vuelo libre, la excavación y la natación.

Para saber cuándo y cómo de rápido surgieron estas nuevas formas del cuerpo, un equipo liderado por investigadores de la Universidad de Oxford hicieron el primer análisis a gran escala de los cambios esqueléticos y dentales de los mamíferos del Mesozoico. Y mediante el cálculo de su velocidad evolutiva a través de todo el Mesozoico, han demostrado que los mamíferos estuvieron sometidos a una rápida 'explosión' de cambios evolutivos que alcanzó su punto máximo a mediados del Jurásico (de hace 200 a 145 millones de años).

El equipo de investigadores pertenecían a la Universidad de Oxford en el Reino Unido y la Universidad Macquarie de Australia. El informe de la investigación se encuentra publicado en el journal Current Biology.

###
Fuente: Universidad de Oxford .
- Imagen: April Neander.