Select Menu

Vídeo

Biología

Personas

Filosofia

Tecnología

Psicologia

Astrofísica

Medicina

Colegio Oficial de Psicología de Andalucía Occidental,
Número especial: 30 años de Apuntes de Psicología
Universidad de Cádiz, de Córdoba, de Huelva y de Sevilla 

* * * * *
La conducta de las operaciones mentales
(apuntes críticos y reconstructivos)
por Marino PÉREZ ÁLVAREZ,
Universidad de Oviedo

Resumen
Ordinariamente, las operaciones mentales se consideran el contrapunto de la conducta. En este sentido, se sitúan bien alejadas del alcance del análisis de conducta. El argumento que se desarrolla aquí, sin embargo, es que el aspecto esencial de las operaciones mentales es lo que tienen de operaciones, y no de mentales. El lenguaje es entendido en relación genética con la conducta operante manipulativa, y el pensamiento en relación con el lenguaje. De este modo, el pensar resulta una forma de hacer (de construir), y en esta línea son analizadas la solución de problemas y la creatividad.


Lo más común, en sentido de vulgar, es asimilar a Skinner con el condicionamiento operante, refiriéndose éste a conducta efectora de los organismos sobre un dispositivo a propósito en una caja especial. Cuando se trata de la conducta humana, al condicionamiento operante se le reconoce su interés en relación con aprendizajes motores elementales,­ sobre todo, en sujetos que no han desarrollado (aún) estructuras y procesos cognitivos (de suficiente envergadura)­ . De haberlos desarrollado, las operantes serían «mera conducta» dependiente de las cogniciones. Dentro de esos límites, las aportaciones de Skinner están asimiladas y, de hecho, forman parte del «inconsciente colectivo» de la psicología contemporánea.

Desde luego, habría que notar la importancia histórica y epistemológica de la definición operante de «la conducta de los organismos» (establecida por Skinner en la década de 1930), y su fertilidad para interpretar con criterios científicos la conducta humana, como hizo en su importante libro de 1953 Ciencia y conducta humana, en cierta manera una psicología conductista de la vida cotidiana.

Con todo, pero indisociable de estas –aportaciones elementales–, seguramente­ hay que ver que la mayor originalidad de Skinner está en la psicología del lenguaje. Este tema fue el que más le ha ocupado (desde mediados de la década de los 30, hasta sus últimos escritos cincuenta años después), dando lugar a su obra más importante, dicho por él mismo, que sería Conducta verbal, redactada en 1955 y editada en 1957, pero proyectada y elaborándose desde 20 años antes. (El autor de este escrito opinaría se le preguntaran que Conducta verbal es el libro de psicología más importante del siglo XX, hasta el momento)­ .

Ciertamente, esta obra no ha sido integrada por la comunidad psicológica, en la medida en que cabría esperar según las afirmaciones anteriores. Incluso,­ se diría que pasó desapercibida, si es que no mal entendida, por parte de los expertos a quienes debería interesar, si bien últimamente está contextualizando importantes líneas de investigación y reconstrucciones teóricas. (Baste recordar­ que existe desde 1983 una revista especializada en esta línea: The Analysis of Verbal Behavior).

A continuación, se van a desarrollar algunos apuntes críticos que se plantean en este libro. Críticos en el doble sentido de principales (tanto para la teoría como para la práctica psicológica), y de «cribadores» de las versiones mantalistas.

Referencia de la publicación original: Pérez Álvarez, M. (1991). La conducta de las operaciones mentales (apuntes críticos y reconstructivos). Apuntes de Psicología, 33, 71-81.

Conducta operante y lenguaje

Esta obra consiste ante todo en un análisis funcional del lenguaje (que se llamará conducta verbal), de acuerdo con los criterios establecidos por el análisis­ experimental de la conducta. Pero no es un estudio experimental, aunque sí empírico, pues los datos que se analizan­ están dados en la comunidad yen la literatura. Es propiamente un ejercicio de interpretación.

Como tal análisis funcional, supone descripción y explicación. La descripción­ se resuelve en una taxonomía funcional,­ de acuerdo con que el interés del lenguaje para el psicólogo está en función­ como conducta. La explicación consiste en la especificación de las variables­ de control, esto es, de las condiciones­ de las que depende la conducta verbal en cuestión. (Se toma, entonces, la noción de explicación más potente de las diversas que existen). Este carácter funcional que da el análisis experimental­ de la conducta no prejuzga, ni podría hacerlo, la forma de la conducta verbal. El aspecto decisivo está en la función, es decir, en la relación entre ciertas condiciones­ antecedentes y consecuentes, con la particularidad de que en la conducta verbal tales funciones están mediadas por la conducta aprendida de otras personas,­ que constituyen una comunidad, esto es, un ambiente envolvente preexistente­ del que oyente y hablante forman parte.

Lo que se sugiere es que las formas «psicolingüísticas» pueden ser muy diversas,­ resultando sin embargo que la más convencional es la vocal, pero ahí están el lenguaje de los sordomudos, los gestos, y toda una variada «topografía verbal». Las formas «vocales», que por lo demás están directamente «invocadas» por­ la palabra «verbal», son el referente que se asume por omisión. Skinner ha propuesto una clasificación definida por seis tipos de relaciones funcionales. Permítase­ que se recuerden aquí.

- El mando: es una operante que produce­ un determinado efecto, relativo a un estado de necesidad del hablante, a través de otras personas. Es el caso de la solicitud, la petición, la orden, la súplica, el ruego, la pregunta, la llamada. Primero­ el niño trata de coger las cosas con la mano y sus padres probablemente acoplan alguna forma verbal y quizá también aportan al mismo tiempo la cosa intentada. Entonces, la acción manipulativa se convierte en un gesto, que, finalmente, el niño sustituye por las palabras acopladas. La palabra funciona como una «herramienta» que amplía la acción mediante las otras personas. Lo que se sugiere es que esta función procede­ de y se mantiene incardinada con la conducta operante en su sentido práctico­ manipulativo. El que uno «mande» a los demás, y éstos lo hagan sobre uno, permite que la misma persona lo pueda hacer sobre sí mismo, incluso, en silencio. Es el caso del lenguaje autorregulatorio (autoinstruccional).

- El tacto: es una operante definida por el estímulo ante cuya presencia la comunidad refuerza discriminada mente. Se aprende a «referir» diferenciadamente las cosas o alguna de sus propiedades. La gente entra en «contacto» con las cosas a través de su mención por Darte de otras. La metáfora, la abstracción y la formación de conceptos son «complicaciones»­ de esta función referencial simple­. Una de las cosas a que uno puede referirse es el propio cuerpo. Se toma contacto consigo mismo a través de la referencia que los demás hacen de uno. Uno aprende a responder a estímulos privados a pesar de no ser accesibles para otros, pero ello precisamente porque los demás le han enseñado.

La comunidad enseña a tener sentimientos­ y esto, al menos, de cuatro maneras. Por coincidencia con estímu­los públicos: cuando el niño recibe un golpe, los demás dicen «duele» y en adelante él refiere esto ante estimulaciones similares (aunque no provengan de un golpe). Los demás responden a un estímulo público (el golpe), pero el niño (aprende a hacerlo) a uno privado concomitante. Por acompañamiento­ de ciertas conductas verbales:­ ante algunas respuestas incondicionadas­ la comunidad dice -lo que le pasa a­ uno; el niño llora, los demás dicen «triste», y él aprende este sentimiento aún cuando no llore en otra ocasión. Por similitud con un evento manifiesto: uno describe su alegría como «desbordante» ­en analogía con eventos en los que algo se sale de un recipiente; algo no cabe dentro de sí. Las cualidades sentimentales­ («agudo», «punzante», «ardiente», «fervoroso»),­ por lo general, son extensiones­ metafóricas de propiedades estimulares con tales características, que se han experimentado en otras circunstancias­. Por similitud con un comportamiento­ característico: de comportamientos­ agitados, inquietos, se puede extender una descripción de estados privados «agitados»,­ «inquietos», sin necesidad de que tengan estas manifestaciones. Así pues, el autotacto es un caso particular del tacto: uno entra en «contacto» consigo mismo a través de los demás. (Vygotsky ha dicho genialmente que la «autoconciencia es contacto social consigo mismo»).

- La ecoica: su característica es que el estímulo de control antecedente es verbal­ y la respuesta operante se corresponde­ con él (a modo de «eco» o imitación)­ . La comunidad refuerza estas formas en ciertas ocasiones. Un caso particular es la autoecoica, donde uno pone el modelo (que puede ser encubierto), y el «eco» como respuesta.

- La textual: igualmente, la operante es idéntica al estímulo verbal antecedente, pero este está escrito. Es la lectura. Se excusa decir que hasta que la lectura resulte reforzante de por sí, el que enseña­ a leer es quien fortalece la conducta verbal apropiada. Finalmente, incluso puede hacerse en silencio.

- La intraverbal: la conducta verbal también depende de estímulos verbales, pero formando una secuencia encadenada­ (de carretilla), en vez de ser una repetición ecoica o una repetición «codificada»­ como la lectura.

Puede ser tan pequeña como nombrar una letra del abecedario en su orden, y tan larga como un soneto, tan convencional como responder rutinariamente a un saludo y tan particular como una obsesión.

- La audiencia: aunque en las funciones­ anteriores ya está incorporado el oyente (una persona, un grupo, un auditorio),­ lo que se resalta ahora es su carácter discriminativo y selector sobre las formas y temas de repertorio verbal del hablante. Esta condición hablante-oyente permite como un caso particular que el oyente sea la misma persona que habla.

Lenguaje y pensamiento

Una situación en la que el hablante es su propio oyente, se da en el soliloquio­. La propia conducta verbal del hablante se objetiva en estímulos para nuevas conductas verbales, sean ecoicas, textuales o intraverbales, y así sucesivamente,­ hasta constituirse, por ejemplo, en una «corriente de conciencia».

Evolutivamente, una vez que el niño sabe hablar y escuchar, hace todo eso como una misma persona. El niño habla sólo, pero probablemente no para algo tan improductivo como la corriente de pensamiento, sino en relación con hacer algo de otra manera, práctica manipulativa,­ por ejemplo, jugando. Una vez eso, el soliloquio puede atenuarse, desvanecer­ su formalidad pública, y convertirse en no hacer nada, esto es, en pensar, en su sentido ordinario.

La conducta verbal encubierta, silenciosa,­ que deriva precisamente de la esencial condición pública del lenguaje, permite y consiste en el pensamiento en su acepción tradicional. El pensamiento silencioso según esto es conducta verbal encubierta. Pero antes que cualquier otra cosa, la conducta verbal se define (no se olvide) por su condición operante inherentemente construida dentro de las contingencias ambientales.

De igual manera y por lo mismo que el mando es efector en el ambiente a través de otros, se construye el automando,­ cuya modalidad ahora puede ser silenciosa. Entonces, el automando (abierto o silencioso) puede tener efectos­ prácticos sobre el hablante considerado­ como oyeme. Del mismo modo, el tacto puede consistir en una «aclaración» autoinstruccional de la situación, que uno se hace (dice) a sí mismo, que facilita una actuación práctica. Cualquiera­ de las otras funciones cuyos estímulos de control antecedente son verbales, también pueden darse en silencio, pero sin dejar de tener efectos prácticos. Uno puede decirse algo «en bajo» para repetirlo­ en alto, lo que es útil a veces. De igual modo, las notas que uno escribe ayudan a leerlas después. La respuesta del hablante a sus propios estímulos intraverbales puede facilitar la realiza­ ción de una tarea (por ejemplo, abrir una caja fuerte «siguiendo» un código secreto),­ yen ello consiste también la composición­ de un «discurso» o un texto, inclu­yendo las construcciones literarias. Aquí habría que referir la manipulación de la conducta verbal por la propia conducta verbal del mismo que habla o escribe. Una especie de «mando» o «tacteo» sobre la propia producción verbal, que sucesivamente­ se va (re)componiendo hasta, quizá, lograr un resultado determinado (la solución de un problema o un efecto emocional). Técnicamente, en la termi­nología de Skinner, estas manipulaciones­ se denominan operaciones autoclíticas (cuyo otro nombre podría ser «metaconducta verbal», en todo caso cualquiera de ellos más apropiado que «metacognición»), las cuales ocupan nada menos que tres densos capítulos de Conducla verbal. La parte autoclítica silenciosa­ puede ser más o menos larga según la práctica del hablante-oyente.

En definitiva, únicamente se han tratado de sugerir dos aspectos. Uno, que la noción tradicional del pensa­ miento como «no hacer nada» se asimila a conducta verbal (silenciosa) en la que el hablante y el oyente son la misma persona. Dos, que esa condición permitida­ por la conducta verbal tiene que tener presente ante todo el esencial carácter público y operante del lenguaje. El pensamiento silencioso no es más (aunque tampoco es poco) que un momento­ secundario de la conducta verbal y, en general, de la conducta operante.

Pensar y operar

La consideración precedente del pensamiento como conducta verbal implica, entonces, reconocer su esencial carácter operatorio. Lo primero que se diría a este respecto es que también se piensa hablando en alto. Ello ha de resultar claro desde lo dicho antes, según­ lo cual el pensar en silencio forma parte de la dimensión que va desde la conducta verbal pública a la privada. El pensar, por decirlo así, no aparece en el momento en que uno empieza a no hacer nada. Por otro lado, generalmente,­ después de pensar-en-silencio, se continúa o termina con alguna ejecución o resolución pública, verbal o efectora de otro tipo. Pensar en silencio tiene sus ventajas, entre otras, sustraerse de las restricciones ambientales (por ejemplo, las exigencias pragmáticas de un discurso),­ además de que, a veces, podría ser molesto para otros, (recuérdese que hasta la Edad Media se leía en alto, siendo incluso un desagradable castigo poner a alguien a leer en silencio). Sin embargo, en otras muchas ocasiones uno se impone pensar en alto, por ejemplo, ante distracciones ambientales, dificultad en el proceso o, sencillamente,­ el que la situación (alguien) lo demande así. Por demás, dos personas entre sí pueden estar pensando (hablando)­ acerca de cómo hacer algo, resolver un problema. De hecho, el pensar de cualquier otra manera sería un caso secundario del pensar con alguien, una modalidad de la conducta verbal, en la que se está discurriendo algo.

Naturalmente, el que el pensar tenga que ver con el lenguaje no es una casualidad, del tipo, por ejemplo, de que el desarrollo del lenguaje haya venido bien para dar expresión al pensamiento. Al contrario, a caso, el pensamiento llega donde llega en virtud precisamente del lenguaje, pero por lo que tiene éste de público (de práctica social supraindividual),­ y de recombinatorio (esto es, de infinitas posibilidades de hacer acumulativamente)­ . La composición de ideas es en rigor composición de términos, aunque aquí habría que distinguir si se trata de ideas construidas en un trabajo (práctico acumulativo) históricamente organizado, como la ciencia, (por ejemplo­ las ideas científicas), o de ideas construidas literariamente (por ejemplo, las fábulas), en todo caso limitadas por el mundo fenoménico (no exactamente por «mi mundo, el lenguaje»).

Ahora bien, también habría que decir­ que el pensar es hacer en un sentido que no es estrictamente verbal (lingüístico). Y esto no ya porque sea la parte ejecutiva un previo proceso simbólico,­ sino por su carácter operatorio esencial (práctico efectivo). Quizá el hecho de la gesticulación con las manos no sea meramente un modismo. En todo caso, valga para introducir la noción de operación, como consistiendo sobre todo en una actividad práctica manipulativa. Frente a concebir que las manos ejecutan o expresan pensamientos, es más riguroso entender que se piensa precisamente­ porque se tienen manos. Recuérdese­ aquí unas cuantas cosas en favor de ésto: la vinculación genética (de génesis)­ entre ciertas funciones verbales y las operantes manipulativas (el lenguaje como «herramienta», según Vygotsky, o en palabras de Wallon «del acto al pensamiento»),­ el uso del papel-y-lápiz para pensar y resolver cuestiones complicadas,­ el carácter «manual» del lenguaje en sordomudos, el posible lenguaje que cabe desarrollar en chimpancés, y el que se piense en base decimal. Este último punto es así sencillamente porque se tienen diez dedos, que permiten operar a la vez con otras tantas unidades. Lo que pasa, naturalmente, es que ello se ha dado en una escala histórica, de manera que para cada cual el mundo ya aparece organizado de esa manera, lo que hace que tal-adaptación-del ambiente impresione­ como una obra mental. Pero sin ir tan lejos, ahí está el contar con los dedos, luego con palotes y finalmente con unidades­ más complejas (de manos o de palotes), como forma de operar-el-pensamiento­. Es más, si no fuera así difícilmente­ se podría enseñar a pensar, a discurrir con cierta lógica. Pues, la lógica la pone el mundo ya organizado materialmente­. ¿De qué manera se podrían pensar los teoremas de Pitágoras sin las figuras geométricas? Su lógica es ante todo material, la que im-ponen las cosas con que se opera. (Todavía nadie ha hecho lógica formal prescindiendo de los signos escritos y de las manos). El hecho de que las operaciones se abre­ vien y los «procesos invisibles» sean tan o más largos que los manipulativos no indica otra cosa que el efecto que la práctica permite operar con unidades de «manos» y «palotes» cada vez más complejas­. (Véase Brun, 1963/1975, para una gnoseología de la mano).

Como concesión tranquilizadora para quienes se sientan defraudados por convertir­ la magia del pensamiento en conducta verbal (descubierta o encubierta),­con independencia también del oyente sobre el que sea efectiva (uno mismo u otra persona), dígase con Skinner que la conducta verbal “también posee algo de la magia que esperamos encontrar en los procesos de pensamiento. Ella está relativamente libre de condiciones­ ambientales y de las restricciones temporales.” (Conducta verbal, pág. 437).

Todavía hay que alinear en esta argumentación el hecho del «pensamiento sin lenguaje», pero, dicho críticamente, no sin conducta. Efectivamente, en muchas­ acciones prácticas se puede reconocer­ una inteligencia operatoria sin estar «mediada por el lenguaje». Aparte la inteligencia, las artimañas, la «metis» de los animales, ofrecida a menudo incluso como modelo de y para la astucia de los animales (por ejemplo, en El Príncipe, de Maquiavelo, y en Empresas políticas, de Saavedra Fajardo), se citarán aquí las situaciones generalmente descritas como «se me ocurrió...» o «tuve la idea ...». Tanto en situaciones cotidianas bien ordinarias,­ como en otras de elaboración más exquisita, uno hace algo (más o menos oportuno), que no está acompañado verbalmente, sino acaso después, al decir­ «lo que (se) ocurrió». La propia situación,­ de acuerdo con la práctica anterior, explica lo que es tentador atribuir una agencia mental automática.

Es más, se concibe conducta no-­verbal encubierta. Son aquellas acciones, generalmente precursoras de una acción final, que se resuelven como actividad «ideomotora», en el sentido establecido por W. James, el cual no sugiere un orden causal de la idea (mental) a la acción (muscular). James ciertamente no incurre en tal metafísica. Por el contrario,­ se entiende ello en función de su condición de respuesta incardinada con una práctica efectiva en tal situación (los músculos del brazo se disponen hacia arriba ante el pensar en alzar la mano, pero sin movimiento efectivo, en virtud de que se ha hecho anteriormente en tal contexto). También se incluirían aquí acciones más coordinadas, como por ejemplo, las del acompañante del conductor de un coche que -frena como si condujera él-, sin ir pensando en ello, cosa que no haría si no tuviera alguna experiencia de conducir.

Naturalmente, todos estos supues­tos se definen como «encubiertos» entre tanto no son ostensibles de una manera que resulten efectivos sobre las cosas o las personas (aunque se den cuenta de ello), pero no quiere decir que no sean medibles (sean como actividad eléctrica muscular o mediante observación atenta)­ . En rigor, no existiría conducta encubierta,­ pues aún la «actividad mental» en sentido ordinario, tiene sus correlatos electro-linguales, oculares, y, si se quiere,­ electroneuronales o gluconutricionales,­ pero ello cara a entenderla la psicológicamente­ es trivial. Si fuera así curiosamente la explicación dejaría de ser mental cognitiva, para ser conductista­ grosera (con lo que Watson, del que todos han huido, y con razón, sería confirmado), pues ello probaría que aún en el más sutil pensamiento hay «conducta»,­ consistente en el fondo en «conducta­ motora». Si se apela a la actividad eléctrica o a procesos neuroquímicos, la explicación sería grosera en grado máximo.

Lo relevante aquí está en reconocer la existencia de conducta no-verbal encubierta,­ con lo que se desharía la distinción­ metafísica entre mental y conductual,­ que hace pasar lo interior (encubierto) por el pensamiento, y lo externo por su ejecución motora. Esa confusa distinción se disuelve en favor de una consideración que se atiene más al análisis funcional de la conducta que a su forma. “El punto de vista más sencillo­ —dice Skinner— y más satisfactorio consiste en considerar al pensamiento como conducta, ya sea verbal o no verbal,­ encubierta o descubierta. El pensamiento­ no es un proceso misterioso responsable­ de la conducta, sino que es la conducta misma, en toda la complejidad­ de sus relaciones de control, la que se relaciona al hombre que se comporta y al ambiente en el cual vive. Los conceptos y métodos que han surgido del análisis de la conducta, verbal o de otra clase, son los más apropiados para el estudio de lo que tradicionalmente se ha denominado­ la mente humana.” (Conducta verbal, pág. 479).

Operaciones, solución de problemas y creatividad

Con ser decisiva la identificación del pensamiento con la conducta, el aspecto crítico está en su relación con las variables­ de control (no meramente en la forma comporta mental). La consideración­ de la persona pensando como sujeto­ que se comporta (en el mismo sentido del «sujeto efectivo» de Ortega y Gasset), únicamente indica que el supuesto­ pensamiento (mental) no es la causa de un producto que fuera el pensamiento­-resultado (escrito, hablado o ejecutado de cualquier otra manera).

Las operaciones de pensar están obviamente en función de condiciones dadas que aportan el contexto respecto al cual se piensa (es decir, uno se comporta)­ . Un contexto que incluye desde el ambiente cultural envolvente, hasta la temática particular sobre la que propiamente­ «se piensa», incluyendo los resultados­ parciales del mismo proceso operatorio. Por supuesto, los contenidos del llamado pensamiento filosófico, o científico, exceden el análisis psicológico­. Pero comparten con cualquier otra temática sobre la que se piense, el carácter­ socialmente organizado en el que está situado el sujeto pensante.

Consiguientemente, el análisis de la conducta de pensar requiere la especificación­ de (cómo están organizadas) estas­ variables de control, es decir, la situación envolvente, el contexto temático­ «especializado», los repertorios per­sonales respecto al asunto, y las consecuencias­ intrínsecas y externas a la tarea. Todo ello, es esencialmente ambiental, aunque no en un sentido puntual, de instantánea descriptiva, sino funcional, consistente en operaciones sobre elementos­ con cierto orden (referido a las operaciones y a los elementos). Los elementos y el orden, es decir, la estructura,­ tienen ante todo una naturaleza ambiental fisicalista, porque de otro modo no podrían darse las operaciones, que por definición etimológica son «obras», («opus-operis»).

La parte silenciosa de las operaciones­ (llamadas mentales) es secundaria. Secundaria en doble sentido cronológico (primero son abiertas y si acaso después privadas, implícitas), y psicológico, donde lo «psico» es comportamiento, y lo «lógico» su organización (se excusa decir que ambiental). El momento mental (silencioso),­ sin duda muy importante, tiene sentido precisamente por su incorporación­ en un proceso de operaciones­ abiertas, verbales y no-verbales. La «operación mental» no niega la operación­ práctica efectora (no rompe la escala­ de las operaciones comporta mentales),­ sino que es su situación límite, que pide y tiene su sentido en función de éstas. Representa la situación cero de las operaciones positivas, dadas con efectividad­ en un ambiente fisicalista. Del mismo modo que los silencios dentro de una composición musical no son la negación­ de la música, sino más bien la música cero, que suponen, piden y tienen­ sentido en la escala positiva del sonido, así también los procesos mentales­ son momentos de las operaciones en su escala práctica comportamental. El silencio tiene sentido en la música, pero no define precisamente la música. En rigor, hablar de operaciones mentales sería una contradicción en los términos.

Dentro de esta argumentación es importante reparar también en que la conducta dada y dándose es ya una condición objetiva con la que interactúa (opera) el sujeto sucesivamente. Esto tanto con los productos «manufacturados»,­ como con la resolución de problemas­ y las composiciones literarias. El sujeto crea y reorganiza el ambiente, de manera que sucesivas operaciones logran­ nuevos sub-productos, que se segregan­ (subsumen o desperdician) respecto­ al logro o producto final. Al final, se obtiene un producto (por ejemplo, la solución de un problema o un poema), resultante de numerosas y probable­ mente bien complejas operaciones, pero éstas ya no están. Es tentador atribuir que la solución o la obra entre manos derivan de procesos u operaciones mentales (ahora invisibles), pero en realidad­ son sub-productos de operaciones que han quedado por el camino. Los procesos metales son otros productos. La ignorancia de estas operaciones intermedias­ abona a menudo el efecto del misterio de la creatividad. Cuanto menos se sepa de las condiciones previas y de los pasos seguidos más admiración tiene el autor por su obra. Generalmente, los artistas explotan esto o se aprovechan de ello, y la gente también lo prefiere así, cuando invocan la inspiración u otras agencias místicas.

El caso es que el planteamiento skinneriano abre una salida para un análisis­ científico de la solución de problemas y de la creatividad, con las consi­guientes implicaciones tecnológicas.

En esta perspectiva, la «solución de problemas» es el logro de alguna conducta­ apropiada a una situación para la que se carecen de una respuesta eficaz. El aspecto distintivo está en que el sujeto opera sobre Oos resultados de) sus propias­ conductas, y es reforzado por ello. Los resultados pueden ser tanto cambios de la situación como modificaciones de la conducta, de manera que se produce un moldeamiento de ésta. En todo caso, al responder sobre los propios resulta­dos, éstos se re-obran hacia adelante. Es característico del proceso, entonces, la construcción de estímulos discriminativos,­ a los que uno responde diferenciadamente­. Así, la conducta no sólo está moldeada por las consecuencias, sino que puede ser guiada por ciertos estímulos­ antecedentes autogenerados. Uno de éstos tiene naturaleza verbal. Así, los «automandos» facilitan cierta manera conveniente­ de proceder, del mismo modo que los «tactos» clarifican la situación (in­cluyendo lo que uno hace). El propio sujeto puede elaborar reglas que definen las contingencias, y así pre-venirse acerca de cómo funciona la situación. Esta incardinación entre operantes verbales y no-verbales, fue desarrollada posteriormente­ por Skinner, en la decisiva distinción entre conducta moldeada por las contingencias­ y conducta gobernada por reglas, precisamente a propósito de «Un análisis operante de la solución de problemas», el capítulo 6 de Contingencias de reforzamiento, pero original de 1966, (Skinner, 1966/1988); son muy interesantes­ los comentarios críticos de los nurnerosos­ autores sobre este trabajo de 1966, y las contestaciones de Skinner a ellos, apare­cidos originalmente en Behavioral and Brain Science, 7, (4), 1984, y reeditados después por el propio Ch. Catania, en colaboración con S. Harnard. Son de recordar,­ asimismo, los libros editados por Hayes (1989) y Hayes y Chase (1991).

La formulación de estas reglas adquiere­ un carácter objetivo. de modo que se acumula, ya no sólo para un caso dado, sino como «transmisión de estímulos­ construidos», sin necesidad de que uno tenga que empezar la historia de nuevo. De hecho, por lo común, ya se parte de reglas (leyes científicas, normas,­ máximas, instrucciones), que guían las operaciones desde el principio. No se ha de perder de vista que una regla es efectiva entre tanto es parte de un conjunto­ de contingencias de reforzamiento. En realidad, por sí mismas dicen poco. El poder lo otorgan las contingencias­ ambientales, físicas y sociales. La conducta gobernada por reglas no es exactamente igual a la mantenida por las contingencias.

En consecuencia, cualquier proceso conductual puede ser pertinente en la solución de problemas. Difícilmente se puede hablar de una suerte de «solucionador general de problemas», cual «pasteurización» de los procesos cognitivos. Ello no sólo ya porque haya diferencia entre los problemas interpersonales y los personales (los de la vida cotidiana), sino porque incluso referido a los primeros, las condiciones de control pueden ser distintas en cada caso, de un modo que sea decisivo para ayudar o enseñar a alguien. Centrado en la enseñanza escolar, Skinner ha plan­teado esto en el capítulo (cuyo título quizá resulte curioso a muchos) «Enseñar­ a pensar» de su importante libro de 1968 Tecnología de la enseñanza.

El análisis operante del pensamiento alcanza a la creatividad. Ya se ha insi­nuado que la admiración de la creatividad­ viene en gran medida por su atribu­ción a la «persona interior», descuidando el análisis de las condiciones en que se produce. Cuanto más se sepa de éstas, menos mérito cabe reconocer al misterio de la mente, si bien quizá en todo caso, afortunadamente, quede margen suficiente­ para el quehacer imprevisible, entre tanto el análisis exhaustivo sea imposible­. Pero sí un análisis suficiente que permita entender lo esencial y promover lo que interese, en vez de dejar las cosas a la suerte, al brote de la intuición.

El asunto principal es que la creatividad­ (incluyendo la artística) no es un reino aparte de la solución de problemas (entre ellos, los matemáticos). Cambia, sobre todo, el resultado abierto de la creatividad, y el gran interés por ocultar sus condiciones­. Afortunadamente, Edgard Allan Poe se ha ocupado en analizar una producción suya, por cierto, de máximo efecto emocional­ romántico, de modo que se puede invocar aquí como testigo en favor del planteamiento de Skinner. Su explicación del «Método de composición» según el cual ha construido el inmortal poema «El Cuervo», ilustra perfectamente el proceso de composición autoclítica en el sentido skinneriano.

Por definición, la creatividad no se puede enseñar, pues entonces ya no sería tal, pero sí que podemos enseñar al estudiante a disponer circunstancias ambientales que eleven al máximo la probabilidad de que se produzcan respuestas­ originales (lo dice Skinner en el capítulo «El estudiante creador» de Tecnología­ de la enseñanza).

# # # #
Referencias
-Brun, J. (1963). La mano y el espíritu. México: F.C.E., 1975. Hayes, L.J., & CHASE, P.N. (1991). Dialogues on verbal behavior. Reno: Context Press.
-Hayes, S.C. (Ed.). (1989). Rule-governed behavior. Cognition, contingencies, and instructional control. Nueva York: Plenum Press.
-Skinner, B.F. (1953). Ciencia y conducta humana. Barcelona: Fontanella, 1970.
-Skinner, B.F. (1957). Conducta verbal. México: Trillas, 1981.
-Skinner, B.F. (1966/1988). An operant analysis of problem solving. En A.Ch. Catania, & S. Harnard (Eds.), The selection of behavior. The operant behaviorismo of F. Skinner: Comments and consequences (pp.218-236). Nueva York: Cambridge University Press.
-Skinner, B.F. (1968). Tecnología de la enseñanza. Barcelona: Labor, 1970.
-Skinner, B.F. (1969). Contingencias de reforzamiento. Un análisis teórico. México: Trillas, 1981.
- -
Hoy publican otro bodrio ideológico promovido por la visión de la teoría estándar cosmológica. Como ya sabéis la teoría convencional cree que en el Universo la electricidad no interviene, que no tiene ningún papel en los fenómenos que se observan.

Crédito: ESO/L. Calçada
En el artículo lo anuncian así:

"Un equipo de cinco astrónomos de la Universidad Tecnológica Chalmers, utilizando el telescopio gigante Alma, han revelado un campo magnético extremadamente poderoso, nunca antes detectado en el núcleo de una galaxia, muy cerca del horizonte de sucesos de un agujero negro supermasivo. Esta nueva observación ayuda a los astrónomos a comprender la estructura y formación de estos masivos habitantes de los centros de las galaxias, y de los dobles chorros de plasma de alta velocidad que expulsan con frecuencia desde sus polos. Estos resultados aparecen en la edición del 17 de abril de 2015 de la revista Science."

O sea, que detectan enormes y fortísimos campos magnéticos, capaces de impresionantes eyecciones dobles de partículas, sin embargo ahí la electricidad nada tiene que ver. Para colmo, en el artículo se permiten citar a Faraday, pero claro sólo para utilizar las ecuaciones de polarización magnética (las otras no, las de corriente eléctrica y polarización eléctrica, esas no, que queda feo).

Basta con ir a Wikipedia y ver lo que nos dice sobre el electromagnetismo:

"El electromagnetismo es una rama de la física que estudia y unifica los fenómenos eléctricos y magnéticos en una sola teoría, cuyos fundamentos fueron sentados por Michael Faraday y formulados por primera vez de modo completo por James Clerk Maxwell. La formulación consiste en cuatro ecuaciones diferenciales vectoriales que relacionan el campo eléctrico, el campo magnético y sus respectivas fuentes materiales (corriente eléctrica, polarización eléctrica y polarización magnética), conocidas como ecuaciones de Maxwell."

Entonces, sabiendo que la electricidad y el magnetismo están indisolublemente unidas, que son aspectos de una misma fuerza, la pregunta es ¿cómo es posible ver enormes campos magnéticos activos y seguir "creyendo" que la electricidad no está presente?

En el mismo artículo, señala Ivan Marti-Vidal, principal autor de este trabajo:

"Cuando se produce de forma natural, la polarización se puede utilizar para medir campos magnéticos, ya que la luz cambia su polarización cuando viaja a través de un medio magnetizado. En este caso, la luz que detectamos con Alma ha estado viajando a través de un material muy cercano al agujero negro, un lugar lleno de plasma altamente magnetizado".

Por supuesto, de esta forma todo está magnetizado, que no electrificado, por obra y gracia de su santa teoría estándar. Uno ve cosas como ésta, tan descaradamente ideológicas o que se remiten a una supina y terca ceguera, que dan ganas de no divulgarlo. Pero a ellos les da igual, hay cientos y miles de blog de ciencias, periódicos, magazines, que van a trasladar todas estas incongruencias al gran público, el cual las consumirá acríticamente porque viene de la autoridad santoral de grandes astrofísicos.

- El artículo al que hago referencia se publica en Phys.org, a día de hoy, y se titula "Astrónomos revelan un intenso campo magnético en un agujero negro supermasivo" [Astronomers reveal supermassive black hole's intense magnetic field]

Referencia: Eurekalert.org, 13 abril de 2015
* * * *
Puede sorprendernos la idea de que las bacterias tienen un sistema inmune, en su caso, para luchar contra los virus invasores llamados fagos. Y al igual que cualquier sistema inmunológico, desde lo unicelular al humano, el primer desafío del sistema inmunológico bacteriano es detectar la diferencia entre lo "extraño" y lo "propio". Eso está lejos de ser simple, sabiendo que tanto los virus, las bacterias y todos los demás seres vivos están compuestos de ADN y proteínas. Un grupo de investigadores del Instituto de Ciencias Weizmann y de la Universidad de Tel Aviv han revelado de manera exacta cómo hacen esto las bacterias. Sus resultados fueron publicados en Nature.

Dr. Gil Amitai y el profesor Rotem Sorek
"En la mayoría de los entornos, los fagos son alrededor de diez veces más abundantes que las bacterias. Y, como todos los virus, los fagos utilizan la maquinaria de replicación de la célula huésped para hacer copias de sí mismos", explica el profesor Rotem Sorek del Departamento de Genética Molecular del Instituto Weizmann. "Y se mantienen en constante evolución sobre nuevas formas de hacer eso. Así que las bacterias necesitan un sistema inmunológico muy activo para sobrevivir."

Pero hasta hace poco, los científicos no estaban seguros de si las bacterias tenían el llamado sistema inmune adaptativo, el que "recuerda" un encuentro pasado para producir una respuesta específica. Todo eso cambió hace varios años, cuando se descubrió un sistema de adaptación bacteriana llamado CRISPR. El mecanismo inmunológico CRISPR no es sólo crucial para las bacterias, tiene un impacto importante en nuestra vida cotidiana: se utiliza hoy en día, por ejemplo, para proteger a las bacterias "buenas" que hacen el yogur y el queso. Y también afecta a nuestro futuro: Los científicos han descubierto la manera de utilizar el ingenioso sistema CRISPR para "editar" el genoma humano, por lo que es una herramienta muy útil para una amplia gama de aplicaciones clínicas.

Para recordar una infección, el sistema CRISPR agarra una secuencia corta de ADN viral invasor y lo inserta directamente en el genoma bacteriano. Los trozos de ADN de fago se almacenan en secciones especiales del genoma, estos son los que forman la memoria inmune. En infecciones posteriores, CRISPR utiliza estas secuencias para crear hebras cortas de ARN que se ajustan a la secuencia genética de parentesco de los fagos. Los complejos de proteínas adjuntas al ARN y identifican entonces el ADN del fago y lo destruyen.

La selectividad es claramente un problema para un sistema de este tipo: Una investigación anterior en el laboratorio de Sorec se mostraba que los trozos erróneamente cogidos del ADN propio, podía causar que la célula bacteriana sufriera una especie de enfermedad autoinmune en la que atacaba su propio ADN, y los resultados podían ser fatales para la bacteria. Con alrededor de 100 veces más ADN propio que extraño dentro de la célula, dice Sorek, no parece haber espacio para muchos más errores que los observados realmente por los investigadores.

¿Cómo sabe el sistema CRISPR que está insertando en el ADN extraño, en lugar de en el propio, los trozos de ADN de la memoria inmune? Sorek y su estudiante de investigación, Asaf Levy, se unieron con el Prof. Udi Qimron y Moran Goren, de la Universidad de Tel Aviv, para responder a esa cuestión en detalle, revelando un complejo mecanismo de múltiples pasos en esta parte del proceso CRISPR.

Idearon un montaje experimental que utiliza plásmidos (piezas cortas y circulares de ADN que imitan virus) y los inyectaron en células bacterianas. Estas bacterias tenían dos proteínas conocidas como CAS1 y CAS2, que son las partes del sistema CRISPR responsables de la adquisición de las trozos de ADN extraño. El sistema CRISPR incorporó con éxito el ADN plásmido en el genoma bacteriano, mientras que el ADN propio rara vez fue atacado. El equipo registró unos 38 millones de eventos de inmunización separados.

Mirando más de cerca los resultados, el equipo descubrió que el sistema CRISPR, usando las proteínas Cas 1 y 2, identificaba específicamente el ADN que se replicaba rápidamente. Así, irónicamente, la misma supervivencia táctica del fago -su unidad programada para replicarse a toda costa- resultaba ser su caída.

"Aún así", apunta Sorek, "esto no explica completamente cómo el sistema CRISPR diferencia entre el propio y el extraño."

La solución vino desde una comprensión más profunda del proceso. Durante la replicación del ADN, se producen con frecuencia pequeñas roturas en el ADN; estos saltos llaman a una enzima de reparación del ADN que "muerde" un fragmento del ADN roto. El equipo descubrió que lo "descartado" del mordisqueo de la maquinaria de reparación era en realidad la fuente del ADN viral utilizada por el sistema CRISPR para generar la memoria inmune de la bacteria. Pero cuando dicha enzima de reparación cumplía con una secuencia corta llamada "Chi site", su mordisqueo se detenía. Estas secuencias Chi se hallan muy bastante frecuencia a lo largo del genoma bacteriano y rara vez en el viral. Así que los sitios Chi también sirven como marcadores de "lo propio": estos marcadores rechazan la actividad de la maquinaria CRISPR cuando están presentes, pero le permiten usar trozos de ADN del fago si se han perdido.

Así pues, la célula bacteriana utiliza los procesos normales de replicación y reparación del ADN para identificar el ADN del fago, comprobando en un doble control que el nuevo ADN difiere en dos aspectos fundamentales del genoma "propio". Mediante la actividad de las dos proteínas de CRISPR -la cas 1 y la 2-, el sistema inmune bacteriano puede asegurarse de que es la adición de ADN extraño solamente y de su  "memoria" inmune, y por tanto poder activar sus defensas.

Según señala Sorek: "Resolver el enigma de lo propio frente a la no-propio del sistema inmunológico bacteriano, y descifrar el mecanismo exacto de este paso en el proceso CRISPR nos ofrece información importante sobre la confrontación que está teniendo lugar en todas partes a nuestro alrededor, durante todo el tiempo". Y añade Qimron: "La solución bacteriana para evadir la autoinmunidad podría ser utilizada en aplicaciones clínicas futuras que aprovechen mejor el funcionamiento del sistema CRISPR".

# # # #
- Imagen: el Dr. Gil Amitai y el profesor Rotem Sorek. Crédito Weizmann Institute of Science.
- Fuente: Weizmann Institute of Science.
-
Referencia: Eurekalert.org , 13 abril de 2015
* * * *
Desarrollan una técnica de alta resolución basada en la tomografía de coherencia óptica para obtener imágenes de forma no invasiva y análisis de las capas ocultas de centenarias pinturas de incalculable valor.

El cuadro colgado en la pared de una galería de arte cuenta una historia; pero bajo su superficie puede estar contando otra muy distinta.

A menudo, en un Rembrandt, un Vermeer, un Leonardo, un Van Eyck, o cualquier otra gran obra maestra del arte occidental, las capas de pintura se han cubierto con barniz, a veces con varias capas aplicadas en distintos momentos de su historia. El barniz se aplicaba originalmente para proteger la pintura de debajo y hacer que sus colores fueran más intensos, pero con el paso de los siglos se ha podido ir degradando. Los conservadores limpian cuidadosamente el barniz viejo y lo sustituyen con el nuevo; sin embargo, para hacer esto con seguridad es útil saber de los materiales y la estructura de la pintura que hay bajo la superficie. Los científicos conservadores pueden extraer esta información mediante el análisis de las capas ocultas de pinturas y barnices.

Ahora, los investigadores de la Facultad de Ciencia y Tecnología de la Universidad de Nottingham Trent, se han asociado con la National Gallery de Londres para desarrollar un instrumento capaz de capturar, de forma no invasiva, detalles bajo la superficie y en alta resolución. Su configuración, publicado en Optics Express, permitirá a científicos y conservadores mirar con más eficacia bajo la superficie de pinturas y artefactos, para aprender no sólo cómo el artista construye la composición original, sino también los recubrimientos que pasados se hayan aplicado.

Tradicionalmente, el análisis de las capas de una pintura requiere tomar una muestra física muy pequeña -en general de un cuarto de milímetro de ancho- para ver bajo el microscopio. Esta técnica proporciona una sección transversal de las capas de pintura, lo que permitía obtener imágenes en alta resolución y analizarlas para obtener una información detallada sobre la composición química de la pintura, pero ello implica la eliminación de un poco de pintura original, aunque sólo sea una cantidad muy pequeña. Al estudiar las obras maestras de valor, los científicos conservadores deben, por tanto, elegir la muestra de forma muy selectiva de las áreas ya dañadas, a menudo suelen coger unas pocas pequeñas muestras de un gran lienzo.

Más recientemente, los investigadores han comenzado a utilizar las técnicas de imagen no invasivas para estudiar las pinturas y otros objetos históricos. Por ejemplo, la tomografía de coherencia óptica (OCT) fue desarrollada originalmente para el tratamiento de imágenes médicas, pero también se ha venido aplicando a la conservación del arte. Debido a que utiliza un haz de luz para escanear la pintura intacta sin la eliminación de muestras físicas, la OCT permite a los investigadores analizar la pintura con más profundidad. Sin embargo, la resolución espacial de las configuraciones comercialmente disponibles no son lo suficientemente altas para mapear completamente las finas capas de pintura y barniz.

Los investigadores de la Nottingham Trent University tomaron una actualización de la OCT. "Estamos tratando de ver hasta dónde podemos llegar con técnicas no invasivas. Queríamos conseguir la resolución que las técnicas destructivas convencionales han alcanzado", explicó Haida Liang, que dirigió el proyecto.

En la OCT, el haz de luz queda dividido: un medio está dirigido hacia la muestra, y el otro se envía a un espejo de referencia. La luz de ambas se dispersa desde estas superficies. Mediante la medición de la señal combinada, la cual compara eficazmente el retorno de la luz de la muestra y lo compara con la referencia, el aparato puede determinar hasta qué punto penetró la luz en la muestra. Repitiendo este procedimiento varias veces a través de un área, pueden construir un mapa de la sección transversal de la pintura.

Liang y sus colegas usaron una fuente de luz láser de banda ancha, un haz de luz concentrado que contiene una amplia gama de frecuencias. Un rango de frecuencias más amplio permite la recopilación de datos más precisos, aunque este tipo de fuentes de luz no estaban disponibles en el mercado hasta hace muy poco.

Junto con algunas otras modificaciones, la adición de la fuente de luz de banda ancha dispone al aparato para escanear la pintura en una resolución más alta. Cuando se probó en una copia de finales del siglo XVI de una pintura de Rafael, ubicada en la National Gallery de Londres, se comportó tan bien como las técnicas tradicionales invasivas.

"Somos capaces de igualar no sólo la resolución sino también la capacidad de ver algunas de las estructuras de capas con un mejor contraste. Esto se debe a que la OCT es particularmente sensible a los cambios en el índice de refracción", comentó Liang. En algunos lugares, la ultra-alta resolución de la OCT pudo identificar capas de barniz que eran casi indistinguibles entre sí bajo el microscopio.

Por último, los investigadores planean poner su instrumento a disposición de otras instituciones de arte. También podría sería útil para analizar manuscritos históricos, que no se pueden muestrear físicamente de la misma forma que las pinturas.

En un artículo paralelo, publicado recientemente en la revista Optics Express, los investigadores también mejoraron la profundidad que su aparato puede escanear en la pintura. Los dos objetivos parecen complementarios: usar una fuente de luz de longitud de onda más larga podría aumentar la profundidad de penetración, pero la luz de longitud de onda más corta (tal como se utiliza en su configuración actual) proporciona la mejor resolución.

"El siguiente reto sería tal vez el poder hacer eso con un solo instrumento, así como para extraer la información química de las diferentes capas", dijo Liang.

# # # #
- Fuente: The Optical Society
- Publicación: "Ultra-high resolution Fourier domain optical coherence tomography for old master paintings," C.S. Cheung et al., Optics Express, Vol. 23, Issue 8, pp. 10145-10157 (2015). doi: http://dx.doi.org/10.1364/OE.23.010145.
- Imagen: Rafael 1483 - 1520 probablemente anterior a 1600. Óleo sobre madera. 87 x 61.3 cm. Wynn Ellis Bequest, 1876 Credit: © National Gallery, London
- -
Referencia: Science Daily.com, 9 de abril 2015
* * * *
Los cambios en los océanos de la Tierra, causado por la extrema actividad volcánica, provocaron la mayor extinción de todos los tiempos, según sugiere un estudio. La cantidad de carbono añadido a la atmósfera que provocó la extinción masiva fue, probablemente, mayor que las actuales reservas de combustible fósil. Sin embargo, el carbono se liberaba a una velocidad similar a la de las emisiones actuales. Esta rápida tasa de liberación fue un factor que impulsó la acidificación crítica del océano, dicen los investigadores.

Esta imagen muestra el trabajo de campo en los Emiratos Árabes Unidos. Crédito: D. Astratti
El evento, ubicado hace 252 millones de años, acabó con más del 90 por ciento de las especies marinas y más de las dos terceras partes de los animales que viven en la tierra. Sucedió cuando los océanos de la Tierra absorbieron grandes cantidades de dióxido de carbono de las erupciones volcánicas.

Esto cambió la composición química de los océanos, haciéndolos más ácidos, con consecuencias catastróficas para la vida en la Tierra. El estudio, coordinado por la Universidad de Edimburgo, quiere mostrar que los océanos muy ácidos fueron los responsables.

Estos hallazgos están ayudando a los científicos a comprender la amenaza que representa para la vida marina la actual acidificación de los océanos. La cantidad de carbono, probablemente mayor que las reservas de combustibles fósiles de hoy, añadido a la atmósfera entonces, provocó dicha extinción masiva.

La extinción en el Pérmico-Triásico tuvo lugar durante un período de 60.000 años, según los investigadores. La acidificación de los océanos duró alrededor de 10.000 años.

La acidificación oceánica fue la fuerza impulsora tras la fase más mortal de la extinción, la que asestó el golpe final a un ecosistema ya inestable. El aumento de las temperaturas y la pérdida generalizada de oxígeno en los océanos ya habían puesto al medio ambiente bajo presión.

Los océanos podían absorber parte del dióxido de carbono, pero el gran volumen liberado, y a un ritmo tan rápido, cambió la química de los océanos. La extinción masiva de animales, tanto terrestres marinos, demuestra el cambio extremo que se llevó a cabo en todos los ecosistemas de la Tierra.

El equipo analizó rocas desenterradas en los Emiratos Árabes Unidos, que estaban en el fondo del océano en aquella época, para desarrollar un modelo climático para trabajar en la aclaración de esa extinción. Las rocas conservan un registro detallado de los cambios que se produjeron en las condiciones oceánicas en aquel momento.

El estudio, publicado en la revista Science, se llevó a cabo en colaboración con la Universidad de Bremen, Alemania, y la Universidad de Exeter, junto con las universidades de Graz, Leeds y Cambridge.

Dr. Matthew Clarkson, en la Escuela de Geociencias de la Universidad, que coordinó el estudio de Edimburgo, dijo: "Pese a las sospechas científicas y la carencia de evidencia directa hasta ahora, este es un hallazgo preocupante, habida cuenta del aumento de acidez de los océanos de hoy día como resultado de las emisiones de carbono."

# # # #
- Fuente: University of Edinburgh.
- Publicación: M. O. Clarkson, S. A. Kasemann, R. A. Wood, T. M. Lenton, S. J. Daines, S. Richoz, F. Ohnemueller, A. Meixner, S. W. Poulton, E. T. Tipper. Ocean acidification and the Permo-Triassic mass extinction. Science, 2015 DOI: 10.1126/science.aaa0193.

- -
Referencia: Science Daily.com , 8 de abril 2015
* * * *
Por primera vez, los astrónomos han detectado la presencia de moléculas orgánicas complejas, los componentes básicos de la vida, en un disco protoplanetario que rodea a una estrella joven. El descubrimiento, realizado con el Atacama Large Millimeter / submillimeter Array (ALMA), reafirma que las condiciones que dieron origen a la Tierra y el Sol no son únicos en el Universo. Estos resultados se publican en la edición de 2015 el 9 de abril de la revista Nature.

Impresión artística del disco protoplanetario
que rodea a la joven estrella MWC 480.
Crédito: B. Saxton (NRAO/AUI/NSF)
Las nuevas observaciones de ALMA revelan que el disco protoplanetario que rodea a la joven estrella MWC 480 contiene grandes cantidades de cianuro de metilo (CH3CN), una compleja molécula basada en el carbono. Hay suficiente cianuro de metilo alrededor de la MWC 480 para llenar todos los océanos de la Tierra.

Tanto esta molécula como su primo más simple, el cianuro de hidrógeno (HCN), se encuentran en los fríos límites exteriores del disco recién formado de la estrella, en una región que los astrónomos creen que es análogo al Cinturón de Kuiper, ese reino de planetesimales helados y cometas de nuestro propio Sistema Solar, más allá de Neptuno.

Los cometas retienen un registro de principios químicos del Sistema Solar desde la época de la formación de planetas. Los cometas y asteroides del Sistema Solar exterior se cree que sembraron a una joven Tierra con moléculas de agua y orgánicos, ayudando a preparar el escenario para el desarrollo de la vida primordial.

"Los estudios de cometas y asteroides muestran que la nebulosa solar que generó el Sol y los planetas eran ricas en agua y compuestos orgánicos complejos", señaló Karin Öberg, astrónoma del Centro Harvard-Smithsoniano de Astrofísica en Cambridge, Massachusetts, EE.UU., y autora principal del nuevo estudio.

"Ahora tenemos mejores evidencias de que esta misma química existe en otras partes del Universo, en otras regiones que podrían formar sistemas solares no diferentes al nuestro". Esto es particularmente intrigante, apunta Öberg, ya que las moléculas que se encuentran en el MWC 480 también se encuentran en concentraciones similares en los cometas del Sistema Solar.

La estrella MWC 480, que es de aproximadamente el doble de la masa del Sol, se encuentra a 455 años luz de distancia, en la región de formación estelar Tauro. Los estudios con ALMA y otros telescopios todavía no han detectado ningún síntoma aparente de formación de planetas en la misma, aunque observaciones de mayor resolución podría revelar estructuras similares a la HL Tauri, que es de la misma edad.

# # # #
- Fuente: European Southern Observatory, ESO.
- Publicación: Karin I. Öberg, Viviana V. Guzmán, Kenji Furuya, Chunhua Qi, Yuri Aikawa, Sean M. Andrews, Ryan Loomis, David J. Wilner. The comet-like composition of a protoplanetary disk as revealed by complex cyanides. Nature, 2015; 520 (7546): 198 DOI: 10.1038/nature14276.

Referencia: Science Daily.com, 10 de abril 2015
* * * *
Investigadores de la Universidad de British Columbia han desarrollado una nueva tecnología que permite un rápido descubrimiento de aptámeros, una de las clases de agentes para diagnóstico y terapéutica de mayor crecimiento. Los aptámeros son secuencias cortas de material genético que se pliegan en precisas estructuras 3D que se unen a moléculas diana e inhiben sus funciones biológicas.

Crédito: Julius Csotonyi
En un reciente artículo en  Biotechnology and Bioengineering, los investigadores describen su plataforma de selección de aptámeros, llamada evolución sistemática de alta fidelidad  de ligandos por enriquecimiento exponencial (Hi-Fi SELEX), que acelera y mejora la selección de aptámeros de ADN al mejorar varias limitaciones en los métodos actuales utilizados tras el descubrimiento de aptámeros. La plataforma está diseñada para mejorar la diversidad inicial de la colección de aptámeros, y para enriquecer rápidamente los aptámeros de relevancia terapéutica, permitiendo la amplificación de su alta fidelidad y regeneración.

"Como laboratorio de desarrollo de tecnológico, miramos la disponibilidaad de plataformas de descubrimiento de aptámero a fin de determinar con precisión por qué tan a menudo no producen resultados reactivos útiles, tanto funcional como terapéuticamente. Mediante este esfuerzo hemos identificado una serie de cuestiones que limitan en gran medida el rendimiento, luego trabajamos para mejorar tales impedimentos usando una combinación de métodos de modificación química y estrategias avanzadas enzimáticas y de procesamiento disponibles en nuestros laboratorios", explicaba el autor principal, Dr. Charles Haynes. "Una de las grandes fortalezas de la plataforma Hi-Fi SELEX es su capacidad para mejorar la diversidad funcional de la biblioteca, lo cual mejora en gran medida las probabilidades de descubrir moléculas útiles."

# # # #
- Fuente: Wiley, vía EurekAlert .
- Publicación: Eric Ouellet, Jonathan H. Foley, Edward M. Conway, Charles Haynes. Hi-Fi SELEX: A high-fidelity digital-PCR based therapeutic aptamer discovery platform. Biotechnology and Bioengineering, 2015; DOI: 10.1002/bit.25581 .

- -
Referencia: Science Daily.com, 9 de abril 2015
* * * *
La temperatura es un concepto estadístico. Los sistemas muy pequeños, consistentes en un pequeño número de partículas, no suelen describirse estadísticamente. Ahora, los científicos han medido la forma en que los sistemas cuánticos alcanzan un estado con propiedades estadísticas bien definidas y, sorprendentemente, han descubierto que los sistemas cuánticos pueden tener diferentes temperaturas a la vez. Que la conexión entre los sistemas cuánticos pequeños y los grandes sistemas obedezca a las leyes de la física clásica es una de las grandes preguntas abiertas de la física.

La temperatura es una magnitud física muy útil. Nos permite hacer una simple declaración estadística sobre la energía de las partículas que rondan alrededor de complicadas vías sin tener que conocer los detalles específicos del sistema. Los científicos de la Universidad Tecnológica de Viena, junto con colegas de la Universidad de Heidelberg, están investigando ahora, cómo las partículas cuánticas alcanzan ese estado donde las declaraciones estadísticas son posibles. El resultado es sorprendente: una nube de átomos puede tener varias temperaturas a la vez. Esto es un paso importante hacia una comprensión más profunda de los grandes sistemas cuánticos y sus exóticas propiedades.

Las estadísticas ayudan cuando las cosas se complican

El aire que nos rodea está formado por innumerables moléculas, moviéndose aleatoriamente alrededor. Sería absolutamente imposible hacer un seguimiento de todos ellas y describir todas sus trayectorias. Pero para muchos propósitos, esto no es necesario. Se pueden hallar las propiedades del gas que describen el comportamiento colectivo de todas las moléculas, como la presión del aire o la temperatura, lo que da lugar a la energía de las partículas. En un día caliente de verano, las moléculas se mueven a unos 430 metros por segundo, en invierno un poco menos.

Este punto de vista estadístico (que fue desarrollado por el físico vienés Ludwig Boltzmann), ha demostrado un gran éxito y capaz de describir muchos sistemas físicos diferentes, desde ollas de agua hirviendo hasta las fases de transición de los cristales líquidos de las pantallas LCD. Sin embargo, a pesar de los enormes esfuerzos, las cuestiones abiertas se han mantenido, especialmente respecto a los sistemas cuánticos. El cómo surgen las bien conocidas leyes de la física estadística de las muy pequeñas partes cuánticas de un sistema, eso sigue siendo una de las grandes cuestiones abiertas en la física.

Caliente y frío al mismo tiempo

Los científicos de la Universidad de Tecnología de Viena han conseguido ahora estudiar el comportamiento de un sistema físico cuántico multi-partículas a fin de comprender la emergencia de sus propiedades estadísticas. El equipo del profesor Jörg Schmiedmayer utiliza un tipo especial de microchip que atrapa una nube de varios miles de átomos y los enfría cerca del cero absoluto a -273°C, donde sus propiedades cuánticas se hacen visibles.

El experimento mostró resultados notables: Cuando se cambiaron abruptamente las condiciones externas en el chip, el gas cuántico podía asumir diferentes temperaturas a la vez. Podía ser frío y caliente al mismo tiempo. El número de temperaturas depende exactamente de cómo manipulen el gas los científicos. "Con nuestro microchip podemos controlar muy bien los sistemas cuánticos complejos y medir su comportamiento", señala Tim Langen, autor principal del artículo publicado en "Science". Ya se había hecho cálculos teóricos prediciendo este efecto, pero nunca había sido posible observarlo y producirlo en un entorno controlado.

El experimento ayuda a los científicos a comprender las leyes fundamentales de la física cuántica y su relación con las leyes estadísticas de la termodinámica. Esto es relevante para muchos diferentes sistemas cuánticos, tal vez incluso para aplicaciones tecnológicas. Por último, los resultados arrojan alguna luz sobre la forma en que nuestro mundo macroscópico clásico emerge del extraño mundo de los pequeñísimos objetos cuánticos.

# # # #
- Fuente: Vienna University of Technology, vía EurekAlert .
- Imagen: Este es el microchip para capturar y enfriar nubes de átomos. Crédito: TU Wien
- Publicación: T. Langen, S. Erne, R. Geiger, B. Rauer, T. Schweigler, M. Kuhnert, W. Rohringer, I. E. Mazets, T. Gasenzer, J. Schmiedmayer. Experimental observation of a generalized Gibbs ensemble. Science, 2015; 348 (6231): 207 DOI: 10.1126/science.1257026.

Referencia: MedicalXpress.com , 7 abril 2015
* * * *
Un fármaco experimental basado en una cadena sencilla de oligonucleótido, MGN1703, compuesto sólo de componentes de ADN natural, estimula el sistema inmunitario humano a la hora de combatir las infecciones y atacar las células cancerosas, sin causar los efectos secundarios perjudiciales asociados con compuestos similares que también contienen componentes de ADN no naturales. El diseño y las características estructurales de MGN1703, aún está en pruebas clínicas para tratar una variedad de cánceres, afectando a su potencia y toxicidad, tal como se describe en un artículo de Nucleic Acid Therapeutics.

El estudio, "Design and Structural Requirements of the Potent and Safe TLR-9 Agonistic Immunomodulator MGN1703", presenta una visión detallada de esta molécula de ADN, que contiene los nucleótidos no metilados de pares citosina-guanina; se trata de una firma que a menudo se encuentra en bacterias y virus, la cual envía una señal de peligro a las células inmunes humanas. Estos compuestos se unen y activan al receptor 9 (TLR9), provocando una cascada de vías de señalización en el sistema inmunológico que permiten el reconocimiento y la destrucción de las células extrañas.

Manuel Schmidt y Matthias Schroff, Mologen AG (Berlín, Alemania), Nicole Hagner y Burghardt Wittig, Freie Universität Berlin, Alberto Marco, Universidad Autónoma de Barcelona (España), y Sven König-Merediz, Vivotecnia (Madrid, España), describen su enfoque para el diseño molecular de la MGN1703. Ellos evitan la necesidad de incorporar componentes no naturales en la cadena principal de ADN para así mejorar su potencia y estabilidad en lugar de manipular su tamaño y forma.

"De cara al futuro, para procurar resolver posibles decepciones en la implementación clínica de los oligodesoxinucleótidos de citosina-fosfodiester-guanina, este trabajo da un paso importante hacia la aplicación de una nueva clase de inmunomoduladores seguros y eficaces en seres humanos", señala el editor ejecutivo Graham C. Parker, PhD, El Carman y Ann Adams del Departamento de Pediatría, Wayne State University School of Medicine, Children's Hospital of Michigan, Detroit, MI.

# # # #
- Imagen: crédito © Mary Ann Liebert, Inc., editores
-
Referencia: Institute for Basic Science .
vía AlphaGalileo.org, 2 de abril de 2015
* * * *
Un grupo de investigación de Corea del Sur y Estados Unidos ha desarrollado un método de producción escalable de un estado avanzado de aleación para el uso en dispositivos termoeléctricos de estado sólido. Esta nueva aleación es casi el doble de eficiente que los materiales existentes y puede dar lugar a una nueva serie de aplicaciones. Los usos incluyen la refrigeración, la electrónica de consumo, el transporte, así como los dispositivos nuevos que no han sido todavía producidos debido a las ineficiencias de los materiales existentes.


El físico francés, Jean Charles Athanase Peltier, descubrió un concepto clave necesario para el control termoeléctrico (TE) de temperatura en 1834. Sus resultados fueron tan significativos, que los dispositivos TE son referidos ahora comúnmente como dispositivos Peltier. A partir de su trabajo, los avances han sido constantes en materiales y diseño. Pero a pesar de la sofisticación tecnológica de los dispositivos  Peltier, todavía son menos eficientes energéticamente que los tradicionales refrigerantes compresor/evaporación.

En la década de 1960, los dispositivos Peltier se hicieron principalmente de aleaciones de bismuto-Telluride (Bi2Te3) o antimonio-Telluride (Sb2Te3) teniendo una eficiencia máxima (zT) de 1.1, lo que significa que la electricidad que fluía era sólo ligeramente inferior al calor que salía. Desde los años de 1960 se han producido avances incrementales en esta tecnología de aleación utilizada en los dispositivos Peltier.

En 2014, los investigadores de Corea del Sur en el IBS Center for Integrated Nanostructure Physics, junto con el Samsung Advanced Institute of Technology, el Department of Nano Applied Engineering en la Kangwon National University, el Department of Energy Science en la Sungkyunkwan University, y el Materials Science department en el California Institute of Technology California, en EE.UU., han formulado un nuevo método para la creación de una novedosa y mucho más eficiente aleación TE.

Las aleaciones TE son especiales porque los metales tienen un punto de fusión muy alto. En lugar de fundirlos para conseguir la fusión, se combinan a través de un proceso llamado sinterización, el cual utiliza el calor y/o la presión para unir los pequeños gránulos metálicos. El equipo conjunto, incluidos los investigadores del IBS, utilizaron un proceso llamado sinterización asistida de líquido-flujo que combina los gránulos de antimonio, bismuto y teluro en una sola aleación (Bi0.5Sb1.5Te3). El teluro fundido adicional fue utilizado como líquido entre los gránulos Bi0.5Sb1.5Te3 para ayudar a fundirlos en una aleación sólida, y el exceso de Te resulta expulsado en el proceso.

A través de la creación de una aleación de esta manera, las juntas entre los granos fusionados, también conocidas como límites de grano, se obtuvo una propiedad especial. Tradicionalmente, el Bi0.5Sb1.5Te3 sinterizado tiene juntas gruesas que conducían a una disminución tanto de la conductividad térmica como la eléctrica. Esta nueva sinterización en fase líquida crea límites de grano que se organizan y alinéan en costuras llamadas matrices de dislocación. Y éstas reducen en gran medida la conducción térmica, dando lugar a una mejora de la eficiencia en la conversión termoeléctrica.

En las pruebas, la eficiencia (zT) alcanzó 2,01 a 320 K en el intervalo de 1,86 ±0,15 a 320 K (46,85 °C) para 30 muestras, casi duplicando el estándar de la industria. Cuando se utiliza la fundida aleación Bi0.5Sb1.5Te3 en un refrigerador Peltier, los resultados también son significativos. El nuevo material fue capaz de lograr un cambio de temperatura de 81 K a 300 K (26,85 °C).

Las aplicaciones de este material son abundantes. Conforme se desarrollen nuevas técnicas de fabricación, podrán usarse los dispositivos de refrigeración Peltier en lugar de los sistemas de refrigeración por compresión tradicionales. Más importante aún, conforme los vehículos eléctricos y dispositivos electrónicos personales se están volviendo más omnipresentes en nuestra vida diaria, cada vez resulta más necesario contar con sistemas más eficientes en la generación localizada de energía eléctrica y de mecanismos de enfriamiento eficaces. Esta nueva aleación termoeléctrica allana el camino hacia este futuro de modernos dispositivos TE.

# # # #
- Imagen: matrices de generación de dislocaciones en los límites de grano en Bi0.5Sb1.5Te3.
- Fuente: Instituto de Ciencias Básicas .
- Publicación: Sang Il Kim, Kyu Hyoung Lee, Hyeon A. Mun, Hyun Sik Kim, Sung Woo Hwang, Jong Wook Roh, Dae Jin Yang, Weon Ho Shin, Xiang Shu Li, Young Hee Lee, G. Jeffrey Snyder, Sung Wng Kim(2015). Dense dislocation arrays embedded in grain boundaries for high-performance bulk thermoelectric. SCIENCE. DOI:10.1126/science.aaa4166.

-