Ads-728

Ads-728

Psicología

Astrofísica

Genética

Neurociencia

» » Buscando eficiencias ocultas en la arquitectura de ordenadores

Referencia: Phys.org .
por Aaron Dubrow, 18 de abril 2014

El ordenador es una de las máquinas más complejas jamás concebida, y la mayoría de nosotros sólo interactuamos con sus características más simples. Por cada golpe de teclado y clic en la web, miles de instrucciones deben ser comunicadas en diversos idiomas y calculados millones de datos.

Pregunta clave: ¿Cómo avanzar en el rendimiento computacional sin un progreso tecnológico significativo? Hill y otros están trabajando para cosechar nuevos aumentos durante el período de "descanso" de ese futuro próximo. Crédito: Advancing Computer Systems without Technology Progress, ISAT Outbrief, Mark D. Hill and Christos Kozyrakis, DARPA/ISAT Workshop, March 26-27, 2012
Mark Hill sabe más sobre el funcionamiento interno del hardware de los computadores que la mayoría. Como profesor de Ciencias de la Computación en la Universidad de Wisconsin, estudia la forma en que las computadoras transforman los 0 y 1 en las redes sociales o en las compras en eBay, siguiendo la reacción en cadena desde el ordenador personal al concentrador de red y a la nube, y viceversa.

La intrincadas capas de computadoras se ocultan deliberadamente de aquellos que las utilizan, e incluso de aquellos que los diseñan, construyen y programan los ordenadores. Los lenguajes máquina, compiladores y los protocolos de red manejan gran parte de las desordenadas interacciones entre los distintos niveles dentro y entre los ordenadores.

"Nuestras computadoras son muy complicadas y nuestro trabajo consiste, la mayor parte del tiempo, en ocultar la mayor parte de esta complejidad, para que no tengas que enfrentarla, si no, usted no podría hacer lo que quiere hacer, tanto si estás resolviendo un problema o proporcionando entretenimiento", explicó Hill.

Durante las últimas cuatro décadas del siglo XX, conforme las computadoras crecían más rápido y más rápido, tenía cierta ventaja mantener esta complejidad oculta. Sin embargo, en la última década, la velocidad lineal de aceleración en la capacidad de procesamiento a la que nos habíamos acostumbrado (a menudo referida como la "ley de Moore") ha comenzado a estabilizarse. Ya no es posible duplicar la capacidad de procesamiento del ordenador cada dos años con sólo hacer transistores más pequeños y empaquetarlos en un chip.

Como respuesta, los investigadores como Hill y sus colegas de la industria, están reexaminando las capas ocultas de la arquitectura de computación y las interfaces entre ellas, con el propósito de exprimir más la potencia de procesamiento al mismo costo.

Preparados, listos ..., a calcular

Una de las principales formas en que Hill y los demás hacen esto, es mediante el análisis de rendimiento de tareas de la computadora. Igual que un entrenador con su cronómetro, Hill mide el tiempo que tarda un procesador ordinario, por ejemplo, en analizar una consulta en Facebook o realizar una búsqueda en Internet. Él no sólo está interesado en la velocidad total de la acción, sino en cuánto tiempo le lleva cada paso en el proceso.

A través de un cuidadoso análisis, Colina revela las ineficiencias, a veces muy importantes, de los flujos de trabajo, por las cuales las computadoras operan. Recientemente, investigó las ineficiencias en la forma en que las computadoras implementan la memoria virtual y determinó que estas operaciones pueden desperdiciar hasta un 50 por ciento de los ciclos de ejecución de un ordenador. (La memoria virtual es una memoria de gestión técnica, que asigna las direcciones de memoria utilizadas por un programa determinado, llamando direcciones virtuales a aquellas asignaciones físicas en la memoria del ordenador; es lo que, en parte, hace que cada programa puede parecer que se ejecuta como si estuviera solo en un ordenador).

Las ineficiencias que descubrió se debían sobre todo a la forma en que las computadoras han evolucionado con el tiempo. La memoria se ha incrementado un millón de veces desde la década de 1980, pero la forma en que se ha utilizado apenas ha cambiado en absoluto. Hay un método heredado llamado paginación, que se creó cuando la memoria era mucho más pequeña, que estaba impidiendo que los procesadores de ahora alcancen su máximo potencial.

Hill diseñó una solución que utiliza la paginación de forma selectiva, adoptando un método más simple de traducción de direcciones para las partes clave de las aplicaciones importantes. Esto reduce el problema, haciendo que la pérdida de caché no llegue a menos del 1 por ciento. En la edad del nanosegundo, fijar tales ineficiencias se cobra dividendos. Por ejemplo, con esta solución, Facebook podría hacer compras con menos ordenadores para una misma carga de trabajo, ahorraría millones.

El software genera direcciones virtuales, ya que tiene acceso a la memoria. Cada proceso tiene su propio espacio de direcciones virtuales. Crédito: Mark D. Hill
"Un pequeño cambio en el sistema operativo y el hardware puede traer grandes beneficios", dijo.

Hill y sus colegas publicaron los resultados de su investigación en el Simposio Internacional de Arquitectura de Computadoras en junio de 2013.

Empresas de informática, como Google e Intel, se encuentran entre las más ricas del mundo, con miles de millones en sus arcas.Entonces ¿por qué, cabe preguntarse, los investigadores universitarios, con el apoyo de la National Science Foundation (NSF), tienen que resolver los problemas con el hardware existente?

"Las empresas no pueden hacer este tipo de investigación por sí mismas, especialmente cuando es un trabajo transversal que pasa a través de muchas corporaciones", dijo Hill. "Para aquellos que trabajan en el campo, si se puede cruzar capas y optimizar, creo que hay un montón de oportunidades para mejorar los sistemas informáticos. Esto crea valor en EE.UU. para la economía y para todos los que utilizan ordenadores."

"La National Science Foundation se ha comprometido a apoyar la investigación que hace que los ordenadores de hoy sean más productivos en términos de rendimiento, eficiencia energética, y que ayuden a resolver los problemas que surjan de todo el espectro de los dominios de aplicación, al mismo tiempo que, el estudio de dichas tecnologías sirvan de base para las computadoras del mañana", declarab Hong Jiang, director del programa Computer Information Science and Engineering en la NSF .

"En el proceso de expansión de los límites de la computación, es muy importante encontrar soluciones tanto a corto como a largo plazo para mejorar el rendimiento, la eficiencia energética y la resiliencia++.. La investigación pionera del profesor Mark Hill en sistemas de memoria de computador, es un excelente ejemplo de este tipo de esfuerzos."

El enfoque de "divide y vencerás" es un diseño de arquitecturas de ordenador, que mantiene las distintas capas de computación separadas, ayudando a acelerar la industria, al tiempo que minimiza los errores y la confusión en una era en que las velocidades más rápidas parecen inevitables. Aunque Hill cree que puede haber llegado el momento de romper con las capas y crear un marco más integrado de computación.

"En la última década, las mejoras de hardware se han reducido enormemente y lo que queda por ver es lo siguiente por venir", subrayó Hill. "Pienso que vamos a ir sacando una gran montón de ineficiencias, y aún así, obtener ganancias. No va a ser todo lo grande que hemos visto antes, pero espero que sea suficiente para que todavía podemos permitirnos nuevas creaciones, que es de lo que realmente se trata."

Más recientemente, Hill ha estado explorando cómo las unidades de procesamiento gráfico (GPU), que se han vuelto comunes en la computación personal y la nube, pueden procesar grandes tareas de memoria de manera más eficiente.

Al escribir para las actas del Simposio Internacional sobre High-Performance Computer Architecture, Hill, junto con Jason Poder y David Wood (también de la Universidad de Wisconsin), demostraron que es posible diseñar protocolos de memoria virtual que sean más fáciles de programar, sin frenar significativamente el rendimiento global. Esto abre la puerta a la utilización de sistemas acelerados de GPU que puede calcular más rápido que las computadoras tradicionales que sólo tienen unidades de procesamiento.

Acelerar durante la desaceleración

Las mejoras en la memoria virtual y en el rendimiento de la GPU son algunos ejemplos de sitios donde el pensamiento cross-layer ha mejorado el rendimiento del hardware del ordenador, y también son el emblema de una transformación total en la forma que investigadores están ideando la arquitectura de los ordenadores de principios del siglo XXI.

Hill dirigió la creación de un libro blanco, escrito por docenas de los mejores científicos de computación de Estados Unidos, donde esbozó algunos de los cambios de paradigma que enfrenta la informática.

"El siglo XXI va a ser diferente del siglo XX en varias maneras", explicó Hill. "En el siglo 20, nos centrábamos en un ordenador genérico. Esto no es de ninguna manera apropiado, sin duda hay que tener en cuenta dónde y para qué sirve. ¿es un cacharro inteligente? ¿Está en tu teléfono móvil, o en tu portátil o en el nube? Hay diferentes restricciones."

Entre los otros hallazgos clave del informe un cambio de enfoque del simple computador a la red o centro de datos; la creciente importancia de las comunicaciones en los flujos de trabajo de hoy en día, en especial en lo relacionado con los grandes datos; el crecimiento del consumo de energía como una preocupación de primer orden en el chip y en el diseño por ordenador; y la emergencia de nuevas e impredecibles tecnologías, que podrían resultar rompedoras.

Sin embargo, estas tecnologías punta están todavía a décadas de distancia. Entre tanto, le toca a los informáticos repensar qué se puede hacer para optimizar el hardware y el software existente. Para Hill, este esfuerzo es similar al trabajo de los detectives, donde la velocidad de un proceso sirve como una pista de lo que está ocurriendo bajo la cubierta de un portátil.

"Es un todo acerca de la resolución de problemas", dijo Hill. "La gente se concentra en la parte final, que es como el acabado del rompecabezas, pero en realidad la parte creativa es la definición de cuál es el rompecabezas. Ahí es donde está la satisfacción de haber creado algo nuevo, algo que nunca ha existido antes. Puede ser una pequeña cosa no bien conocida por todos, pero uno sabe que es nuevo y que encuentras gran satisfacción en eso."


- Más información: El libro blanco titulado "21st Century Computer Architecture", disponible en línea.
- Fuente: National Science Foundation.
- Imagen.1. Pregunta clave: ¿Cómo avanzar en el rendimiento computacional sin un progreso tecnológico significativo? Hill y otros están trabajando para cosechar nuevos aumentos durante el período de "descanso" de ese futuro próximo. Crédito: Advancing Computer Systems without Technology Progress, ISAT Outbrief, Mark D. Hill and Christos Kozyrakis, DARPA/ISAT Workshop, March 26-27, 2012 .
- Imagen.2. El software genera direcciones virtuales, ya que tiene acceso a la memoria. Cada proceso tiene su propio espacio de direcciones virtuales. Crédito: Mark D. Hill
.

«
Next
Entrada más reciente
»
Previous
Entrada antigua
Editor del blog Pedro Donaire

Filosofía

Educación

Deporte

Tecnología

Materiales