Comparte esta noticia con tus contactos

Por si no se había dado cuenta, los ordenadores están que arden… literalmente. El calor que desprende un portátil apoyado en el regazo puede hacer que nos asemos, y se calcula que los centros de datos consumen unos 200 teravatios hora cada año, una cifra equiparable al consumo energético de algunos países de tamaño medio. En conjunto, la huella de carbono de las tecnologías de la información y la comunicación se aproxima a la que genera el uso de combustibles en la industria aeronáutica. Los circuitos informáticos cada vez son más pequeños y están más densamente empaquetados, lo que eleva el riesgo de que se fundan por culpa de la energía disipada en forma de calor.

 

Ahora, el físico James Crutchfield, de la Universidad de California en Davis, y el estudiante de doctorado Kyle Ray han propuesto un nuevo método computacional que disiparía apenas una pequeña fracción del calor que producen los circuitos habituales. De hecho, su enfoque, descrito en un reciente artículo que aún no se ha sometido a revisión por pares, podría incluso llevar la disipación por debajo del mínimo teórico que imponen las leyes de la física a los ordenadores actuales. Eso reduciría enormemente la energía requerida para ejecutar los cálculos y refrigerar los circuitos. Y, según los investigadores, podría lograrse empleando dispositivos microelectrónicos ya existentes.

 

En 1961, el ya fallecido Rolf Landauer, físico del Centro de Investigación Thomas J. Watson de IBM, demostró que la computación tradicional incurre en un coste inevitable debido a las pérdidas energéticas (en esencia, por la generación de calor y entropía). Eso ocurre porque, en ocasiones, los ordenadores se ven obligados a borrar bits de información almacenados en sus circuitos de memoria para liberar espacio.

Deja una respuesta

Tu dirección de correo electrónico no será publicada.