Raffreddamento a liquido, il server sandwich di Google

A distanza di 45 anni la legge di Moore continua a essere ancora vera: ogni anno il numero di componenti per processore raddoppia determinando un aumento costante del fattore di densità, ovvero il numero di transistor per singolo ship.

Tutto ciò si traduce in un aumento di produttività con un rapporto price performance che tende a raddoppiare ogni 24 mesi.

La capacità di un data center di incrementare la potenza erogabile in spazi sempre più ridotti è conseguenza della legge di Moore. Effetto collaterale di questa inarrestabile tendenza evolutiva delle risorse grezze del computing è il consumo di potenza poiché anch’esso segue una dinamica correlata alla legge di Moore, raddoppiando ogni 18 mesi. In definitiva sebbene il costo per MIPS sia in costante diminuzione, il calore generato da un livello di densità sempre maggiore determina un costo energetico maggiore, maggiore dissipazione di calore e conseguente aumento della spesa per il raffreddamento del data center nel suo complesso.

Per riuscire a raggiungere un modello adeguato di sostenibilità del data center si stanno oggi ricercando nuove forme di raffreddamento, più efficaci e meno costose abbandonando il raffreddamento ad aria per passare al raffreddamento a liquido. Secondo gli esperti il sistema di raffreddamento a liquido dovrebbe riuscire a ottenere risparmi dell’ordine dell’80%-90%.

I costi di gestione dell’infrastruttura del data center sono ormai diventati superiori a quelli della mera componente hardware . L”attenzione da parte di tutti di coloro che operano nel cloud computing, attraverso l’erogazione di servizi in public o private cloud, è di conseguenza sempre più orientata a una diminuzione del costo energetico e nella determinazione di una capacità di raffreddamento efficace.

Leggi anche:  Galaxy S20 in difficoltà: il coronavirus è davvero responsabile?

Singole componenti rack vengono raffreddate a liquido e la ricerca tende a ricercare meccanismi che possano esercitare un’azione di raffreddamento sulle singole componenti del sistema. Un nuovo brevetto di Google, per esempio, conosciuto come server sandwich o metotherboard a raffreddamento integrato, prevede l’unione di due motherboard con, al centro, una separazione liquida. Il tutto con l’obiettivo di diminuire la dissipazione di calore per singola componente e, in definitiva, il costi di raffreddamento complessivo delle risorse del data center.