L'idea di posizionare data center e sistemi di intelligenza artificiale nello spazio, al fine di risolvere problemi legati al consumo energetico, all'impatto ambientale e alla scalabilità, si rivela più complessa di quanto appaia a prima vista. Ciò che in teoria sembra fattibile, limitandosi a una questione di finanziamenti, si scontra con ostacoli ingegneristici formidabili. Un ex ingegnere della NASA ha definito questa visione come "un'idea orribile, spaventosa e irrealizzabile".
La realizzazione di un data center orbitante si scontra con diverse barriere, ognuna delle quali richiede soluzioni ingegneristiche complesse. Sebbene alcune di queste sfide possano essere superate, la portata necessaria per soddisfare le esigenze delle aziende che operano nel campo dell'intelligenza artificiale appare irraggiungibile con le tecnologie attuali.
Innanzitutto, la questione dell'alimentazione energetica. I sostenitori delle fonti di energia "verde" sottolineano come lo spazio offra una fonte inesauribile di energia solare, data l'assenza di atmosfera e l'esposizione continua al Sole. Tuttavia, un esempio pratico come i pannelli solari della Stazione Spaziale Internazionale (ISS), con una superficie di 2500 m², generano al picco 200 kW di energia. Un singolo acceleratore Nvidia H200, con i suoi componenti accessori, consuma circa 1 kW. Pertanto, l'energia prodotta dai pannelli dell'ISS sarebbe sufficiente ad alimentare solo tre rack contenenti acceleratori Nvidia H200. Sulla Terra, i nuovi data center dotati di acceleratori Nvidia ne contengono decine di migliaia. Alimentare un data center spaziale con 10.000 GPU Nvidia richiederebbe il lancio di 500 satelliti equipaggiati con pannelli solari equivalenti a quelli dell'ISS, una prospettiva irrealistica.
Un'alternativa potrebbe essere l'utilizzo di generatori termoelettrici a radioisotopi (RTG), che però producono solo tra 50 e 150 W. Un'altra ipotesi, più audace, sarebbe l'impiego di reattori nucleari in orbita. Tuttavia, un guasto o un rientro incontrollato di un reattore di questo tipo comporterebbe la dispersione di materiali radioattivi sull'intero pianeta.
Anche il raffreddamento dei server nello spazio rappresenta una sfida ingegneristica complessa. Contrariamente a quanto si crede, il "freddo spaziale" non è una risorsa facilmente sfruttabile. La temperatura media di un satellite sarebbe simile a quella terrestre, a condizione che il satellite ruoti su sé stesso. In assenza di irraggiamento solare diretto, la temperatura scenderebbe gradualmente fino a raggiungere il livello di radiazione cosmica di fondo, poco sopra lo zero assoluto. Al contrario, la superficie esposta al Sole raggiungerebbe temperature di diverse centinaia di gradi. Il problema principale è l'assenza di convezione nel vuoto, che rende inutilizzabili i radiatori tradizionali. Pertanto, sarebbe necessario implementare un sistema di termoregolazione avanzato, simile a quello utilizzato sulla ISS, che impiega un circuito chiuso con ammoniaca come fluido termovettore e pannelli esterni di ampia superficie per dissipare il calore nello spazio.
Il sistema di termoregolazione attivo (ATCS) della ISS può dissipare al massimo 16 kW, sufficienti ad alimentare circa 16 GPU H200, poco più di un quarto di un rack standard. I pannelli radianti del sistema hanno dimensioni di 13,6 × 3,12 metri, ovvero circa 42,5 m². Per un data center da 200 kW alimentato da sole GPU, sarebbe necessario un sistema di radiatori 12,5 volte più grande, pari a circa 531 m², ovvero il 20% della superficie dei pannelli solari necessari per l'alimentazione. Un satellite di queste dimensioni sarebbe molto grande, superando di gran lunga le dimensioni della ISS, e tutto ciò per alimentare solo tre rack di server.
Un'ulteriore difficoltà è rappresentata dalle radiazioni cosmiche, costituite da flussi continui di particelle cariche. Queste particelle possono avere energie elevatissime e, attraversando i chip, possono alterare lo stato dei transistor o addirittura danneggiarli in modo permanente. I chip utilizzati nello spazio devono essere realizzati con processi produttivi meno recenti e con architetture specifiche per resistere alle radiazioni. Gli acceleratori Nvidia non soddisfano nessuno di questi requisiti, rendendone l'utilizzo nello spazio impraticabile.
Proteggere l'elettronica dalle radiazioni nello spazio è estremamente complesso. L'aumento di peso dovuto alla schermatura comporterebbe costi di lancio proibitivi. Inoltre, le particelle più energetiche, impattando contro lo schermo, genererebbero una cascata di particelle secondarie che danneggerebbero comunque i componenti elettronici.
Infine, le comunicazioni con lo spazio presentano una larghezza di banda inferiore di due ordini di grandezza rispetto alle connessioni in fibra ottica utilizzate all'interno dei data center. Sebbene questo aspetto possa essere meno critico per l'intelligenza artificiale, rappresenta comunque un limite significativo alla scalabilità del sistema.
In conclusione, realizzare un data center nello spazio è teoricamente possibile, ma estremamente complesso, costoso e con prestazioni limitate. Inoltre, i data center spaziali sarebbero vulnerabili ad attacchi e sabotaggi, richiedendo la creazione di una flotta di protezione. Un semplice detrito spaziale potrebbe distruggere un intero data center.
Al momento, l'idea di data center nello spazio appare più come una bolla speculativa legata all'intelligenza artificiale. È plausibile che le aziende aerospaziali stiano promuovendo questa visione per alimentare interessi commerciali.
Prima di procedere


