El problema ya no es la IA, es la electricidad. La inteligencia artificial no se está topando con un límite algorítmico, sino con algo mucho más prosaico: la ecEl problema ya no es la IA, es la electricidad. La inteligencia artificial no se está topando con un límite algorítmico, sino con algo mucho más prosaico: la ec

Cuando la nube abandona la Tierra.

2025/12/27 12:50

El problema ya no es la IA, es la electricidad.

La inteligencia artificial no se está topando con un límite algorítmico, sino con algo mucho más prosaico: la ecuación kilovatio-hora.

Mientras los modelos crecen, los centros de datos se multiplican y las GPUs devoran energía como si se tratase de un insumo infinito, y así, la infraestructura terrestre empieza a crujir. Permisos que tardan años, redes congestionadas, agua escasa, oposición de grupos activistas locales, y una realidad incómoda: la energía barata y abundante ya no está donde están los usuarios.

En ese contexto, una idea que hasta hace poco parecía un capricho de multimillonarios espaciales empieza a circular con menos ironía: ¿y si parte de la nube se mudara al espacio? No como metáfora, sino como infraestructura.

Mientras el auge de la IA choca contra los límites físicos de los sistemas energéticos terrestres, los arquitectos de la nube miran hacia arriba. Entre otros, Elon Musk y Jeff Bezos —hombres que convirtieron los cohetes en logística rutinaria— proponen ahora algo aún de mayor audacia: sacar de la Tierra la infraestructura más voraz en energía del mundo y llevarlos a la órbita, bañados por una luz solar ininterrumpida, refrigerados por el vacío del espacio y liberados de las ataduras terrenales.

La presión invisible que empuja la nube hacia arriba

Hoy, los centros de datos ya consumen una fracción significativa de toda la electricidad global, y la IA está acelerando esa curva. En Estados Unidos, el consumo eléctrico del sector se mide en cientos de teravatios-hora anuales y los escenarios de crecimiento más agresivos anticipan duplicar el consumo en menos de una década. No es un problema futuro: es una conversación actual entre las empresas (compañías de generación, transmisión y distribución de electricidad; operadores de redes; y en algunos casos empresas de agua), los reguladores y los hyperscalers (empresas que operan infraestructura de computación a escala planetaria, con capacidad de crecimiento aparentemente ilimitado).

La paradoja es clara. La IA es digital, pero su costo marginal es físico: energía, transmisión, refrigeración, tiempo y consenso político. En Virginia, Irlanda o Frankfurt, el cuello de botella no es el chip; es la red eléctrica.

En Estados Unidos el fenómeno es aún más visible: una estimación del Congressional Research Service ubicó el consumo anual de data centers (sin incluir minería cripto) en alrededor de 176 TWh (1 TWh = 1.000 gigvatios) en 2023, equivalente a ~4,4% de la electricidad del país.

Para ponerlo en perspectiva, un gigavatio solamente equivale a la mitad de la potencia total (capacidad instalada) que genera la represa Hoover. Pues bien: OpenAI y sus pares hablan abiertamente de añadir 100 gigavatios de nueva capacidad por año, solo para mantener el ritmo de escalamiento de los modelos.

Por su parte, el Departamento de Energía de Estados Unidos (ministerio del área) advierte que la carga podría duplicarse o triplicarse hacia 2028 bajo ciertos supuestos de expansión impulsada por la IA.

Ese “muro energético” no es solo potencia instalada: es tiempo, permisos, interconexión, agua, aceptación social y capacidad de transmisión. La idea orbital nace como una provocación técnica: si la energía y el enfriamiento son el cuello de botella en la Tierra, ¿qué pasa si movemos el cuello de botella… afuera, donde el sol no se apaga y no hay necesidad de gestionar y obtener licencias locales (permisos municipales)?

Qué significa realmente un “data center en el espacio”

Conviene desmitificar desde el inicio qué se entiende realmente por un “data center en el espacio”. No se trata —al menos por ahora— de un edificio flotando en órbita con pasillos de servidores replicando el modelo terrestre. La noción operativa es mucho más cercana a constelaciones de satélites especializados, cada uno equipado con capacidad de cómputo y conectados entre sí mediante enlaces ópticos, que en conjunto funcionan como un clúster distribuido. En lugar de concentrar la infraestructura en un único emplazamiento, el modelo orbital dispersa el procesamiento en múltiples nodos interconectados. Dentro de este concepto amplio conviven, sin embargo, realidades muy distintas que a menudo se confunden en el debate público.

En su forma más consolidada, el procesamiento en órbita (edge computing) ya se utiliza para analizar datos allí donde se generan —por ejemplo, en observación terrestre, aplicaciones científicas o defensa— con el fin de reducir la carga sobre los enlaces de comunicación hacia la Tierra.

En un estadio más ambicioso, comienzan a explorarse arquitecturas de “cómputo orbital” a escala nube, basadas en constelaciones equipadas con aceleradores (GPUs o TPUs) capaces de ejecutar modelos de inteligencia artificial y transmitir únicamente resultados procesados, más compactos y manejables.

Muy distinta es la tercera variante, que concentra buena parte de la atención mediática: la idea de “megaclústeres orbitales multi- gigavatios”, concebidos como sustitutos o equivalentes de los grandes centros de datos terrestres. Esta versión permanece, por ahora, en el terreno de lo especulativo y no probado, enfrentando obstáculos formidables de escala, energía, refrigeración y coste.

La confusión surge cuando estos tres niveles se presentan como una única realidad homogénea, cuando en verdad representan etapas y ambiciones radicalmente diferentes, con grados muy distintos de madurez tecnológica y viabilidad económica.

La ventaja que seduce a los CFO: energía sin permisos

El atractivo principal del espacio no es tecnológico; es regulatorio y energético. Las redes eléctricas se expanden lentamente. Las centrales nucleares tardan décadas en construirse y ser capaces de funcionar a pleno. Las turbinas de gas enfrentan resistencias políticas y de organizaciones ambientales a la vez, al igual que las líneas de transmisión. Incluso el agua —necesaria para refrigerar los centros de datos terrestres— se está convirtiendo en un problema en regiones propensas a la sequía. Este es el muro que empujó la mirada de Silicon Valley más allá de la atmósfera.

En órbita, la energía solar es constante. No hay noches, ni estaciones climáticas, ni nubes. No hay comunidades protestando por líneas de transmisión ni permisos que demoran una década. Tampoco hay agua que enfriar.

Pero esta ventaja tiene letra chica. La irradiación solar es alta, sí, pero convertirla en electricidad útil exige enormes superficies de paneles. Estimaciones recientes indican que un centro de datos orbital de alrededor de 5 GW exigiría una superficie de paneles solares del orden de 2,5 millas cuadradas, además de extensos sistemas de radiación térmica, lo que subraya el carácter industrial —y no meramente tecnológico— del desafío. En efecto, disipar el calor generado por chips de alto rendimiento no es asunto trivial: en el espacio no se puede ‘ventilar’ ni ‘enfriar con agua’; el calor solo puede expulsarse mediante radiadores, no mediante refrigeración activa convencional.

En términos financieros, el problema no desaparece: se traslada de los costos operativos terrestres a los costos de la inversión espacial.

Quién está avanzando y por qué importa

Aunque el destino pueda ser el mismo, Musk, Bezos y otros están tomando caminos distintos para llegar allí.

  1. SpaceX planea integrar cargas de computación de IA en versiones mejoradas de sus satélites Starlink, aprovechando la cadencia de lanzamientos y la reutilización, emblema de la compañía.
  2. Blue Origin, la empresa de Bezos, por su parte, ha reunido discretamente durante más de un año un equipo dedicado a la tecnología de centros de datos orbitales. Su cohete New Glenn —con una cofia masiva y reutilización parcial— está diseñado para transportar grandes cantidades de satélites de una sola vez, un requisito previo para cualquier red seria de cómputo espacial.
  3. Google, fiel a su estilo cauteloso, sigue un camino intermedio. Junto con Planet Labs, planea lanzar dos satélites prototipo a comienzos de 2027, equipados con las unidades de procesamiento tensorial de Google, para probar si las cargas de trabajo de IA pueden funcionar realmente como clústeres orbitales.
  4. Axiom Space y Red Hat ya probaron un prototipo de “orbital data center” enfocado en edge computing. Venden reducción de ancho de banda y autonomía operativa.
  5. Starcloud y NVIDIA exploran llevar GPUs a la órbita, una señal clara de que los fabricantes de chips quieren estar presentes si el modelo despega.

El riesgo que nadie puede ignorar: saturar la órbita

Por romántica que resulte la visión, los números no dan tregua.  Desde el punto de vista físico e industrial, el principal obstáculo de los centros de datos orbitales no reside en la computación en sí, sino en la escala. Incluso asumiendo avances significativos en eficiencia energética y miniaturización, la magnitud del desafío sigue siendo descomunal. Ejecutivos de Google han estimado que reproducir en órbita la capacidad de un solo centro de datos terrestre del orden de 1 GW requeriría aproximadamente 10.000 satélites, aun bajo supuestos optimistas de potencia por plataforma. Esta comparación pone de relieve la profunda asimetría entre la infraestructura energética y computacional disponible en la Tierra y cualquier arquitectura orbital concebible a corto o medio plazo.

Pero además, esta proyección no es de externalidad neutra: la congestión orbital y el riesgo que implica la basura espacial ya son temas en las agencias espaciales y compañías aseguradoras.

Durante una prueba del cohete Starship de SpaceX en enero de este año, el vehículo se fracturó y explotó menos de diez minutos después del despegue desde Texas, dispersando una extensa nube de fragmentos sobre el Caribe. Según documentos de la Administración Federal de Aviación de Estados Unidos (FAA), los restos de la explosión persistieron en el espacio aéreo durante cerca de 50 minutos, obligando a controladores de tránsito aéreo a desviar y reordenar el tráfico para evitar posibles impactos. En al menos tres vuelos comerciales, incluidos servicios de JetBlue e Iberia, las aeronaves enfrentaron situaciones de emergencia o fueron advertidas de que continuaran “bajo su propio riesgo”, y declararon emergencias de combustible mientras se gestionaban rutas alternativas. Aunque no se registraron impactos directos contra aeronaves, la FAA describió la situación como un “riesgo extremo” para los vuelos comerciales. Un evento de fragmentación grave podría inutilizar órbitas enteras durante años. Desde el punto de vista sistémico, un data center orbital no es solo un activo: es un riesgo colectivo.

Veredicto técnico: ¿es factible? Sí… pero depende del “para qué”

La viabilidad de llevar computación al espacio no es una cuestión binaria. No se trata de si puede hacerse, sino de “para qué” se la quiere implementar.

Cuando el objetivo es edge computing espacial —es decir, procesar datos donde se generan, como imágenes satelitales, experimentos científicos o sistemas autónomos en estaciones y naves— la tendencia es clara y consistente. En estos casos, computar en órbita reduce la necesidad de transmitir grandes volúmenes de datos a la Tierra, ahorra ancho de banda, disminuye latencias operativas y aumenta la autonomía de los sistemas. Por eso ya existen prototipos funcionales, como los ensayos realizados en la Estación Espacial Internacional bajo el programa del ISS National Lab. Aquí, la computación orbital no es una promesa: es una extensión lógica de la infraestructura espacial existente.

La situación cambia radicalmente cuando el objetivo es mucho más ambicioso: usar la órbita como sustituto de los grandes centros de datos terrestres que hoy sostienen la nube global y la inteligencia artificial a gran escala. En ese escenario, la factibilidad es condicional y, con alta probabilidad, mucho más lenta de lo que sugieren los discursos más entusiastas.

Para que un “hyperscaler orbital” resulte viable, tendrían que cumplirse simultáneamente varias condiciones exigentes. En primer lugar, sería necesario un salto sustancial en la reducción del costo de lanzamiento: solo con precios en el orden de USD 200–300 por kilogramo —muy por debajo de los niveles actuales— podría comenzar a plantearse una competencia real con soluciones terrestres. A ello hay que añadir la capacidad de fabricar hardware espacial a gran escala, algo que hoy sigue siendo caro y artesanal en comparación con la producción terrestre.

En segundo término, habría que madurar tecnologías de ensamblaje, mantenimiento y reemplazo robótico en órbita. Un centro de datos de gran tamaño no es un satélite autónomo: es una estructura compleja que, en la Tierra, y depende de intervención humana constante. Replicar esa lógica sin técnicos, en un entorno hostil y remoto, es un desafío a resolver.

Finalmente —y este es el punto decisivo— la computación orbital tendría que ganar la competencia económica completa, no solo en energía, sino en el balance total de potencia disponible (watt), capacidad de mover datos (bit) y confiabilidad operativa. Hoy, esa ecuación sigue favoreciendo a alternativas terrestres que están evolucionando rápidamente: reactores nucleares modulares, centrales de gas con captura de carbono, redes eléctricas reforzadas y ubicaciones con energía abundante y barata.

Conclusión.

En síntesis, la computación espacial tiene un caso sólido y ya en marcha a pequeña y mediana escala, especialmente para aplicaciones de edge computing y nichos específicos. En cambio, un centro de datos orbital de múltiples gigavatios es, por ahora, un proyecto técnicamente concebible, pero no demostrado ni económica ni operativamente, y además expuesto a riesgos sistémicos —como la saturación orbital y los desechos espaciales— que podrían imponer límites prácticos antes de que se alcance la tan afamada “curva descendente de costos”.

La entrada Cuando la nube abandona la Tierra. se publicó primero en Revista Mercado.

Oportunidad de mercado
Logo de Lagrange
Precio de Lagrange(LA)
$0.28687
$0.28687$0.28687
-1.53%
USD
Gráfico de precios en vivo de Lagrange (LA)
Aviso legal: Los artículos republicados en este sitio provienen de plataformas públicas y se ofrecen únicamente con fines informativos. No reflejan necesariamente la opinión de MEXC. Todos los derechos pertenecen a los autores originales. Si consideras que algún contenido infringe derechos de terceros, comunícate a la dirección service@support.mexc.com para solicitar su eliminación. MEXC no garantiza la exactitud, la integridad ni la actualidad del contenido y no se responsabiliza por acciones tomadas en función de la información proporcionada. El contenido no constituye asesoría financiera, legal ni profesional, ni debe interpretarse como recomendación o respaldo por parte de MEXC.