Data Centers de IA, por Mariana Gonzalez

OPINIÓN

50375802637_b4cf4e7eac_c
Foto: Deep AI, Inc.

*Escribe Mariana Gonzalez, especialista en Computación Científica, Fac. Ciencias Exactas UBA. MBA, ITBA.

Lectura: 5 minutos

Los data centers de inteligencia artificial (IA) son infraestructuras de altísima densidad diseñadas para alojar hardware especializado en cómputo masivo, como GPUs (unidades de procesamiento gráfico), originalmente muy usadas para juegos, creación de gráficos e imágenes, pero ahora se están usando mucho para computación científica y entrenamiento de IA por su alta capacidad de procesamiento de cálculos complejos en paralelo.

También se utilizan TPUs (Unidades de Procesamiento Tensorial) son procesadores especializados diseñados por Google para acelerar tareas de inteligencia artificial, especialmente el entrenamiento y ejecución de redes neuronales profundas.

Se  caracterizan por un procesamiento intensivo, ejecutan millones de operaciones simultáneas, por un almacenamiento masivo, los datos de entrenamiento de IA pueden superar los petabytes (más de un millón de gigabytes), por necesitar redes de alta velocidad, interconexiones ultrarrápidas para mover datos entre nodos (100 a 400 Gbps) de ultra baja latencia, por consumir en energía y refrigeración grandes cantidades de electricidad, potencia eléctrica promedio (50 a 500 MW),por requerir sistemas avanzados de enfriamiento (líquido o por inmersión), por exigir seguridad física y digital: perímetros de alta seguridad, control biométrico, y ciber protección avanzada.

Entre los data centers para IA se destacan los hiperescala (hyperscalers), son grandes corporaciones tecnológicas que operan infraestructuras de cómputo masivo a escala global. El término se aplica a empresas que escalan horizontalmente (agregando miles de servidores distribuidos) para sostener plataformas de nube, IA, streaming, big data. Ejemplos: Amazon Web Services (AWS), Microsoft Azure, Google Cloud, Meta (Facebook), Alibaba Cloud y NVIDIA.

Son instalaciones gigantescas que albergan más de 5.000 servidores y ocupan más de 900 m², aunque muchos superan los 5.000 m², como un estadio de fútbol.

Los data centers para inteligencia artificial consumen entre el 1,5% y el 2% de la electricidad mundial actualmente, pero podrían llegar al 4% para 2030, con demandas de hasta 1.720 TWh anuales según proyecciones. Estados Unidos lidera el consumo con el 45%, seguido por China (25%) y Europa (15%). Un solo centro de datos de 10 MW puede emitir hasta 50.000 toneladas de CO₂ al año, equivalente a 10.000 autos. Los data centers de hiperescala, como los de Amazon Web Services o Google Cloud, pueden superar los 100 MW, con miles de racks de servidores funcionando 24/7. El condado de Loudoun, Virginia, EE. UU., alberga el mayor corredor de data centers del mundo, con un consumo de 2.552 MWh diarios, es conocido como «Data Center Alley» porque concentra a gigantes como Amazon, Microsoft, Google y Facebook, su consumo equivale, aproximadamente, al de unos 200.000 hogares estadounidenses por día.

Argentina posee potencial para alojar centros de datos de IA, pero enfrenta limitaciones estructurales. En energía, cuenta con buena capacidad instalada y una matriz en expansión renovable, aunque con restricciones de transmisión. El clima patagónico ofrece ventajas térmicas, el frío disminuye la enorme necesidad de energía para refrigeración. Sin embargo, la conectividad internacional es una de las principales debilidades, con escasa fibra óptica directa hacia EE. UU. y Europa. El país cuenta con capital humano técnico sólido, aunque poco especializado en gestión de ese tipo de infraestructura.

OpenAI y Sur Energy anunciaron un proyecto de construcción de un mega data center en la Patagonia con una inversión de hasta US$ 25.000 millones. Este proyecto, llamado Stargate Argentina, será el primero de su tipo en América Latina con una capacidad proyectada de hasta 500 megavatios de potencia computacional, con energía limpia, gracias a asociaciones con Genneia y Central Puerto para abastecimiento renovable, con un objetivo estratégico que sería convertir a Argentina en un hub regional de IA, con impacto en empleo, innovación y posicionamiento geopolítico, dentro de un marco legal en el Régimen de Incentivos a las Grandes Inversiones (RIGI). Algo parecido, pero funcionando, es Querétaro, México, tiene centros de datos que consumen 150 MWh diarios, posicionándose como hub regional.

Los desafíos y debates que nos tenemos que dar son: El impacto ambiental, consumo intensivo de agua y energía, especialmente en zonas con recursos limitados. Si la electricidad proviene de fuentes fósiles, el impacto ambiental es enorme. La soberanía digital ¿Quién controla los datos y la infraestructura? ¿Qué beneficios quedan en el país? ¿Cómo diversificar globalmente para asegurar resiliencia y soberanía tecnológica? Debemos debatir el balance entre el desarrollo económico local y la concentración tecnológica en pocas manos o regiones.

*Mariana Gonzalez
Computación Científica, Fac. Ciencias Exactas UBA
MBA ITBA
Empresaria en Argentina y Uruguay en empresas de tecnología.

Otro artículo escrito por Mariana Gonzalez: Interfaz cerebro-computadora

Deja un comentario