OPINIÓN

*Escribe Mariana Gonzalez, especialista en Computación Científica, Fac. Ciencias Exactas UBA. MBA, ITBA.
Lectura: 8 minutos
Entre 2014 y 2019, el discurso sobre IA era mayormente relacionado con el riesgo existencial teórico, la superinteligencia fuera de control. Era una polémica filosófica, abstracta, contrafactual, cuyo temor central era «la máquina se vuelve más inteligente que nosotros y nos reemplaza».
Fue impulsado por figuras como Nick Bostrom (filósofo sueco, profesor de la Universidad de Oxford, conocido por su trabajo sobre riesgos existenciales, el principio antrópico, inteligencia artificial avanzada, el transhumanismo, una de las voces más influyentes en los debates contemporáneos sobre el futuro de la humanidad).
Entre 2020 y 2023 dominaba el alineamiento técnico, la AGI (Inteligencia Artificial General), las curvas de «scaling». El entorno de discusión era ingenieril, experimental, aceleracionista. El miedo se volvió inminente: no era un escenario hipotético, era un proceso industrial.
- Las curvas de scaling son relaciones matemáticas empíricas que muestran cómo mejora el rendimiento de un modelo de IA cuando se aumenta sistemáticamente la cantidad de parámetros, la cantidad de datos, la cantidad de cómputo. Esto permitió que la IA se volviera una ingeniería de escalamiento.
- La AGI es un tipo hipotético de inteligencia artificial capaz de realizar cualquier tarea cognitiva que puede hacer un ser humano, con flexibilidad, razonamiento general y capacidad de aprender en contextos nuevos. En contraste con los modelos actuales, que son potentes pero especializados, una AGI podría aprender cualquier dominio sin entrenamiento específico, razonar de forma abstracta, planificar a largo plazo, transferir conocimiento entre tareas distintas, automejorarse.
Las voces principales de esos años fueron Sam Altman (empresario, inversionista, programador y bloguero estadounidense, director ejecutivo de OpenAI, una de las figuras principales en el desarrollo de la inteligencia artificial) y Dario Amodei (investigador y emprendedor estadounidense especializado en inteligencia artificial, cofundador y director ejecutivo de Anthropic y exvicepresidente de investigación en OpenAI).
Desde el 2024 estamos en la era de la geopolítica y las asimetrías, la era del poder.
Ya no se teme a la máquina como sujeto autónomo, sino a quién controla la máquina y cómo la infraestructura técnica redistribuye poder, riqueza y capacidad cognitiva.
Los temas de debate son la asimetría cognitiva, las sociedades que no controlan la IA quedan en una desventaja económica y estratégica irreversible; la concentración del poder, solo empresas muy grandes y con muchos recursos pueden dedicarse a entrenar modelos de IA avanzada: OpenAI, que desarrolla la serie GPT, Anthropic, que desarrollas la serie Claude, Google DeepMind, con los modelos Gemini, Meta, con los modelos LLaMA, Microsoft que tiene infraestructura crítica y colaboración profunda con OpenAI, xAI, con su modelo Grok, todas estadounidenses. En China Alibaba Cloud, Baidu, Tencent. China tiene múltiples empresas con capacidad de entrenar modelos grandes, aunque el acceso a chips avanzados es un factor limitante geopolítico. En Europa, la francesa Mistral AI. Otro tema de debate es la geopolítica de chips, el control de los productos de TSMC (Taiwan Semiconductor Manufacturing Company), empresa multinacional taiwanesa especializada en la fabricación de semiconductores y la arquitectura de NVIDIA son hoy tan estratégico como el petróleo en el siglo XX.
La IA dejó de ser un experimento y se volvió infraestructura crítica (como electricidad o internet).
El foco se desplazó del miedo a la rebelión de las máquinas al miedo a la reorganización del poder humano mediada por máquinas.
El 3 de febrero de 2026, se presentó el segundo Informe Internacional sobre la Seguridad de la IA 2026. Constituye la siguiente iteración (la primera fue en 2025) «de la revisión exhaustiva de las últimas investigaciones científicas sobre las capacidades y los riesgos de los sistemas de IA de propósito general. Dirigido por Yoshua Bengio, ganador del Premio Turing, y escrito por más de 100 expertos en IA, el informe cuenta con el respaldo de más de 30 países y organizaciones internacionales».
En él encontramos como punto clavela adopción global, 700 millones de personas usan sistemas de IA semanalmente, la adopción es rápida pero desigual, en algunos países supera el 50% de la población, mientras que en gran parte de África, Asia y América Latina permanece por debajo del 10%.
Enumera, además, los riesgos de su uso, el uso malicioso, aumento explosivo de deepfakes (especialmente contra mujeres) y estafas personalizadas, se advierte que la IA ya puede ayudar a personas sin conocimientos técnicos a diseñar armas biológicas, los fallos técnicos, los modelos aún presentan un rendimiento «irregular», pueden resolver problemas complejos pero fallar en tareas lógicas simples, lo que los hace impredecibles en entornos críticos, los riesgos sistémicos, la «IA Agéntica» (que actúa sola sin supervisión constante) dificulta la intervención humana antes de que un error se convierta en catástrofe.
Alerta sobre la velocidad vs. el control, el reporte destaca que el testing de seguridad está perdiendo la carrera. Mientras la capacidad de la IA se duplica cada pocos meses, los marcos regulatorios avanzan lentamente.
La reunión del Foro Económico Mundial (WEF) en Davos de enero 2026 consolidó a la Inteligencia Artificial no como una tendencia, sino como el nuevo «Sistema Operativo del Mundo». El tono general fue de urgencia, se acabó la etapa de los experimentos y comenzó la de la integración masiva en la infraestructura crítica.
Jensen Huang (CEO de NVIDIA) introdujo una visión que dominó el foro, la IA debe entenderse como una infraestructura nacional equivalente a la electricidad o las carreteras.
La competencia ya no es solo por el software, sino por el dominio de todo el ecosistema, desde los chips y la energía, hasta los datos, los modelos y las aplicaciones finales.
Se instó a los países a poseer su propia «inteligencia soberana» para no depender de infraestructuras extranjeras que controlen su economía y cultura.
Se discutió cómo las empresas están rediseñando sus estructuras para que agentes de IA realicen tareas de principio a fin sin intervención humana constante.
Julie Sweet (CEO de Accenture) defendió que el enfoque debe ser «el humano al mando», no solo «el humano supervisando», para evitar que las empresas pierdan el control de sus propios procesos automatizados.
Kristalina Georgieva (FMI) advirtió sobre un impacto profundo y desigual. Reclamó recapacitación, reformas educativas y redes de protección para evitar que la productividad amplíe la desigualdad
Se reveló que las Big Tech invertirán 700,000 millones de dólares solo en 2026 para infraestructura de IA.
Sam Altman y Satya Nadella enfatizaron que el crecimiento de la IA está limitado por la red eléctrica. Se habló de la necesidad de 300 GW de capacidad adicional para 2030 solo para sostener el avance computacional.
Dario Amodei (Anthropic) señaló que las capacidades crecen más rápido que la regulación.
El Global Cybersecurity Outlook 2026 presentado en el foro mostró que el 94% de los líderes ven la IA como el motor principal de las amenazas actuales. Se discutió la «profesionalización» de los ataques, donde la IA se usa para crear fraudes imposibles de distinguir de la realidad.
Davos 2026 dejó un mensaje inequívoco, la IA ya no es un tema tecnológico, sino geopolítico, económico y energético.
Los líderes no discutieron si la IA es relevante, sino cómo integrarla lo suficientemente rápido, cómo regularla, cómo escalarla, cómo financiarla, cómo evitar que rompa mercados laborales, cómo no quedar atrás geopolíticamente, cómo sostener la infraestructura energética que exige. La relevancia de la IA ya no es tema de discusión, la gobernanza sí.
La IA avanza tan rápido que las instituciones ya no saben si regularla… o pedirle que les redacte la regulación.
*Imagen ilustrativa generada por IA.
*Mariana Gonzalez
Computación Científica, Fac. Ciencias Exactas UBA
MBA ITBA
Empresaria en Argentina y Uruguay en empresas de tecnología.
Otro artículo escrito por Mariana Gonzalez: Invierno cuántico
