OPINIÓN

*Escribe Mariana Gonzalez, especialista en Computación Científica, Fac. Ciencias Exactas UBA. MBA, ITBA.
Lectura: 6 minutos
El Premio Nobel de Física 2024 fue otorgado conjuntamente a John J. Hopfield y Geoffrey Hinton por descubrimientos e invenciones fundamentales que posibilitan el aprendizaje automático con redes neuronales artificiales.
Estas redes imitan procesos neuronales humanos, y gracias a conceptos de física, se convirtieron en la base de tecnologías actuales como reconocimiento de voz, visión por computador, traducción automática y chatbots (programa informático diseñado para simular una conversación humana con un usuario).
Geoffrey Hinton, científico computacional, científico cognitivo y psicólogo cognitivo británico, reconocido como el padrino de la IA, consiguió notoriedad cuando dejó su trabajo en Google para poder expresarse sin condicionamientos, sobre los peligros de la tecnología que había desarrollado.
En su discurso en el banquete de la entrega de los premios Nobel, decía, y vale la pena leerlo y analizar sus palabras:
«Este año, los comités del Nobel de Física y Química han reconocido el drástico progreso de una nueva forma de Inteligencia Artificial que utiliza redes neuronales artificiales para aprender a resolver problemas computacionales complejos. Esta nueva forma de IA destaca por modelar la intuición humana en lugar del razonamiento humano y nos permitirá crear asistentes altamente inteligentes y con amplios conocimientos que aumentarán la productividad en casi todas las industrias. Si los beneficios de esta mayor productividad se distribuyen equitativamente, será un avance maravilloso para toda la humanidad.
Desafortunadamente, el rápido progreso de la IA conlleva numerosos riesgos a corto plazo. Ya ha creado cámaras de resonancia divisivas al ofrecer a las personas contenido que las indigna. Ya está siendo utilizada por gobiernos autoritarios para la vigilancia masiva y por ciberdelincuentes para ataques de phishing. En un futuro próximo, la IA podría utilizarse para crear nuevos y terribles virus y armas letales que decidan por sí mismas a quién matar o mutilar. Todos estos riesgos a corto plazo requieren la atención urgente y contundente de los gobiernos y las organizaciones internacionales.
También existe una amenaza existencial a largo plazo que surgirá cuando creemos seres digitales más inteligentes que nosotros. No tenemos ni idea de si podremos mantener el control. Pero ahora tenemos pruebas de que, si son creados por empresas motivadas por el lucro a corto plazo, nuestra seguridad no será la máxima prioridad. Necesitamos urgentemente investigar cómo evitar que estos nuevos seres quieran tomar el control. Ya no son ciencia ficción».
Analicemos sus palabras:
«Las redes neuronales artificiales» son sistemas computacionales diseñados para imitar el funcionamiento del cerebro humano en tareas de aprendizaje, reconocimiento de patrones y toma de decisiones. Están formadas por un conjunto de unidades llamadas «neuronas artificiales» organizadas en capas y conectadas entre sí, que cooperan para procesar información. Es una herramienta poderosa con amplias aplicaciones científicas, industriales y sociales.
Esas redes, aún, trabajan con recursos electrónicos, pero, ya se están desarrollando organoides cerebrales que reproducen neuronas humanas, uno de los avances más sorprendentes en la intersección entre biología y computación. Se trata de estructuras celulares en miniatura, cultivadas en laboratorio, que imitan ciertos aspectos del cerebro humano, incluyendo la capacidad de generar actividad neuronal. Imaginemos una computadora con redes neuronales casi humanas junto con la IA.
«Modelar la intuición humana en lugar del razonamiento humano» el razonamiento humano ya lo habían copiado, les faltaba nuestra intuición. La intuición es nuestra capacidad de comprender o conocer algo de forma inmediata, sin necesidad de razonamiento o deducción lógica, juega con nuestras emociones. Esas «máquinas» ya lo hacen.
Las «cámaras de resonancia divisivas» (echo chamber) es una metáfora que describe un entorno donde una persona solo encuentra opiniones similares a las suyas, lo que refuerza sus creencias sin exponerla a ideas contrarias, divisivas significa que generan división o polarización entre grupos de personas, por lo que «cámaras de resonancia divisivas» son entornos donde las personas quedan atrapadas en burbujas de información que alimentan la polarización, separándolas aún más de quienes piensan distinto.
«requieren la atención urgente y contundente de los gobiernos y las organizaciones internacionales», En teoría, pueden. Tienen el poder legal, político y económico para crear regulaciones internacionales vinculantes, supervisar desarrollos tecnológicos, establecer límites éticos y de seguridad, financiar investigación responsable, promover la cooperación global, pero…
La IA avanza más rápido que la capacidad regulatoria, los gobiernos suelen ser lentos, burocráticos y están mal equipados técnicamente para entender la IA en profundidad.
No existe una organización supranacional que tenga poder real. Países como EE. UU., China y la UE tienen agendas diferentes, competitivas, no cooperativas.
Las grandes empresas tecnológicas tienen influencia enorme y muchas veces resisten la regulación. Algunas naciones ven la IA como arma estratégica o ventaja geopolítica, y por eso no quieren compartir ni frenar su desarrollo.
Hoy, no hay leyes internacionales sobre qué puede o no puede hacer una IA. La ética varía culturalmente: lo aceptable en un país puede ser inaceptable en otro.
«Cuando creemos seres digitales más inteligentes que nosotros», llegamos a la parte más atemorizante aún que las que habíamos leído hasta ahora. La frase expresa una advertencia o reflexión existencial sobre el momento en que la humanidad cree inteligencia artificial más avanzada que sí misma. Nos confronta con preguntas sobre el poder, el control y el futuro de nuestra especie, cruza la tecnología, la ética, la filosofía y la política.
Recordemos algunas frases de pensadores y tecnólogos:
«La supervivencia de la humanidad podría depender de la forma en que se maneje la primera superinteligencia». Nick Bostrom (filósofo).
«Con la inteligencia artificial estamos invocando al demonio». Elon Musk, (empresario y tecnólogo, fundador de Open AI).
«Los humanos corren el riesgo de volverse irrelevantes cuando entreguen autoridad a algoritmos». Yuval Noah Harari (historiador y filósofo).
«podría ser el mayor logro… o el último», Stephen Hawking (físico teórico).
«Ya no son ciencia ficción», como siempre, la realidad supera la ficción.
*Mariana Gonzalez
Computación Científica, Fac. Ciencias Exactas UBA
MBA ITBA
Empresaria en Argentina y Uruguay en empresas de tecnología.
Otro artículo escrito por Mariana Gonzalez: Tecnología 6G
