La ONU discute regulación global para tecnologías avanzadas
En un hecho sin precedentes, la Organización de las Naciones Unidas inició esta semana una cumbre especial para abordar la necesidad de una regulación internacional de la inteligencia artificial (IA). El foro, celebrado en Ginebra, reúne a representantes de más de 80 países, empresas tecnológicas, científicos y activistas que buscan establecer principios éticos y jurídicos para el desarrollo y uso de estas tecnologías disruptivas.
La preocupación principal gira en torno al uso de IA en contextos militares, vigilancia masiva, manipulación de la información y automatización del trabajo. António Guterres, secretario general de la ONU, señaló que “la inteligencia artificial puede ser una herramienta para el bien común o un arma de destrucción social, dependiendo de cómo se regule”.
Entre las propuestas se encuentran la creación de un organismo internacional independiente, similar a la Agencia Internacional de Energía Atómica, que supervise y certifique desarrollos críticos de IA; así como la prohibición de sistemas de armas autónomas que puedan tomar decisiones de vida o muerte sin supervisión humana.
Por su parte, grandes empresas tecnológicas como OpenAI, Google DeepMind y Meta expresaron apoyo a la creación de marcos regulatorios, aunque advierten que una legislación demasiado rígida podría frenar la innovación. Países como China y Rusia han mostrado escepticismo sobre la implementación de un marco multilateral vinculante.
La cumbre continuará durante las próximas semanas, y aunque aún no se esperan acuerdos definitivos, se considera un primer paso crucial hacia un consenso global. La urgencia es clara: la IA avanza a una velocidad que supera la capacidad actual de los gobiernos para regularla, y el mundo apenas comienza a entender sus riesgos reales.





