MADRID, 23 Sep. (Portaltic/EP) -
Líderes del ámbito político, académico y del sector tecnológico han firmado una nueva iniciativa global 'Call for AI Red Lines', que busca fijar un acuerdo internacional mediante el que se interpongan ciertas "líneas rojas" para las tecnologías de inteligencia artificial (IA), de cara prohibir usos que se consideran peligrosos para prevenir riesgos a gran escala para los humanos.
La inteligencia artificial cada vez cuenta con más avances que muestran su potencial para mejorar el bienestar humano y facilitar el día a día de los usuarios. Sin embargo, su trayectoria también presenta diversos peligros ante los que estar alerta para proteger a las personas.
Bajo este marco, se ha creado la iniciativa global 'Call for AI Red Lines', que se traduce como un llamamiento a favor de interponer líneas rojas a las tecnologías de IA, de cara a evitar que crucen ciertos aspectos, usos o comportamientos que puedan perjudicar a los humanos. Estas líneas rojas actuarían como límites acordados internacionalmente para evitar que la IA cause riesgos "inaceptables".
La iniciativa se ha lanzado este lunes, en el marco de la 80ª Asamblea General de las Naciones Unidas que se celebra esta semana en Nueva York (Estados Unidos), y está liderada por el Centro Francés para la Seguridad de la IA (CeSIA), la Future Society y el Centro de Inteligencia Artificial Compatible con Humanos de la Universidad de California en Berkeley.
Concretamente, el proyecto cuenta con el apoyo de más de 200 líderes de la industria, más de 70 organizaciones, diez Premios Nobel y ocho exjefes de Estado y ministros, a nivel global. Entre ellos, se encuentran personalidades como el cofundador de OpenAI Wojciech Zaremba, el CISO de Anthropic Jason Clinton, el científico investigador de Google DeepMind Ian Goodfellow, o el Premio Nobel de Física y ganador del Premio Turing, Geoffrey Hinton.
"Instamos a los gobiernos a que alcancen un acuerdo político internacional sobre las líneas rojas en la IA y que se aseguren de que sean operativas, con mecanismos de cumplimiento robustos antes de que finalice 2026", sentencia la iniciativa.
Según detalla la organización, esta urgencia por poner límites a la IA trata de adelantarse a peligros que engloban cuestiones como que la IA podría superar "pronto" las capacidades humanas y, con ello, agravar riesgos como las pandemias, la desinformación generalizada, la manipulación a gran escala de personas (incluidos los niños), y problemas de seguridad nacional e internacional.
También señala que la IA puede afectar a otros aspectos como el desempleo masivo y, sobre todo, las violaciones sistemáticas de los derechos humanos.
Sin embargo, los firmantes denuncian que, aunque ya se han identificado comportamientos engañosos y dañinos por parte de algunos sistemas avanzados de IA, se les continúa dando más autonomía para actuar y tomar decisiones en el mundo. "Si no se controla, será cada vez más difícil ejercer un control humano significativo en los próximos años", apuntan desde 'Call for AI Red Lines'.
Así, el objetivo final es el de "prevenir riesgos a gran escala, potencialmente irreversibles, antes de que sucedan", tal y como ha detallado al respecto el director ejecutivo del CeSIA, Charbel-Raphaël Segerie, en declaraciones recogidas por The Verge.
"Si las naciones aún no pueden ponerse de acuerdo sobre lo que quieren hacer con la IA, al menos deben ponerse de acuerdo sobre lo que la IA nunca debe hacer", ha manifestado Segerie, al tiempo que ha aclarado que el objetivo "no es reaccionar después de que ocurra un incidente importante".
Al respecto, la organización también ha matizado que las líneas rojas que proponen deben basarse en los marcos globales existentes y en los compromisos voluntarios de las empresas. Asimismo, deben asegurar el cumplimiento de las pautas, garantizando que todos los proveedores de IA avanzada "rindan cuentas ante unos umbrales comunes".
Sin embargo, tal y como ha expresado la directora de gobernanza global de IA en The Future Society, Niki Iliadis, al respecto, según el medio citado, a largo plazo, se necesitan más que "compromisos voluntarios". Esto se debe a que, según Iliadis, las políticas adoptadas dentro de las empresas de IA "no alcanzan su cumplimiento real" y se necesita una institución "con fuerza" para definir y hacer cumplir los límites.
De hecho, el profesor de informática en la Universidad de California en Berkeley Stuart Russel, ha comparado esta necesidad de desarrollar IA de forma segura con el desarrollo de energía nuclear. "Al igual que no se construyeron centrales nucleares hasta que tuvieron alguna idea de cómo evitar que explotaran, la industria de la IA debe elegir una vía tecnológica diferente, que incorpore seguridad desde el principio", ha apostillado.
POSIBLES LÍNEAS ROJAS
Como posibles líneas rojas, desde 'Call for AI Red Lines' han apuntado a acciones como prohibir la delegación de autoridad de lanzamiento nuclear o decisiones críticas de comando y control sistemas de IA. Tampoco se podrá usar para desplegar y utilizar sistemas de armas letales sin un control humano significativo.
Otra línea roja propuesta es prohibir el uso de sistemas de IA para la puntuación social y la vigilancia masiva, así como su uso para la suplantación de identidad humana. Siguiendo esta línea, se plantea su prohibición para el uso cibernético malicioso o para el desarrollo de armas de destrucción masiva.
También se ha compartido como línea roja la autorreplicación autónoma, es decir, prohibir el desarrollo y despliegue de sistemas de IA capaces de replicarse o mejorarse significativamente sin autorización humana explícita.
Finalmente, la organización se ha referido al principio de terminación, que se basa en prohibir el desarrollo de sistemas de IA que no puedan ser terminados inmediatamente si se pierde el control humano sobre ellos.