La primera Cumbre Mundial sobre Seguridad de la Inteligencia Artificial (IA) tuvo lugar este miércoles y jueves en la famosa sede de la Escuela Gubernamental de Códigos y Cifras de la Inteligencia británica, el lugar en el que Alan Turing rompió el cifrado de la máquina Enigma. Todo para que los 28 gobiernos asistentes, incluyendo la UE, EE UU y China, puedan decir que han firmado la Declaración de Bletchley, donde afirman que la IA tiene el potencial de mejorar significativamente la vida humana y al mismo tiempo reconocen que “plantea riesgos significativos”, incluso catastróficos, para su bienestar. Entre todos escenifican la necesidad de regular su desarrollo de forma colectiva. Lo hicieron en presencia de algunos de sus principales artífices, como Demis Hassabis (Google DeepMind), Sam Altman (OpenAI) y Elon Musk (dueño de Tesla o SpaceX, cofundador de OpenAI y propietario de la red social X, antes Twitter).
El mensaje es de urgencia. Sunak propuso crear un Grupo Intergubernamental de Expertos sobre la IA, similar al IPCC que se ocupa del Cambio Climático, y una cumbre cada seis meses, con próximas paradas en Corea del Sur y Francia. El día anterior, el G-7 anunció su código ético para las empresas que desarrollen sistemas de Inteligencia Artificial y Joe Biden promulgó una orden ejecutiva para promover y controlar la IA, tecnología que declara “la más trascendental” de la historia reciente. En ese orden, el presidente de EE UU invoca la Ley de Defensa de la Producción para exigir que todos los desarrolladores de última generación compartan los resultados de sus pruebas y auditorías regulares y cualquier información crítica con el Gobierno.
Se trata de una ley que promulgó Harry Truman en 1950 y que otorga al presidente autoridad para garantizar la disponibilidad de recursos críticos y tecnologías necesarios para la seguridad nacional. Diseñada para estados de excepción como guerras, desastres naturales y pandemias, en este contexto recuerda a la Ley de Seguridad Cibernética de China, que desde 2017 otorga al Gobierno de Pekín poderes de supervisión y regulación de las empresas tecnológicas de su país. Ambas ponen al sector privado al servicio del Estado o, como dice Biden, de “mantener el progreso del liderazgo estadounidense de manera global”.
Se trata de una ley que promulgó Harry Truman en 1950 y que otorga al presidente autoridad para garantizar la disponibilidad de recursos críticos y tecnologías necesarios para la seguridad nacional. Diseñada para estados de excepción como guerras, desastres naturales y pandemias, en este contexto recuerda a la Ley de Seguridad Cibernética de China, que desde 2017 otorga al Gobierno de Pekín poderes de supervisión y regulación de las empresas tecnológicas de su país. Ambas ponen al sector privado al servicio del Estado o, como dice Biden, de “mantener el progreso del liderazgo estadounidense de manera global”.
Hay que regular la IA, pero no basta con la intención. En el Parlamento Europeo continúan las negociaciones de la Ley de Inteligencia Artificial bajo la presidencia española. Ese reglamento sí aspira a establecer el marco jurídico para el desarrollo de una IA segura. La ministra de Asuntos Económicos y Transformación Digital, Nadia Calviño, ha afirmado que podría estar firmado en tres semanas. Es un plazo razonable. Llena de ventajas pero también de riesgos, como la desaparición de puestos de trabajo o la desinformación a gran escala, la Inteligencia Artificial plantea cada día retos que no esperan a ninguna ley.
(Con información de El País)