El G7 ceará un código de conducta internacional para minimizar los riesgos de la inteligencia artificial (IA).
Este jueves, los representantes de Alemania, Canadá, Estados Unidos, Francia, Italia, Japón y Reino Unido llegaron a un acuerdo para elaborar una normativa unificada que los ministros de asuntos digitales de esos países ultimarán en una reunión virtual prevista para noviembre o diciembre.
El código de conducta solicitará a las grandes empresas que impulsan el desarrollo de la IA que se comprometan a tomar medidas para frenar el impacto social de esta tecnología emergente, así como crear sistemas de gestión de riesgos e invertir más en controles de ciberseguridad.
«Reconocemos la necesidad de gestionar los nuevos riesgos y desafíos para las personas, la sociedad y los valores democráticos, y de aprovechar los beneficios y oportunidades que ofrecen los sistemas avanzados de IA», remarca una declaración del G7 publicada el jueves. «Nos comprometemos a desarrollar principios rectores y un código de conducta internacional para las organizaciones».
No vinculante
Sin embargo, la propuesta del G7 es problemática, pues esa normativa no será vinculante. Así, gigantes tecnológicos como Alphabet (Google), Microsoft o Meta (Facebook) no tendrán obligación alguna de cumplir con las medidas establecidas por el foro que reúne a algunas de las mayores potencias mundiales.
Aun así, el gesto del G7 evidencia los vientos de regulación que soplan en contra de la industria tecnológica. El pasado junio, el Parlamento Europeo aprobó el proyecto de ley con el que Bruselas pretende regular la IA, clasificando y restringiendo sus usos según los riesgos que entrañan. La Unión Europea se convertirá así en la primera región del mundo que establece un marco legal para controlar esta tecnología, cada vez más extendida. En EEUU, los legisladores aún se encuentran en una fase inicial de consultas para una futura regulación en la que los pesos pesados del sector tratan de influir.