Los peligros de la inteligencia artificial han sido un tema recurrente en los últimos meses que esta tecnología ha ido revolucionándose. Expertos de todo el mundo, incluyendo en España, han pedido una importante regulación en torno a la IA, para evitar que sus efectos nocivos sean más palpables. Ahora, se producen nuevos avances en este sentido, con el G7 y el presidente de los Estados Unidos, Joe Biden.

Y es que el presidente ha firmado una orden ejecutiva que establece una serie de objetivos dedicados a regular la IA generativa, tal y como recoge The Verge. Esta orden ejecutiva, que se adelanta a las posibles normativas que se puedan definir por parte de otros legisladores buscan abarcar varios de los puntos que los expertos han resaltado como vitales.

Por ejemplo, esta orden ejecutiva buscará crear una serie de nuevos estándares para la seguridad de la inteligencia artificial, que pasan por promover la equidad y los derechos civiles tales como la privacidad en su desarrollo. No es lo único; se defenderá a los consumidores y se impulsará un liderazgo de Estados Unidos en esta clase de tecnologías de vanguardia.

Biden regula la IA

En concreto, la orden ejecutiva promulgada por la Casa Blanca pretende abarcar hasta 8 puntos distintos. Junto a los ya mencionados, nos encontramos con el apoyo a los trabajadores, promover la innovación y garantizar un uso gubernamental «responsable y eficaz» de la tecnología.

La orden completa se puede consultar desde este enlace, y desgrana uno a uno estos nuevos puntos. Por ejemplo, dentro del desarrollo de los estándares de IA sobre seguridad se establecen pautas como requerir que los desarrolladores de los sistemas de inteligencia artificial más poderosos «compartan sus resultados de test de seguridad y otra información crítica con el gobierno de los Estados Unidos».


Joe Biden ante el Consejo de Asesores sobre Ciencia y Tecnología del Presidente (PCAST)

Leah Millis – Reuters

Omicrono

No es lo único. El propio gobierno obligará a estos desarrolladores a crear estándares, herramientas y tests «que ayuden a asegurarnos que los sistemas de IA son seguros y fiables». En este caso, el gobierno de Biden cede el testigo al Instituto Nacional de Estándares y Tecnología para implantar «rigurosos estándares para testeo extensivo en red-team para asegurar la seguridad antes de la publicación».

Además de ello, Biden menciona protecciones contra algunos de los efectos más perniciosos que pueden aparecer con estos sistemas. Auguran protección ante los riesgos de usar IA para crear «materiales biológicos peligrosos» y contra «el fraude y el engaño» proveniente de estos sistemas.

[El negocio de desnudar por IA. ¿Cómo proteger a las mujeres víctimas del ‘deepfake’?]

Otro aspecto importante de la orden se refiere a otra de las preocupaciones más resaltadas por los expertos: la privacidad. El gobierno de Biden reconoce que la IA hace más fácil «extraer, identificar y explotar» información personal, y por ello se promulgan una serie de puntos a destacar.

Algunos de ellos implican protección priorizando el soporte federal para acelerar el desarrollo de técnicas para la preservación de la privacidad o reforzar la investigación y tecnologías basadas en este fin. 

El presidente de Estados Unidos, Joe Biden.


El presidente de Estados Unidos, Joe Biden.

Europa Press

También se evaluarán «cómo las agencias recogen y usan comercialmente información disponible» y se desarrollarán «pautas para las agencias federales con el fin de evaluar la efectividad de técnicas para la preservación de la privacidad».

Estas, y otras muchas pautas que se desgranan en la orden se aplicarán a los futuros modelos de IA que vayan apareciendo a medida que pase el tiempo. De hecho, ante la pregunta de si se iban a retirar los modelos actuales, Biden ha sido tajante; no se van a retirar estos modelos ya que «todavía están sujetos a las normas antidiscriminatorias que ya están en vigor».

Biden no es el único

Si bien Biden ha querido adelantarse a que futuros legisladores fuera de la Casa Blanca implanten guidelines de este estilo, otros muchos organismos están inmersos en la idea de regular la IA. Tal y como recoge Reuters, el Grupo de los Siete (es decir, el G7) aprobará en las próximas horas un código de conducta para las empresas encargadas de desarrollar sistemas avanzados de IA.

Ilustración de la IA.

Este código de conducta, asegura el medio, establecerá todo un conjunto de pautas y guías de actuación para que los gobiernos implicados puedan manejar los sistemas de IA actuales. Los líderes del G7, tales como Canadá, Francia, Italia, Alemania, Japón, Reino Unido y Estados Unidos (incluyendo, además, a la Unión Europea) ya comenzaron a trabajar en este documento a mediados de año, en mayo.

El documento, filtrado a Reuters, recoge 11 puntos que tienen como principal objetivo «promover una IA segura y confiable en todo el mundo y proporcionará orientación voluntaria para las acciones de las organizaciones que desarrollan los sistemas de IA más avanzados, incluidos los modelos básicos y los sistemas de IA generativos más avanzados».

[Estos son los trabajos con más probabilidades de desaparecer por culpa de la inteligencia artificial]

Es de esperar que este código se publique a lo largo de la jornada de hoy, lunes 30 de octubre. Una vez el acuerdo sea público, se instará a las empresas a tomar medidas para mitigar los peligros que los grandes modelos de IA generativa presentan, a lo largo de su ciclo de vida. También se abordarán casos de incidentes y patrones de uso indebido una vez estos modelos hayan sido comercializados en forma de productos.

También te puede interesar…