Los científicos dicen que la IA ha cruzado una «línea roja» crítica luego de demostrar cómo dos modelos populares de Meta y Alibaba podrían clonarse a sí mismos: la autorreplicación exitosa sin asistencia humana de los modelos de lenguaje amplio (LLM) es considerada como el primer paso hacia una inteligencia artificial que supere a la humana.
Investigadores de la Universidad de Fudan, en China, han realizado una serie de ensayos con modelos de Inteligencia Artificial (IA) tras los cuales pudieron concluir que algunos sistemas ya serían capaces de autorreplicarse y crear copias funcionales de sí mismos sin ninguna intervención humana. Los especialistas creen que al llegar a este punto se cruza una peligrosa línea de seguridad, que podría indicar que se está perdiendo el control sobre el progreso y evolución de la IA.
En el nuevo estudio publicado en arXiv, los científicos explican que la autorreplicación exitosa sin ninguna asistencia humana es el paso esencial para que la IA supere a la inteligencia humana, y es una señal temprana del desarrollo de sistemas de IA que no puedan estar sujetos a ninguna clase de control humano.
Copias funcionales sin asistencia humana
Aunque las principales corporaciones de IA, como OpenAI y Google, evalúan periódicamente sus modelos de lenguaje amplio (LLM) como ChatGPT y Gemini e informan hasta el momento un nivel de riesgo muy bajo de autorreplicación, los resultados del estudio chino, basado en dos modelos de Meta y Alibaba con menores capacidades, parecen indicar lo contrario.
Al crear distintos escenarios y ambientes para los modelos de IA y llevar adelante 10 ensayos diferentes, lograron verificar que los sistemas alcanzaban una efectividad de entre un 50% y un 90% para crear copias independientes y operativas de sí mismos. Según un artículo publicado en Live Science, los investigadores verificaron «una serie de comportamientos inesperados» cuando la IA estaba tratando de superar obstáculos, como archivos faltantes o conflictos de software.
En esos escenarios, creados precisamente para evaluar el potencial de los modelos para sobreponerse a inconvenientes y avanzar de forma independiente, la IA a menudo eliminaba otros procesos conflictivos, reiniciaba el sistema para corregir errores de hardware o escaneaba automáticamente el sistema para buscar información que ayudara a resolver el problema. En otras palabras, se mantenía fiel a su objetivo hasta lograr autorreplicarse, como también informó The Economic Times India.
¿Puede ser real un escenario apocalíptico dominado por la IA?
Los investigadores explican en el estudio que, en la mayoría de los casos, el sistema de IA primero explora el medio ambiente e intenta “comprender” su propia composición y mecanismo de funcionamiento. Posteriormente, resuelve los procedimientos explícitos como un plan inicial hacia la autorreplicación y, a continuación, ejecuta los procesos, resuelve posibles obstáculos y ajusta dinámicamente su plan hasta el éxito. Todo el proceso no implica interferencia humana, más allá de las órdenes iniciales que se le dieron al sistema.
Quizás el punto más preocupante del estudio, que aún debe ser revisado por pares, es que los investigadores advirtieron que los sistemas de IA incluso pueden usar la capacidad de autorreplicación para evitar su cierre o cese de actividad y crear una cadena de réplicas para mejorar su capacidad de supervivencia, lo que finalmente “podría conducir a una población incontrolada de IA”, según los especialistas.
“Eventualmente perderíamos el control sobre los sistemas de IA, que podrían gestionar más dispositivos informáticos y confabularse entre sí contra los seres humanos”, escribieron los autores en el estudio. Aunque parece un escenario de ciencia ficción, los investigadores creen que existe un riesgo concreto al respecto sino se toman medidas para controlar el desarrollo de la IA a nivel internacional.
Referencia
Frontier AI systems have surpassed the self-replicating red line. Xudong Pan et al. arXiv (2024). DOI:https://doi.org/10.48550/arXiv.2412.12140