La humanidad se enfrenta a un futuro «catastrófico» si no regulamos la IA, según uno de los «padres» de los sistemas de aprendizaje automático. Yoshua Bengio, que jugó un papel crucial en el desarrollo de los esquemas de aprendizaje automático que se utilizan en la actualidad, sostiene ahora que la Inteligencia Artificial (IA) podría representar un riesgo existencial para la humanidad, siempre y cuando su desarrollo no sea controlado y conducido adecuadamente para el progreso de nuestra civilización y del planeta en general.
Yoshua Bengio, junto con el científico jefe de IA de Meta, Yann LeCun, y el ex-investigador de IA de Google, Geoffrey Hinton, se hizo acreedor en 2018 del Premio Turing, algo así como el «Nobel» de la informática, por sus contribuciones en el campo de la creación de redes neuronales artificiales y algoritmos de aprendizaje profundo. En función de estos antecedentes, es considerado actualmente uno de los “padres” del aprendizaje automático, uno de los pilares de la Inteligencia Artificial (IA), ya que posibilita que los sistemas vayan aprendiendo e incorporando conocimientos con el paso del tiempo y el trabajo de entrenamiento.
¿Resultados catastróficos?
Ahora, en el marco del evento “HowTheLightGetsIn Festival 2024”, en Londres, Bengio dejó interesantes conclusiones sobre el posible futuro de la IA en una entrevista con Live Science. Entre otros aspectos, indicó que sistemas de Inteligencia Artificial “superinteligentes” y que alcancen algún tipo de consciencia e independencia podrían convertirse en un riesgo real y concreto para la supervivencia de nuestra civilización. Como ya hemos indicado en otros artículos, algunos especialistas adhieren a esta visión, mientras que otros no ven que la IA pueda transformarse en un peligro para el ser humano.
“Es difícil ir en contra de tu propia iglesia, pero si piensas racionalmente sobre las cosas, no hay manera de negar la posibilidad de resultados catastróficos cuando alcancemos un nivel determinado en el progreso de la IA. Entiendo que hay escenarios previos que son malos, pero también pienso que podremos resolverlo”, indicó Bengio en referencia a la necesidad de controlar a la IA para que su desarrollo vaya en línea con el bien común y el progreso humano.
Máquinas asesinas o dictadura global
“Si miras más adelante, cuando alcancemos el nivel de superinteligencia, existen dos riesgos principales. El primero es la pérdida del control humano: si las máquinas superinteligentes tienen un objetivo de autoconservación, su objetivo podría ser destruir a la humanidad para que no podamos apagarlas. El otro peligro, si el primer escenario de alguna manera no sucede, es que algunos humanos usen el poder de la IA para tomar el control de toda la humanidad en una especie de “dictadura mundial”. Pueden existir versiones más acotadas y en un espectro concreto de ese escenario, pero este tipo de tecnología le dará un gran poder a quien la controle”, reflexionó Bengio.
Según un artículo publicado en Gzero, la gran preocupación de Bengio son los incentivos que se priorizan en este momento de comercialización exacerbada de los sistemas de IA. Desde ejecutivos de corporaciones que potencialmente minimizan el riesgo y exageran la capacidad de la industria para contenerlo, hasta los laboratorios de investigación académica donde la mayoría del trabajo se centra actualmente en hacer que la IA sea más poderosa, pero no más segura al mismo tiempo. Para Bengio y muchos otros expertos en el tema, esta es una advertencia real a la que es imprescindible prestar atención.