Daniel Innerarity (Bilbao, 1959) lleva décadas pensando sobre los retos de la democracia en sociedades complejas, y la irrupción tecnológica, que solo ha hecho que complicarla. Filósofo político y autor galardonado, acaba de publicar Una teoría crítica de la inteligencia artificial, donde aborda la actual transformación del poder, la política y la vida en sociedad. En un contexto marcado por la rivalidad de EEUU y China, el esfuerzo por la regulación europea que espera no llegar demasiado tarde, Innerarity, propone mirar la IA no como simple herramienta, sino como un fenómeno que redefine la forma en que decidimos y convivimos. En la víspera de su ponencia en el Cornellà Creació Fòrum este viernes, se entrevista con EL PERIÓDICO.
¿En qué consiste esa mirada crítica a la IA cuando estamos polarizados entre el entusiasmo y el miedo hacia esta tecnología?
Las tecnologías digitales son tecnologías muy poco reflexivas y eso puede llevarnos a una situación de sonambulismo digital: la tecnología nos conduce a sitios donde no habíamos decidido ir. Mi propuesta sería convertir lo implícito en algo reflexivo. Preguntarnos si nuestra relación con la tecnología responde a lo que queremos ser, o si le prestamos demasiada atención porque nos engancha la pantalla. Un principio fundamental de la vida autoconsciente es preguntarnos si lo que defendemos ha pasado por el tamiz de nuestra reflexión o lo repetimos como un papagayo.
¿Y de qué nos daríamos cuenta si nos hiciéramos las preguntas adecuadas?
Descubriríamos las grandes ventajas que puede ofrecernos y algunos de sus límites más claros. Amazon te sugiere otros libros similares y debería recomendarte autores que te lleven la contraria. Platón leía al enemigo; yo leí a autores antivacunas en el covid o a teóricos de la extrema derecha para entender cómo piensan quienes quiero combatir. La inteligencia artificial, como las redes sociales, está pensada para darte la razón. La IA es fabulosa, pero no sirve para establecer los fines a los que se pone al servicio. En un mundo gobernado por la IA, el movimiento del ‘Me Too’ no sería posible: surgieron cuando nadie los esperaba. Eso debemos decidirlo nosotros. Nos faltan amigos de verdad que nos digan «estás haciendo el ridículo».
¿Qué responsabilidades individuales y colectivas supone esto?
Sobre todo colectivas. Cuando ponemos el peso en el individuo, descargamos de ese peso a las plataformas y los Estados. El ejemplo de las hipotecas es claro: tras la crisis, los bancos tuvieron que garantizar que los clientes entendieran a qué se comprometían. Ahora que llamamos a la información el nuevo petróleo, no deberíamos vernos abocados a aceptar las cookies sin saber lo que son. Hay que ser más exigentes con las empresas, y los Estados deben espabilar en la regulación.
Europa trata de regularlo. ¿Es demasiado poco, demasiado tarde, o marcará tendencia?
A la tecnología siempre llegamos tarde, porque la tecnología la inventa gente que no pide permiso y cuya capacidad de creatividad es muchísimo mayor que la de los Estados que regulan. Los que se ocupan de la moral y del derecho son mucho más lentos que la gente que se ocupa de la ciencia y de la tecnología. Por definición, esto no tiene remedio. En el corto plazo lo que podemos hacer es compensarlo con regulaciones y más previsión, pero cada región tiene una forma de interpretarlo, y eso nos ha separado.
¿Y en esta rivalidad Estados Unidos–China, hay un equilibrio geopolítico posible?
En el corto plazo, casi nada es posible. Vivimos un momento en que los acuerdos internacionales se han reducido al mínimo. En los años 80 y 90 se pensaba que la globalización nos haría más homogéneos. Qué equivocados estábamos. La tecnología se ha convertido en un campo de batalla, no en una fuente de fusión. Pensábamos que iba a ponernos de acuerdo y, en cambio, estamos más polarizados. China prioriza la eficiencia, Estados Unidos el negocio, y Europa busca un equilibrio inestable entre economía, política, cultura y medio ambiente. La tecnología no nos ha unificado y eso dificulta cualquier equilibrio geopolítico.
Internacional. Entrevista a Daniel Innerarity, filósofo político y titular de la cátedra de Inteligencia Artificial y Democracia del Instituto Universitario Europeo de Florencia / Zowy Voeten EPC
¿Está la democracia occidental ante un momento de crisis?
¡Dime un momento en el que la democracia no haya estado en crisis…! Es verdad que este es un momento especialmente crítico. Pero la descripción apocalíptica que hacemos a veces no es justa. Exageramos la centralidad de los “hombres fuertes” —varones que se comen a los débiles, cínicos, mentirosos— y olvidamos las fuerzas de resistencia que existen en la sociedad. Hemos visto movilizaciones potentes —por ejemplo las recientes protestas sobre Gaza— que muestran capacidad de reacción. Los líderes autoritarios se benefician si creemos que son más poderosos de lo que son.
¿Los humanos tienen alguna ventaja sobre las máquinas?
Sí. Con pocos datos, los humanos tomamos decisiones bastante correctas. El consumo energético de la IA es un grave problema. El análisis masivo de datos exige centros computacionales gigantes y mucha energía. Hay que diseñar investigación que no consuma datos innecesariamente. Un médico, por ejemplo, necesita relativamente poca información para diagnosticar lo esencial; una máquina necesita enormes cantidades de datos. Esa economía cognitiva es una fortaleza humana.
¿Qué es lo que más le preocupa y qué le da esperanza?
Me preocupa que, abrumados por la situación, dejemos de aprovechar las oportunidades para combatirla. Me da esperanza la incertidumbre: el futuro no está escrito. Pueden surgir respuestas democráticas imprevistas. El problema es que tengamos líderes mundiales como Trump y Netanyahu, que tienen pocos motivos para desear el cambio, ya que si no estuviera en el gobierno, estaría en la cárcel, ya que la inmunidad constitucional mantiene congelados procesos judiciales de los que probablemente saldrían muy mal parados. Su permanencia en el poder reduce los incentivos a abandonar ciertas prácticas y eso hace la evolución a corto y medio plazo muy negativa.
Suscríbete para seguir leyendo













