El 31 de agosto de 1955, hace hoy 70 años, nació la inteligencia artificial. Aunque la humanidad llevaba siglos soñando con la creación de máquinas inteligentes, no fue hasta entonces que se acuñó el término que ahora protagoniza nuestros días. Una definición sumamente atractiva, pero también problemática, pues induce al engaño y, según múltiples expertos, arrastra al público a no entender realmente qué se esconde detrás de la IA.
Ese día, cuatro científicos informáticos estadounidenses —John McCarthy, Marvin Minsky, Nathaniel Rochester y Claude Shannon— presentaron una ambiciosa propuesta: un proyecto de verano para reunir a algunas de las mentes matemáticas y psicológicas más brillantes de la época para descubrir «cómo hacer que las máquinas utilicen el lenguaje, formen abstracciones y conceptos, y resuelvan tipos de problemas que ahora están reservados a los seres humanos».
La iniciativa cristalizó el año siguiente en la célebre Conferencia de Dartmouth, el campus de investigación celebrado en Hanover (Nuevo Hampshire, Estados Unidos) que alumbró la IA como disciplina fundamental de las ciencias de la computación. Ese encuentro, según McCarthy, se basó «en la conjetura de que todos los aspectos del aprendizaje o cualquier otra característica de la inteligencia pueden, en principio, describirse con tanta precisión que es posible crear una máquina capaz de simularlos». Todo lo que sabemos sobre aprendizaje automático y redes neuronales parte de esa cita. Sin ella, no habría ni ChatGPT, ni Google, ni redes sociales.
Truco para llamar la atención
Años más tarde, el propio McCarthy reconoció que el término IA era un truco, una estrategia para atraer la atención de inversores y financiar su investigación. «Lo inventé porque teníamos que hacer algo cuando intentábamos conseguir dinero para un estudio de verano», confesó en un debate televisado en 1973 entre carcajadas de los asistentes (ver minuto 2:37).
McCarthy eligió el término tras una mala experiencia. Antes, se había referido al campo como «estudios sobre autómatas«, pues a su compañero y mentor Claude Shannon le pareció que IA era un nombre «demasiado llamativo» que «podría atraer una atención desfavorable». Sin embargo, McCarthy se sintió «terriblemente decepcionado» cuando vio que los estudios que recibía por parte de científicos eran sobre autómatas, un campo de investigación ya existente.
La decisión de McCarthy no fue solo cosa del dinero, sino también de la precisión. A su parecer, el término IA reflectía mucho mejor su enorme y ambiciosa aspiración. «Decidí no seguir engañando a nadie y decir que este es un estudio cuyo objetivo a largo plazo es alcanzar un nivel de inteligencia similar al humano», concluyó, según relata el libro How Data Happened: A History from the Age of Reason to the Age of Algorithms, del matemático Chris Wiggins, científico de datos jefe del New York Times, y el historiador Matthew L. Jones.
Un nombre problemático
Aunque otros reputados científicos presentes en Dartmouth como Herbert Simon y Allen Newell siguieron refiriéndose al campo como «procesamiento de información compleja», el término IA se consolidó y, con él, la constante comparación entre las máquinas y los humanos. «[Con esa elección] nos metieron en un lío enorme (…) La palabra inteligencia aplicada a las máquinas es equívoca, pues no razonan como nosotros», ha señalado recientemente el filósofo Daniel Innerarity, autor de Una teoría crítica de la inteligencia artificial. «ChatGPT no está más vivo que un muñeco ventrílocuo que habla», añade el International Science Council (ISC).
Más allá de lo que quería McCarthy, el término IA a una falsa ilusión de que los sistemas informáticos pueden llegar a desarrollar conciencia. Esa falsa creencia, que ya ha permeado en el imaginario colectivo, explica que haya quién confunda a los chatbots programados para simular el lenguaje humano con una entidad pensante en la que confiar hasta el punto de enamorarse o incluso suicidarse. La tendencia a creer que tienen conciencia es un problema terrible con muchas más implicaciones de las que vemos ahora», advierte el pionero informático catalán Ramon López de Mántaras en una entrevista con EL PERIÓDICO. «Comparar nuestro cerebro con la programación de las máquinas es casi ridículo».
Suscríbete para seguir leyendo