ChatGPT, Gemini y Claude han irrumpido en las vidas de miles de millones de personas alrededor del globo de forma estridente, caótica y transformadora. Estos modelos conversacionales basados en inteligencia artificial se han convertido en protagonistas indispensables en la daily routine de cualquier ciudadano del mundo independientemente de su bagaje profesional, cultural y social. Estos chatbots de aprendizaje automático han cambiado la forma en la que se realizan gestos tan simples como comprobar un dato, buscar argumentos para afrontar conversaciones difíciles e, incluso, indagar en consejos para tener un estilo de vida más saludable.
Pero su inconmensurable potencial no puede seguir eclipsando una realidad cada vez más patente: estos asistentes de IA han modificado, como nunca antes lo había hecho una tecnología, la humanidad en sí misma, con cambios a nivel cognitivo, relacional y, en última instancia, en la convivencia en el planeta. El reto, por tanto, es conseguir que esa imparable tecnología tenga una brújula moral que le permita hacer más bien que mal.
A día de hoy, más de 900 millones de usuarios utilizan cada semana ChatGPT (de OpenAI), otros 750 millones utiliza Gemini (de Google) cada mes y 33 millones se han decantado por usar Copilot (de Microsoft). Sin conocer los datos exactos de otras plataformas, como Grok (de X) o NotebookLM (también de Google), no es precipitado concluir que la inteligencia artificial ha irrumpido en todos los aspectos de la vida. Y esta percepción se refuerza con una realidad casi incontestable: cada vez más personas delegan en la IA sus tareas cotidianas.
Hacia la Sociedad del Algortimo
La IA está removiendo los cimientos que sustentan la sociedad y redirigiendo a la humanidad desde la Sociedad del Conocimiento hacia la Sociedad del Algoritmo. De hecho, los cambios que está suscitando ocurren más rápido incluso que los que provocó la era digital. «Los algoritmos se sofistican cada día; ya no solo refuerzan discursos o fomentan las cámaras de eco; están tomando decisiones por nosotros», afirma Juan Sebastián Fernández, sociólogo experto en IA de la Universidad de Almería.
De hecho, ya son estos refinados cálculos los que deciden si conceden el préstamo de una hipoteca, qué diagnósticos médicos es más correcto, dictan sentencia y deciden los candidatos ideales para optar a un puesto de trabajo. El problema es que la tecnología que está tomando decisiones más o menos trascendentales lo hace sin ningún control. De hecho, «a estas alturas, la IA se está autoprogramando sin apenas supervisión y, en la mayoría de los casos, está reproduciendo sesgos y aspectos discriminatorios», revela Fernández.
Este boom de la inteligencia artificial ha polarizado incluso la discusión científica. Algunos priman una visión postapocalíptica y otros pecan de un entusiasmo tecnoutópico que arrasa con cualquier concepción negativa de la tecnología. Entre ambas visiones, las ciencias sociales alzan la voz para demostrar que no solo pueden jugar un papel de utilidad en este desarrollo, sino que son indispensables para fomentar una inteligencia artificial que comulgue con el bienestar de la humanidad. «Las ciencias sociales han estado apartadas de los avances tecnológicos, y debería ser exactamente lo contrario», recalca José Serrano, sociólogo de la Universidad Europea de Canarias (UEC).
Ilustración sobre Inteligencia Artificial / Adae Santana
Intervencionismo del Humanismo
Las ciencias sociales se entrecruzan con la IA en diversos aspectos. Por un lado, les obliga a replantear sus metodologías, las mismas que les ayudarán a realizar un análisis exhaustivo sobre cómo esta herramienta está cambiando la sociedad. Pero uno de los papeles que las Humanidades pueden jugar en la revolución algorítmica es intervenir sobre su desarrollo.
En este debate ético entran en juego las otras ciencias, las que durante años han estado relegadas bajo la etiqueta de Letras. Sociólogos, filósofos, lingüistas, comunicadores, juristas, diseñadores y otras muchas profesiones son ahora primordiales para dotar de humanidad a un elemento tecnológico que tiene más en común con una lavadora que con un cerebro. Dicho debate, como insisten los investigadores, debe centrarse en tres aspectos: la humanización de la agenda tecnológica, la alfabetización algorítmica de la población y la consolidación de marcos regulatorios más sólidos y garantistas.
La automatización, los sesgos algorítmicos, la privacidad y las desigualdades de género con la que operan estas máquinas inteligentes requieren de «auditorías» filosóficas, la sociología, la comunicación, la educación e, incluso, el ámbito jurídico.

ChatGPT. / E.D
Un análisis exhaustivo que permita no solo detectar estos desajustes comportamentales, sino también entrenarla para que adquieran una cierta moralidad con la que tomar decisiones más ajustadas al beneficio de la humanidad. «Las ciencias sociales pueden aportar mucho», sentencia Fernández. Por su parte, Serrano recuerda que «el peso de la IA va a ser cada vez mayor en todas las áreas de la vida», lo que obliga a abordar este reto social desde una perspectiva que hasta ahora se había pasado por alto en otras revoluciones tecnológicas: «ya no basta con desarrollar herramientas e implementarlas, tenemos que gobernarlas».
Y es que por mucho que ChatGPT, Gemini o Grok consigan asemejar sus respuestas a las que proporcionaría un ser humano, la realidad es que no es más que un espejismo. Bajo su coraza de humanoide lo que se encuentra es un largo código de ceros y unos que en poco se asemeja al funcionamiento de un cerebro humano, en el que también median sentimientos, esperanzas, ética y raciocinio.
Necesidades sociales
En primer lugar, se debe lograr que el diseño prime las necesidades sociales, asegurando la participación de equipos multidisciplinares durante todas las etapas del desarrollo.
Otro de los aspectos en los investigadores hacen hincapié es en tratar de formar a la población para que puedan acercarse a los algoritmos de manera crítica. «Comprender, aunque sea de forma básica, cómo operan y se generan sesgos en estos sistemas es tan crucial para nuestra época como lo fue aprender a leer tras la invención de la imprenta», afirma Fernández.
En este punto tiene un papel muy relevante en el ámbito de la formación. «La irrupción de la IA en el aula ha puesto de manifiesto que necesitamos reformular la educación», destaca Serrano. El profesorado ha dejado de ser la única fuente de información, por lo que con la IA obliga a cambiar su papel y a centrarlo más en enseñar a «contrastarla y cuestionarla». «La herramienta per sé no merma la capacidad crítica, pero utilizarla sin criterio sí puede conllevar a un problema», insiste el sociólogo de la UEC. Y es que cuando los alumnos ven un texto bien redactado y aparentemente correcto, a menudo «lo aceptan sin cuestionarlo». Esta situación tiene efectos a largo plazo en un fenómeno que la ciencia ha bautizado como «deuda cognitiva».
Un estudio experimental realizado el año pasado en Estados Unidos demostró que la utilización de modelos de lenguaje (GPT-4o) en una tarea de redacción de distintos ensayos en condiciones controladas de laboratorio, afecta a las conexiones neuronales. Este mismo estudio concluía que «aunque los modelos de lenguaje facilitan la generación de textos y respuestas, el uso de estas tecnologías produce una delegación cognitiva que reduce la activación neural e interfiere con el aprendizaje, el recuerdo de la información, el desarrollo creativo y análisis crítico». «Lo digital ya estaba cambiado el modo de educar, pero esa delegación de competencias cognitivas genera un problema total y absoluto», sentencia Fernández.
La Ley de Inteligencia Artificial europea
La última de las piezas de este puzle es la jurisprudencia. Aunque Europa ha sido pionera en crear una Ley de Inteligencia Artificial (AI Act), para los investigadores aún hay mucho que mejorar. «Debe complementarse con auditorías independientes y mecanismos claros de apelación para quienes sufran decisiones automatizadas», insiste Fernández, que aboga por las iniciativas de «código abierto» y las infraestructuras soberanas para reducir la dependencia «de los grandes oligopolios tecnológicos».

La pantalla de inicio de ChatGPT en un teléfono. / Shutterstock
«Ahora mismo está ocurriendo lo mismo que pasó, en su momento, con el software, y es que la mayoría está en manos de empresas estadounidenses», explica Fernández. En este sentido, los investigadores destacan la necesidad de fomentar la «soberanía algorítmica» para evitar que las naciones se vean arrastrados por las dinámicas económicas de «dos o tres empresas grandes». En este sentido, el sociólogo de la Universidad de Almería defiende que España, en este caso, a través de la Agencia Española de Supervisión de la Inteligencia Artificial, debería crear su propio sandbox para entrenar una IA propia.
La mercantilización de la artificialidad
Esta imperante necesidad de gobernanza suele empañarse tras los enormes beneficios –especialmente económicos– que proporciona el crecimiento exponencial de la productividad inaudita e inalcanzable para el ser humano. «La IA en el fondo es un negocio», sentencia Fernández. Algunas proyecciones conservadoras, demuestran que bastaría que las empresas y administraciones adoptaran esta tecnología para lograr un notable aumento de la productividad.
Las lógicas comerciales que envuelven la IA suponen un problema en sí mismo. En un mundo donde las grandes empresas –lideradas por las tecnológicas– aspiran a lograr cada vez más rentabilidad, la productividad que permite alcanzar la IA es un caramelo. «El problema está en que la riqueza se concentra cada vez más en unos pocos, aumentando las desigualdades sociales», destaca Fernández. No en vano, esta tecnología, que está en manos de unos pocos, engulle gran parte de los recursos monetarios, energéticos y humanos del mundo. «Si no se le pone límites, será esa diferencia será cada vez mayor», insiste Fernández. Por su parte, Serrano defiende que «sin pensamiento crítico podremos ser más eficientes, pero también acabaremos siendo más vulnerables».
En este contexto, los expertos asumen que el tiempo corre en su contra. «La tecnología va más rápido que la reflexión social y ética», recuerda Fernández, que afirma que esta situación se ha producido en la mayoría de las revoluciones tecnológicas. Sus palabras son corroboradas por Serrano quien considera que «aún estamos a tiempo de resolverlo». El margen, no obstante, no lo es tanto. «No vamos sobrados, hay que regular la IA, acompañar desde la educación y abogar por una implantación responsable desde las empresas», indica Serrano, que advierte: «de otra forma, nos arrollará el tsunami».













