Para Cristina Aranda, consultora tecnológica especializada en IA y fundadora de MujeresTech, la IA se ha lanzado con un ínfimo control y bajo un ambicioso propósito que a duras penas cumple: asemejarse a la inteligencia humana. Ante un mercado colmado ahora de plataformas como ChatGPT o Gemini, que se han lanzado como «pollos sin cabeza» al mercado; la consultora tecnológica insiste en la necesidad de incorporar distintos perfiles al desarrollo de esta herramienta para conseguir que sea más ética y vele por el bienestar de la ciudadanía
P. ¿Cómo pueden contribuir las humanidades al desarrollo de la IA?
R. La propia definición de la IA que dieron sus padres –que no madre– en la conferencia de Dartmouth la igualaba a la inteligencia humana. Es reseñable que en esta reunión la mayoría de los asistentes eran matemáticos, todos de ciencias, todos hombres blancos, judeocristianos, heterosexuales y sin discapacidad. Entonces, si en la base de la concepción de la IA está la inteligencia humana, lo lógico sería considerar al humano. Sin embargo, la realidad es que estos señores están comparando a una persona con una lavadora, un Seat Panda o un patinete, que se rigen por patrones claros. Las personas, al contrario, somos multidimensionales. Tenemos ese componente espiritual, social, emocional, fisiológico con un sistema de creencias que puede cambiar el mismo día, la misma hora o incluso el mismo minuto. No somos ceros y unos. La mente humana no es sota, caballo y rey.
P. ¿Qué perfiles o qué tipo de personas necesitamos para desarrollar una IA más «humana»?
R. Necesitamos personas de Humanidades que sepan diseñar estas máquinas: desde sociólogos hasta psicólogos. Necesitamos filósofos y filósofas que enseñen a razonar y a utilizar una lógica, a muchas y muchos lingüistas para que entiendan el lenguaje natural, porque el 80% de los datos que trabaja la inteligencia artificial son datos no estructurados de naturaleza lingüística. También necesitamos periodistas porque vivimos en la época de la humanidad donde es más difícil distinguir la verdad de la mentira. Expertos en Derecho que sepan defender los intereses de la ciudadanía para regular y legislar la IApensando en la protección de la población. Diseñadores y diseñadoras que mejoren esa experiencia de usuarios para hacerla más accesible.
P. ¿La IA está influyendo en nuestra vida?
R. Para empezar, hay que recordar que no hay una sola IA, hay muchas. Nosotros interactuamos con las relacionadas de persona máquina y esos algoritmos ya impactan en la vida de las personas. Lo hacen en cosas tan banales como en qué restaurante tienen que comer, con quién van a quedar de la app de citas o qué música van a escuchar, pero también pueden persuadir sobre el partido al que tienen que votar. Por lo cual pueden impactar en democracias.
P. ¿Quién toma realmente las decisiones en la IA?
R. No olvidemos que la IA es una tecnología, pero esto va de personas. Son ellas quienes toman las decisiones. De hecho, cualquier proyecto estratégico de IA tiene que empezar proporcionando formación y pensando las soluciones donde se va a aplicar en cooperación con personas. También hay personas que son responsables del desarrollo de esa IA. De hecho, aunque las tecnológicas se amparen en la narrativa de no saber porque el algoritmo es como una caja negra, no es así. Ellas también tienen responsabilidad. Al contrario de lo que suelen esgrimir, la regulación no tiene por qué detener la innovación y lo importante ahora es la ciudadanía, las democracias y la salud mental de los adolescentes. Y no podemos confiar en la autorregulación porque esto es tan complejo que nadie lo puede controlar.
«La IA es una tecnología y esto va a de personas; son ellas las que toman las decisiones»
P. ¿Cómo describiría la IA tal y como ha sido diseñada?
R. Hay varios planteamientos con respecto a la inteligencia artificial. Están los ‘large language models’, que son estos sistemas a los que llaman loritos estocásticos. En ellos no sabemos quién hay detrás ni sabemos la calidad del dato, pues incluso cuando citan fuentes, muchas veces alucinan y se las inventan. Luego tenemos ‘smart language models’ que son más acotados, y están más supervisados. Pero si nos atenemos a lo más utilizado por la población, tenemos a a ChatGPT, que es el tipo de IA donde no sabemos quién hay detrás entrenándolas. En teoría debería de haber equipos haciéndolo, pero en la práctica sabemos que se entrena y toma decisiones por sí misma por lo que sigue replicando sesgos. Han soltado un pollo sin cabeza y la gente lo está usando sin darse cuenta de ello. A nivel empresarial se dieron cuenta de que muchas personas utilizan este tipo de plataformas con información confidencial para trabajar más rápido. Con lo cual, estás regalándole la información a tu competencia.
P. ¿Y qué me dice de su impacto en el ámbito educativo?
R. Si el propio profesorado no las sabe utilizar estas plataformas tampoco enseñará a utilizarlas con una perspectiva crítica, incorporándolas dentro de su metodología. A nivel educativo vemos que su uso ya está causando una deficiencia cognitiva porque estamos delegando cognitivamente. Alguno podría argumentar que antes también estaba el Rincón del Vago. Pero si copiabas de ahí, lo hacías en uno cada diez trabajos. Ahora lo tienes tan a mano que no desarrollas cognitivamente áreas muy importantes. En Países Bajos han prohibido el uso de móviles en el aula y en dos años han visto una mejoría en capacidades cognitivas de los estudiantes.
P. ¿Qué solución ve ante un escenario como este?
R. Nos encontramos con un escenario en el que tenemos muchos pollos sin cabeza y necesitamos solo una cosa: regulación. Una normativa que diga: a estos pollos hay que ponerle esta cabeza. Es decir, ordenar la granja. Pedirle a los granjeros y a las granjeras que se hagan responsables de sus gallinas. Y esto supone que los gobiernos también tengan gobernanza sobre sus datos a través de sus propias plataformas. La IA es compleja porque es un ecosistema, no solamente es software. Es hardware, es dato, es estrategia empresarial y también estrategia política. El lobby tecnológico es el más poderoso del mundo y nos está vendiendo que el progreso no hay que regularlo, pero es todo lo contrario. Hay que salvaguardar los intereses de la ciudadanía con formación y con ética. Porque la IA no tiene. Es una máquina y son personas las que lo están desarrollando.
P. ¿Y qué principios éticos cree que debería contemplar la regulación?
R. Hay varios principios éticos. Está el principio de beneficencia, de hacer el bien: ser veraz, no mentir y no difundir fake news. Es decir, debe asegurarse que sus datos son de calidad, para generar una IA justa y de calidad. Otro de los principios es el de cooperación. Esto es un ecosistema, en el que se necesita incorporar diversidad cognitiva. Necesito incorporar no solamente más mujeres y personas de diferentes razas en la toma de decisiones, también expertos de derecho, de periodismo, de filología, de ingeniería que cooperen en el ámbito legal y de diseño. Otro de los principios que debería integrar es el de sostenibilidad. Estas ‘maquinitas’ consumen mucha energía. El entrenamiento de siete días de ChatGPT equivale al consumo energético anual de tres familias en España. Le seguiría el principio de no maleficiencia. Debe pensar en el bien común y no atentar contra la ciudadanía. Y el último, la transparencia. Las empresas van a tener que empezar por el día a ser transparentes, que es la gran la verdad más incómoda.
«A nivel educativo, el uso de esta tecnología está causando una deficiencia cognitiva»
P. ¿Cree que es posible, en la situación actual, una regulación ética?
R. Empieza a meter a la gente en la cárcel y a poner penas económicas bestiales, si vas con una motosierra matando a gente por la calle, te meten en la cárcel. Se reviste la IA de fascinación y una magia, y no es más que un cacharro cuyo uso hay regular para que quienes toman decisiones no hagan lo que quieran con el cacharro. Tú eres responsable de que esos adolescentes que están utilizando tu plataforma para crear deepfakes para denigrar a sus compañeras en situaciones pornográficas. Y lo eres porque no estás haciendo ningún control ni denunciándolo directamente a la policía.
P. Hablando de tecnológicas, ¿qué opinión le merece la reciente sentencia emitida por un juzgado de Estados Unidos en el que se ha designado a Google y Meta como responsables de la adicción a redes sociales?
R. Es maravillosa esa sentencia. En Europa tenemos el AI Act (el primer reglamento del mundo sobre Inteligencia Artificial), aunque están siendo laxos en la aplicación. Se supone que, en base a esta normativa, las empresas deben explicar sus algoritmos. En cambio, en Estados Unidos no hay regulaciones, es el Lejano Oeste.Pero este fallo judicial sienta jurisprudencia. Niñas y niños en situación similar como la que ha ganado el caso van a empezar a reclamar. Es lo que le pasó, en su momento, a la industria la tabacalera. Estamos en el mismo periodo, ya que nada de esto ha sido regulado y necesita normativas .
«El lobby tecnológico nos está vendiendo que el progreso no hay que regularlo, pero es todo lo contrario»
P. A día de hoy, ¿quiénes decide qué valores se incorporan al desarrollo de la inteligencia artificial?
R. La ONU está intentandolo, en España contamos con una Secretaria de Inteligencia Artificial que se dedica a auditar e incorpora estos valores. De hecho, en su página tienen unas guidelines para pymes y empresas, para ayudarles a incorporar la ética en sus procesos, tanto en primeras fases de desarrollo de producto como a la hora de diseñarlo. Hay otras organizaciones que velan por esto, como el Open Data Institute, fundado por Tim Berners-Lee. Fíjate que él creó la World Wide Web (www) libre para que nadie controlara la información y al final llegaron los buscadores y se hicieron con todo. Por tanto, hay diferentes iniciativas, asociaciones y activistas que están velando por esto. En esta lista se encuentra, por ejemplo, la antigua líder de ética de Google, a la que invitaron a irse porque escribió un artículo en el que advertía sobre peligro que entrañaban todas estas tecnologías de IA generativa si no contaban con un control
P. ¿Qué riesgos entraña entonces el uso de la IA de forma discriminada? Hay gente que lo usa para todo.
R. Pues que estás condicionado por un algoritmo. Si le dices «hazme la dieta», realmente no sabes quién lo ha hecho. Es como si voy a una farmacia y pido prescripción médica, no me la van a dar porque les pueden denunciar. En este caso, les estamos dando una atribución de veracidad, de calidad y de muchas cosas que no tiene. Por eso, vuelvo a insistir, lo importante es la formación, para que las personas que conozcan cómo se entrenan y sus debilidades, y carencias.
Suscríbete para seguir leyendo













