Licenciado y máster en Filosofía, con grado y doctorado en Criminología, así como con otro máster en Administración de Empresas, Castro Toledo representa el ejemplo perfecto de que no solo se puede vivir con una carrera como Filosofía sino que además sigue siendo totalmente necesaria esta discipina en estos tiempos de zozobra política e imperialismo tecnológico. Actualmente trabaja en establecer marcos éticos que guíen el diseño y uso responsable de la inteligencia artificial.
¿Cuándo y cómo empieza a conocer la inteligencia artificial?
Mi primer contacto fue en 2010, durante mi tercer año de Filosofía en la Universidad de Granada. Me atrajo profundamente cómo la IA planteaba cuestiones fundamentales relacionadas con la filosofía de la mente, especialmente en temas como la conciencia, la cognición o la filosofía moral. Estas preguntas abrieron un campo fascinante de exploración sobre si las máquinas podrían algún día replicar o incluso superar las capacidades cognitivas humanas. Posteriormente, durante mi etapa como investigador y profesor en la Universidad Miguel Hernández, tuve la oportunidad de profundizar en estos temas a través de algunos proyectos centrados en la valoración del riesgo delictivo y su afectación a los procesos de tomas de decisiones en operadores jurídicos y policiales. Estos trabajos me permitieron explorar prácticamente cómo la IA podría aplicarse en contextos críticos de la seguridad. En mis roles actuales en Plus Ethics y Paradigma he seguido abordando, entre otras cuestiones, las intersecciones entre la IA, la ética y los estándares europeos de innovación e investigación. Desde 2018 hemos participado en más de una veintena de proyectos europeos y que buscan establecer marcos éticos que guíen el diseño y uso responsable de la IA, asegurando que estas tecnologías avancen en armonía con los valores europeos más fundamentales.
Castro es filósofo y criminólogo, entre otras especialidades / Áxel Álvarez
Como filósofo, ¿qué le preocupa de la IA?
Cuando pensamos en los riesgos éticos de la inteligencia artificial, podemos organizarlos de manera no exhaustiva en tres grandes áreas. Primero, la ética de los algoritmos. Aquí hablamos de cómo los sistemas de IA pueden ser injustos o poco transparentes. Por ejemplo, cuando se usan para hacer perfilados automáticos o psicológicos, basados en datos, como ocurre en algunos casos de predicción de comportamientos. Estos algoritmos pueden tomar decisiones basadas en probabilidades que no reflejan la realidad de las personas, llevando a discriminación o estigmatización. Segundo, los impactos sociales. La IA tiene el potencial de influir negativamente en la sociedad si no se usa con cuidado. Por ejemplo, la implementación de tecnologías de vigilancia masiva o sistemas de puntuación social, que no son proporcionales ni necesarias en una sociedad democrática, puede violar la dignidad humana y restringir libertades individuales. Por último, la afectación a la autonomía personal. La IA puede influir o reemplazar procesos de decisión humana de maneras que pueden ser muy perjudiciales. Por ejemplo, en decisiones críticas sobre salud o derechos humanos, si estas tecnologías manipulan, explotan o controlan a las personas, podrían violar su capacidad de decidir por sí mismas. Esto es especialmente preocupante cuando se desarrollan sistemas diseñados para influir en el comportamiento o el pensamiento de las personas, lo que puede ser muy intrusivo y socavar la libertad individual.
¿Y qué bondades, cosas buenas ve en ella?
Desde una perspectiva ética, la inteligencia artificial presenta varias bondades. Una de las más significativas es su capacidad para facilitar decisiones más justas e imparciales. Al procesar grandes volúmenes de datos sin las influencias de prejuicios humanos inherentes, la IA puede ayudar a reducir la discriminación en áreas como el empleo, el acceso a servicios y la justicia penal, siempre que sea diseñada y supervisada adecuadamente. Otra bondad ética de la IA es su potencial para mejorar la transparencia y la rendición de cuentas en la gestión pública en un contexto fuertemente erosionado por la desinformación. También, en el contexto de la sostenibilidad ambiental, la IA también ofrece ventajas éticas significativas. Puede optimizar el uso de recursos naturales, mejorar la eficiencia energética y ayudar en la gestión de desastres naturales.
¿A qué se dedican en Plus Ethics y cómo han introducido la inteligencia artificial?
Es una spin-off de la UMH dedicada a ofrecer apoyo ético, legal y de impacto social a proyectos financiados dentro de los diferentes marcos de I+D europeos. Nuestra competencia es básicamente ajustar los proyectos a los estándares europeos de investigación e innovación responsables, los marcos legales y evaluar los posibles impactos sociales.
¿Qué proyectos relacionados con la salud o la sanidad tocan en Plus Ethics?
El proyecto PERSIST, financiado por la UE, está diseñando un sistema que apoya el autocuidado de sobrevivientes de cáncer e integra tecnologías de big data en la salud. Su meta es mejorar las estrategias de manejo y prevención de enfermedades secundarias, reduciendo así la carga socioeconómica asociada. Paralelamente, el proyecto CoDiet también financiado por la UE, busca cerrar las brechas de conocimiento sobre cómo las dietas influencian las enfermedades no transmisibles (NCDs), desarrollando herramientas avanzadas de evaluación dietética con IA para promover dietas saludables a nivel poblacional.

Desde Plus Ethics gestiona proyectos que estén alineados con los estándares europeos / Áxel Álvarez
¿Qué problemas éticos puede plantear la implementación de la IA en el sector salud?
La implementación de la inteligencia artificial en el sector salud ofrece grandes promesas, pero también plantea desafíos éticos significativos que requieren atención cuidadosa. Uno de los principales retos es la privacidad de los datos. La IA depende de vastos volúmenes de datos personales y sensibles o especiales para funcionar eficazmente. Esto suscita preocupaciones sobre cómo y quién recopila, almacena y utiliza estos datos, especialmente en términos de protección contra accesos no autorizados o usos que no respeten la derechos de los pacientes sobre sus datos personales. El consentimiento informado es otro desafío ético crucial. Con tecnologías tan avanzadas y complejas, asegurarse de que los pacientes comprendan realmente para qué están dando su consentimiento puede ser difícil. Los pacientes deben estar plenamente informados de cómo se usarán sus datos, qué tipo de decisiones se tomarán con la ayuda de la IA, y cuáles podrían ser las consecuencias de estos para sus tratamientos y recuperación. Además, mantener un enfoque centrado en el humano es esencial. Mientras la IA puede mejorar la eficiencia y la efectividad del tratamiento, es fundamental que no se pierda el contacto humano en la atención médica. La tecnología debe usarse como una herramienta para asistir a los profesionales de la salud, no como un reemplazo de su juicio clínico o de su relación con los pacientes. Es crucial que la IA no deshumanice la atención, sino que se utilice de manera que complemente y mejore la interacción humana y la empatía en el proceso de cuidado.
Esto de la IA ¿hacia dónde cree que va?
No podemos pasar por alto los riesgos asociados con la privacidad de datos y la seguridad. A medida que la IA se convierta en una herramienta común, la cantidad de datos personales sensibles gestionados por algoritmos aumentará, elevando el riesgo de brechas de datos y mal uso de la información personal. Además, la dependencia en sistemas automatizados para decisiones críticas en finanzas podría llevar a crisis si estos sistemas fallan o son manipulados. En los próximos diez años, la personalización en educación suena prometedora, pero también plantea preguntas sobre la equidad en el acceso a tecnologías avanzadas. La IA podría ampliar la brecha educativa entre los que tienen y los que no tienen acceso a la última tecnología. En las ciudades, mientras la gestión de infraestructuras se vuelva más eficiente, también aumenta el potencial para una vigilancia más invasiva, desafiando nuestras nociones de privacidad y libertad personal en espacios públicos. En todos los horizontes, la clave para la minimización de los riesgos pasa por establecer marcos regulatorios exhaustivos que sean capaces de armonizar los intereses de todos los afectados, pero principalmente de los ciudadanos. La UE es, hasta la fecha, un ejemplo sobre cómo conseguir cierto balance entre la protección de los individuos y sus derechos y la búsqueda de la competitividad en un mercado global tecnológico tan desajustado en términos de estándares legales.
¿Y una buena forma de empezar a acercarse a la IA para los que todavía no se hayan atrevido?
Si estás buscando maneras accesibles y gratuitas de empezar a explorar la inteligencia artificial, hay muchas opciones que pueden ayudarte, tanto desde un enfoque práctico como reflexivo. Además, si alguna vez has sentido que la IA es demasiado compleja o intimidante, interactuar con herramientas como ChatGPT o Gemini AI es un gran primer paso. Estas plataformas te permiten experimentar de primera mano cómo funciona la IA en tareas cotidianas, como resumir textos, responder preguntas médicas o estructurar ideas, desmitificando lo que a menudo parece algo muy abstracto. Para quienes prefieren empezar con recursos educativos, el curso «Elements of AI» de la Universidad de Helsinki es una excelente opción. Es gratuito, no requiere conocimientos técnicos previos y explica los fundamentos de la IA de forma clara. Pero si se buscan enfoques más reflexivos o filosóficos, hay recursos increíbles para profundizar en los debates éticos e intelectuales que rodean a la IA. Por ejemplo, la entrada de la Stanford Encyclopedia of Philosophy sobre inteligencia artificial ofrece un análisis profundo de cómo estos debates han evolucionado durante más de medio siglo. Es un recurso imprescindible para entender que las preguntas sobre conciencia, autonomía y moralidad de las máquinas no son nuevas, y cómo continúan siendo relevantes hoy. Lo importante es que encuentres el enfoque que más te motive, porque la IA tiene algo que ofrecer a todos, ya sea en lo práctico, lo ético o lo filosófico.
Suscríbete para seguir leyendo