O modelo Alpha Zero aprendeu a xogar ao xadrez partindo de non coñecer nada máis que as regras do xogo. En poucas horas o seu nivel superaba o de calquera persoa no mundo. Alpha Zero empregou, iso si, un proceso preestablecido para mellorar a competencia do programa a partir de estratexias de aprendizaxe por reforzo que penalizan as malas decisións do modelo e premian as boas. É dicir, os movementos no taboleiro que acaban por evidenciarse como errados son penalizados e resultará menos probable que se repitan, e o contrario acontece cos acertados. Por outra banda, o acerto ou desacerto dun movemento pode chegar a comprobarse ás veces despois de moitas xogadas, e isto debe telo en conta o programa; é, de feito, o máis difícil de tratar desde o punto de vista computacional.
Un paso máis alá vén de situarse un proxecto da Universidade de Tsinghua -por certo, esta semana visitaron o CiTIUS quince dos seus estudantes-, do Instituto de Intelixencia Artificial Xeral de Pequín e da Universidade Estatal de Pensilvania. Desenvolveron un sistema chamado Absolute Zero Reasoner (AZR) capaz de mellorar a súa competencia na construción de código de maneira automática. Para iso, o sistema parte dun modelo grande de linguaxe capaz de xerar problemas de codificación. Trátase de problemas complexos que son posteriormente resoltos polo propio modelo. Non sempre o fai ben, claro está. Precisamente, os éxitos e os fracasos son utilizados por AZR para mellorarse a si mesmo, tanto na súa capacidade de formular retos máis ambiciosos como na de lles dar unha solución axeitada.
Aínda que nos poida parecer que construír programas funcionalmente correctos para problemas complexos é un dos retos máis difíciles aos que se pode enfrontar unha máquina, non é así. Os problemas matemáticos ou de codificación, mesmo aqueles especialmente difíciles, teñen en xeral formas de definición, implementación e verificación das solucións que son formalizables e máis doadas de tratar computacionalmente que aqueles nos que hai incerteza, ambigüidade ou nos que se ven implicados procesos de decisión humana. Dígoo doutro xeito: é moito máis difícil atopar unha solución computacional para a mobilidade segura dun robot no Rastro de Madrid que crear un programa que demostre que un algoritmo de ordenación sempre remata e sempre produce unha lista ordenada das súas entradas, sexan estas cales foren.
Por iso, aínda que AZR está a demostrar progresos moi significativos na autoaprendizaxe de problemas de codificación automática, outra cousa ben distinta é que poida deseñar axentes capaces de resolver pola súa conta, e de maneira autónoma, problemas complexos de compravenda de bens ou de planificación dunhas vacacións para pasar a fin de ano nunha zona cálida, poñamos por caso.
Mais o certo é que a IA non só non chegou ao seu límite, senón que todo apunta a que está a comezar a soltar as grosas amarras que durante décadas fixeron que as expectativas xeradas polos avances nas tecnoloxías intelixentes fosen significativamente máis altas que os seus resultados.
O difícil non é que as computadoras poidan facer moitos máis cálculos nun segundo que nós ao longo da nosa vida; o máis relevante é que poidan formular preguntas que orienten os seus obxectivos e que a análise das súas respostas lles permitan seguir aprendendo e automellorarse. É dicir, seren capaces de facer o que nós facemos, pero a unha velocidade que se escapa non só das nosas capacidades de execución, senón ás veces tamén das da nosa imaxinación.
Achéganse tempos aínda máis apaixonantes. Iso si, se empregamos a IA con sentidiño.














