Los coches sin conductor pueden aprovechar una red social impulsada por IA para «hablar entre ellos» mientras están en la carretera: la innovación mejora las comunicaciones entre los vehículos autónomos para optimizar su eficiencia, y para permitir que compartan información de conducción precisa en tiempo real.
La innovación conocida como Cached Decentralized Federated Learning (Cached-DFL) podría revolucionar la forma en que los vehículos autónomos comparten y aprenden de sus datos de conducción, al prescindir de un servidor central y aprovechar intercambios directos de modelos de IA entre coches cercanos que funcionan como una «red social», según un estudio publicado en arXiv por investigadores de la Escuela de Ingeniería Tandon de la Universidad de Nueva York, en Estados Unidos.
Esta arquitectura descentralizada, respaldada por un sistema de “caché” de modelos locales, permite un aprendizaje colectivo más rápido, tolerante a retrasos y con mayor privacidad en los datos, mejorando la seguridad y la adaptabilidad de los coches autónomos en entornos complejos y dinámicos, según informa Discover.
Aprendizaje colectivo
Los expertos explican que el aprendizaje federado clásico centraliza la agregación de modelos en un servidor, derivando en cuellos de botella en comunicación y potenciales riesgos de privacidad, al transmitir grandes volúmenes de datos y modelos en forma permanente hacia y desde la nube.
En el caso de los vehículos autónomos, la conectividad entre coches y servidores puede ser intermitente o de baja latencia. Estos escenarios exigían un enfoque capaz de mantener la calidad del entrenamiento de los modelos, incluso cuando la comunicación con el servidor central se ve obstaculizada.
Frente a esto, Cached-DFL propone que cada vehículo almacene no solo su propio modelo aprendido localmente, sino también los modelos recibidos de otros vehículos durante encuentros previos. De este modo, cuando dos coches se acercan, intercambian simultáneamente sus modelos actuales y los cacheados, ampliando el rango de datos disponibles para la agregación local de conocimientos.
Más rápido y preciso
El sistema prescinde de un nodo central y se basa en conexiones directas de dispositivo a dispositivo (D2D) de alta velocidad, reduciendo la dependencia de infraestructuras de telecomunicaciones y aumentando la tolerancia al retardo de propagación de modelos, de acuerdo a un artículo publicado en Medium.
Referencia
Decentralized Federated Learning with Model Caching on Mobile Agents. Xiaoyu Wang et al. arXiv (2025). DOI:https://doi.org/10.48550/arXiv.2408.14001
Los estudios teóricos y simulaciones llevados adelante en la investigación demuestran que Cached-DFL converge más rápido y con mayor precisión que el modelo clásico descentralizado sin caché, mitigando la estacionalidad de modelos antiguos gracias a algoritmos de agregación que priorizan la información actualizada y en tiempo real.
Por último, es importante destacar que la arquitectura descentralizada se adapta con facilidad a flotas de distinta magnitud, desde prototipos de prueba hasta despliegues masivos en ciudades inteligentes, sin necesidad de aumentar exponencialmente la infraestructura comunicacional.