Entrenar a la IA para que escriba o hable como nosotros parece una solución útil, especialmente en contextos de accesibilidad y en casos de personas con problemas de comunicación. Pero un estudio reciente advierte que una personalización extrema puede tener consecuencias inquietantes, que van desde la autocensura hasta la pérdida de privacidad, pasando por una versión «reducida» de nuestra propia identidad.
La Inteligencia Artificial (IA) ultrapersonalizada para la comunicación asistida es una gran herramienta para ayudar a personas con patologías del habla, pero también puede silenciar aspectos de la identidad del usuario y, en ocasiones, violar la privacidad, según una nueva investigación liderada por un estudiante de posgrado de la Universidad Cornell, en Estados Unidos, que entrenó la tecnología en base a su propio discurso.
¿Cómo se debería entrenar a la IA para que hable por una persona con problemas de comunicación? Esa es la pregunta principal del estudio, que se presentó en la conferencia especializada CHI ’26: Proceedings of the 2026 CHI Conference on Human Factors in Computing Systems.
«Vigilados» por una IA que nos ayuda a comunicarnos
La promesa suena tentadora: una inteligencia artificial capaz de redactar mensajes con nuestra voz, anticipar lo que queremos decir y reducir el esfuerzo de teclear. Pero los sistemas de comunicación aumentativa y alternativa (AAC) pueden tener efectos no deseados: de acuerdo a una nota de prensa, el estudiante Tobias Weinberg entrenó un modelo con su estilo de habla individual y descubrió que la personalización extrema no solo mejora la fluidez, sino que también puede erosionar aspectos como la privacidad, la identidad y el control sobre la comunicación.
El trabajo se desarrolló en tres etapas: siete meses de recolección de datos de comunicación, luego un ajuste fino del modelo con ese material y, por último, tres meses de uso diario del sistema personalizado. Los autores no observaron a terceros, sino que probaron «en carne propia» qué implica dejar que una IA aprenda a hablar “como uno mismo”.
El hallazgo más llamativo apareció incluso antes de que interviniera la IA. Solo el hecho de registrar conversaciones alteró el comportamiento del autor. Según el informe, la persona comenzó a autocensurarse al pensar que cada frase podía terminar en un futuro conjunto de datos. Ese cambio de conducta ya es un problema en sí mismo: cuando hablar deja de ser un acto espontáneo y pasa a ser materia prima para un sistema predictivo, la conversación se transforma por una especie de «vigilancia» encubierta.
Referencia
I, Robot? Exploring Ultra-Personalized AI-Powered AAC; an Autoethnographic Account. Tobias M Weinberg et al. CHI ’26: Proceedings of the 2026 CHI Conference on Human Factors in Computing Systems (2026). DOI:https://doi.org/10.1145/3772318.3790310
Reducción de la voz propia en la comunicación
El sistema también produjo una versión «recortada» del hablante. Los investigadores señalan que expresiones informales o cargadas de emoción, como bromas oscuras, chismes o cuestiones afectivas, tendieron a desaparecer para evitar que se dejen ver en contextos profesionales o académicos. El resultado fue una voz más «pulida», pero menos fiel o real. En otras palabras, la IA pareció seleccionar de antemano qué rasgos del yo eran “aptos” para circular.
Esto significa que un modelo entrenado para completar nuestras frases no entiende por sí solo cuándo una expresión pertenece a un contexto íntimo y cuándo a uno laboral, social o familiar. El propio estudio advierte que algunas sugerencias resurgieron fuera de lugar y que el sistema funcionó mejor en entornos estructurados que en conversaciones rápidas, cambiantes o informales. La falta de contexto convierte a la IA en una «máquina» de desajustes o errores comunicacionales: puede ayudar a escribir más rápido, pero también empujar la charla hacia patrones que ya no representan al usuario en ese momento.














