En la conferencia ACM CHI en Yokohama (Japón) fue presentado Spatial Speech Translation, un sistema de traducción simultánea basado en inteligencia artificial que permite a los usuarios de auriculares identificar y comprender lo que dicen varias personas a la vez, incluso cuando hablan en diferentes idiomas.
Diseñado para usarse con auriculares convencionales con cancelación de ruido, este sistema no solo traduce, sino que reproduce la voz traducida con un timbre y dirección espacial que imita a la persona original, generando una experiencia conversacional más natural y contextualizada.
Emplea inteligencia artificial para rastrear tanto la procedencia espacial del sonido como las características individuales de cada voz, lo que permite que el usuario identifique con precisión quién habla y qué está diciendo.
Se plantea que la tecnología no solo debe facilitar la comunicación, sino también brindar mayor inclusión social para quienes enfrentan barreras idiomáticas.