OpenAI ha realizado una reorganización interna para fortalecer el desarrollo de sus modelos de audio, como parte de su estrategia para lanzar un nuevo dispositivo personal enfocado en la interacción por voz.
Durante los últimos dos meses, la empresa ha unificado a sus equipos de ingeniería, producto e investigación con el objetivo de acelerar mejoras que permitan una comunicación más natural entre las personas y la inteligencia artificial.
De acuerdo con información retomada por The Information, los avances buscan modernizar los modelos de audio para que la IA pueda manejar conversaciones más fluidas, incluyendo la capacidad de hablar e interrumpir de forma natural, entender el contexto y adaptarse al ritmo del usuario.
Esta evolución apunta a que la interacción con la tecnología sea menos rígida y más cercana a una conversación humana.
Estos trabajos estarían ligados al desarrollo de una nueva familia de dispositivos sin pantalla, pensados como “compañeros” personales que funcionarían principalmente mediante comandos de voz.
Aunque se espera que OpenAI presente un nuevo modelo de audio a principios de 2026, el enfoque va más allá del software, ya que la compañía planea introducir un dispositivo distinto al smartphone tradicional.
OpenAI ya había adelantado su intención de crear un producto que realice tareas para el usuario a través de la voz, proyecto que desarrolla junto con Jonathan Ive, exjefe de diseño de Apple y cofundador de la empresa io, adquirida por la compañía el año pasado.
Según el director ejecutivo de OpenAI, Sam Altman, la meta es construir un dispositivo que no solo ayude a los usuarios, sino que sea consciente del contexto: saber cuándo intervenir, cuándo ofrecer información y cuándo es mejor no interrumpir.
Con ello, la firma busca redefinir la relación cotidiana entre las personas y la inteligencia artificial.
