A OpenAI unificou suas equipes de engenharia, produto e pesquisa nos últimos dois meses para aprimorar seus modelos de inteligência artificial (IA) voltados para áudio. A reorganização faz parte da estratégia da empresa para desenvolver um dispositivo pessoal com foco em interfaces sonoras, previsto para 2027.
Esta iniciativa reflete uma tendência crescente no “Vale do Silício” de priorizar interações por voz ao invés de visuais.
A mudança na OpenAI vai além de simples melhorias no som do ChatGPT. Na verdade, a empresa está completamente reformulando seus modelos de áudio como parte de uma estratégia mais ampla para criar dispositivos menos dependentes de telas. Esta abordagem acompanha um movimento já observado em outras companhias de tecnologia.
Tendência de mercado em expansão
A transição para interfaces de áudio tem se intensificado nos últimos anos, com assistentes de voz já presentes em mais de um terço das residências nos Estados Unidos através de smart speakers. Este cenário indica uma clara tendência de mercado, que agora ganha força com novos lançamentos previstos para 2026 e 2027.
“Os assistentes de voz já se tornaram presença constante em mais de um terço das residências americanas através de smart speakers”, aponta a reportagem do The Information sobre o tema.
Além da OpenAI, outras gigantes da tecnologia, semelhantemente, estão investindo nessa direção. A Meta, por exemplo, lançou recentemente um recurso para seus óculos Ray-Ban que utiliza cinco microfones para melhorar a audição em ambientes barulhentos. O Google, por sua vez, começou a testar em junho os “Resumos de Áudio” para transformar resultados de busca em conversas.
A Tesla também integrou o chatbot Grok da xAI em seus veículos, criando um assistente conversacional que controla funções do carro.
Investimentos e novos dispositivos
A OpenAI demonstrou seu comprometimento com hardware ao adquirir a empresa “io” de Jony Ive por US$ 6,5 bilhões em maio de 2025. Este movimento estratégico reforça a aposta da empresa em dispositivos físicos com foco em interações por voz.
No mercado, pelo menos duas empresas estão desenvolvendo anéis de IA com lançamento previsto para 2026. A Sandbar e outra companhia liderada pelo fundador da Pebble, Eric Migicovsky, trabalham em dispositivos que permitirão aos usuários interagir com assistentes de IA através de comandos de voz.
O novo modelo de áudio da OpenAI, com lançamento previsto para o início de 2026, promete recursos avançados como som mais natural e melhor gestão de interrupções. Além disso, a tecnologia também permitirá que o sistema fale simultaneamente com o usuário, algo que os modelos atuais não conseguem fazer.
Desafios e perspectivas
Apesar do entusiasmo, o setor enfrenta desafios. Algumas tentativas anteriores de dispositivos similares não obtiveram o sucesso esperado. O Humane AI Pin, a saber, consumiu centenas de milhões de dólares antes de enfrentar problemas significativos. Da mesma forma, o pingente Friend AI gerou preocupações relacionadas à privacidade.
Jony Ive, ex-chefe de design da Apple que se juntou à OpenAI através da aquisição da “io”, vê o design focado em áudio como uma oportunidade de “corrigir os erros” dos gadgets de consumo do passado. Segundo o The Information, Ive prioriza a redução do vício em dispositivos, considerando as interfaces de áudio como uma alternativa mais saudável às telas.
Conforme as informações disponíveis, a OpenAI planeja desenvolver uma família de dispositivos que poderá incluir óculos ou smart speakers sem tela, reforçando sua aposta em um futuro onde as interações com a IA serão predominantemente por voz.
The post Adeus, tela? OpenAI aposta em áudio para dominar 2026 appeared first on Giz Brasil.