Em um anúncio, a empresa afirmou que esta versão avançada de seu Modo de Voz “oferece conversas mais naturais em tempo real, permite interrupções a qualquer momento e percebe e responde às suas emoções”.
Estamos começando a disponibilizar o Modo de Voz avançado para um pequeno grupo de usuários ChatGPT Plus. O Modo de Voz avançado oferece conversas mais naturais em tempo real, permite interrupções a qualquer momento e percebe e responde às suas emoções. pic.twitter.com/64O94EhhXK
— OpenAI (@OpenAI) 30 de julho de 2024
O suporte para conversas por voz chegou em setembro passado no ChatGPT e a versão mais avançada teve uma demonstração pública em maio. O ChatGPT-4o utiliza um único modelo multimodal para as capacidades de voz, em vez dos três modelos separados usados pela solução de áudio anterior, reduzindo a latência nas conversas com o chatbot.
Na demonstração de maio, a OpenAI foi criticada por estrear uma opção de voz que soava estranhamente semelhante a Scarlett Johansson, cuja carreira incluiu dar voz à personagem de IA, Samantha, no filme “Ela”, de Spike Jonze. A data de lançamento do Modo de Voz avançado foi adiada logo após a reação negativa. Mesmo que a empresa insistisse que a voz não era uma imitação do desempenho de Johansson, a voz semelhante foi removida desde então.
Redação Confraria Tech
Referências:
OpenAI rolls out advanced Voice Mode and no, it won’t sound like ScarJo