O evento em San Francisco, exclusivo para convidados e fechado para a imprensa, contou com palestrantes no palco realizando apresentações técnicas. Uma das novidades mais notáveis é a API em tempo real, agora em beta público, que suporta conversas de fala para fala usando seis vozes pré-definidas e permite aos desenvolvedores incorporar recursos muito semelhantes ao Modo de Voz Avançado (AVM) do ChatGPT em seus aplicativos.
A OpenAI afirma que a API em tempo real simplifica o processo de criação de assistentes de voz. Anteriormente, os desenvolvedores precisavam usar vários modelos para reconhecimento de fala, processamento de texto e conversão de texto para fala. Agora, eles podem lidar com todo o processo com uma única chamada de API.
Redação Confraria Tech.
Referências:
OpenAI unveils easy voice assistant creation at 2024 developer event