Os óculos inteligentes da Meta agora podem dizer onde você estacionou o seu carro.


0

Meta está lançando algumas das funcionalidades anteriormente anunciadas para seus óculos inteligentes Ray-Ban com inteligência artificial para usuários nos EUA e Canadá. O CTO Andrew Bosworth postou no Threads que a atualização de hoje para os óculos inclui reconhecimento de linguagem natural aprimorado, o que significa que os comandos artificiais de “Ei Meta, olhe e me diga” devem desaparecer. Os usuários poderão interagir com o assistente de IA sem a parte “olhe e” da invocação.

A maioria das outras ferramentas de IA apresentadas durante o evento Connect do mês passado também está chegando aos óculos hoje. Isso inclui mensagens de voz, cronômetros e lembretes. Os óculos também podem ser usados para fazer com que a IA da Meta ligue para um número de telefone ou escaneie um código QR. O CEO Mark Zuckerberg demonstrou as novas funcionalidades de lembretes como uma forma de encontrar seu carro em um estacionamento em um vídeo do Instagram. Uma omissão notável desta atualização é a funcionalidade de tradução ao vivo, mas Bosworth não compartilhou um cronograma para quando essa funcionalidade estará pronta.

Os óculos inteligentes da Meta já haviam chamado a atenção hoje depois que dois estudantes da Universidade de Harvard os usaram para basicamente expor informações de estranhos. Sua combinação de tecnologia de reconhecimento facial e um grande modelo de processamento de linguagem foi capaz de revelar endereços, números de telefone, detalhes de membros da família e números parciais de Seguro Social.

Redação Confraria Tech.

Referências:
Meta’s smart glasses can now tell you where you parked your car


Like it? Share with your friends!

0
admin