Os óculos inteligentes Ray-Ban Meta são incríveis. Eles fazem vídeos, tiram fotos, transmitem ao vivo e funcionam como um substituto adequado para fones de ouvido, tudo isso parecendo um par de óculos de sol normal. No entanto, todos estavam esperando pela adição de multimodal IA. Agora está aqui.
O que é IA multimodal? Simplificando, é um conjunto de ferramentas que permite que um assistente de IA processe vários tipos de informações, incluindo fotos, vídeos, texto e áudio. É uma IA que pode visualizar e compreender o mundo ao seu redor em tempo real. Este é o conceito subjacente por trás. A versão do Meta é mais conservadora em suas promessas e, honestamente, ficamos impressionados durante nossa experiência inicial.
Multimodal Meta AI está sendo amplamente implementado no Ray-Ban Meta a partir de hoje! É um grande avanço para wearables e torna o uso de IA mais interativo e intuitivo.
Estou animado para compartilhar mais sobre nosso trabalho multimodal com Meta AI (e Llama 3), fique ligado para mais atualizações em breve. pic.twitter.com/DLiCVriMfk
-Ahmad Al-Dahle (@Ahmad_Al_Dahle) 23 de abril de 2024
Veja como funciona. Os óculos possuem câmera e cinco microfones, atuando como olhos e ouvidos da IA. Com isso em mente, você pode pedir aos óculos que descrevam qualquer coisa que você esteja olhando. Você quer conhecer a raça de um cachorro antes de dar a ele um bom animal de estimação? Basta perguntar aos óculos. Meta diz que também consegue ler sinais em diferentes idiomas, o que é ótimo para viajar. Nós gostamos de exclamar “Ei, Meta, olhe para isso e me diga o que diz” e ouvir exatamente isso. Existe até um recurso de identificação de marco, embora não estivesse disponível para teste.
Existem alguns outros cenários de casos de uso em potencial, como olhar para ingredientes soltos no balcão da cozinha e pedir à IA para preparar uma receita relevante. No entanto, precisamos de algumas semanas de pessoas reais testando a tecnologia para avaliar em que ela é realmente boa. A tradução em tempo real será um aplicativo matador, principalmente para turistas, mas esperamos que reduza ao mínimo as alucinações. Mark Zuckerberg tem mostrado a IA escolhendo roupas para ele usar, mas, vamos lá, isso é o máximo que existe.
A IA multimodal não foi a única atualização para os óculos inteligentes anunciada hoje. Meta revelou integração de videochamada mãos-livres com WhatsApp e Messenger. Existem também alguns novos designs de molduras para os que se preocupam com a moda. Esses novos estilos podem ser adaptados com lentes graduadas e são disponíveis para pré-venda agora. Os óculos inteligentes Ray-Ban Meta custam a partir de US$ 300, o que não é uma mudança estúpida, mas certamente é melhor do que US$ 700 por um alfinete desajeitado.