A Meta começou a liberar uma atualização para seus óculos inteligentes nesta semana. O update amplia, de forma prática, o que o acessório consegue fazer no dia a dia. A principal novidade é uma integração entre Meta AI e Spotify que permite tocar músicas ou criar playlists com base no que o usuário está vendo. Junto disso, chega um recurso pensado para facilitar conversas em ambientes barulhentos.
As funções fazem parte da versão 21 do software dos óculos Ray-Ban Meta e Oakley Meta HSTN. A liberação é gradual e começa pelos usuários inscritos no programa Early Access, mas já indica o caminho da Meta: transformar os óculos inteligentes em assistentes ativos, capazes de conectar visão, áudio e contexto de forma quase automática.
Óculos inteligentes da Meta usam IA para sugerir músicas do Spotify a partir do ambiente
A integração com o Spotify é apresentada pela Meta como sua primeira experiência musical realmente multimodal (isto é, que cruza o que o usuário vê com ações dentro de um aplicativo). Na prática, basta um comando de voz para pedir que os óculos toquem uma música ou criem uma playlist que “combine” com a cena à frente.
O funcionamento é simples de entender. Se a pessoa estiver olhando para a capa de um álbum, por exemplo, os óculos podem tocar uma faixa daquele artista. Se o cenário for uma decoração de Natal ou um ambiente festivo, a IA tenta puxar músicas que combinem com aquele clima, usando os sistemas de recomendação do Spotify.
Segundo a Meta, a ideia é unir visão computacional (capacidade de reconhecer o que está no campo de visão da pessoa) com a personalização do Spotify, que já conhece os gostos do usuário. O resultado é uma trilha sonora pensada para aquele momento específico, sem que seja preciso pegar o celular ou procurar manualmente.
Mesmo assim, a própria empresa admite que o recurso ainda tem pé no experimental. Ele funciona mais como uma demonstração do que a Meta pretende fazer com IA multimodal do que como uma ferramenta essencial. Ainda assim, chama atenção por estar disponível em mais mercados, incluindo o Brasil, desde que o uso seja em inglês.
Novo recurso da Meta tenta facilitar conversas em locais barulhentos
A outra novidade da atualização é o Conversation Focus, recurso pensado para quem tem dificuldade de ouvir alguém em ambientes barulhentos. Anunciado meses atrás no evento Meta Connect, ele começa agora a chegar aos óculos compatíveis por meio do novo software.

A ideia é usar os microfones direcionais e os alto-falantes abertos dos óculos para amplificar a voz da pessoa com quem o usuário está conversando. O som fica levemente destacado, o que ajuda a separar a fala do barulho ao redor.
O nível dessa amplificação pode ser ajustado pelo próprio usuário, seja com gestos no braço dos óculos, por comandos de voz ou pelas configurações do dispositivo. A ideia é adaptar o volume ao ambiente, por exemplo: um restaurante cheio, um trem lotado ou um evento ao ar livre.
Leia mais:
- Meta atualiza política e usa dados de usuários no treinamento de IA
- O que é a Oracle? Entenda sua relação com IA, TikTok, Meta e os Estados Unidos
- Como criar sua própria IA com Meta AI Studio
A Meta faz questão de deixar claro que o Conversation Focus não é um recurso médico nem uma ferramenta formal de acessibilidade. Ele é apresentado como um ganho prático para o uso cotidiano. Por enquanto, a função fica restrita aos Estados Unidos e ao Canadá, também via Early Access, nos modelos Ray-Ban Meta e Oakley Meta HSTN.
O post Óculos da Meta sugerem músicas no Spotify com base no que você vê apareceu primeiro em Olhar Digital.
Fonte: https://olhardigital.com.br/2025/12/17/reviews/oculos-da-meta-sugerem-musicas-no-spotify-com-base-no-que-voce-ve/
