Meta Anuncia Ferramenta de Acesso a Dispositivos Portáteis para Desenvolvedores de Óculos Inteligentes

Meta is opening up its smart glasses to developers

Pontos principais

  • A Meta introduz uma ferramenta de acesso a dispositivos portáteis para os seus óculos inteligentes com tecnologia de inteligência artificial.
  • A ferramenta fornece aos desenvolvedores acesso à visão, áudio e sensores.
  • Uma lista de espera está aberta para acesso antecipado; uma pré-visualização limitada está programada para o final deste ano.
  • As capacidades de publicação completas são esperadas para 2026.
  • Parceiros iniciais incluem a Twitch (transmissão ao vivo) e a Imagineering da Disney (assistência a visitantes do parque).
  • A iniciativa visa expandir o ecossistema de aplicativos de RA e permitir experiências sem mãos.
  • A Meta destaca a popularidade dos óculos Ray-Ban Meta como base para o interesse dos desenvolvedores.

A Meta lançou uma ferramenta de acesso a dispositivos portáteis que permitirá que os desenvolvedores usem as capacidades de visão e áudio dos seus óculos inteligentes com tecnologia de inteligência artificial. A ferramenta, atualmente em pré-visualização, oferece acesso a sensores no dispositivo e áudio de orelha aberta, permitindo novas experiências sem mãos.

Visão Geral

A Meta anunciou uma nova ferramenta de acesso a dispositivos portáteis projetada para dar aos desenvolvedores acesso direto ao hardware de visão e áudio incorporado nos seus óculos inteligentes com tecnologia de inteligência artificial. A ferramenta exporá uma série de sensores no dispositivo, permitindo que os aplicativos incorporem a perspectiva natural do usuário e a clareza do áudio de orelha aberta e entrada de microfone.

Acesso do Desenvolvedor e Lista de Espera

Os desenvolvedores agora podem se inscrever em uma lista de espera para serem notificados quando uma pré-visualização da ferramenta estiver disponível. Durante a fase de pré-visualização, as experiências construídas com a ferramenta serão limitadas a pequenas audiências, e a capacidade de publicação geral não é esperada até 2026. A Meta enfatiza que esta fase inicial é destinada a permitir que os desenvolvedores experimentem e forneçam feedback antes de uma distribuição mais ampla.

Casos de Uso Potenciais

A Meta destacou vários conceitos iniciais de parceiros. A Twitch planeja permitir que os criadores de conteúdo transmitam ao vivo diretamente dos óculos, aproveitando a captura de vídeo sem mãos. A equipe de pesquisa e desenvolvimento da Imagineering da Disney está prototipando aplicações que entregariam dicas e informações em tempo real aos visitantes do parque que usam os óculos, melhorando a experiência no parque temático. Esses exemplos ilustram como a ferramenta pode apoiar o entretenimento, o turismo e outros setores que se beneficiam da interação imersiva e sem mãos.

Cronograma e Disponibilidade

A pré-visualização da ferramenta de acesso a dispositivos portáteis é esperada para o final deste ano, com distribuição limitada a testadores iniciais. As capacidades de publicação completas para uma audiência de desenvolvedores mais ampla são projetadas para 2026. A Meta observou que a popularidade dos seus óculos Ray-Ban Meta e a promessa dos novos óculos com tecnologia de inteligência artificial sugerem um forte interesse da comunidade de desenvolvedores.

Implicações para o Ecossistema de RA

Ao abrir o acesso aos sensores, a Meta visa acelerar a criação de aplicativos de terceiros que aproveitem a plataforma de óculos inteligentes. Essa medida pode ampliar o ecossistema de experiências de RA, incentivando usos inovadores que misturam percepção do mundo real com conteúdo digital. A abordagem de lista de espera e distribuição em estágios indica uma estratégia cautelosa para gerenciar a qualidade e a privacidade, enquanto fomenta o engajamento dos desenvolvedores.

#Meta#Óculos Inteligentes#Ferramenta de Acesso a Dispositivos Portáteis#Desenvolvedores#Twitch#Imagineering da Disney#Óculos Ray-Ban Meta#Óculos com Tecnologia de Inteligência Artificial#RA#Realidade Aumentada

Também disponível em: