Zuckerberg diz que wearables que leem sinais cerebrais estão “meio próximos” de um produto acabado

O que você precisa saber

  • A Meta está desenvolvendo uma pulseira com interface neural de eletromiografia (EMG) para rastrear o controle de gestos usando ondas cerebrais.
  • Zuckerberg mencionou o grupo neural no podcast quando questionado sobre um futuro aplicativo de inteligência artificial que iria “surpreender”.
  • Ele diz que a Meta está “quase perto de ter algo que estará em produção nos próximos anos”.

Aparecendo em Podcast diário da cerveja matinal Na sexta-feira passada, o CEO da Meta, Mark Zuckerberg, observou que o grupo futurista de interface neural de sua empresa, que interpreta sinais do cérebro para os músculos do braço, está “perto” de se tornar “um produto nos próximos anos”.

Solicitado pelo anfitrião a demonstrar o futuro “poder da inteligência artificial” aos céticos, Zuckerberg falou sobre a futura pulseira de eletromiografia portátil (EMG) de sua empresa. Essencialmente, a pulseira interpretará “sinais do sistema nervoso” enviados do cérebro para as mãos e converterá os dados em controles de gestos mais precisos do que a IA baseada em câmera pode interpretar.

“No futuro, você essencialmente será capaz de digitar algo e controlá-lo pensando em como deseja mover sua mão, mas não serão nem grandes movimentos, então posso apenas sentar aqui e digitar algo na IA . “, explicou Zuckerberg.

No Meta Connect 2022, a Meta deu uma olhada aprofundada na tecnologia pela primeira vez (adicionamos um carimbo de data/hora do vídeo acima à parte relevante). Essencialmente, o conceito de EMG leva em consideração o fato de que a maioria das pessoas realiza gestos aleatoriamente, o que leva a resultados falsos de rastreamento da câmera. sinais cerebrais são iguais, então “a interface neural torna-se melhor compreendida por cada indivíduo ao longo do tempo”.

Em última análise, Zuckerberg diz: “Você terá esta interface completamente privada e indetectável”, porque mesmo o menor movimento de um dedo pode enviar um sinal forte o suficiente ao cérebro para que o EMG o capte e interprete como um movimento específico.

O desafio será provar que esta tecnologia pode ir além de simples deslizar da esquerda para a direita, como mostrado no vídeo acima, até o nível de realmente digitar e interagir no ar apenas com as mãos, no estilo Minority Report.

O CEO da Meta recentemente ganhou as manchetes ao declarar que o Meta Quest 3 é um “produto melhor, ponto final” do que o Vision Pro da Apple. Durante seu vídeo no Instagram, ele observou que os futuros fones de ouvido Quest trarão de volta o rastreamento ocular para competir com a Apple, mas o rastreamento ocular e manual por si só não é preciso o suficiente sem um teclado físico, controlador ou “interface neural”.

Se a Meta pretende tornar esta tecnologia neural parte do produto nos “próximos anos”, isso pode coincidir com o próximo Meta Quest 4, que será capaz de usar os sinais cerebrais do wearable para rastrear as mãos com mais precisão enquanto joga ou digita. em um computador virtual. teclado.

Eles também serão, sem dúvida, combinados com versões futuras do Meta Ray-Bans, já que o exemplo de Zuckerberg no podcast de usar os dedos para digitar uma mensagem para o Meta AI enquanto estiver fora só faria sentido com óculos inteligentes.

Meta também é supostamente trabalhando em um smartwatch no Android com câmera embutida, conectividade LTE e sincronização próxima com aplicativos Meta. No entanto, assumimos que a faixa de interface neural é um produto completamente diferente.