Imagine dizer algo baixinho para si mesmo e ter um assistente de IA entendendo o que você está tentando dizer. Pode ser através dos seus óculos, fones de ouvido ou da câmera do seu telefone. A Apple adquiriu recentemente uma empresa chamada Q.aique está tentando fazer exatamente isso. Parece estranho e ficção científica, mas também parece muito familiar para mim, já que há muito tempo presto atenção a óculos inteligentes e wearables.
O investimento da Apple na startup israelense não é pouca coisa. Segundo a empresa, o custo de aquisição foi de aproximadamente US$ 2 bilhões. Relatório original do Financial Times e Organizações de notícias como a Reuters. Isso é maior do que outros movimentos da Apple desde a aquisição da Beats, há uma década. No entanto, ao contrário do Beats, ninguém sabe sobre Q.ai. Pelo menos ainda não. Ainda assim, o potencial para uma nova interface pode ser muito elevado. Outra peça importante foi adicionada ao quebra-cabeça cada vez maior das futuras interfaces de tecnologia pessoal.
Q.ai é uma empresa que nunca conheci ou da qual ouvi uma demonstração, mas um de seus fundadores, Aviad Maizels, também desenvolveu PrimeSense, uma tecnologia baseada em infravermelho que potencializa os recursos 3D de digitalização interna da câmera Xbox Kinect da Microsoft há alguns anos. O sentido principal é adquirido pela Apple A tecnologia foi introduzida em 2013. Conjunto de câmeras TrueDepth Para Face ID e também maçã visão pro Para rastreamento manual de perto.
A julgar pelo que está sendo relatado sobre a patente, Q.ai poderia usar sensores ópticos para rastrear pequenos movimentos faciais e expressões emocionais, permitindo a entrada silenciosa de comandos em uma interface de IA e o reconhecimento de outras dicas faciais sutis. site israel Hora Otaku entra em mais detalhes, afirmando que a tecnologia mede movimentos musculares e labiais e pode precisar ficar perto da boca.
A CNET entrou em contato com a Apple e a Q.ai para comentar, mas nenhum deles respondeu imediatamente.
O Vision Pro já pode rastrear movimentos faciais, mas não pode converter movimentos labiais em áudio.
Faz parte de um novo sistema de interface para wearables e óculos?
Escrevi sobre como a Apple já está mostrando sinais de transição para um ecossistema. Wearable com IA conectada: Pins, óculos, fones de ouvido, relógios ou uma combinação destes. Qualquer um desses wearables poderia usar o que a Q.ai está desenvolvendo. No entanto, fones de ouvido e óculos parecem ser as áreas com maior potencial. AirPods da próxima geração Possui câmera infravermelha, o que o deixa ainda mais pronto para conectividade.
Fones de ouvido de realidade mista como o Vision Pro também poderiam tirar proveito da tecnologia da Q.ai. O Vision Pro já pode reconhecer expressões faciais com uma câmera de rastreamento ocular, uma câmera voltada para baixo e um sensor infravermelho. No entanto, interagir com o Vision Pro ainda é um pouco estranho para mim. Eu olho com os olhos e escolho as coisas com as mãos, mas tenho que dizer “Ei, Siri” para fazer um pedido de voz. Gostaria de ter interações mais naturais e delicadas. Talvez esta nova aquisição possa ajudar.
Conforme apontado pela artista e pesquisadora de realidade aumentada Helen Papagiannis: Notas de seu boletim informativo recente“O suposto pin de IA da Apple faz mais sentido do que como um produto independente, mas como um nó no ecossistema da Apple que aproveita a detecção, a inteligência e o contexto compartilhados entre dispositivos que trabalham em conjunto com AirPods e, em última análise, com os óculos.”
existente óculos inteligentes como meta e o que está por vir Do Google As interações dependem principalmente da voz. Fazer isso silenciosamente pode ser uma enorme vantagem, mas também estão surgindo aspectos não relacionados à voz. Meta apresenta uma banda neural usada no pulso, com o objetivo de eventualmente adicionar rastreamento ocular aos óculos. Os óculos do Google também suportam gestos baseados em relógio.
Também estamos muito preocupados com a privacidade. A tecnologia que pode ler lábios e reconhecer expressões faciais sutis tem o potencial de rastrear e ouvir sua intenção à distância. Como posso usar esta tecnologia de forma privada e confiável? Ou a capacidade de expressar minha solicitação silenciosamente proporcionaria mais privacidade do que os comandos de voz que uso atualmente?
Existe algo melhor do que leitura labial?
Ainda quero uma interface que não use conversas. Base MetaEMG tecnologia de banda neural Ele mostra uma maneira mais complexa pela qual os gestos do pulso podem evoluir para funcionar com óculos e fones de ouvido. Outra empresa israelense, um dispositivo vestível, possui uma banda neural única chamada Mudra, que visa expandir as capacidades de entradas sutis derivadas de impulsos elétricos em neurônios motores.
A eletroencefalografia, que mede sinais cerebrais, é outra direção. Embora algumas empresas estejam pesquisando o EEG como uma interface cérebro-computador, ele ainda é um sistema de sensores focado principalmente em aplicações médicas e de saúde.
A tecnologia da Q.ai é uma interface que permite que os computadores vestíveis que usamos se sintam mais conectados a nós. É estranho e assustador, mas acho que a maioria das empresas de óculos, wearables e VR/AR já estão indo para lá. Este não é um caso atípico. A mudança da Apple também faz parte dessa tendência.


















