O futuro do smartphone: interface em colapso ou só mais um ciclo?
TL;DR: O smartphone como interface principal não vai morrer amanhã. Mas há um padrão se formando: óculos com display (Meta Ray-Ban Display), controle por gesto muscular (Meta Neural Band) e leitura de pensamento sem cirurgia (Sabi). Quando essas três tecnologias ficarem boas o suficiente ao mesmo tempo, o celular deixa de ser o centro e vira o processador no bolso. Este post olha para as peças, o que cada uma faz hoje e o que falta para o quadro ficar completo.
Alguém já previu a morte do smartphone antes.
Em 2010, o iPad ia matar o PC. Em 2013, os smartwatches iam matar o smartphone. Em 2017, os óculos de realidade aumentada iam matar tudo. Todas essas previsões erraram porque a tecnologia chegou cedo demais ou resolveu o problema errado.
O padrão histórico de previsões tecnológicas é claro: superestimamos a velocidade e subestimamos os obstáculos. O PC não morreu com o tablet. O telefone fixo não morreu com o celular da noite para o dia. Coexistência é o padrão, não substituição abrupta.
Então por que estou escrevendo esse post?
Porque dessa vez as peças são diferentes. E estão sendo montadas em paralelo, por empresas com capital e engenharia para isso.
O smartphone ainda domina. Mas o que está sendo construído ao redor dele?
O smartphone não está perdendo usuários. Está perdendo o papel de única interface. Brasileiros passam em média 5 horas e 12 minutos por dia no celular, acima da média global de 4 horas e 37 minutos. Isso não vai cair rápido. O que vai mudar é onde a interação acontece, não o processamento por trás dela.
A Geração Z chega a mais de 9 horas por dia. Esses números não estão caindo. Estão subindo.
Mas o futuro do smartphone como interface não é sobre o número de usuários. É sobre onde a tela vai estar.
A metáfora que faz mais sentido não é "o smartphone vai morrer". É "o smartphone vai virar o motor invisível de um sistema com outras interfaces na frente".
O que a Meta construiu: display nos olhos, controle no pulso
Na CES 2026, a Meta apresentou o Ray-Ban Display e a Neural Band como produtos separados. Juntos, formam a primeira combinação real de display wearable e input sem toque em um produto de consumidor disponível no mercado. Sozinhos, parecem features. Juntos, parecem o esboço de uma plataforma.
O Meta Ray-Ban Display projeta informações diretamente no campo de visão. A CES mostrou um teleprompter discreto integrado aos óculos, navegação de pedestres disponível em 32 cidades e mensagens mãos-livres. A expansão internacional foi pausada pela demanda nos EUA.
A Meta Neural Band usa EMG (eletromiografia de superfície) para detectar sinais elétricos nos músculos do pulso. Você escreve com o dedo em qualquer superfície, e o texto aparece nos óculos. Também controla apps com gestos de polegar, indicador e dedo médio.
Falta o terceiro elemento.
O que é BCI e por que o "sem cirurgia" muda tudo
BCI (Brain-Computer Interface) é tecnologia que traduz atividade cerebral em comandos digitais. As versões que funcionavam bem sempre exigiram cirurgia. As versões sem cirurgia sempre tiveram precisão baixa demais para uso cotidiano. A Sabi está tentando resolver esse segundo problema com um gorro de lã com 70-100 mil sensores de EEG, sem eletrodos, sem calibração diária, com meta de 30 palavras por minuto.
Eletrodos implantados no córtex, como os da Neuralink, têm precisão muito maior. Mas ninguém quer abrir o crânio para digitar mais rápido no celular.
As versões sem cirurgia usam EEG (eletroencefalografia): sensores externos que captam sinais elétricos pelo couro cabeludo. Empresas como Muse, Neurosity e Emotiv já vendem headsets de EEG para consumidores. O problema: precisão menor, calibração constante, e foco em meditação ou produtividade, não em input de texto.
A Sabi mudou a abordagem. A startup do Vale do Silício saiu do stealth em abril de 2026 com um gorro de lã com 70 mil a 100 mil sensores de EEG tecidos diretamente no tecido. O sistema detecta a "fala interna": as palavras que você pensa mas não fala. A meta é 30 palavras por minuto sem calibração diária.
Para referência: uma pessoa digita em média 40 palavras por minuto. Não está tão longe.
Quando essas três peças se encontram, o smartphone vira periférico
O padrão que está emergindo tem uma lógica clara: óculos como display, pulseira ou gorro como input, smartphone como processador no bolso. Nenhuma das três peças precisa das outras duas para funcionar hoje. Mas quando as três ficarem boas o suficiente ao mesmo tempo, a necessidade de pegar o celular na mão cai radicalmente.
Display: óculos com projeção no campo de visão. Você vê informações sem tirar o celular do bolso.
Input por gesto: pulseira EMG no pulso. Você escreve no ar, navega com gesto de polegar, confirma com um toque de dedo.
Input por pensamento: gorro BCI. Você pensa o que quer enviar. O texto aparece nos óculos.
Processamento: o smartphone no bolso. Com 5G e cada vez mais capaz, ele roda os modelos locais e conecta tudo.
Nesse cenário, o celular não some. Ele continua existindo. Mas você não pega mais ele na mão dezenas de vezes por dia. A interface que você toca, olha e interage está distribuída pelo corpo.
A Meta já descreveu o objetivo de longo prazo dos seus óculos como exatamente isso: substituir o momento em que você tira o celular do bolso por uma interação com os óculos.
A Apple está observando (e construindo)
A Apple não anunciou óculos com display nem pulseira EMG. Mas os sinais estão todos lá.
O Vision Pro existe desde 2024, e rumores apontam para uma versão 2 mais leve e barata. O visionOS 26, revelado com integração direta ao iPhone, sinaliza que o telefone vai virar o processador central de um ecossistema espacial. Tim Cook é citado como obcecado em lançar óculos de AR antes que a Meta consolide o mercado.
A Apple não vai ficar de fora. O padrão histórico é anos de silêncio, depois um produto refinado lançado quando o mercado já está formado.
O que está acontecendo agora é que a Meta está definindo o vocabulário da próxima interface. Os gestos, os atalhos, os comportamentos que vão parecer naturais quando a Apple lançar a versão dela.
O que ainda não funciona (e é honesto dizer isso)
O gorro da Sabi tem problemas sérios para resolver.
O crânio atenua o sinal elétrico do cérebro. Quanto mais longe do neurônio, mais fraca a leitura. Os sinais variam entre pessoas e até na mesma pessoa a cada sessão. Escalar de laboratório para produto de consumidor é um problema diferente de escalar de protótipo para produto.
A Neural Band está em early access só nos EUA e suporta apenas inglês. Os óculos com display pausaram a expansão internacional porque não conseguiram suprir a demanda americana.
E os BCI wearables em geral ainda não cruzaram o limiar de "boa o suficiente para uso diário sem frustração". O mercado de neurofeedback vale USD 709 milhões em 2024 e deve chegar a USD 2,9 bilhões em 2034. Mas crescimento de mercado não é o mesmo que problema resolvido.
O que está acontecendo agora é P&D de alto nível, não produto maduro. A diferença para os ciclos anteriores é que o capital, a ambição e a engenharia são maiores do que nunca.
Por que essa vez parece diferente dos ciclos anteriores?
Nas ondas anteriores de "o smartphone vai morrer", como o Google Glass em 2013 ou os smartwatches em 2015, a tecnologia alternativa falhava em pelo menos duas das três dimensões essenciais: display, input e processamento. A diferença agora é que as três estão sendo atacadas em paralelo, por empresas com capital real, e cada peça tem valor próprio independente das outras.
O Google Glass tinha um display ruim, nenhum input gestual e dependia de um telefone para tudo. Os smartwatches tinham tela pequena e input limitado a toques. Os óculos de VR isolavam completamente o usuário do mundo real.
O que está se formando agora é diferente em três aspectos.
As peças não dependem umas das outras para funcionar. O Meta Ray-Ban Display funciona como óculos normais e como óculos com câmera e IA. A Neural Band funciona como controle do sistema mesmo sem os óculos. O gorro da Sabi faz input de texto independente de qualquer outro hardware. Cada peça tem valor próprio. Isso cria adoção gradual, não a barreira de "tenho que comprar tudo de uma vez".
O smartphone ainda é o hub. Diferente dos ciclos anteriores, ninguém está tentando substituir o processador. Só a interface de saída (display nos olhos) e de entrada (gesto no pulso, pensamento no gorro). O smartphone continua sendo o que você já tem, mas fica no bolso.
Os agentes de IA mudam a equação de input. Com modelos de linguagem rodando localmente, o input parcialmente impreciso de um BCI wearable pode ser corrigido pelo contexto. Você pensa "mensagem para o João sobre o projeto", o modelo entende a intenção mesmo que o BCI capture 80% das palavras corretamente. Isso abaixa o limiar de precisão necessário.
Escrevi sobre como essa camada de agentes muda o que é possível construir no post sobre o Claude Code rodando features à noite. O mesmo princípio se aplica aqui: o agente compensa a imprecisão do input com entendimento de contexto.
O smartphone como periférico: quando?
Não essa semana. Provavelmente não em 2026.
O gorro da Sabi chega ao consumidor no final de 2026 com preço não divulgado e calibragem ainda em desenvolvimento. A Neural Band está em early access. Os óculos com display ainda não chegaram fora dos EUA.
Mas a direção está clara. E a velocidade de iteração é diferente do que era no ciclo do Google Glass ou dos smartwatches.
A pergunta mais honesta não é "quando o smartphone vai morrer?" Essa pergunta sempre chegou cedo demais.
A pergunta certa é: para quais casos de uso específicos o smartphone vai começar a perder o protagonismo primeiro?
Minha aposta são três casos. Navegação urbana: você não pega o telefone, os óculos mostram o caminho. Mensagens curtas: você responde com gesto de polegar ou pensamento. Contexto de reunião: o teleprompter discreto dos Ray-Ban Display já existe e está disponível hoje.
O resto demora mais.
Mas essas três situações somadas são uma fatia considerável do tempo que você passa olhando para a tela do celular por dia.
Se você quiser acompanhar como essas tecnologias evoluem, pode assinar a newsletter ou o feed RSS. Publico análises quando algo novo aparece, sem ficar na espera de ciclo de conteúdo. O próximo post relevante sobre BCI vai sair quando tiver algo concreto novo para dizer.
Para mais contexto sobre como essas interfaces se conectam com agentes de IA, leia o post sobre o HeyGen HyperFrames e o que a IA como camada de controle significa na prática.
Perguntas Frequentes
O smartphone vai acabar? Não no sentido de desaparecer. O padrão histórico da tecnologia é coexistência, não substituição abrupta. O que pode mudar é o papel central: o smartphone pode virar o processador de um sistema distribuído, presente no bolso mas não mais na mão dezenas de vezes por dia. Isso é um colapso de protagonismo, não de existência.
O que é o Meta Ray-Ban Display e a Neural Band? O Ray-Ban Display é um óculos da Meta com projeção de informações no campo de visão, anunciado com teleprompter e navegação para pedestres na CES 2026. A Neural Band é uma pulseira EMG que detecta movimentos musculares no pulso e os traduz em gestos digitais, como escrever no ar com o dedo. Os dois funcionam juntos: display nos olhos, controle no pulso.
O que é BCI sem cirurgia e quem está desenvolvendo? BCI (Brain-Computer Interface) sem cirurgia usa sensores externos, geralmente EEG, para captar atividade elétrica cerebral pelo couro cabeludo. Empresas como Muse, Neurosity e Emotiv já vendem headsets de EEG para consumidores. A Sabi é a mais recente, com um gorro de lã com 70-100 mil sensores que promete 30 palavras por minuto sem calibração diária, previsto para o consumidor no final de 2026.
Quando essa transição de interface vai acontecer de verdade? A transição provavelmente vai ser gradual e por caso de uso, não uma virada abrupta. Os primeiros casos a perder protagonismo para o smartphone devem ser navegação urbana, mensagens curtas e contexto de reunião. Para input de texto geral e apps complexos, o toque na tela vai continuar sendo o padrão por mais tempo.
O que a Apple está fazendo nesse espaço? A Apple tem o Vision Pro desde 2024 e rumores apontam para uma versão 2 mais acessível. O visionOS 26 já integra diretamente o iPhone ao headset. Tim Cook é citado como determinado a lançar óculos de AR competitivos com a Meta. A estratégia típica da Apple é chegar depois do mercado estar formado, com produto mais refinado. Ainda não há datas nem especificações confirmadas para óculos leves com display.