“Designed for privacy”: óculos inteligentes e revisão humana
O problema da responsabilidade que ninguém quer assumir
Por Juliana Bierrenbach
1. O produto e a promessa
Os Ray-Ban Meta, óculos inteligentes desenvolvidos em parceria entre a Meta e a EssilorLuxottica, fabricante da Ray-Ban, foram vendidos como um objeto elegante, quase banal: óculos bonitos, câmera discreta, assistente de inteligência artificial embutido, mãos livres, vida fluindo. A promessa era sedutora porque vinha embrulhada em duas palavras que o mercado adora repetir quando quer reduzir a desconfiança do público: conveniência e privacidade. A própria Meta apresentou o produto como algo “designed for privacy” e “controlled by you”.¹ Só que a promessa “controlled by you” (controlado por você) pressupõe que você saiba exatamente o que está sendo controlado e como controlá-lo. E essa era precisamente a parte que não estava clara.
Em 27 de fevereiro de 2026, uma investigação conjunta dos jornais suecos Svenska Dagbladet e Göteborgs-Posten revelou que trabalhadores da Sama, subcontratada da Meta em Nairóbi, afirmaram revisar conteúdo capturado pelos óculos, incluindo cenas de nudez, banheiro, sexo, cartões bancários e documentos pessoais.² A reportagem também descreve que esses trabalhadores viam material produzido em contextos domésticos e íntimos, muitas vezes sem que os titulares das imagens ou as pessoas ao redor tivessem real consciência da extensão do fluxo de dados.² Não é um detalhe lateral. É o próprio coração do caso.
O que torna tudo isso juridicamente grave não é apenas o conteúdo sensível ou constrangedor. É a distância entre a experiência vendida ao consumidor e a realidade operacional do produto. A investigação sueca afirma que, quando o usuário utiliza os recursos de inteligência artificial dos óculos, o processamento depende da infraestrutura da Meta e do envio de dados para seus servidores.² A própria Meta informa que mídias usadas com seus recursos de inteligência artificial podem ser armazenadas temporariamente na nuvem.³ Gravações de voz podem permanecer armazenadas para aperfeiçoamento dos produtos, com exclusão manual posterior pelo usuário.⁴ Em outras palavras: não se trata apenas de um objeto que vê. Trata-se de um objeto que vê, envia, armazena e, em certas circunstâncias, expõe.
2. O que a investigação revelou
A repercussão foi imediata. Em 5 de março de 2026, consumidores ajuizaram uma class action na Califórnia alegando, entre outros pontos, que a Meta vendeu privacidade como atributo central do produto enquanto omitia elementos relevantes sobre o seu funcionamento real.⁵ No mesmo contexto, o Information Commissioner’s Office (ICO), autoridade britânica de proteção de dados, confirmou que estava examinando as preocupações levantadas pela investigação e lembrou que dispositivos que processam dados pessoais, inclusive smart glasses, devem colocar os usuários no controle e oferecer transparência adequada.⁶ Parlamentares europeus também levaram o caso à Comissão Europeia, questionando a conformidade dessas práticas com o regime europeu de proteção de dados.⁷
3. O enquadramento jurídico
No plano brasileiro, o caso não cabe confortavelmente em uma única caixa. A Constituição da República, em seu art. 5º, X, protege a intimidade, a vida privada, a honra e a imagem das pessoas.⁸ Desde a Emenda Constitucional nº 115, de 2022, reconhece expressamente a proteção de dados pessoais como direito fundamental autônomo, no art. 5º, LXXIX.⁹
No plano criminal, o Código Penal brasileiro prevê, no art. 216-B, o crime de registro não autorizado da intimidade sexual. O tipo não exige finalidade específica de humilhação ou vingança. Por outro lado, o art. 218-C pune a divulgação de cena de nudez ou ato sexual sem consentimento, mas exige, para sua configuração básica, especial fim de agir, qual seja, a intenção de humilhar ou vingar.¹⁰
O ponto dogmaticamente relevante não está em afirmar uma tipificação automática, mas em perceber a fratura entre a vontade do usuário e o resultado produzido pelo produto. Quem ativa um assistente para perguntar o que está vendo não necessariamente quer captar a intimidade de terceiros, muito menos transmiti-la para revisão humana em outro país. O problema, portanto, está no desenho da arquitetura técnica que converte um gesto aparentemente banal em cadeia de tratamento de dados opaca.
Na seara da proteção de dados, a Lei Geral de Proteção de Dados Pessoais (LGPD) estabelece regime reforçado para dados pessoais sensíveis, definidos no art. 5º, II, com tratamento disciplinado pelo art. 11.¹¹ Nem toda imagem íntima é, por si só, dado pessoal sensível nos termos técnicos da lei. Mas muitas imagens podem revelar aspectos profundamente privados da vida, e algumas podem, conforme o caso, envolver dados biométricos ou outros elementos enquadráveis como sensíveis. O que parece difícil sustentar, juridicamente, é a existência de consentimento verdadeiramente informado quando o usuário médio não é capaz de compreender a extensão concreta do fluxo de dados. Aliás, sequer compreende nem mesmo o que são dados. E quando terceiros filmados não participam de qualquer escolha sobre tratamento de dados.¹¹
A situação fica ainda mais delicada quando se desloca o olhar para a Europa. O Regulamento Geral sobre a Proteção de Dados (GDPR) prevê regime especial para categorias sensíveis de dados¹² e exige salvaguardas específicas para transferências internacionais na ausência de decisão de adequação.¹²
O Quênia não figura na lista de países reconhecidos pelo GDPR como seguros para o tratamento de dados de cidadãos europeus.¹³ Isso não torna necessariamente ilícita a transferência que lá ocorre. Mas exige que a Meta demonstre que os dados estarão protegidos onde quer que sejam tratados. O instrumento mais comum para isso são contratos com cláusulas específicas de proteção, aprovados pela própria Comissão Europeia. O problema é que assinar esse contrato não é o mesmo que cumpri-lo.
4. O problema que ninguém quer assumir
Quando trabalhadores subcontratados pela Meta revisam conteúdo íntimo sem salvaguardas aparentes, a proteção deixa de ser uma questão contratual e vira uma questão de fato. É exatamente isso que o ICO provavelmente vai examinar.
Há ainda um aspecto estrutural que esse caso expõe com clareza: os direitos do terceiro não usuário.
O direito da proteção de dados foi construído, em larga medida, para relações em que alguém fornece dados a uma empresa, a um serviço ou a uma plataforma. O wearable com inteligência artificial embaralha isso. A pessoa filmada pode não ter comprado o produto, não ter aceitado termo algum, não ter configurado nada e, em certos casos, nem sequer perceber que está diante de uma câmera.
A Meta aponta para a existência de um LED indicador de uso e captura.¹⁴ Só que a suficiência social e jurídica desse aviso é altamente discutível, sobretudo porque já houve demonstrações públicas de como smart glasses de varejo podem ser combinados com ferramentas de reconhecimento facial e bases abertas para identificar pessoas em tempo real.¹⁵ ¹⁶
É aqui que o caso deixa de ser apenas um problema de privacidade contratual e vira também um problema político-criminal, regulatório e civilizacional. Quando um objeto colado ao rosto de uma pessoa qualquer passa a operar como infraestrutura opaca de coleta, circulação e eventual revisão humana de cenas íntimas, a pergunta jurídica deixa de ser apenas “houve consentimento?” e passa a ser “que tipo de consentimento é possível dentro de uma arquitetura desenhada para não ser plenamente compreendida?”.
A indústria gosta de dizer que a tecnologia apenas revela o mundo. Não é verdade. Às vezes ela cria a própria situação de violação.
No fim, talvez a parte mais séria seja a mais simples. O usuário diz que não sabia. A empresa diz que estava nos termos assinados pelo usuário. A terceirizada diz que apenas executava o que foi contratado pela empresa. O anotador humano diz que só fazia o trabalho determinado pela terceirizada. E, quando a responsabilidade se espalha desse jeito, corre-se o risco de, no final das contas, não ser efetivamente de ninguém.
É exatamente nesse ponto que o direito precisa reaparecer com menos deslumbramento tecnológico e mais coragem conceitual.
Fontes
1. META. Privacy Settings for Ray-Ban Meta AI Glasses. Disponível em: https://www.meta.com/ai-glasses/privacy/
2. SVENSKA DAGBLADET; GÖTEBORGS-POSTEN. Meta’s AI Smart Glasses and Data Privacy Concerns: Workers Say “We See Everything”. 27 fev. 2026. Disponível em: https://www.svd.se/
3. META. Learn more about cloud media on AI glasses. Disponível em: https://www.meta.com/help/ai-glasses/734190441863923/
4. Idem. Meta View app is now the Meta AI mobile app. Disponível em: https://www.meta.com/help/ai-glasses/1964061290737893/
5. TECHCRUNCH. Meta sued over AI smart glasses’ privacy concerns, after workers reviewed nudity, sex, and other footage. 5 mar. 2026. Disponível em: https://techcrunch.com/
6. THE REGISTER. Meta smart glasses face UK privacy probe. 5 mar. 2026. Disponível em: https://www.theregister.com/
7. EURACTIV. MEPs quiz Commission on privacy concerns of Meta’s smart glasses. 4 mar. 2026. Disponível em: https://www.euractiv.com/
8. BRASIL. Constituição da República Federativa do Brasil de 1988. Art. 5º, X. Disponível em: https://www.planalto.gov.br/ccivil_03/constituicao/constituicao.htm
9. Ibidem. Art. 5º, LXXIX. (Redação dada pela Emenda Constitucional nº 115, de 2022.)
10. BRASIL. Decreto-Lei nº 2.848, de 7 de dezembro de 1940. Código Penal. Arts. 216-B e 218-C. Disponível em: https://www.planalto.gov.br/ccivil_03/decreto-lei/del2848compilado.htm
11. BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Arts. 5º, II, e 11. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm
12. UNIÃO EUROPEIA. Regulamento (UE) 2016/679 do Parlamento Europeu e do Conselho, de 27 de abril de 2016. Regulamento Geral sobre a Proteção de Dados (GDPR). Arts. 9 e 46. Disponível em: https://eur-lex.europa.eu/legal-content/PT/TXT/?uri=CELEX%3A32016R0679
13. COMISSÃO EUROPEIA. Adequacy decisions. Disponível em: https://commission.europa.eu/law/law-topic/data-protection/international-dimension-data-protection/adequacy-decisions_en
14. META. Notification LED on AI glasses. Disponível em: https://www.meta.com/help/ai-glasses/757215899749677/
15. THE VERGE. College students used Meta’s smart glasses to dox people in real time. 2 out. 2024. Disponível em: https://www.theverge.com/
16. HARVARD LIBRARY INNOVATION LAB. I-XRAY: the AI glasses that reveal anyone’s personal details. 29 jan. 2025. Disponível em: https://lil.law.harvard.edu/

