A crescente adoção de dispositivos vestíveis e tecnologias de monitoramento de saúde, como smarthwaches e anéis inteligentes, suscita preocupações no campo da proteção de dados, particularmente no que diz respeito ao compartilhamento massivo de dados concatenados de saúde.
Segundo matéria da BBC , essas e ferramentas, embora inovadoras, abrem precedentes perigosos em termos de privacidade, proteção de dados pessoais, transparência e impactos psicossociais, a levantar questões éticas e legais e fundamentais — ainda mais quando se suscita utilizá-las para o monitoramento em um grande grupo de pacientes atendidos por serviços públicos de saúde, como se aventou na Inglaterra.
Ora, o compartilhamento de dados de saúde em larga escala e de maneira não transparente representa um risco elevado. Conteúdo informacional do tipo sensível, como frequência cardíaca, padrões de sono, níveis de estresse e até mudanças hormonais, tornam-se acessíveis às empresas que nem sempre possuem políticas claras de uso ou mecanismos robustos de segurança de informação.
Como alerta a Zuboff (2020), essas informações são frequentemente utilizadas para fins de lucro, muitas vezes sem o consentimento ou plena compreensão do usuário, a configurar um cenário de exploração massiva dos dados pessoais.
Não se olvide que um dos grandes desafios das legislações que visam à proteção de dados diz respeito ao tratamento massivo de conjuntos de dados pessoais com a finalidade de perfilar o cidadão enquanto consumidor.
Nesse contexto, a obtenção de dados de saúde tão específicos a partir da massificação do uso dos dispositivos aqui mencionados permitiria que empresas pudessem, ainda, aprimorar a oferta de produtos e serviços de natureza tão "sensível", como diria a própria LGPD, a fomentar assim o uso exagerado, indiscriminado e, por vezes, até desnecessário de fármacos e procedimentos médicos, a contribuir para o fortalecimento de uma sociedade cada vez mais hipocondríaca.
Aqui fica um alerta: no caso das tecnologias de saúde, o risco é ainda maior, já que a exposição de dados médicos pode comprometer a dignidade, discriminar pessoas em seguros ou até mesmo influenciar o mercado de trabalho.
Outro ponto de destaque e preocupação é a implementação em larga escala dessas tecnologias. Isso se deve à ausência de padrões confiáveis de aferição, falta de transparência no uso dos marcadores e o possível viés de seus algoritmos.
Como bem destacado na matéria da BBC, dispositivos que “adivinham” condições emocionais ou físicas podem induzir comportamentos não naturais nos usuários, levando-os a acreditar que estão doentes ou que precisam de atendimento médico desnecessariamente. Esse risco é amplificado pela literatura sobre viés algorítmico, como aponta O’Neil (2016), pois erros nos dados de entrada ou interpretações enviesadas podem criar consequências devastadoras para os indivíduos, especialmente em áreas sensíveis como a saúde.
Uma das questões mais alarmantes é o avanço dessas tecnologias para “saber antes de mim” quando estou triste, feliz, doente ou mesmo em momento de intimidade, de modo que o controle contínuo e quase total de dados pessoais transcende o escopo tradicional de coleta de dados que hoje já ocorre por meio de redes sociais ou cookies de navegação.
Estamos a lidar com tecnologias que não apenas monitoram ações externas, mas também internalidades, como emoções e condições biológicas; como discutido por Harari (2016), essa vigilância contínua e invisível mina o direito à privacidade e coloca em xeque a autonomia individual.
Há um avanço perigoso (e silencioso) na coleta de dados — diríamos que alguns degraus acima do que a maioria se dá conta.
Diferentemente de sistemas que analisam comportamentos ou hábitos digitais, esses dispositivos entram no campo do biohacking involuntário, colocando em risco fundamentos importantes na LGPD, como a autodeterminação informativa (Art. 2º, II, LGPD), sem olvidar do impacto psicológico e social desse avanço, uma preocupação respaldada por especialistas em ética digital, como Floridi (2013), que enfatiza a necessidade de um controle mais rigoroso sobre as tecnologias que afetam diretamente nossa biologia e psicologia.
Em suma, o avanço dessas tecnologias de monitoramento exige uma regulação mais robusta e um debate público aprofundado — no Brasil (em dez/24), é que avançou no Senado a regulação do uso de IA — pois, a implementação sem critérios claros e transparência coloca em risco direitos fundamentais e a integridade das pessoas e, por isso, a crítica e o monitoramento de profissionais da área de saúde e de proteção de dados, bem como o desenvolvimento de regulamentações que protejam o cidadão frente ao uso predatório dessas ferramentas, são absolutamente essenciais.
* Valteir Teobaldo S. de Assis e Advogado, Membro da Comissão de Privacidade e Proteção de Dados da OAB-MT, Consultor Jurídico, DPO SERPRO/DataShield e Encarregado de Dados do TCE-MT.
* Luiz Inácio Mallman Batista é Advogado, Membro da comissão de Privacidade e Proteção de Dados, Lead Implementer em SGSI (ISO 27001), Consultor em Privacidade e Proteção de Dados.