+
União Europeia discute os limites éticos do reconhecimento facial e outras tecnologias biométricas (Foto: Getty Images)
Seu corpo é uma mina de ouro de informações. Do jeito que você olha para as coisas à forma como pensa e sente, empresas operando no mercado efervescente dos dados biométricos estão desenvolvendo novas – e preocupantes – soluções para mapear tudo o que fazemos. E, em muitos casos, você nem sequer sabe que está sendo observado.
saiba mais
Mas os negócios biométricos estão em rota de colisão com os maiores especialistas em proteção de dados da Europa. Tanto o Data Protection Supervisor, que age como um órgão independente da União Europeia, quanto o European Data Protection Board, responsável por ajudar países do bloco a implementar leis uniformes de proteção de dados, já pediram pelo banimento total do uso de inteligência artificial para reconhecer pessoas de forma automatizada.
“Empregar identificação biométrica remota em lugares públicos representa o fim da privacidade nesses espaços”, escrevem Andrea Jelinek e Wojciech Wiewiórowski, diretores de ambos os órgãos, em um comunicado conjunto publicado no fim de junho. IA não deve ser usada para reconhecimento facial, mapeamento da maneira de andar ou teclar, da impressão digital, DNA, voz ou qualquer outro tipo de biometria em áreas públicas, dizem. Deveria haver também uma proibição sobre a tentativa de prever a etnia de uma pessoa, seu gênero, orientação sexual e filiação política via IAs.
Mas esse chamado vai de encontro às regulações propostas pela UE para a inteligência artificial. As normas, anunciadas em abril, rotulam “identificação biométrica remota” como atividade de alto risco – ela é permitida, mas encara leis mais severas que outros usos da tecnologia. Políticos de todo bloco passarão anos debatendo regras sobre inteligência artificial e a vigilância biométrica desponta como um dos tópicos mais polêmicos. Quando as normas virarem lei, essa legislação vai definir como centenas de milhões de pessoas serão vigiadas por décadas. E o debate começa agora.
Reconhecimento facial já é controverso há anos, mas o verdadeiro boom da biometria é focar em outras partes do seu corpo. Nos 27 países membros da UE, um conjunto de companhias estão desenvolvendo e colocando na prática tecnologias que, em alguns casos, visam prever o gênero das pessoas, sua etnicidade e reconhecer suas emoções. Muitas dessas soluções já estão sendo aplicadas no mundo real. No entanto, usar inteligência artificial para fazer essas classificações pode ser questionável em termos científicos e éticos. O risco é que tecnologias como essas invadam a privacidade de indivíduos ou discrimine automaticamente parte da população.
Considere os exemplos da Herta Security e VisionLabs. Ambas firmas desenvolvem tecnologia de reconhecimento facial para um sem número de aplicações e afirmam poderem usar a prática em prol do policiamento e das indústrias de varejo e transporte. Documentos da Herta Security, cuja sede é em Barcelona, informa que clientes incluem equipes da polícia na Alemanha, Espanha, Uruguai, Colômbia, além de estádios esportivos, shoppings, redes de hotéis – como Marriott e Holiday Inn -, aeroportos e cassinos.
Críticos observam que tanto Herta Security quanto a VisionLabs falam sobre seus sistemas poderem ser usados para mapear dados sensíveis. “Muitos desses programas, mesmo aqueles usados para identificar pessoas, dependem dessas classificações e categorizações potencialmente danosas que estão na raiz de suas lógicas”, diz Ella Jakubowska, conselheira de políticas públicas que pesquisa a biometria como parte da rede de ONGs European Digital Rights. O grupo atualmente faz campanha para banir vigilância biométrica no território europeu.
BioMarketing, a ferramenta de análise facial da Herta Security, é vendida como uma forma de lojistas e anunciantes aprenderem mais sobre seus clientes, e pode “extrair” tudo deles – da idade ao gênero, se usam óculos ou não, e mesmo mapear suas expressões faciais. A empresa diz que a tecnologia é “ideal” para a construção de campanhas publicitárias com um foco definido ou auxiliar companhias que queiram entender quem são seus consumidores. A ferramenta, segundo a fabricante, também pode classificar pessoas de acordo como sua “etnicidade”. Sob a GDPR [lei de proteção de dados da UE], informações pessoais que revelem “origem racial ou étnica” são consideradas sensíveis, e prevê um controle estrito na forma como podem ser usadas.
Jakubowska disse ter confrontado o CEO da Herta Security sobre esse detalhe ano passado, e que desde então a companhia deletou a informação de seu material de marketing. Ainda não é claro se a função foi ou não removida da ferramenta em si. Documentos da empresa recebidos por terceiros ainda listam etnicidade como uma das características mapeadas através do uso do BioMarketing. Arquivos de 2013 se referem à detecção de “raça”, antes que o termo fosse atualizado para etnicidade na comunicação usada pela empresa. A firma, que recebeu mais de 500 mil euros em aportes da UE e recebeu o certificado de excelência do bloco, não respondeu à reportagem.
VisionLabs, cuja sede fica em Amsterdã, diz que seu “previsor étnico” visa “determinar o grupo étnico e/ou raça de uma pessoa”. Seu site diz que o sistema é capaz de “distinguir” indivíduos que sejam indianos, asiáticos, negros ou brancos. Mas suas análises vão mais fundo. A página também informa que seu “previsor de sorrisos” pode antever “oclusão da boca” e a tecnologia consegue ainda dizer se uma pessoa exprime raiva, nojo, medo, felicidade, surpresa, tristeza ou neutralidade. Gênero, idade, o nível de atenção de uma pessoa a um dado item e seu tempo de permanência em um local são outros exemplos de métricas que podem ser empregadas para ajudarem varejistas a entenderem o movimento de suas lojas.
saiba mais
Especialistas em IA e ética alertam contra o uso de biometria para prever o gênero ou as emoções de um indivíduo. Estudos disputam o argumento da inteligência artificial poder ser usada para detectar expressões faciais e corporais, incluindo comparações entre esses sistemas e o impreciso teste do polígrafo. Ainda este ano, 175 ativistas e grupos de liberdade civil assinaram uma carta aberta exigindo o fim da vigilância biométrica.
Jakubowska argumenta que o uso dessa tecnologia será provavelmente incompatível com a posição da UE em relação a direitos humanos. “A própria ideia de termos máquinas tentando adivinhar nosso gênero, tomando decisões que vão impactar nossas vidas, é realmente preocupante”, diz. “É apenas a ponta do iceberg quando o assunto são as diferentes formas que nossos corpos e comportamentos estão sendo resumidos em pontos de dados e enfiadas nessas bases de dados biométricos remotas, cuja existência muitas vezes nos passa desapercebida.”
“A adoção e as consequentes normas ao redor da tecnologia de reconhecimento facial ainda estão em sua infância”, diz um porta-voz da VisionLabs. Segundo a fonte, a empresa “encoraja” o debate sobre a proteção da segurança pessoal e que suas implementações da tecnologia não são proibidas pela GDPR.
Mas biometria é um grande negócio – e suas aplicações existem bem além do marketing. A tecnologia vai do reconhecimento facial e verificação de identidade, como o que você vê no FaceID do iPhone e outras técnicas de leitura de impressão digital, a sistemas experimentais que tentam entender se uma pessoa está mentindo baseado no movimento de seus músculos faciais. Também inclui a aparência, o padrão de suas veias, como você se move, seu DNA, a íris de seus olhos, identificação baseada no formato da orelha, geometria dos dedos e reconhecimento das mãos. Trocando em miúdos, a biometria pode medir e quantificar o que faz você ser, bem, você.
Por um lado, usar essa tecnologia pode tornar nossas vidas mais convenientes e potencialmente evitar fraudes. Por outro, ela pode ser realmente intrusiva e discriminatória. Cartões de banco estão adotando scanners de impressão digital, aeroportos, usando biometria e mapeamento facial para identificar pessoas, a polícia na Grécia vem colocando em prática sistemas de reconhecimento em tempo real e, no Reino Unido, equipes policiais estão aparentemente experimentando com IA capaz de detectar se uma pessoa está nervosa ou furiosa.
Até a metade dos anos 2020, estima-se que a indústria global de biometria possa valer entre 68,6 bilhões e 82,8 bilhões de dólares – hoje, esse patamar está entre US$ 24 bi e US$ 36 bi. Enquanto a China e os EUA lideram o mundo na criação de tecnologias biométricas, o mercado europeu está crescendo rapidamente. Na última década, três programas de pesquisa da União Europeia investiram mais de 120 milhões de euros em 196 grupos de estudos baseados no tema. Grandes empresas dos setores de defesa e segurança estão desenvolvendo aplicações de biometria, assim como pequenas startups.
Segundo a proposta de legislação sobre IA da Comissão Europeia, todo sistema de identificação biométrica é considerado de alto risco. Mas ainda é impossível saber se essa abordagem vai garantir a segurança da população. Os planos sugerem que criadores de tecnologias ditas de alto risco terão que vencer uma série de obstáculos legais antes que sua tecnologia possa ser aplicada no mundo real. Entre eles estão o emprego de um set de dados de alta qualidade e a transparência sobre seu funcionamento num diálogo com legisladores e a própria população. Será preciso ainda realizar testes de risco para garantir que seus sistemas tenham “alto nível de robustez, segurança e precisão”.
A Associação Europeia de Biometria, uma ONG que trabalha com governos, terceiro setor e indústria, diz apoiar “ respeito a direitos fundamentais na União Europeia” quando se trata da criação de novas tecnologias. “Se aplicações específicas da biometria, como seu uso em ambientes públicos, não apenas colocam em risco esses direitos, mas também tornam impossível o exercício da liberdade, como o direito de se mover livremente em áreas públicas sem desistir de sua privacidade, tal sistema não deveria ser usado”, diz a organização. A Associação diz ainda que é preciso haver “leis e normas precisas” sobre o uso ou não uso de tecnologias.
Mas enquanto legisladores discutem sobre o assunto – incluindo a proibição completa de biometria – a tecnologia se infiltra pouco a pouco em nossas rotinas. Críticos apontam que o crescimento dessa tecnologia carece de transparência e pouco se sabe sobre quem a usa, quando e como.
“Temos informação escassa sobre quais são as empresas e os termos postos em prática em sua coleta, processamento, estocagem, compartilhamento e segurança de nossas informações mais pessoais”, diz Alexandra Pardal, diretora executiva do Democratic Integrity, uma organização investigativa que observa o uso de biometria na Europa. “Tudo o que sabemos é que organizações policiais, autoridades públicas, companhias privadas e individuais estão coletando e usando dados biométricos das pessoas”.
Essa falta de transparência aparentemente se aplica ao próprio investimento da UE na tecnologia. Entre setembro de 2016 e agosto de 2019, o fundo de inovação do bloco, Horizon 2020, deu aporte à iBorderCtrl, um projeto que buscava usar dados biométricos pessoais para ajudar na identificação e análise de “micro-expressões” faciais, que pudessem sinalizar uma mentira sendo dita. 13 companhias e grupos de pesquisa diferentes estavam envolvidas na iniciativa que, como o nome sugere, visava o uso da tecnologia nas fronteiras europeias.
Embora porta-vozes do iBorderCtrl tenham sugerido que partes de seu trabalho resultaram em “candidatos promissores para futuros sistemas”, investigações sugerem que a IA não havia sido capaz de entender afinal se uma pessoa estava mentindo ou não. Mas muito dessa pesquisa é segredo. Patrick Breyer, um político do Partido Pirata alemão, está processando a Comissão Europeia por documentos não publicados a respeito das considerações éticas e legais do projeto. Uma decisão será tomada no tribunal nos próximos meses.
Breyer, um opositor da vigilância biométrica, diz que a UE não deveria financiar pesquisa que vá contra suas próprias posições a respeito de proteção de dados e discriminação. “É escandaloso que o bloco ajude a desenvolver tecnologias que possam ferir pessoas”, comenta, citando como exemplo um sistema de detecção de emoções sendo testado sobre a população Uighur, em Xinjiang, China.
Enquanto a regulamentação sobre o tema não é definida, a preocupação de Breyer é que a tecnologia se torne um lugar comum. “No momento em que elas são postas em prática, não há nada que impeça companhias de vendê-las no mercado privado, ou mesmo fora da UE, a governos autoritários ou ditaduras, como a China”, diz o político. “Todas essas tecnologias terão o potencial de criar um sistema amplo de vigilância para nos acompanhar onde formos, seja lá o que fizermos, ou mesmo reportar nossos comportamentos, que diferem de uma pessoa a outra”, conclui.
*Leia a matéria original na Wired UK