Reconhecimento facial traz riscos que afetam até pesquisas da ciência

Daniel Schultz, Monica Matsumoto e Shridhar Jayanthi

sobre os colunistas

Daniel Schultz é cientista, professor de microbiologia e membro do núcleo de ciências computacionais em Dartmouth (EUA). Estuda a dinâmica dos processos celulares, com foco na evolução de bactérias resistentes a antibióticos. É formado em engenharia pelo ITA, doutor em química pela Universidade da Califórnia San Diego e pós-doutorado em biologia sistêmica em Harvard. Possui trabalhos de alto impacto publicados em várias áreas, da física teórica à biologia experimental, e busca integrar essas várias áreas do conhecimento para desvendar os detalhes de como funciona a vida ao nível microscópico.

Monica Matsumoto é cientista e professora de Engenharia Biomédica no ITA. Curiosa, tem interesse em áreas multidisciplinares e procura conectar pesquisadores em diferentes campos do conhecimento. É formada em engenharia pelo ITA, doutora em ciências pela USP e trabalhou em diferentes instituições como InCor/HCFMUSP, UPenn e EyeNetra.

Shridhar Jayanthi é agente de patentes com registro no escritório de patentes norte-americano (USPTO). Tem doutorado em engenharia elétrica pela Universidade de Michigan (EUA) e diploma de engenheiro de computação pelo ITA. Atualmente, trabalha com empresas de alta tecnologia para facilitar obtenção de patentes e, nas (poucas) horas vagas, é estudante de problemas na intersecção entre direito, tecnologia e sociedade. Antes disso, teve uma vida acadêmica com passagens pela Rice, MIT, Michigan, Pennsylvania e no InCor/USP, e trabalhou com pesquisa em áreas diversas da matemática, computação e biologia sintética.

05/01/2021 04h00

A tecnologia digital avançou e o reconhecimento facial agora é uma possibilidade real. Em ruas, ônibus, aeroportos, shopping centers e metrô, as câmeras estão em muitos locais, já estamos bem acostumados a elas e às placas de “sorria, você está sendo filmado”.

Neste final de ano, pensei nos temas que escrevi aqui na coluna, em sua maioria sobre novas descobertas científicas, tecnologias e plataformas em saúde. E uma questão que permeia os temas debatidos é sempre a dados pessoais vulneráveis.

Existem várias formas de identificar um indivíduo, e dados biométricos são usados para não haver dúvida nesse reconhecimento. As formas clássicas são as marcas deixadas pela impressão digital e o padrão da íris. Existem também novas tecnologias de biometria, que estão sendo testadas para driblar identidades falsas, como a avaliação de sinais elétricos cerebrais e sons reverberados dos ossos das mãos.

A diferença é que para obter a impressão digital, o método exige a cooperação da pessoa a ser identificada. O uso da imagem, entretanto, é uma tecnologia bem mais invisível e pervasiva, e não demanda cooperação nem consentimento.

A computação por trás da análise de vídeos é desenvolvida desde a década de 60 e hoje tem precisão de mais de 80%. O acerto da detecção tem relação aos códigos usados, mas também na qualidade do banco de imagens. A fonte da informação, a tecnologia usada e os objetivos da aplicação levantam várias questões éticas.

A revista Nature escreveu sobre a questão ética da pesquisa em reconhecimento facial. Pesquisas com humanos exigem aprovação por um conselho de ética em pesquisa. Essa comissão pondera os potenciais benefícios e malefícios da pesquisa, e a forma de condução do estudo.

Em geral, em cada estudo se colhe autorização do paciente em um termo de consentimento livre e esclarecido. Importante destacar que esse não foi o caso de muitos dos algoritmos para detecção de face. Pelo contrário, muitos estudos usaram fotos disponíveis publicamente (como do Flickr), ou de pessoas famosas.

Em bancos de dados coletados ativamente, no momento que as imagens foram colhidas e publicadas, os participantes não necessariamente consentiram com todos os experimentos que foram feitos com elas, pois o conjunto de imagens tornou-se público.

Uma denúncia grave foi a publicação de um artigo em uma revista científica da Wiley em 2018 que descrevia métodos para separar faces entre etnias: chineses, coreanos e uigures.

Estudantes da Universidade de Dailian Minzu haviam assinado o termo de consentimento para que suas imagens fossem utilizadas no estudo. Entretanto, a etnia uigur na China é extremamente vulnerável e sofre perseguição política. Fazem parte de uma minoria islâmica no país e muitos estão sendo colocados em centros de detenção. Há um movimento do governo para identificá-los e segregá-los.

Nesse caso, a comunidade científica se mobilizou para que este tipo de estudo não fosse publicado, mesmo com termo de consentimento dos participantes.

Os cientistas se preocupam que esse tipo de publicação mostre um aceite da comunidade científica em crimes humanitários. E a prática está sendo revista, uma vez que o termo de consentimento não é suficiente para proteger minorias vulneráveis, por exemplo.

Claramente o estudo não ficou na esfera científica. No fim de 2020, algoritmo semelhante foi relatado em softwares da Huawei e Megviii, empresas chinesas, que haviam desenvolvido software com “alarme uigur”.

Além dessa aplicação, o reconhecimento facial pode ser usado para segurança por alfândegas e pela polícia para identificar pessoas que cometeram crimes. O que é legítimo para encontrar criminosos ou pessoas que forjam a identidade.

Entretanto, em países de controle ostensivo como a China, há cidades onde pessoas são identificadas e constrangidas em telões apenas por atravessar a rua no sinal vermelho. As telas públicas mostram até quem não está em dia com as contas, uma evidente invasão à pessoa que coloca a cara na rua.

Outro estudo controverso feito pela Universidade de Harrisburg, afirmava sucesso em descobrir a probabilidade de cometer crime por uma pessoa pelo seu rosto. O estudo causou alarde pois esse tipo de conclusão vem dos dados que são usados, além de chegar em conclusões implausíveis. E, dessa forma, pode haver um padrão de discriminação racial ou de indivíduos apenas pela fisionomia.

Assim, o risco desses estudos é justificar que alguns traços étnicos ou demográficos sejam mais propensos a cometer crimes, e que pessoas sejam identificadas como inatas para o crime.

Mais de 2.000 cientistas fizeram um abaixo-assinado deste estudo e reivindicaram maior escrutínio das revistas para impedir a publicação de pesquisas que trazem hipóteses preconceituosas e cientificamente cheias de viés.

As questões de preconceito são muito atuais. Um estudo do MIT nos leva a fatos que há algoritmos que têm mais dificuldade de reconhecer rostos de mulheres ou de pessoas negras. Esse preconceito embutido no software vem de como ele é treinado e desenvolvido, e não houve atenção (ou interesse) em perceber esse preconceito de gênero e etnia. Mas sempre há a chance de aperfeiçoamento.

Em geral, os métodos dependem muito do banco de imagens usado no desenvolvimento. O resultado final é quase estatístico, depende da população e distribuição demográfica usada na análise inicial. Isso tem sido observado por iniciativas independentes, que querem auditar os softwares em busca desse preconceito embarcado.

Tudo isso serve de alerta. O primeiro é o uso indiscriminado da biometria facial, que pode ter uso duvidoso. Principalmente quando se trata de liberdades individuais —de ir e vir, de se relacionar com outras pessoas e direito de fala livre.

Em uso automático, o reconhecimento facial é uma ferramenta poderosa para governos autoritários, que podem perseguir adversários políticos e restringir direitos democráticos.

Outro alerta é o uso de imagens em estudos sem consentimento do indivíduo ou, mesmo que haja, as imagens podem ser usadas para crimes humanitários, como da etnia uigur na China. Um ponto enorme de atenção é como foi criado o software de reconhecimento, pois cada base de dados traz vieses e pode conter preconceitos permeados na sociedade. E o viés é muito difícil de eliminar.

Além de atentos às questões éticas, de hipóteses e estudos, temos que apoiar grupos independentes que possam auditar esses sistemas para avaliar os vieses, e também garantir as liberdades individuais e de grupos vulneráveis.

Não podemos encarar a tecnologia ingenuamente, apenas como um desafio técnico e matemático, também não devemos olhar a resposta automática como desculpa para erros passíveis. O reconhecimento facial pode ter aplicações e consequências importantes.

No fim, o uso de máscaras é útil não apenas para evitar o contágio do vírus transportado pelo ar, mas também pode ser usado para despistar a biometria pervasiva das câmeras!

** Este texto não reflete, necessariamente, a opinião do UOL

Fonte: https://www.uol.com.br/tilt/colunas/para-onde-o-mundo-vai/2021/01/05/a-mascara-tambem-nos-protege-do-reconhecimento-facial.htm