;(function() { window.createMeasureObserver = (measureName) => { var markPrefix = `_uol-measure-${measureName}-${new Date().getTime()}`; performance.mark(`${markPrefix}-start`); return { end: function() { performance.mark(`${markPrefix}-end`); performance.measure(`uol-measure-${measureName}`, `${markPrefix}-start`, `${markPrefix}-end`); performance.clearMarks(`${markPrefix}-start`); performance.clearMarks(`${markPrefix}-end`); } } }; /** * Gerenciador de eventos */ window.gevent = { stack: [], RUN_ONCE: true, on: function(name, callback, once) { this.stack.push([name, callback, !!once]); }, emit: function(name, args) { for (var i = this.stack.length, item; i--;) { item = this.stack[i]; if (item[0] === name) { item[1](args); if (item[2]) { this.stack.splice(i, 1); } } } } }; var runningSearch = false; var hadAnEvent = true; var elementsToWatch = window.elementsToWatch = new Map(); var innerHeight = window.innerHeight; // timestamp da última rodada do requestAnimationFrame // É usado para limitar a procura por elementos visíveis. var lastAnimationTS = 0; // verifica se elemento está no viewport do usuário var isElementInViewport = function(el) { var rect = el.getBoundingClientRect(); var clientHeight = window.innerHeight || document.documentElement.clientHeight; // renderizando antes, evitando troca de conteúdo visível no chartbeat-related-content if(el.className.includes('related-content-front')) return true; // garante que usa ao mínimo 280px de margem para fazer o lazyload var margin = clientHeight + Math.max(280, clientHeight * 0.2); // se a base do componente está acima da altura da tela do usuário, está oculto if(rect.bottom < 0 && rect.bottom > margin * -1) { return false; } // se o topo do elemento está abaixo da altura da tela do usuário, está oculto if(rect.top > margin) { return false; } // se a posição do topo é negativa, verifica se a altura dele ainda // compensa o que já foi scrollado if(rect.top < 0 && rect.height + rect.top < 0) { return false; } return true; }; var asynxNextFreeTime = () => { return new Promise((resolve) => { if(window.requestIdleCallback) { window.requestIdleCallback(resolve, { timeout: 5000, }); } else { window.requestAnimationFrame(resolve); } }); }; var asyncValidateIfElIsInViewPort = function(promise, el) { return promise.then(() => { if(el) { if(isElementInViewport(el) == true) { const cb = elementsToWatch.get(el); // remove da lista para não ser disparado novamente elementsToWatch.delete(el); cb(); } } }).then(asynxNextFreeTime); }; // inicia o fluxo de procura de elementos procurados var look = function() { if(window.requestIdleCallback) { window.requestIdleCallback(findByVisibleElements, { timeout: 5000, }); } else { window.requestAnimationFrame(findByVisibleElements); } }; var findByVisibleElements = function(ts) { var elapsedSinceLast = ts - lastAnimationTS; // se não teve nenhum evento que possa alterar a página if(hadAnEvent == false) { return look(); } if(elementsToWatch.size == 0) { return look(); } if(runningSearch == true) { return look(); } // procura por elementos visíveis apenas 5x/seg if(elapsedSinceLast < 1000/5) { return look(); } // atualiza o último ts lastAnimationTS = ts; // reseta status de scroll para não entrar novamente aqui hadAnEvent = false; // indica que está rodando a procura por elementos no viewport runningSearch = true; const done = Array.from(elementsToWatch.keys()).reduce(asyncValidateIfElIsInViewPort, Promise.resolve()); // obtém todos os elementos que podem ter view contabilizados //elementsToWatch.forEach(function(cb, el) { // if(isElementInViewport(el) == true) { // // remove da lista para não ser disparado novamente // elementsToWatch.delete(el); // cb(el); // } //}); done.then(function() { runningSearch = false; }); // reinicia o fluxo de procura look(); }; /** * Quando o elemento `el` entrar no viewport (-20%), cb será disparado. */ window.lazyload = function(el, cb) { if(el.nodeType != Node.ELEMENT_NODE) { throw new Error("element parameter should be a Element Node"); } if(typeof cb !== 'function') { throw new Error("callback parameter should be a Function"); } elementsToWatch.set(el, cb); } var setEvent = function() { hadAnEvent = true; }; window.addEventListener('scroll', setEvent, { capture: true, ive: true }); window.addEventListener('click', setEvent, { ive: true }); window.addEventListener('resize', setEvent, { ive: true }); window.addEventListener('load', setEvent, { once: true, ive: true }); window.addEventListener('DOMContentLoaded', setEvent, { once: true, ive: true }); window.gevent.on('allJSLoadedAndCreated', setEvent, window.gevent.RUN_ONCE); // inicia a validação look(); })();
  • AssineUOL
Topo

Além do racismo, reconhecimento facial erra mais em pessoas trans

iStock
Imagem: iStock

Sarah Alves

Colaboração para Tilt

14/02/2021 04h00Atualizada em 22/06/2021 11h09

Sem tempo, irmão

  • Estudo apontou que a taxa média de acertos em mulheres trans é de 87,3%
  • Diferenças podem ser explicadas pela falta de representatividade nas bases de dados que fomentam os sistemas
  • Pesquisa alerta para uso da tecnologia no Brasil, que pode causar exclusão de camadas da população

A desenvolvedora de softwares Dora*, 29, sempre tem dificuldades ao ar sua conta bancária com a ferramenta de reconhecimento facial em um novo aparelho. Isso acontece porque suas fotos no cadastro são do período anterior à sua transição de gênero e terapias hormonais. Esse problema de inclusão, recorrente em pessoas negras, também recai sobre o público LGBT. Segundo um estudo da Universidade do Colorado (EUA) de 2019, essa tecnologia erra mais em rostos de pessoas trans em comparação às cisgêneros (que se identificam com o sexo em que nasceram).

Enquanto em mulheres cis a precisão foi de 98,3%, para trans o índice médio era de 87,3%. Entre homens, a diferença é maior: a precisão entre cisgêneros ficou em 97,6%, enquanto a média foi de 70,5% entre trans. Para pessoas não-binárias (que vão além do masculino-feminino), agêneros (quem se identifica como gênero neutro) e queer (que não correspondem a um padrão cis-heteronormativo), o sistema errou em todas as tentativas.

A pesquisa da Universidade do Colorado usou 2.450 fotos no Instagram, com hashtags que identificavam as identidades de gênero e estavam divididas igualmente em sete grupos: mulher, homem, mulher trans, homem trans, agênero, gênero queer e não-binário. Os sistemas usados foram os da Clarifai, Amazon, IBM e Microsoft.

"Me sinto péssima. É horrível saber que toda vez que trocar ou formatar o celular vou ar por isso, falar com atendentes que não têm ideia do que fazer e que preciso convencer a ar o problema à área responsável", diz Dora.

Em uma das tentativas, ela recebeu um email com o alerta de tentativa de fraude na conta, quando na verdade era ela que tentou entrar. "Já cheguei a ficar dias sem o ao meu dinheiro, perdi a data de vários boletos e paguei multa."

Maria Eduarda Krasny, 23, teve cartão de estudante bloqueado por sistema de validação via biometria facial - Arquivo Pessoal - Arquivo Pessoal
Maria Eduarda Krasny, 23, teve cartão de estudante bloqueado por sistema de validação via biometria facial
Imagem: Arquivo Pessoal

A universitária Maria Eduarda Krasny, 23, teve em 2018 o cartão de estudante bloqueado no Distrito Federal, que aplicou a biometria facial nas catracas para verificar a identidade dos ageiros. O cadastro, anterior ao período de transição, foi refeito e ela ficou 20 dias sem ter o ao benefício.

"Foi uma conversa nada pacífica. Eu já estava muito chateada, mas depois que eu vi as fotos que eles alegavam ser outras pessoas, acho que trouxe um pouco da transfobia e do racismo, porque era quando eu usava turbante e de quando eu transicionei", lembra. A estudante diz que em nenhum momento tinha sido avisada de que precisaria refazer seu cadastro após a transição de gênero.

Para Maria Eduarda, o desconforto continuou mesmo depois de ter o reconhecimento facial liberado nas catracas: no novo cartão ainda constavam a foto e o nome de antes da transição. E segue assim até hoje. "É desestimulante. Quando uma pessoa trans tira todos os documentos, ela quer ter o seu nome reconhecido", afirma.

Pesquisa mapeia impactos no Brasil

Em novembro ado, o Decreto 10.543 definiu que s eletrônicas são uma forma de comprovar a identidade. Até 1º de julho deste ano, todos os órgãos públicos federais devem adequar seus sistemas de tecnologia a esse tipo de .

Outro estudo, desta vez das pesquisadoras brasileiras Mariah Rafaela Silva e Joana Varon, da entidade Coding Rights, pegou a base de dados do Serpro (Serviço Federal de Processamento de Dados), principal empresa pública de tecnologia do governo federal. Os dados foram obtidos via pedidos de LAI ( Lei de o à Informação) ao Serpro, ao Ministério da Economia, ao INSS e à Secretaria de Governo Digital.

Foram analisados os índices de dois sistemas de reconhecimento facial: do Renach (Registro Nacional de Carteira de Habilitação), desenvolvido para o Denatran; e de um piloto usado pelo INSS, testado durante 2020 e que usa o reconhecimento facial na prova de vida (que confirma a identificação da pessoa), evitando o deslocamento até agências bancárias.

No banco de dados do Renach, foi computada a média de 93% de similaridade. O órgão salientou que a "acurácia dos algoritmos já alcançou 99,9% de assertividade". Já para o piloto do INSS, o Serpro diz que os dados ainda não haviam sido levantados, mas que um teste realizado entre julho e setembro de 2019 apontou validação de 64,32%, "sendo que em algumas regiões a taxa de sucesso foi superior a 80%".

"O que acontece quando os processos são automatizados por uma tecnologia que muitos interpretam como se fosse neutra? A ideia da pesquisa foi entrar no debate da possibilidade de exclusão de algumas camadas da população no o a serviços públicos", explica a diretora-executiva da Coding Rights e coautora da pesquisa, Joana Varon.

O que são 93% de similaridade entre imagens? Você cortou o cabelo, está de óculos, se você transiciona de gênero? Nós mapeamos que não existe muita transparência para essas margens de erro
Joana Varon

A Tilt, o Serpro reiterou que não realiza o controle de falsos positivos em cumprimento à LGPD (Lei Geral de Proteção de Dados Pessoais). Sobre as margens de erro, a empresa afirmou em nota que podem representar "quaisquer pessoas que realizaram cirurgia ou plástica facial e em casos de gêmeos idênticos, já que a tecnologia precisa reconhecer determinados 'pontos' da face e calcular o distanciamento entre eles".

O órgão disse que os erros podem ser por fotos desatualizadas no sistema e que melhorias na solução dependem "da colaboração do próprio cidadão" que, caso se submeta a mudanças faciais como cirurgias, "deve realizar a atualização da foto e dos dados".

Direitos cerceados

Para Viviane Medeiros, ativista e pesquisadora de gênero na UFBA (Universidade Federal da Bahia), existe o medo de que o amplo uso do reconhecimento facial cerceie direitos à população trans.

"Achamos que essas tecnologias [reconhecimentos facial e corporal] podem tornar as vidas trans como ilegítimas. Não é um estigma novo, mas é uma preocupação muito fundamental", diz.

Segundo a professora de história da UFRJ (Universidade Federal do Rio de Janeiro) e coautora do estudo da Coding Rights, Mariah Rafaela Silva, a pesquisa é um alerta de que os sistemas reiteram as práticas excludentes da sociedade. "Isso não quer dizer que naturalmente as pessoas sejam racistas ou transfóbicas, mas que existe um inconsciente colonial coletivo que reitera determinadas práticas sem necessariamente estar atento do quanto elas podem ser excludentes", comenta.

Mas por quê?

Desenvolver um sistema de reconhecimento facial integra uma área da inteligência artificial que processa imagens. A tecnologia é "alimentada" via aprendizado supervisionado, onde a diversidade do banco de dados permite à máquina reconhecer mais ou menos rostos, de acordo com os perfis apresentados a ela.

"[O programador] vai mostrar [ao sistema] rostos e falar 'aqui tem uma pessoa', 'aqui tem outra pessoa'. Mas também dá para categorizar. Então, ele diz 'aqui tem uma pessoa do gênero masculino branca ou negra'. Pode-se adicionar informações a partir disso", explica Diogo Cortiz, professor de tecnologia da PUC-SP (Pontifícia Universidade Católica de São Paulo).

Dentro dos laboratórios, as taxas de sucesso de um sistema são baseadas na precisão alcançada pelos protótipos. Em reconhecimento facial, pode haver falsos positivos e falsos negativos na identificação. Segundo Cortiz, a segregação da tecnologia foi percebida apenas quando ela começou a ser implementada.

Testavam rostos e o modelo podia testar bem com 99% das pessoas, por exemplo. Mas quem era o 1% em que ocorria o erro? Não existia essa preocupação
Diogo Cortiz, professor da PUC-SP

Em um país como o Brasil, com a população diversa, a eficácia também depende de um banco de dados que reflita as diferenças demográficas da população e inclua perfis menos representativos, como o de pessoas trans que aram por terapias hormonais, por exemplo.

"Se quisermos que o modelo seja competente, o número de imagens de faces tem que ser suficiente para uma boa acurácia", afirma o professor Roberto Hirata, do Instituto de Matemática e Estatística da Universidade de São Paulo (IME-USP). "Se quisermos competência com pessoas trans que tiveram o a tratamento hormonal, o modelo tem que ter um número suficiente de imagens desse perfil também", diz.

* nome alterado a pedido da entrevistada