IAs de reconhecimento facial ainda ‘ignoram’ pessoas trans e não-binárias

0
8

O reconhecimento facial, como já explicamos em uma matéria aqui no TecMundo, trabalha basicamente ao detectar um rosto em formas geométricas e logarítmicas, a função do sistema é montá-lo como em um quebra cabeça. Entretanto, o software não reconhece pessoas trans e não-binárias; portanto, como devemos proceder? Infelizmente, quase nunca utilizam esses grupos para a construção dessas interfaces dificultando ainda mais a averiguação. Dados apontam que eles são programados para lidas com dois grupos – masculino e feminino.

Hoje em dia, é mais comum encontrarmos sistemas de reconhecimento em estabelecimentos como bancos, aeroportos e até mesmo o abrir de uma porta utilizarem esses serviços, e se você é uma pessoa transsexual ou não binária, pode ter alguns problemas ao tentar utilizar qualquer um desses estabelecimentos ou, até mesmo, entrar na sua casa.

Uma falha recorrente é que esses programas identificam equivocadamente pessoas negras em bancos de dados criminais, enquanto outros mal conseguem ver rostos negros. A precisão varia de acordo com o sistema, mas, infelizmente, é um problema que tende a piorar, pois a instalação de sistema biométrico em aeroportos e a tecnologia de reconhecimento facial se espalha e logo mais será raro encontrar alguma companhia de aviação que não utilize.  

Fonte: Update Ordie

Os Keyes, estudante de doutorado no Laboratório de Ecologia de Dados do Departamento de Design e Engenharia Centrada em Humanidades da Universidade de Washington, estuda a intersecção da interação humano-computador. A descoberta que intriga Keyes, é o reconhecimento automático de gênero (AGR) ser tão onipresente, deixando de lado indivíduos trans e não-binários.   

Ao ter analisado os últimos 30 anos de pesquisa em reconhecimento facial, ele relata que ao estudar 58 trabalhos de pesquisas separados, descobriu alguns dados relevantes, como:

  • 70% lida como se o gênero fosse imutável;  
  • 80% trata gênero como puramente fisiológico;  
  • 90% seguem padrão binário de gênero. 

Keyes afirma em seu artigo que “esses modelos apagam as pessoas transexuais, excluindo suas preocupações, necessidades e existências. A sub-representação tem sido recriada no mundo em geral, resultando na discriminação. O que mais deixa Keyes surpreso é o fato de como pesquisas de AGR ignoram a existência de trans, sendo excludentes a ponto de apresentar consequências perigosas”.

O Instituto Nacional de Padrões e Tecnologia (NIST) sugeriu que indivíduos usassem software de reconhecimento facial para soar um alarme em torno dos banheiros femininos se algum homem se aproximasse, ou seja, a conclusão que Keyes chega é que a maioria dos trabalhos de AGR não dedicam tempo para discutir o problema por trás dessa tecnologia. Um dos relatórios mais perturbadores divulgados pelo NIST é o custo de classificar falsamente um homem como mulher, permitindo que atividades suspeitas sejam conduzidas, assim como os defensores de banheiros anti-trans vêm defendendo.

Fonte: Revista Digital Security

De todos os dados que Keyes usou para sua pesquisa, 3 dos trabalhos se concentram em pessoas trans, já em não binárias, não encontrou nada, ou seja, em mais de 30 anos de pesquisas nada foi estudado. Esses números demonstram tamanho problema e preconceito existente, afinal, as máquinas não possuem valor neutro, e sim agem conforme forem programadas, e se as pessoas fora dos “padrões” não aparecerem nesses estudos, significa que estamos falando sobre a extensão do apagamento trans, afirma Keyes.

Ele reforça que a tecnologia tem que acompanhar as mudanças humanas, pois somos nós que utilizamos esse tipo de AGR, então ela precisa ser contextual e orientada pela necessidade e para Keyes, não vê tamanha relevância. Ele prioriza aulas de ética ao invés de aulas de estudos de gênero para estudantes dos cursos de ciência da computação que programam sistemas de reconhecimento facial, fomentando melhoramento pessoal, e não aperfeiçoamento das máquinas.   

DEIXE UMA RESPOSTA

Please enter your comment!
Please enter your name here