Um teste feito pela ONG Fight for the Future em um programa de inteligência artificial levou a Universidade da Califórnia em Los Angeles (UCLA) a desistir de utilizar reconhecimento facial no campus. Ao comparar as faces de 400 integrantes da comunidade universitária (alunos, professores e funcionários) aos rostos de criminosos e contraventores fichados, a analise retornou com 58 falsos positivos. A maior parte dos erros ocorreu na avaliação de rostos de pessoas não-brancas.
O software utilizado nos teste é da Amazon chamado Rekognition. Em um dos casos o resultado foi de 100% dos rostos comparados serem a mesma pessoa, no entanto eram somente dois homens negros de barba, bem diferente um do outro. Sendo assim, a UCLA e mais de 50 universidades nos Estados Unidos se comprometeram a não utilizar reconhecimento facial em seus respectivos campus.
Em outubro de 2019 a revista Science denunciou que os negros são discriminados por algoritmo médico nos Estados Unidos, a inteligência artificial igualava brancos e negros com necessidades médicas maiores. Pacientes negros custavam cerca de US$ 1.800 a menos por ano do que pacientes brancos com o mesmo número de condições crônicas. O algoritmo concluiu falsamente que pacientes negros são mais saudáveis do que pacientes brancos igualmente doentes.
Existem também denúncias em relação aos bancos norte-americanos, que usando inteligência artificial para contratar funcionários e na concessão de crédito apresentam viés discriminatório. No caso das mulheres por exemplo, os limites de crédito são sempre inferiores aos homens com a mesma idade e o mesmo tipo de trabalho. Em relação a contratação os homens são preferidos, devido aos dados histórico de funcionários e candidatos.
Segundo especialistas, os programas de inteligência artificial e reconhecimento facial, que na maioria das vezes são construídos e desenvolvidos por homens brancos, ao serem alimentados pelos dados recebidos e que vão recebendo ao longo do tempo tende a reproduzir o preconceito humano existente na sociedade. O capitalismo por sua vez utilizam desses sistemas para reproduzir estereótipos a alimentar seus lucros e a opressão sobre as classes mais baixas.
De acordo com o pesquisador de doutorado da Universidade Federal do ABC (UFABC) Tarcízio Silva, em entrevista concedida à EOnline, o reconhecimento facial é muito impreciso em pessoas de pele negra. “Ao mesmo tempo que estas tecnologias são muito imprecisas e mal construídas, estão sendo aplicadas por inúmeras prefeituras e governos em torno do mundo para hiper-vigiar e perseguir minorias” afirma Tarcízio.
No Brasil o reconhecimento facial já está presente em centenas de cidades, o estado policialesco que passa o país nesse momento vem aguçando a vontade dos governadores fascistas de implantarem sistemas desse tipo para controle da população em geral. Neste ano o governo golpista de João Dória (PSDB) de São Paulo anunciou o uso de algoritmo para analisar imagens de câmera durante o Carnaval, e gastou R$ 58 milhões para instalar em metrôs e vias paulistas.
No Rio de Janeiro governado pelo Fascista Witzel (PSC) no segundo dia de uso desse tipo de monitoramento, uma mulher foi detida por engano após ter sido reconhecida pelas câmeras, além do reconhecimento facial não bater, a pessoa com quem ela foi confundida já estava presa. Um levantamento feito pelo The Intercept Brasil no fim de novembro de 2019 revela que 90,5% dos presos por monitoramento facial no país são negros.
Certamente essa tecnologia utilizada pela direita fascista no Brasil, diante da ditadura do governo fraudulento de Bolsonaro, tem um objetivo claro de vigilância e encarceramento em massa da população preta e pobre. Outro motivo também seria a restrição e repressão as manifestações e mobilizações do povo com a identificação de lideranças políticas e de movimentos sociais, facilitando o trabalho do aparato militar em conter as insatisfações populares contra a burguesia.