Por que a Hering e a IBM voltaram atrás com o uso de reconhecimento facial
Tecnologia que utiliza inteligência artificial para identificar rostos humanos é alvo de polêmicas no mundo todo.
No final de agosto, a Senacon (Secretaria Nacional do Consumidor) multou a Hering em R$ 58,7 mil pelo uso indevido de tecnologias de reconhecimento facial em uma loja de São Paulo. As investigações aconteceram após denúncias do Idec (Instituto Brasileiro de Defesa do Consumidor), apontarem que a tecnologia era usada sem o consentimento dos clientes.
Apesar de o reconhecimento facial ter sido interrompido, o Senacon entendeu que houve violação no direito à informação e personalidade dos cidadãos brasileiros. Esta é a primeira condenação do tipo por aqui, mas diversos países estão às voltas com questões jurídicas sobre o uso da tecnologia.
Em junho, por exemplo, a IBM dos EUA encerrou sua área dedicada ao ramo em meio à onda de protestos antirracistas. O presidente-executivo da empresa, Arvind Krishna, enviou uma carta ao Congresso americano informando que não iria mais utilizar tecnologias que contribuíssem para vigilância em massa, perfilamento racial e violação de direitos humanos.
A razão? Há algum tempo, pesquisadores e especialistas denunciam que os sistemas de inteligência artificial, ao contrário do que se imagina, possuem vieses raciais e de gênero. Um estudo do MIT e da Universidade Stanford, divulgado ainda em 2018, apontou que os algoritmos de reconhecimento erravam em 35% na hora de reconhecer rostos de mulheres negras, e só em 0,8% com homens brancos.
E pesquisas subsequentes comprovaram o viés. Isso sugere que, no desenvolvimento desses dispositivos, priorizou-se o reconhecimento de homens brancos. Mas o problema é maior: essa imprecisão pode aumentar o número de condenações errôneas de pessoas negras.
Quer ter acesso a todos os conteúdos exclusivos de VOCÊ S/A? Clique aqui e assine VOCÊ S/A.