BIAS: Inteligência artificial e o viés de preconceito

Não é de hoje que temos notícias sobre os avanços da inteligência artificial e de seus diversos campos. Neste artigo, vamos falar a respeito dos aparentes motivos de vieses racistas em algoritmos. Há alguma maneira de minimizar o impacto negativo causado pelo mau treinamento de uma IA? Não existe uma "receita de bolo" para isso, mas temos algumas cartas na manga para reduzirmos problemas relacionados a aprendizado errado. Confira.
Jessica Meira | 18 de novembro de 2021

Embora ainda sejam considerados inéditos para a maioria das pessoas, os conceitos de inteligência artificial e de aprendizado de máquina não são tão novos assim. De todo modo, a tecnologia que surgiu em meados da década de 1950 e constantemente passa por muitos altos e baixos tem em seu histórico incontáveis casos de racismo – sendo BIAS catalisadores dessas situações.

Como já falamos diversas vezes aqui no blog, não existe mágica para fazer com que uma IA se comporte 100% da maneira esperada, mas, sim, há um estudo que busca atingir o caminho ideal do aprendizado de máquina para que certas lacunas durante esse processo sejam minimizadas.

Impacto dos dados no aprendizado de uma inteligência artificial

No contexto em que estamos, BIAS possui alguns significados distintos. Em regras sociais, sabemos que pode pender para o preconceito e ser responsável por atribuir certos estereótipos à inteligência artificial. Já do ponto de vista técnico, podemos chamar de BIAS – ou viés – o peso fornecido para um cálculo no algoritmo de treinamento dentro de uma rede neural artificial (RNA).

Abordamos as formas de aprendizado de máquina neste artigo, mas, antes de o aprendizado em si acontecer, há uma série de estágios nos quais o BIAS ou viés pode ter início. Dentro desses estágios é possível que haja:

  • a definição do problema, que decidirá o objetivo da construção de determinado modelo;

  • a coleta de dados, que inevitavelmente traz uma questão ética comumente avaliada, pois padrões são treinados com variáveis que traduzem a realidade (por exemplo, mais fotos de mulheres brancas fariam com que a IA tivesse uma dificuldade maior para identificar outras pessoas que não mulheres brancas); e

  • a preparação de dados, em que tanto a coleta quanto o tratamento são as partes mais sensíveis para um bom aprendizado (felizmente, está entrando cada vez mais em evidência). Mais detalhes sobre a preparação de dados podem ser encontrados aqui.

Mas como isso pode impactar o funcionamento da IA? Para responder a essa questão, vamos nos lembrar de um caso recém-explorado relacionado ao Twitter, em que a inteligência artificial por trás do recorte das fotos privilegiava pessoas brancas. Um adendo a isso é que sistemas com aprendizado constante tendem a manifestar o comportamento mais assistido durante o processo. Por exemplo, nesse incidente da rede social, em um teste de comparação com uma chance de 50-50 de “paridade demográfica”, os resultados foram:

  • uma diferença de 8% a favor de mulheres em relação a homens;

  • uma diferença de 4% a favor de pessoas de pele branca em relação às de pele preta  de ambos os sexos;

  • uma diferença de 7% a favor de mulheres de pele branca em relação às de pele preta;

  • Uma diferença de 2% a favor de homens de pele branca em relação aos de pele preta.

Só uma explicação de conhecimento comum: mulheres brancas tendem a ter mais curtidas em suas fotos do que os demais públicos. O ponto negativo desse aprendizado é que, de uma maneira mais cruel, a IA pode acabar descartando determinados grupos de pessoas apenas por não terem tanta interação, ou seja, para ela, essas pessoas podem ser descartadas, então o que faz sentido para a IA é cortar para o “objeto” que, nesse aspecto, possui mais relevância.

Usando um outro exemplo levantado nos últimos meses: por que a inteligência artificial do Google responsável por “popularizar” as buscas atrela imagens tão diferentes para a mesma profissão, como bombeiro e bombeira?

Uma das respostas mais simples que especialistas em IA podem fornecer é que o BIAS ou o peso padrão que a inteligência artificial recebeu durante esse processo de aprendizado a levou a entender que faz sentido colocar na primeira página os mais buscados e os mais clicados, ou seja, os mais relevantes partindo dessa proposta. Sabendo disso, o entendimento é de que mais pessoas clicaram em fantasias do que na profissão no caso de bombeiras.

Mesmo que a gigante da tecnologia tenha melhorado seus algoritmos, a inteligência artificial continua aprendendo conforme o avanço do uso por parte dos humanos.

Mais um caso de racismo envolvendo uma IA, dessa vez do Facebook. Resumindo, após a exibição de um vídeo em que apareciam homens de pele preta, a ferramenta questionou se usuários gostariam de “continuar vendo vídeos sobre primatas”.

Podemos, a partir dessa situação, então, afirmar que uma IA é racista? Não, de forma alguma! A inteligência artificial aprende os vieses racistas partindo de duas questões principais: má implementação do algoritmo de aprendizagem ou treinamento errôneo.

Saídas alternativas

Como poderíamos fazer a ética funcionar no ambiente de IA quando parece algo tão além do conhecimento lógico? Lembrando: uma RNA não possui a consciência que uma rede neural biológica possui, e isso faz com que a resolução dessa questão se torne tão difícil, havendo, assim, diversos campos de estudo que a abordam dentro dessa área de conhecimento.

Devido a isso, o assunto “Ética e inteligência artificial” tem ganhado uma visibilidade maior nos últimos anos, levantando as diversas formas de atribuir essas questões sociais ao desenvolvimento.

De todo modo, existe alguma maneira de minimizar esse problema?

Novamente, não existe mágica capaz de inibir isso de uma hora para a outra, mas podemos afirmar que uma das maneiras para mitigar tais obstáculos é a implementação de diversidade, não apenas em um time, mas no levantamento de dados de entrada. Quando falamos de bases de dados de treinamento para uma IA, é de suma importância que todas as características físicas sejam contempladas para que não haja um viés racista no resultado.

Outro jeito é dedicar um cuidado muito grande ao treinamento, pois é nessa fase que qualquer deslize ou decisão arbitrária no desenvolvimento pode impactar o produto e causar o enviesamento de resultados; ou seja, a decisão de quais aspectos serão considerados para o aprendizado se reflete gradativamente no resultado.

Se voltarmos à questão apresentada pelo Twitter, Rumman Chowdhury, diretora de engenharia de software da companhia, diz: “Uma de nossas conclusões é que nem tudo no Twitter é um bom candidato para um algoritmo; neste caso, como recortar uma imagem, é uma decisão mais bem tomada por pessoas. Mesmo que o algoritmo de saliência fosse ajustado para refletir igualdade perfeita entre gênero e raça, nos preocupamos com ofensas de representação de algoritmos automatizados quando pessoas não podem ser representadas da forma que queiram na plataforma. O algoritmo também apresenta potencial de ofensas no seu escopo de análise, inclusive a nuances culturais”, reconhece.

Mesmo que os algoritmos sejam ajustados, alguns comportamentos continuarão, pois, vale ressaltar, o aprendizado de máquina é constante. Logo, o ideal é partir para a auditoria externa dos algoritmos, como a Algorithmic Justice League.

Conclusão

O sucesso de ter uma inteligência artificial operando depende de vários fatores. Inicialmente, uma boa coleta e a preparação adequada de dados fazem toda a diferença para o treinamento do algoritmo de aprendizado. Ainda que seu início seja controlado, é necessário entender que, para as tecnologias que aprendem assistindo ao comportamento dos usuários, é muito importante que ajustes e auditorias estejam sempre presentes para minimizar ao máximo os comportamentos hostis que esses programas podem começar a ter conforme vão se desenvolvendo baseados nos BIAS sociais.

Jessica Meira
Software Engineer | Cursando pós-graduação em Inteligência Artificial, um pouco curiosa nas horas vagas. Mais de 15 anos na área de Tecnologia e apaixonada por música e instrumentos.