Espaço

Cientistas buscam mudar algoritmos para evitar robôs racistas

1548234083 file be0b03d8 Vision Art NEWS



algoritmos

Imagem: Reprodução/Unsplash

Apesar de serem testadas à exaustão, inteligências artificiais sofisticadas não são 100% imparciais e à prova de erros. Algoritmos podem carregar alguns vícios, preconceitos e vieses de seus bancos de dados, o que pode resultar em análises e decisões equivocadas.

Algoritmos baseados em aprendizado de máquina são treinados com bases de dados já existentes. Funciona pela tentativa e erro: após serem ensinados muitas vezes o que é certo e o que não é, uma hora eles sabem identificar sozinhos esses padrões.

O problema é que esses conjuntos de dados, quando coletados em um contexto preconceituoso ou enviesado, acabam levando a IA a reproduzir padrões preconceituosos.

Pensando em analisar esses efeitos, os pesquisadores americanos William Hundt, Willie Agnew, Vicky Zeng, everin Kaciank e Matthew Gombolay realizaram uma espécie de “Teste das bonecas” para inteligências artificiais.

O nome faz referência a um experimento psicológico muito famoso, feito na década de 1940, para avaliar o impacto dos estereótipos sociais nos EUA. Basicamente, crianças de diferentes etnias tinham que analisar bonecas brancas e negras e dizer qual era mais legal, qual era feia, qual gostam mais de brincar — e qual mais se pareciam com elas mesmas.

Por mais triste que a história seja, essa era realidade dos EUA durante até o final da década de 1960, onde a segregação racial era amparada por lei — e, num passado não muito distante, também no Brasil.

De volta para o estudo atual, com algoritmos. A ideia do grupo foi testar um braço robótico com um sistema de visão computacional que ligava imagens à palavras. O teste consistiu na associação de fotos 3×4 de pessoas à algumas frases selecionadas.

O resultado foi uma relação de imagens a palavras que reproduziu estereótipos racistas e sexistas. Estudos anteriores mostraram que, ao analisar minorias – como amarelos e, principalmente, negros -, máquinas costumam associá-las a comportamentos criminosos e outros tipos de preconceito.

Para remediar esta situação, os pesquisadores propuseram algumas ações para evitar o desenvolvimento de robôs preconceituosos.

Uma delas é justamente o aumento da pluralidade nos espaços de trabalho que desenvolvem robôs ou bancos de dados para robótica, para evitar que os dados fiquem de alguma forma enviesados e reproduza estereótipos.

Outra sugestão é erradicar completamente o conceito de que traços físicos possam ter relação com traços de personalidade ou caráter, que ainda é usado atualmente em alguns softwares.

Isso aconteceu com o algoritmo desenvolvido por pesquisadores da Universidade de Harrisburg, nos EUA, que prevê se uma pessoa é criminosa com base no rosto.

O algoritmo ganhou notoriedade e foi duramente criticado por diversas instituições ligadas à pautas de direitos humanos ou que lutam por igualdade.

Willie Agnew, que participou do estudo com o braço robótico, destacou outro artigo que revela que apenas 1% dos trabalhos de pesquisa de machine learning consideram os possíveis impactos negativos que a inteligência artificial pode ter na sociedade.

Agnew defende que o estudo com o algoritmo de visão computacional utilizado juntamente com o braço robótico serve de alerta para a comunidade de desenvolvedores se atentarem para os prováveis danos que a tecnologia pode causar à indivíduos — e, por tabela, reforçar desigualdades que já existem.

Assine a newsletter do Gizmodo

Fonte: Acesse Aqui o Link da Matéria Original

1548234083 file be0b03d8 Vision Art NEWS

Este site usa cookies para que você tenha a melhor experiência do usuário. Se continuar a navegar, dará o seu consentimento para a aceitação dos referidos cookies e da nossa política de cookies , clique no link para obter mais informações. CONFIRA AQUI

ACEPTAR
Aviso de cookies
Translate »