RACISMO ALGORÍTMICO: O funcionamento das máquinas

Por Léo Vitor Utida

No post anterior, a noção de racismo estrutural foi trabalhada a partir do autor Silvio Almeida. Antes de entendermos o racismo algoritmo em si, ainda é preciso compreender a própria lógica por trás dos algoritmos. É a respeito disso que iremos nos debruçar neste post.

 

A LÓGICA POR TRÁS DOS ALGORITMOS

A internet, por mais recente que seja, é o tecido de nossas vidas, sendo um meio para tudo, que interage com o conjunto da sociedade. Mais do que uma simples tecnologia e meio de comunicação é onde se baseia todas as relações da nossa atual sociedade em rede (CASTELLS, 2003). Entretanto, um uso da internet que compreenda verdadeiramente as dinâmicas das redes, o contexto de produção dos conteúdos e informações disponíveis ainda é limitado e tem sido dificultado na medida em que as relações virtuais se complexificam ao serem mediadas por algoritmos — programados e sob controle de uma minúscula parcela de empresas bilionárias (4), diga-se de passagem — cada vez mais.

Dessa forma, vivemos em uma sociedade em que os algoritmos estão por todos os lados com as mais diversas finalidades. Para exemplificar o funcionamento — sabendo dos inúmeros tipos existentes e da impossibilidade de abarcar todos — iremos usar como exemplo o reconhecimento facial. Essa tecnologia é um desdobramento da visão computacional, que está mais presente em nossas vidas do que pensamos: desde o leitor de código de barras no mercado, passando pelo Facebook que identifica a quem pertence um rosto, videogames que reconhecem corpos como Kinect e chegando aos nossos bolsos nas câmeras de nossos smartphones.

Lidamos com seus efeitos de modo cada vez mais frequente à medida que os algoritmos que lhe dão forma se fazem presentes de modo disperso, porém, em certa medida, coordenado, em diversos dispositivos com os quais produzimos e  acessamos imagens. (MINTZ, 2016, p. 167)

Essa tecnologia está inserida no contexto da visão computacional, uma disciplina das ciências da computação dedicada ao desenvolvimento de algoritmos que permitam o computador interpretar imagens. Isso porque os computadores não enxergam as coisas da forma como nós enxergamos — isto é, computadores sequer enxergam de verdade. O que nós vemos como imagens são meros pixels, ou amontoados de códigos para as máquinas, sem significado algum.

O papel desses algoritmos é justamente do reconhecimento de padrões visuais (que podem ser rostos, objetos, animais) que permitam aos computadores identificar e conectar as imagens a uma rede semântica variável programada. Isso se dá através do machine learning, onde os programas são alimentados por um banco de dados de milhares de imagens do padrão a ser identificado para que possa reconhecê-lo e diferenciá-lo de outros. A partir disso, o próprio algoritmo desenvolve um sistema de aprendizado próprio e vai se aperfeiçoando a medida que é alimentado, tomando as imagens iniciais como referência (MINTZ, 2016). No entanto, este auto-aprendizado é chamado de caixa-preta pois em muitos casos nem mesmo os próprios programadores conseguem explicar como os algoritmos chegam a tais resultados.

Isso torna-se rapidamente problemático pois, como dito no post anterior, preconceitos e discriminações como o racismo são partes estruturantes da nossa sociedade atual, de modo que isso seja refletido em todas as relações e campos. Portanto, um programa potencialmente poderá acabar reproduzindo desigualdades ao ser treinado por um banco de dados, por exemplo, que se utilize de imagens presentes na mídia. Sabemos, nesse caso, que pessoas brancas possuem maior destaque e visibilidade, enquanto pessoas racializadas são comumente apagadas e excluídas desses espaços. Assim, ao criar um algoritmo opaco, os computadores podem terminar com resultados imprevisíveis que resultem na reprodução do racismo  presente na sociedade. Como explica Manuel Castells:

 

A Internet é um instrumento que desenvolve, mas que não muda os comportamentos; ao contrário, os comportamentos apropriam-se da Internet, amplificam-se e potencializam-se a partir do que são. (…) Não é a Internet que muda os comportamentos, mas os comportamentos que mudam a Internet (CASTELLS, 2003, p. 273)

 

Assim, é possível compreender que, dado o contexto do racismo estrutural, até mesmo as ciências exatas, computacionais e máquinas estão sujeitas a tais discriminações, não havendo a neutralidade pura — ou, talvez, justamente o contrário, uma vez que  a neutralidade, a normalidade numa sociedade estruturalmente racista é o próprio racismo. Mas como o racismo algorítmico se materializa? E como solucionar? Uma base de dados mais diversa seria suficiente? No próximo post iremos adentrar nessas questões.

 

 

ACESSE O TEXTO SEGUINTE >

 

 


 

(4) https://veja.abril.com.br/mundo/big-techs-tem-poder-demais-diz-comissao-antitruste-dos-eua/

REFERÊNCIAS

CASTELLS, Manuel. Internet e sociedade em rede. In: MORAES, Dênis de (org.). Por uma outra comunicação. Rio: Record, 2003. p. 255-287.

MINTZ, André. Máquinas que veem: visão computacional e agencimentos do visível. In: MENOTTI, Gabriel (org.); BASTOS, Marcus (org.); MORAN, Patrícia (org.). Cinema apesar da imagem. São Paulo: Intermeios, 2016. p. 157-179. Disponível em: <https://www.academia.edu/26754541>. Acesso em: 10 out. 2020.

 

 

Scroll to top