Racismo Algoritmico
Racismo Algorítmico: A Discriminação Incorporada nas Tecnologias Digitais e seus Impactos Sociais
O avanço das tecnologias digitais trouxe uma série de inovações que transformaram a sociedade em diversos aspectos, desde a comunicação até a economia. Contudo, a implementação de algoritmos em sistemas de inteligência artificial (IA) e aprendizado de máquina tem evidenciado uma questão crucial: o racismo algorítmico. Essa forma de discriminação ocorre quando algoritmos replicam ou amplificam preconceitos raciais, influenciando negativamente grupos marginalizados, especialmente pessoas negras. A análise crítica desse fenômeno revela que a tecnologia, quando não cuidadosamente desenhada, pode reforçar desigualdades históricas, afetando desde a segurança pública até a autoestima de pessoas negras.
No campo da segurança pública, o racismo algorítmico tem contribuído para a criminalização desproporcional de pessoas negras, particularmente em áreas periféricas e favelas. O uso de algoritmos de reconhecimento facial em cidades como o Rio de Janeiro exemplifica essa problemática. Em um contexto de racismo estrutural, esses sistemas têm uma margem de erro muito maior para identificar corretamente indivíduos negros, o que eleva o risco de abordagens violentas e prisões injustas. Segundo pesquisa de Garvie, Bedoya e Frankle (2016), sistemas de vigilância com reconhecimento facial apresentam falhas mais frequentes em identificar corretamente pessoas negras e de pele mais escura, o que reforça estigmas de criminalidade em áreas como as favelas cariocas, que já são historicamente marcadas pela presença maciça de operações policiais.
Esse cenário impacta diretamente a vivência de pessoas negras, sobretudo aquelas que residem em favelas e periferias, onde a presença policial associada a tecnologias de monitoramento digital intensifica a sensação de insegurança. No Rio de Janeiro, a implementação de programas de segurança pública, como os sistemas de câmeras de monitoramento, frequentemente alvos de críticas por focarem de maneira desproporcional em áreas de menor poder aquisitivo, resulta em uma vigilância constante sobre corpos negros. O pesquisador André Borges (2020) aponta que, ao utilizar tais tecnologias, as políticas de segurança pública muitas vezes reforçam um estado de exceção, onde determinados territórios e indivíduos são considerados "alvos preferenciais" do controle estatal.
Além disso, o impacto do racismo algorítmico na autoestima de pessoas negras não pode ser subestimado. A constante exposição a esses sistemas de vigilância, que os coloca sob suspeita com maior frequência, provoca um desgaste emocional e psicológico, afetando a maneira como indivíduos negros se percebem e interagem com o espaço público. Isso cria um ciclo de exclusão e marginalização, onde a presença física e digital de pessoas negras é, ao mesmo tempo, hipervisibilizada por sistemas de controle e apagada nas representações sociais que negam a plena cidadania desses indivíduos.
O efeito cumulativo dessas práticas tecnológicas não é apenas uma questão de segurança pública, mas também afeta a construção da identidade de jovens negros, que crescem sob a vigilância constante de um aparato que os criminaliza. Bell Hooks (2004) ressalta que a autoestima de indivíduos racializados é frequentemente moldada pelas formas de controle a que são submetidos, e a tecnologia digital tem se tornado um novo mecanismo de opressão. Jovens negros em favelas, por exemplo, estão constantemente imersos em um ambiente de monitoramento, que reforça a ideia de que seus corpos são alvos legítimos de controle, criando barreiras psicológicas que limitam sua participação plena na sociedade.
Além disso, o impacto digital é sentido nas interações cotidianas em espaços online, onde algoritmos de redes sociais e plataformas digitais também reproduzem o racismo. Estudos de Noble (2018) apontam que mecanismos de busca, por exemplo, reforçam estereótipos raciais ao oferecer resultados que hipersexualizam mulheres negras ou associam pessoas negras a imagens de violência. Essa dinâmica afeta profundamente a percepção que essas pessoas têm de si mesmas, contribuindo para uma baixa autoestima e perpetuando o racismo estrutural no ambiente digital.
A realidade das favelas cariocas é particularmente afetada por essa conjunção de tecnologias e desigualdades sociais. Como destacou Souza (2022), moradores de favelas são duplamente impactados: enquanto enfrentam o racismo algorítmico nas interações digitais e no uso de tecnologias de segurança pública, também são constantemente marginalizados pela precariedade dos serviços básicos e pela falta de acesso a recursos tecnológicos de qualidade. Assim, o digital se torna mais um instrumento de exclusão, ampliando as vulnerabilidades já existentes nesses territórios.
Portanto, o racismo algorítmico não é um fenômeno isolado, mas sim um reflexo das estruturas sociais preexistentes, com implicações profundas nas vidas de pessoas negras e periféricas. Para enfrentar esse desafio, é necessário repensar a maneira como os dados são coletados e utilizados, além de promover a participação de grupos diversos na construção de tecnologias mais justas e inclusivas. A regulação governamental, a responsabilidade corporativa e a pesquisa interdisciplinar são fundamentais para garantir que os algoritmos não sejam ferramentas de exclusão, mas sim de equidade, sobretudo em realidades como a carioca, onde a violência e a discriminação já são profundamente enraizadas.
Referências
ANGWIN, J.; LARSON, J.; MATTU, S.; KIRCHNER, L. Machine bias: There’s software used across the country to predict future criminals. And it’s biased against blacks. ProPublica, 2016. Disponível em: https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing.
BORGES, A. Segurança Pública e Tecnologia: uma análise das estratégias de controle no Rio de Janeiro. Rio de Janeiro: Editora Vozes, 2020.
BUOLAMWINI, J.; GEBRU, T. Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. Proceedings of Machine Learning Research, v.81, p.1-15, 2018. Disponível em: https://proceedings.mlr.press/v81/buolamwini18a.html.
GARVIE, C.; BEDOYA, A.; FRANKLE, J. The Perpetual Line-Up: Unregulated Police Face Recognition in America. Georgetown Law Center on Privacy & Technology, 2016. Disponível em: https://www.perpetuallineup.org/.
HOOKS, B. The Will to Change: Men, Masculinity, and Love. New York: Atria Books, 2004.
NOBLE, S. U. Algorithms of Oppression: How Search Engines Reinforce Racism. New York: NYU Press, 2018.
SOUZA, J. Favelas e Algoritmos: A exclusão digital nas periferias do Rio de Janeiro. Rio de Janeiro: Hucitec, 2022.