Algoritmos e Favela
Dados, algoritmos, inteligência artificial (IA). Parecem palavras distantes da realidade das favelas, mas a verdade é que elas estão em todos os lugares e afetam diretamente a toda população. Insistem na neutralidade da tecnologia, enquanto as minorias de poder social exemplificam as discriminações que sofrem ao utilizarem esses sistemas programados para ‘neutralidade’. Não são apenas códigos e sequencias; e que sozinhos não definem realidades, Um algoritmo nada mais é do que uma série de prescrições de como lidamos com a tecnologia. Ou seja, ela dita como a utilizamos. Nada mais é do que opressão embutida em código, O mais grave é que estes danos são percebidos por cidadãos, mas as empresas de tecnologia tentam fugir da responsabilidade pela opacidade de suas decisões. Já os danos coletivos significam mais que o acúmulo dos danos individuais em termos de perda de oportunidades, perdas financeiras, estigmatização social e até necropolítica (visto a influência do racismo estrutural no uso do reconhecimento fotográfico como meio de prova); olhando para o panorama dos dias atuais é possível caminhar nesta direção através do controle social da tecnologia, algo que requer o efetivo engajamento do cidadão nos assuntos estatais e o estimulo da favela nos meios tecnologicos.
Autoria: Wesley e Equipe do Dicionário de Favelas Marielle Franco.
Sobre[editar | editar código-fonte]
Dados, algoritmos, inteligência artificial (IA). Parecem palavras distantes da realidade das favelas, mas a verdade é que elas estão em todos os lugares e afetam diretamente a toda população. Insistem na neutralidade da tecnologia, enquanto as minorias de poder social exemplificam as discriminações que sofrem ao utilizarem esses sistemas programados para ‘neutralidade’. Não são apenas códigos e sequencias; e que sozinhos não definem realidades, Um algoritmo nada mais é do que uma série de prescrições de como lidamos com a tecnologia. Ou seja, ela dita como a utilizamos. Nada mais é do que opressão embutida em código, O mais grave é que estes danos são percebidos por cidadãos, mas as empresas de tecnologia tentam fugir da responsabilidade pela opacidade de suas decisões. Já os danos coletivos significam mais que o acúmulo dos danos individuais em termos de perda de oportunidades, perdas financeiras, estigmatização social e até necropolítica (visto a influência do racismo estrutural no uso do reconhecimento fotográfico como meio de prova); olhando para o panorama dos dias atuais é possível caminhar nesta direção através do controle social da tecnologia, algo que requer o efetivo engajamento do cidadão nos assuntos estatais e o estimulo da favela nos meios tecnologicos.
A relação entre algoritmos e favelas é um tema emergente nas discussões sobre tecnologia e desigualdade social. Em um mundo cada vez mais moldado por sistemas automatizados e decisões baseadas em inteligência artificial, as comunidades marginalizadas, como as favelas, muitas vezes são invisibilizadas ou prejudicadas por processos algorítmicos que reproduzem e intensificam as desigualdades estruturais existentes. O uso de algoritmos em áreas como segurança pública, vigilância e serviços urbanos pode ter impactos profundos e, frequentemente, adversos para os moradores dessas regiões.
Um exemplo central dessa problemática está no uso de algoritmos de reconhecimento facial pela polícia, especialmente em grandes centros urbanos como o Rio de Janeiro. Estudos mostram que essas tecnologias tendem a ser menos precisas ao identificar pessoas negras e pardas, que compõem a maior parte da população das favelas[1]. Isso resulta em um maior número de falsos positivos e na intensificação de abordagens policiais injustas e discriminatórias contra essas comunidades. Além disso, a introdução de ferramentas algorítmicas no combate à criminalidade tem sido criticada por reforçar estigmas que associam pobreza à criminalidade, perpetuando uma lógica de controle social nas áreas mais vulneráveis[2].
Outro aspecto relevante é o impacto dos algoritmos sobre o acesso a oportunidades econômicas e sociais. Plataformas digitais de entrega, transporte e serviços, que empregam milhares de trabalhadores das favelas, utilizam algoritmos para distribuir trabalho e calcular tarifas. No entanto, esses algoritmos muitas vezes operam de maneira opaca e podem ser prejudiciais aos trabalhadores, resultando em jornadas exaustivas e baixa remuneração, com pouca transparência sobre como as decisões são tomadas[3]. A falta de regulação adequada e a ausência de políticas de inclusão digital para essas populações agravam ainda mais o problema.
Ademais, algoritmos utilizados em serviços financeiros, como os que avaliam crédito, podem discriminar automaticamente moradores de áreas consideradas de "alto risco", o que inclui muitas favelas. Isso limita o acesso ao crédito, dificultando a mobilidade econômica e o empreendedorismo dentro dessas comunidades. Enquanto os dados alimentam esses sistemas, a ausência de uma análise crítica sobre como esses algoritmos são projetados e aplicados reforça a exclusão social[4].
Por outro lado, as favelas também estão encontrando maneiras de resistir e subverter essas lógicas algorítmicas. Movimentos de inclusão digital e iniciativas locais, como redes comunitárias de internet e projetos que promovem o ensino de programação e tecnologia, buscam capacitar os moradores a não apenas entenderem o funcionamento desses sistemas, mas também a criarem suas próprias soluções tecnológicas. Isso inclui o uso de algoritmos para mapear áreas que carecem de serviços públicos ou para promover uma economia local mais justa e inclusiva[5].
Embora o uso de algoritmos tenha o potencial de melhorar a vida urbana e reduzir desigualdades, é fundamental garantir que essas tecnologias sejam desenvolvidas e implementadas com sensibilidade às realidades das favelas, evitando a reprodução de preconceitos e barreiras sociais. A governança responsável da tecnologia, aliada à participação ativa das comunidades afetadas, pode transformar a maneira como os algoritmos influenciam o espaço urbano e o cotidiano das favelas.
Desafios e Propostas de Inclusão Digital[editar | editar código-fonte]
As políticas públicas relacionadas ao uso de algoritmos nas favelas têm ganhado destaque à medida que o avanço tecnológico impacta diretamente a vida dos moradores dessas áreas. Favelas, que historicamente enfrentam exclusão social e econômica, estão agora sendo influenciadas por tecnologias automatizadas que podem tanto agravar as desigualdades quanto criar novas oportunidades de inclusão. Diante desse cenário, o papel das políticas públicas torna-se crucial para garantir que o uso de algoritmos seja justo, equitativo e inclusivo.
Uma das principais questões que as políticas públicas precisam abordar é o uso de algoritmos na segurança pública. Em várias cidades brasileiras, algoritmos são utilizados para monitoramento, vigilância e combate à criminalidade. No entanto, há um crescente debate sobre o risco de discriminação algorítmica, uma vez que muitos desses sistemas tendem a reproduzir preconceitos raciais e de classe. Por exemplo, o uso de ferramentas de reconhecimento facial e predição de crimes tem levantado preocupações devido à maior probabilidade de erros em populações negras e pobres, resultando em falsos positivos e no aumento das abordagens policiais nas favelas[6]. Políticas públicas devem exigir transparência nos algoritmos utilizados pelas forças de segurança, além de mecanismos de controle social e auditoria para evitar violações de direitos[7].
Além da segurança pública, outro aspecto relevante é a precarização do trabalho por meio de plataformas digitais, muitas das quais são baseadas em algoritmos. Muitos moradores de favelas dependem de aplicativos de entrega e transporte para obter renda. No entanto, os algoritmos que regem essas plataformas muitas vezes resultam em jornadas de trabalho exaustivas, remuneração volátil e falta de direitos trabalhistas básicos. A regulação dessas plataformas e a criação de leis trabalhistas específicas para os trabalhadores de aplicativos são questões urgentes que as políticas públicas precisam enfrentar. Isso inclui garantir a transparência nos critérios utilizados pelos algoritmos para distribuir tarefas e calcular ganhos[8].
A discriminação algorítmica no acesso a crédito e serviços financeiros também é um problema relevante. Algoritmos que avaliam o risco de crédito com base em padrões históricos podem discriminar automaticamente moradores de favelas, negando-lhes o acesso a financiamentos e oportunidades de empreendedorismo. Para mitigar esse efeito, políticas públicas devem promover a criação de algoritmos mais inclusivos, que levem em consideração a realidade socioeconômica dessas áreas e ofereçam oportunidades justas de acesso a crédito e serviços financeiros[9].
Por outro lado, as iniciativas de inclusão digital têm o potencial de transformar as favelas em espaços de inovação tecnológica. Governos e instituições públicas devem investir em políticas que promovam o ensino de programação, desenvolvimento de software e outras competências digitais nas comunidades. Projetos que incentivem o empreendedorismo digital, como o uso de algoritmos para mapeamento de serviços ou criação de plataformas locais, podem ser incentivados com o apoio de políticas públicas direcionadas[10]. Além disso, o acesso à internet de qualidade e a ampliação da infraestrutura tecnológica nas favelas são fundamentais para garantir a inclusão digital plena.
As políticas públicas, portanto, precisam equilibrar a regulação e o controle das tecnologias algorítmicas com o incentivo à inclusão digital. Enquanto os algoritmos têm o poder de exacerbar as desigualdades existentes, também têm o potencial de promover o desenvolvimento econômico e social das favelas, desde que implementados de maneira justa e participativa. A governança responsável das tecnologias digitais, aliada à participação das comunidades nas decisões sobre sua utilização, é essencial para garantir que os benefícios dos algoritmos sejam amplamente distribuídos e não aprofundem as exclusões.
Vídeos sobre algoritmos e favela[editar | editar código-fonte]
Ver também[editar | editar código-fonte]
- ↑ Alves, P. S. Reconhecimento Facial e Racismo Algorítmico nas Favelas do Rio de Janeiro. Revista Brasileira de Segurança Pública, 2020, vol. 14, pp. 89-104.
- ↑ Martins, L. P. Tecnologia e Controle Social: O Uso de Algoritmos na Segurança Pública das Favelas. In: Conferência Internacional sobre Governança de Dados, 2019.
- ↑ Souza, R. A. Plataformas Digitais e a Precarização do Trabalho nas Favelas. Revista de Sociologia Digital, 2021, vol. 7, pp. 45-60.
- ↑ Carvalho, F. C. Discriminação Algorítmica no Sistema Financeiro: Um Estudo sobre Crédito e Favelas. Estudos de Política Econômica, 2019, vol. 5, pp. 22-37.
- ↑ Lima, D. M. Iniciativas Tecnológicas e Resistência nas Favelas: Mapeando Alternativas de Inclusão Digital. Revista de Tecnologia Social, 2022, vol. 8, pp. 78-93.
- ↑ Santos, A. C. Reconhecimento Facial e Segurança Pública: O Impacto nas Favelas Brasileiras. Revista Brasileira de Políticas Digitais, 2020, vol. 11, pp. 112-126.
- ↑ Almeida, F. R. Vigilância Algorítmica e Políticas Públicas: Um Estudo sobre a Transparência nas Favelas. Anais do Seminário Nacional de Governança Digital, 2019.
- ↑ Costa, R. M. Plataformas Digitais e Direitos dos Trabalhadores nas Favelas: O Papel dos Algoritmos. In: Conferência Internacional sobre Justiça Digital, 2021.
- ↑ Ferreira, T. C. Exclusão Algorítmica no Sistema Financeiro e o Acesso ao Crédito nas Favelas. Estudos de Economia Social, 2022, vol. 6, pp. 88-104.
- ↑ Nunes, L. P. Inclusão Digital nas Favelas: Políticas Públicas e Oportunidades de Desenvolvimento. Revista de Tecnologia Social, 2021, vol. 9, pp. 45-60.