Algorítmos discriminatórios e jurisdição constitucional: os riscos jurídicos e sociais do impacto dos vieses nas plataformas de inteligência artificial de amplo acesso
DOI:
https://doi.org/10.18759/rdgf.v24i3.2311Resumo
Através do método bibliográfico, o objetivo imediato do estudo é o de propor parâmetros de controle para garantir que as plataformas de inteligência artificial sejam justas e não discriminatórias. Assim, o presente aborda o problema da discriminação algorítmica, que é cada vez mais presente na sociedade. O texto apresenta um breve relato sobre o modus operandi da discriminação nas plataformas de inteligência artificial, explicando como a tecnologia de inteligência artificial é capaz de aprender a partir de dados históricos e como esses dados tendenciosos podem afetar os resultados dos algoritmos. Os pontos abordados no artigo incluem uma introdução sobre a importância da internet na vida cotidiana, uma explicação sobre o funcionamento dos algoritmos discriminatórios e seus riscos jurídicos e sociais, além de uma proposta para garantir a qualidade da entrega objetiva dos outputs requeridos pelas plataformas. O problema de pesquisa central do artigo é como evitar a discriminação algorítmica nas plataformas de inteligência artificial, propondo parâmetros de controle para garantir que esses sistemas sejam justos e não reproduzam preconceitos ou desigualdades presentes na sociedade. Em suma, alerta-se os riscos jurídicos e sociais dos algoritmos discriminatórios e propõe-se soluções tanto via jurisdição quanto via prevenção para a dinâmica da discriminação algorítmica.
Palavras-chave: Discriminação algorítmica; Inteligência artificial; Parâmetros de controle.
Downloads
Referências
BUITEN, Miriam C. Towards intelligent regulation of artificial intelligence. European Journal of Risk Regulation, n. 10, p. 41–59, 2019.
CODED BIAS; Direção: Shalini Kantayya. Produção: Shalini Kantayya. Reino Unido: Netflix, 2020.
COZMAN, Fabio G.; NERI, Hugo. O que, afinal, é Inteligência Artificial? In: COZMAN, Fábio G.; PLONSKI, GuilhermeAry; NERI, Hugo. Inteligência Artificial: Avanços e Tendências. São Paulo: Instituto de Estudos Avançados, p. 19-27, 2021.
CRESTANTE, Dérique S. Discriminação algorítmica: a aplicabilidade dos standards protetivos fixados pela Corte Interamericana De Direitos Humanos e pelo Supremo Tribunal Federal em relação ao direito de igualdade e não discriminação a partir das noções de Ius Constitutionale Commune Latino-Americano e dever de proteção estatal. Dissertação (Mestrado em Direito) – Faculdade de Direito, Universidade de Santa Cruz do Sul, p. 180, 2022.
EUBANKS, Virginia. Automating inequality: how high-tech tools profile, police, and punish the poor. Nova Iorque: St. Martin’s Press, 2017.
FISS, Owen M. Groups and the Equal Protection Clause. Philosophy and Public Affairs, v. 5, n. 2, 1976.
HEIKKILÄ, Melissa. The viral AI avatar app Lensa undressed me—without my consent. MIT Technology Review. Artificial Intelligence. dez. 2022. Disponível em: <https://www.technologyreview.com/2022/12/12/1064751/the-viral-ai-avatar-app-lensa-undressed-me-without-my-consent/>. Acesso em 23 mar. 2023.
HEIKKILÄ, Melissa. These new tools let you see for yourself how biased AI image models are. MIT Technology Review. Artificial Intelligence. mar. 2023. Disponível em: <https://www.technologyreview.com/2023/03/22/1070167/these-news-tool-let-you-see-for-yourself-how-biased-ai-image-models-are/>. Acesso em 23 mar. 2023.
JACOBS, Francis G. Judicial Dialogue and the Cross-Fertilization of Legal Systems: The European Court of Justice. Texas International Law Journal, v. 38, 2003.
LEAL; Mônia Clarissa Hennig; MAAS, Rosana Helena. “Dever de proteção estatal”, “proibição de proteção insuficiente” e controle jurisdicional de Políticas Públicas. Rio de Janeiro: Lúmen Juris, 2020.
LUCCIONI, Alexandra Sasha; AKIKI, Christopher; MITCHELL, Margaret; JERNITE, Yacine. Stable bias: analyzing societal representations in diffusion models. Arxiv. Computer Science. Cornell University, mar. 2023.
NOBLE, Safiya Umoja. Algorithms of oppression: how search engines reinforce racism. Nova Iorque: New York University Press, 2018.
O’NEIL, Cathy. Algoritmos de destruição em massa: como o big data aumenta a desigualdade e ameaça a democracia. Trad. Rafael Abraham. Santo André: Editora Rua do Sabão, 2020.
PASQUALE, Frank. The black box society: the secret algorithms that control money and information. Cambridge e Londres: Harvard University Press, 2015.
SAGÜÉS, María Sofía. Discriminación estructural, inclusión y litigio estratégico. In: FERRER MAC-GREGOR, Eduardo; MORALES ANTONIAZZI, Mariela; FLORES PANTOJA, Rogelio. Inclusión, Ius Commune y justiciabilidad de los DESCA en la jurisprudencia interamericana. El caso Lagos del Campo y los nuevos desafíos. Colección Constitución y Derechos. Querétaro México: Instituto de Estudios Constitucionales del Estado de Querétaro, 2018. p. 129-178.
Downloads
Publicado
Como Citar
Edição
Seção
Licença
Este trabalho está licenciado sob uma licença Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International License.
Proposta de Aviso de Direito Autoral Creative Commons
1. Proposta de Política para Periódicos de Acesso Livre
Autores que publicam nesta revista concordam com os seguintes termos:
- Autores mantém os direitos autorais e concedem à Revista de Direitos e Garantias Fundamentais o direito de primeira publicação, com o trabalho simultaneamente licenciado sob a Creative Commons Attribution License que permitindo o compartilhamento do trabalho com reconhecimento da autoria do trabalho e publicação inicial nesta revista.
- Autores têm autorização para assumir contratos adicionais separadamente, para distribuição não-exclusiva da versão do trabalho publicada nesta revista (ex.: publicar em repositório institucional ou como capítulo de livro), com reconhecimento de autoria e publicação inicial nesta revista.
- Autores têm permissão e são estimulados a publicar e distribuir seu trabalho online (ex.: em repositórios institucionais ou na sua página pessoal) a qualquer ponto antes ou durante o processo editorial, já que isso pode gerar alterações produtivas, bem como aumentar o impacto e a citação do trabalho publicado (Veja O Efeito do Acesso Livre).