Algorítmos discriminatórios e jurisdição constitucional: os riscos jurídicos e sociais do impacto dos vieses nas plataformas de inteligência artificial de amplo acesso

Autores

DOI:

https://doi.org/10.18759/rdgf.v24i3.2311

Resumo

Através do método bibliográfico, o objetivo imediato do estudo é o de propor parâmetros de controle para garantir que as plataformas de inteligência artificial sejam justas e não discriminatórias. Assim, o presente aborda o problema da discriminação algorítmica, que é cada vez mais presente na sociedade. O texto apresenta um breve relato sobre o modus operandi da discriminação nas plataformas de inteligência artificial, explicando como a tecnologia de inteligência artificial é capaz de aprender a partir de dados históricos e como esses dados tendenciosos podem afetar os resultados dos algoritmos. Os pontos abordados no artigo incluem uma introdução sobre a importância da internet na vida cotidiana, uma explicação sobre o funcionamento dos algoritmos discriminatórios e seus riscos jurídicos e sociais, além de uma proposta para garantir a qualidade da entrega objetiva dos outputs requeridos pelas plataformas. O problema de pesquisa central do artigo é como evitar a discriminação algorítmica nas plataformas de inteligência artificial, propondo parâmetros de controle para garantir que esses sistemas sejam justos e não reproduzam preconceitos ou desigualdades presentes na sociedade. Em suma, alerta-se os riscos jurídicos e sociais dos algoritmos discriminatórios e propõe-se soluções tanto via jurisdição quanto via prevenção para a dinâmica da discriminação algorítmica.

Palavras-chave: Discriminação algorítmica; Inteligência artificial; Parâmetros de controle.

   

Downloads

Não há dados estatísticos.

Biografia do Autor

Mônia Clarissa Hennig, Universidade de Santa Cruz do Sul - UNISC

Com Pós-Doutorado na Ruprecht-KarlsUniversität Heidelberg (Alemanha) e Doutorado em Direito pela Universidade do Vale do Rio dos Sinos – Unisinos (com pesquisas realizadas junto à Ruprecht-KarlsUniversität Heidelberg, na Alemanha). Professora do Programa de Pós-Graduação em Direito – Mestrado e Doutorado da Universidade de Santa Cruz do Sul – UNISC, onde ministra as disciplinas de Jurisdição Constitucional e de Controle Jurisdicional de Políticas Públicas, respectivamente. Coordenadora do Grupo de Pesquisa “Jurisdição Constitucional aberta”, vinculado ao CNPq. Bolsista de produtividade em pesquisa do CNPq. Lattes:<http://lattes.cnpq.br/6628165246247243>. Orcid:<https://orcid.org/0000-0002-3446-1302>. E-mail:<moniah@unisc.br>.

   

Lucas Moreschi Paulo, Universidade Santa Cruz do Sul

Advogado. Doutorando em Direito no Programa de Pós-Graduação em Direito – Mestrado e Doutorado da Universidade de Santa Cruz do Sul (UNISC), bolsista do Programa de Suporte à Pós-Graduação de Instituições Comunitárias de Educação Superior (PROSUC) da Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES). Mestre e graduado em Direito pela Fundação Escola Superior do Ministério Público (FMP), foi bolsista institucional do PPGD da FMP. Pesquisador do Grupo de Pesquisa Colisão de Direitos Fundamentais e o Direito como Argumentação, coordenado pelo Prof. Dr. Anizio Pires Gavião Filho, e pesquisador do Grupo de Pesquisa Teoria do Direito: Academia à Prática, coordenado pelo Prof. Dr. Francisco José Borges Motta, ambos do PPGD – Mestrado da FMP e vinculados no CNPq ao Grupo de Estudos Tutelas à Efetivação dos Direitos Transindividuais. Integrante do Grupo de “Pesquisa Jurisdição Constitucional Aberta”, coordenado pela Prof.ª Dr.ª Mônia Clarissa Hennig Leal, vinculado ao PPGD – Mestrado e Doutorado da UNISC financiado pelo CNPq. Membro da Argumentation Network of the Americas - ANA. Currículo Lattes: http://lattes.cnpq.br/4330914363996350. ORCID: https://orcid.org/0000-0003-4583-4853. E-mail: lucasmoreschipaulo@gmail.com.

 

Referências

BUITEN, Miriam C. Towards intelligent regulation of artificial intelligence. European Journal of Risk Regulation, n. 10, p. 41–59, 2019.

CODED BIAS; Direção: Shalini Kantayya. Produção: Shalini Kantayya. Reino Unido: Netflix, 2020.

COZMAN, Fabio G.; NERI, Hugo. O que, afinal, é Inteligência Artificial? In: COZMAN, Fábio G.; PLONSKI, GuilhermeAry; NERI, Hugo. Inteligência Artificial: Avanços e Tendências. São Paulo: Instituto de Estudos Avançados, p. 19-27, 2021.

CRESTANTE, Dérique S. Discriminação algorítmica: a aplicabilidade dos standards protetivos fixados pela Corte Interamericana De Direitos Humanos e pelo Supremo Tribunal Federal em relação ao direito de igualdade e não discriminação a partir das noções de Ius Constitutionale Commune Latino-Americano e dever de proteção estatal. Dissertação (Mestrado em Direito) – Faculdade de Direito, Universidade de Santa Cruz do Sul, p. 180, 2022.

EUBANKS, Virginia. Automating inequality: how high-tech tools profile, police, and punish the poor. Nova Iorque: St. Martin’s Press, 2017.

FISS, Owen M. Groups and the Equal Protection Clause. Philosophy and Public Affairs, v. 5, n. 2, 1976.

HEIKKILÄ, Melissa. The viral AI avatar app Lensa undressed me—without my consent. MIT Technology Review. Artificial Intelligence. dez. 2022. Disponível em: <https://www.technologyreview.com/2022/12/12/1064751/the-viral-ai-avatar-app-lensa-undressed-me-without-my-consent/>. Acesso em 23 mar. 2023.

HEIKKILÄ, Melissa. These new tools let you see for yourself how biased AI image models are. MIT Technology Review. Artificial Intelligence. mar. 2023. Disponível em: <https://www.technologyreview.com/2023/03/22/1070167/these-news-tool-let-you-see-for-yourself-how-biased-ai-image-models-are/>. Acesso em 23 mar. 2023.

JACOBS, Francis G. Judicial Dialogue and the Cross-Fertilization of Legal Systems: The European Court of Justice. Texas International Law Journal, v. 38, 2003.

LEAL; Mônia Clarissa Hennig; MAAS, Rosana Helena. “Dever de proteção estatal”, “proibição de proteção insuficiente” e controle jurisdicional de Políticas Públicas. Rio de Janeiro: Lúmen Juris, 2020.

LUCCIONI, Alexandra Sasha; AKIKI, Christopher; MITCHELL, Margaret; JERNITE, Yacine. Stable bias: analyzing societal representations in diffusion models. Arxiv. Computer Science. Cornell University, mar. 2023.

NOBLE, Safiya Umoja. Algorithms of oppression: how search engines reinforce racism. Nova Iorque: New York University Press, 2018.

O’NEIL, Cathy. Algoritmos de destruição em massa: como o big data aumenta a desigualdade e ameaça a democracia. Trad. Rafael Abraham. Santo André: Editora Rua do Sabão, 2020.

PASQUALE, Frank. The black box society: the secret algorithms that control money and information. Cambridge e Londres: Harvard University Press, 2015.

SAGÜÉS, María Sofía. Discriminación estructural, inclusión y litigio estratégico. In: FERRER MAC-GREGOR, Eduardo; MORALES ANTONIAZZI, Mariela; FLORES PANTOJA, Rogelio. Inclusión, Ius Commune y justiciabilidad de los DESCA en la jurisprudencia interamericana. El caso Lagos del Campo y los nuevos desafíos. Colección Constitución y Derechos. Querétaro México: Instituto de Estudios Constitucionales del Estado de Querétaro, 2018. p. 129-178.

Downloads

Publicado

2023-12-04

Como Citar

Hennig Leal, M. C., & Moreschi Paulo, L. (2023). Algorítmos discriminatórios e jurisdição constitucional: os riscos jurídicos e sociais do impacto dos vieses nas plataformas de inteligência artificial de amplo acesso. Revista De Direitos E Garantias Fundamentais, 24(3), 165–187. https://doi.org/10.18759/rdgf.v24i3.2311