Externalidades negativas da inteligência artificial: conflitos entre limites da técnica e direitos humanos
DOI:
https://doi.org/10.18759/rdgf.v24i3.2198Resumo
A técnica de aprendizado de máquina presente na maioria das implementações atuais de inteligência artificial, é um modelo estatístico de probabilidade. Além da variável de incerteza intrínseca a modelos probabilísticos, a maneira como algoritmos correlacionam dados, as bases de enviesadas, e a subjetividade humana nas decisões, engendram externalidades negativas que ameaçam direitos humanos fundamentais. O propósito do artigo é analisar essas externalidades, identificando as ameaças a três direitos humanos fundamentais: o direito à explicabilidade, privacidade, e não discriminação. A metodologia investigou garantias legais versus limites da técnica, evidenciado que esses limites se constituem em barreiras à conformidade legal e regulatória.
Palavras-chave: Inteligência Artificial. Direitos Humanos. Externalidades.
Downloads
Referências
AGRAWAL, A.; GANS, J.; GOLDFARB, A. Prediction Machines: the simple economics of artificial intelligence. Massachusetts: Harvard Press, 2018.
ALPAYDIN, Ethem. Machine learning. Cambridge, Massachusets: MIT Press, 2016.
ARIKAN, Cenck Lacin; EL-KHOURY, Moufid. From the internet of things toward the internet of bodies: ethical and legal considerations. Strategic Change, Special Issue: artificial intelligence in finance. v. 30, n. 3, maio 2021, p. 307-314.
ARISTÓTELES. Ética a Nicômaco. Trad. de Pietro Nassetti. São Paulo: Martin Claret, 2003.
ASSEMBLEIA GERAL DAS NAÇÕES UNIDAS. Declaração universal dos direitos humanos. 1948. Disponível em: https://brasil.un.org/pt-br/91601-declaracao-universal-dos- direitos-humanos. Acesso em: 1o jun. 2021.
BANDEIRA DE MELLO, Celso Antônio. O conteúdo jurídico do princípio da igualdade. 4. ed., São Paulo: Juspodvm, 2019.
BARREDO ARRIETA, A. et al. Explainable Artificial Intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI. Information Fusion, v. 58, december 2019, p. 82-115, 2020.
BIONI, Bruno. Proteção de dados pessoais: a função e os limites do consentimento; 2 ed. Forense: São Paulo, 2021.
BOSTROM, Nick; YUDKOWSKY, Eliezer. The ethics of artificial intelligence. draft for cambridge handbook of artificial intelligence. Coord. William Ramsey and Keith Frankish. Cambridge: Cambridge University Press, 2011.
BRASIL. [Constituição (1988)]. Constituição da República Federativa do Brasil: promulgada em 5 de outubro de 1988. Disponível em: http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.htm. Acesso em: 25 set. 2021.
BRASIL. Projeto de lei n. 21/20 cria o marco legal do desenvolvimento e uso da Inteligência Artificial (IA). Disponível em: https://www.camara.leg.br/propostas- legislativas/2236340. Acesso em: 25 ago. 2021.
BRASIL. Projeto de lei n. 2.338/2023 dispõe sobre o uso da Inteligência Artificial. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/157233. Acesso em: 8 out. 2023.
CHRISTIAN, Brian. The alignment problem: machine learning and human values. Nova York: W. W. Norton & Company, 2020.
COECKELBERGH, Mark. Artificial intelligence, responsibility attribution, and a relational justification of explainability. Science and Engineering Ethics, v. 26, 2020, p. 2051-2068.
CONSELHO DA EUROPA. Artificial intelligence and data protection: challenges and possible remedies. 25 jan. 2019. Disponível em: https://rm.coe.int/artificial-intelligence- and-data-protection-challenges-and-possible-re/168091f8a6. Acesso em: 3 jul. 2021.
CONSELHO DA EUROPA. Proposal for a regulation of the european parliament and of the council laying down harmonised rules on artificial intelligence (Artificial Intelligence Act) and amending certain union legislative acts. 2021. Disponível em: https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A52021PC0206. Acesso em: 30 jun. 2021.
CONSELHO DA EUROPA. Amendments adopted by the European Parliament on 14 June 2023 on the proposal for a regulation of the European Parliament and of the Council on laying down harmonised rules on artificial intelligence (Artificial Intelligence Act) and amending certain Union legislative acts. 14 jun. 2023. Disponível em: https://www.europarl.europa.eu/doceo/document/TA-9-2023-0236_EN.html. Acesso em: 8 out. 2023.
CONSELHO NACIONAL DE JUSTIÇA (CNJ). Resolução n. 332, de 21 ago. 2020. Disponível em: https://atos.cnj.jus.br/atos/detalhar/3429. Acesso em: 20 set. 2021.
COZMAN, Fabio Gabliardi; KAUFMAN, Dora. Viés no aprendizado de máquina em sistemas de inteligência artificial: a diversidade de origens e os caminhos de mitigação. Revista USP Qualis A1, n. 135, p.195-210. Out./nov./dez. 2022. ISSN 0103-9989. DOI: https://doi.org/10.11606/issn.2316-9036.i135p195-210.
CRAWFORD, Kate. Atlas of AI. New haven and London. Yale University Press: Yale, 2021.
CYBERSPACE ADMINISTRATION OF CHINA. Projeto de regulamentação de algoritmos de IA. Disponível em: http://www.cac.gov.cn/2021- 08/25/c_1631480920680924.htm. Acesso em: 28 ago. 2021.
DA SILVA, José Antônio. Curso de direito constitucional positivo. 43 ed. rev. atual. São Paulo: Juspodivm, 2020.
DIGNUM, V. Responsible artificial intelligence: howtodevelop and use ai in a responsible way. Cham: Springer Netherlands, 2019.
FERRARI, Isabela; BECKER, Daniel. Direito à explicação e decisões automatizadas: reflexões sobre o princípio do contraditório. In: NUNES, Dierle; LUCON, Paulo Henrique dos Santos; WOLKART, Erick Navarro (Coords.). Inteligência artificial e direito processual: os impactos da virada tecnológica no direito processual. Salvador: Juspodvim, 2021, p. 277-303.
FLORIDI, L. et al. How to design ai for social good: seven essential factors. Science and Engineering Ethics, v. 26, n. 3, p. 1771-1796, 2020.
FLORIDI, L., SANDERS, J. W. On the morality of artificial agents. Minds and Machines, v. 14, n. 3, 2004, p. 349–379.
FOOD AND DRUG ADMINISTRATION. Artificial intelligence and machine learning (AI/ML) software as a medical device action plan. Disponível em: https://www.fda.gov/medical-devices/software-medical-device-samd/artificial-intelligence- and-machine-learning-software-medical-device. Acesso em: 21 set. 2021.
FRAZÃO, Ana; GOTTENAUER, Carlos. Black box face à opacidade algorítmica. In: BARBOSA, Mafalda Miranda et. al. (coord.). Direito digital e inteligência artificial: diálogos entre Brasil e Europa. São Paulo: Foco, 2021, p. 27-42.
FRIEDMAN, Batya; NISSENBAUM, Helen. Bias in computer systems. ACM Transactions on Information Systems. v. 14, n. 3, jul.,1996, p. 330-334.
FRIEDMAN, Batya; NISSENBAUM, Helen. Software agents and user autonomy. AGENTS '97: Proceedings of the first international conference on autonomous agents. v. 14, n. 3, fev. 1997, p. 466-469.
GOODFELLOW, Ian; BENGIO, Yoshua; COURVILLE, Aaron. Deep learning. Cambridge: MIT Press, 2016.
GUNKEL, D. The machine question: critical perspectives on AI, Robots, and Ethics. Cambridge/Massachutts: MIT Press, 2012.
HAO, Karen. Intelligent machines: this is how ai bias really happens – and why
it’s so hard to fix. MIT Technology Review, 2019. Disponível em: https:// www.technologyreview.com/2019/02/04/137602/this-is- how-ai-bias-reallyhappensand- why-its-so-hard-to-fix/. Acesso em: 7 ago. 2021.
KAUFMAN, Dora. A inteligência artificial vai superar a inteligência humana? São Paulo: Estação das Letras e Cores, 2019.
KAUFMAN, Dora. Inteligência artificial e os desafios éticos: a restrita aplicabilidade dos princípios gerais para nortear o ecossistema de IA. Paulus: Revista de Comunicação da Fapcom. São Paulo, v. 5, n. 9, jan./jul. 2021a.
KAUFMAN, Dora. Equipes interdisciplinares: não basta “juntar campos”, tem que “construir pontes”. Revista Época Negócios, 2021. Disponível em: https:// epocanegocios.globo.com/colunas/IAgora/noticia/2021/09/equipesinterdisciplinares- nao-basta- juntar-campos-tem-que-construir-pontes.html. Acesso em: 17 set. 2021b.
KAUFMAN, Dora. Desmistificando a inteligência artificial. BH: Autêntica, 2022.
KAUFMAN, Dora; COELHO, Alexandre. Regular a IA, mas sem precipitação. Valor Econômico, 2023. Disponível em: https://valor.globo.com/opiniao/coluna/regular-a-ia-mas-sem-precipitacao.ghtml. Acesso em: 7 out. 2023.
KUHN, T. S. The structure of scientific revolutions. Chicago: Chicago University Press,1970.
LEARNED-MILLER et al. Facial recognition technologies in the wild: a call for a federal office. White Paper, 2020. Disponível em: https://www.ajl.org/federal-office-call/. Acesso em: 15 set. 2021.
LEE, Kai-Fu. AI superpowers: China, Silicon Vallley, and the New World Order. NY: Hougton Mifflin Harcourt, 2018.
LEONARDI, Marcel. Tutela da privacidade na internet. São Paulo: Saraiva, 2011.
LIAO, S. Matthew. Ethics of artificial intelligence. New York: Oxford University Press, 2020.
MAGRANI, E. A internet das coisas. Rio de Janeiro: FGV Editora, 2018.
MATWYSHYN, Andrea M. The ‘internet of bodies’ is here. Are courts and regulators ready? A network of smart devices attached to or implanted in bodies raises a host of legal and policy questions, 2018. Disponível em: https://www.wsj.com/articles/the-internet-of- bodies-is-here-are-courts-and-regulators-ready-1542039566. Acesso em: 20 ago. 2021.
MAYER-SCHÖNBERGER, Viktor; CUKIER, Kenneth. Big data: a revolution that will transform how we live, work, and think. Nova York: Houghton Mifflin Harcourt, 2013.
MENDES, Laura Schertel; MATTIUZZO, Marcela; FUJIMOTO, Mônica Tiemy. Discriminação algorítmica à luz da lei geral de proteção de dados. In: DONEDA, Danilo et.al. Tratado de proteção de dados pessoais. 2. reimp. Rio de Janeiro: Forense, 2021, p. 421-446.
NEFF, G.; NAGY, P. Talking to bots: symbiotic agency and the case of tay. v. 10, p. 4.915-4.931, 2016.
NUNES, D.; MARQUES, A. L. P. C. Inteligência artificial e direito processual: vieses algorítmicos e os riscos de atribuição de função decisória às máquinas. Revista de Processo, v. 285, p. 421-447, 2018.
PASQUALE, F. The black box society: the secret algorithms that control money and information. Cambridge: Harvard University Press, 2015.
PEREZ-CRIADO, Caroline. Invisible women: data bias in a world designed for
men. USA: Abrams Press, 2021.
SARLET, Ingo Wolfgang. Fundamentos constitucionais: o direito fundamental à proteção de dados. In: DONEDA, Danilo et. al. Tratado de proteção de dados pessoais. 2. reimp. Rio de Janeiro: Forense, 2021, p. 21-60.
SOARES, Flaviana Rampazzo. Levando os algoritmos a sério. In: BARBOSA, Mafalda Miranda et. al. Direito digital e inteligência artificial: diálogos entre Brasil e Europa. São Paulo: Foco, 2021, p. 43-64.
SUPREMO TRIBUNAL FEDERAL. Agravo em Recurso Extraordinário (ARE) n. 779.543. Disponível em: https://portal.stf.jus.br/processos/detalhe.asp?incidente=4483367. Acesso em: 25 ago. 2021.
SUPREMO TRIBUNAL FEDERAL. Mandado de Segurança (MS) n. 25747/Santa Catarina (SC). Disponível em: https://portal.stf.jus.br/processos/detalhe.asp?incidente=2344488. Acesso em: 25 ago. 2021.
TEIXEIRA, Carlos Gustavo Poggio; DATYSGELD, Mark William. Os clientes
diplomáticos e econômicos da espionagem digital estadunidense: análise das ações contra o
Conselho de Segurança da ONU e a Petrobras, estudos internacionais. Revista de Estudos
Internacionais, Belo Horizonte, v. 4, n.1, nov. 2016, p.71-87.
VILLANI, Cédric. For a meaningful artificial intelligence: towards a french and european strategy. aiforhumanity.fr, 2018. Disponível em: https://www.ai4eu.eu/news/mea- ningful-artificial-intelligencetowards-french-artificial-and-european-strategy. Acesso em: 10 abr. 2021.
WACHTER, S.; MITTELSTADT, B.; FLORIDI, L. Why a right to explanation of automated decision-making does not exist in the general data protection regulation. v. 7, n. 2, 2016, p. 76-99.
WALLACH, Wendel; ALLEN, Colin. Moral machines: teaching robots right from wrong. Oxford: Oxford University Press, 2009.
WANG, Y.; KOSINSKI, M. Deep neural networks are more accurate than humans at detecting sexual orientation from facial images. Journal of Personality and Social Psychology, v. 114, n. 2, 2018, p. 246–257.
ZUBOFF, S. The age of surveillance capitalism. The fight for a human future at the new frontier of power. New York: Public Affairs, 2019.
Downloads
Publicado
Como Citar
Edição
Seção
Licença
Este trabalho está licenciado sob uma licença Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International License.
Proposta de Aviso de Direito Autoral Creative Commons
1. Proposta de Política para Periódicos de Acesso Livre
Autores que publicam nesta revista concordam com os seguintes termos:
- Autores mantém os direitos autorais e concedem à Revista de Direitos e Garantias Fundamentais o direito de primeira publicação, com o trabalho simultaneamente licenciado sob a Creative Commons Attribution License que permitindo o compartilhamento do trabalho com reconhecimento da autoria do trabalho e publicação inicial nesta revista.
- Autores têm autorização para assumir contratos adicionais separadamente, para distribuição não-exclusiva da versão do trabalho publicada nesta revista (ex.: publicar em repositório institucional ou como capítulo de livro), com reconhecimento de autoria e publicação inicial nesta revista.
- Autores têm permissão e são estimulados a publicar e distribuir seu trabalho online (ex.: em repositórios institucionais ou na sua página pessoal) a qualquer ponto antes ou durante o processo editorial, já que isso pode gerar alterações produtivas, bem como aumentar o impacto e a citação do trabalho publicado (Veja O Efeito do Acesso Livre).