OS VIESES ALGORÍTMICOS NA FUNÇÃO DECISÓRIA DOS SISTEMAS DE INTELIGÊNCIA ARTIFICIAL

OS VIESES ALGORÍTMICOS NA FUNÇÃO DECISÓRIA DOS SISTEMAS DE INTELIGÊNCIA ARTIFICIAL

Autores

Resumo

ALGORITHMIC BIAS IN THE DECISION-MAKING FUNCTION OF ARTIFICIAL INTELLIGENCE SYSTEMS

ÁREA(S): direito público; direito penal.

RESUMO: O tema do presente artigo são os riscos dos vieses algorítmicos na tomada de decisões por máquinas. O método utilizado para a pesquisa será hipotético-dedutivo, partindo-se de premissas gerais que possam ser aplicadas a situações concretas. Discorre-se sobre o funcionamento das ferramentas de inteligência artificial, com ênfase nos algoritmos, e o aprendizado de máquina, para se demonstrar que até mesmo as pretensas ferramentas matemáticas imparciais possuem a subjetividade de seus criadores, sendo, portanto, afetadas diretamente pela qualidade dos dados fornecidos. A abordagem de pesquisa será dedutiva e a técnica será bibliográfica. Como resultado, verificou-se a necessidade do reconhecimento da existência dos vieses algorítmicos, uma vez que há a possibilidade de serem lesados os princípios constituidores do Estado Democrático de Direito, como o acesso à justiça e o devido processo constitucional, bem como os direitos da personalidade, para que, a partir daí, seja possível estabelecer maneiras de contorná-los, por meio de transparência algorítmica e do machine learning.

ABSTRACT: The theme of this article is the risks of algorithmic bias in decision making by machines. The method used for the research will be hypothetical-deductive, based on general premises that can be applied to specific situations. It discusses the functioning of artificial intelligence tools, with an emphasis on algorithms, and machine learning, to demonstrate that even the supposed impartial mathematical tools have the subjectivity of their creators, being, therefore, directly affected by quality of the data provided. The research approach will be deductive and the technique will be bibliographic. As a result, it was found the need to recognize the existence of algorithmic biases, since there is the possibility of harming the constitutive principles of the Democratic State of Law, such as access to justice and due constitutional process, as well as personality rights, for what from there it is possible to establish ways to circumvent them, through algorithmic transparency and machine learning.

PALAVRAS-CHAVE: inteligência artificial; direito processual; princípio constitucionais; vieses algorítmicos; vieses cognitivos.

KEYWORDS: artificial intelligence; procedural law; constitutional principles; algorithmic biases; cognitive biases.

SUMÁRIO: Introdução; 1 Os vieses algorítmicos; 2 Formas de controle do enviesamento das máquinas: transparência algorítmica e machine learning; Conclusão; Referências.

SUMMARY: Introduction; 1 Algorithmic biases; 2 Ways to control machine bias: algorithmic transparency and machine learning; Conclusion; References.

Biografia do Autor

Gustavo Noronha de Ávila, UNICESUMAR

Professor da Pontifícia Universidade Católica do Paraná (Campus Maringá). Atualmente, também é Professor Permanente do Programa de Pós-Graduação, Mestrado e Doutorado, em Ciência Jurídica do Centro Universitário de Maringá. Também é Professor da Especialização em Ciências Penais da Universidade Estadual de Maringá, ABDConst, Universidade Ceuma, PUCPR, Univel, Universidade Feevale e Instituto Paranaense de Ensino. Brasil.

Thais Aline Mazetto Corazza, UNICESUMAR

Doutoranda e Pesquisadora Capes no Centro Universitário de Maringá - UNICESUMAR. Mestre e graduada em Ciências Jurídicas pelo Centro Universitário de Maringá - UNICESUMAR, Maringá (PR), Brasil. Advogada.

Referências

ASCOM – Assessoria de Comunicação Institucional. Gestão de precedentes é tema de encontro no TJM: Ministros da Comissão Gestora de Precedentes do STJ compartilharam experiência com o Tribunal mineiro. Tribunal de Justiça de Minas Gerais – TJMG, 7 de agosto de 2017. Disponível em: http://www.tjmg.jus.br/portal-tjmg/noticias/gestao-de-precedentes-e-tema-de-encontro-no-tjmg.htm#.WvMAfogvy00. Acesso em: 24 maio 2021.

BAETA, Z. Escritório já usam robôs que ajudam na escolha de estratégias nos tribunais. Valor Econômico, São Paulo, 16 de janeiro de 2018. Disponível em: http://www.valor.com.br/legislacao/5259801/escritorios-ja-usam-robos-que-ajudamna-escolha-de-estrategias-nos-tribunais. Acesso em: 24 maio 2021.

BOYD, D.; CRAWFORD, K. Six provocations for big data. A decade in internet time: Symposium on the Dynamics of the Internet and Society. Paper presented at Oxford Internet Institute’s, 2011. Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=1926431. Acesso em: 1º mar. 2021.

BRASIL. Inteligência artificial vai agilizar a tramitação de processos no STF. Supremo Tribunal Federal: Brasília, 30 de maio de 2018. Disponível em: http://portal.stf.jus.br/noticias/verNoticiaDetalhe.asp?idConteudo=380038. Acesso em: 6 mar. 2021.

CAMPOLO, A.; SANFILIPPO, M.; WHITTAKER, M.; CRAWFORD, K. AI NOW 2017 Report. AI Now Institute, New York (2017). Disponível em: https://ainowinstitute.org/AI_Now_2017_Report.pdf. Acesso em: 23 abr. 2021.

CRIMINAL LAW. State v. Loomis: Wisconsin Supreme Court Requires Warning Before Use of Algorithmic Risk Assessments in Sentencing. Harvard Law Review, 881 N.W. 2d 749, 2016. Disponível em: https://harvardlawreview.org/2017/03/state-v-loomis/. Acesso em: 23 mar. 2021.

DAY, M. How LinkedIn’s search engine may reflect a gender bias. The Seattle Times, 31 de agosto de 2016. Disponível em: https://www.seattletimes.com/business/microsoft/how-linkedins-search-engine-may-reflect-a-bias. Acesso em: 6 maio 2021.

DOYLE, N. J. Confirmation bias and the due process of inter partes review. IDEA: The Journal of the Franklin Pierce Center for Intellectual Property, v. 57, p. 29-70, 2016.

FIELD, M. Facebook shuts down robots after they invent their own language. The Telegraph, 1º de agosto de 2017. Disponível em: https://www.telegraph.co.uk/technology/2017/08/01/facebook-shuts-robots-invent-language. Acesso em: 2 mar. 2021.

FULTON, S. What is bias in AI really, and why can’t AI neutralize it? ZDNet, Nova York, 17 jul. 2019. Disponível em: https://www.zdnet.com/article/what-is-bias-in-ai-really-and-why-cant-ai-neutralize-it/. Acesso em: 25 maio 2021.

GADAMER, H.-G. Verdade e método: fundamentos de uma hermenêutica filosófica. 7. ed. Tradução: Enio Paulo Giachini. Petrópolis: Vozes, 2005.

GOODMAN, B.; FLAXMAN, S. R.. European Union regulations on algorithmic decision-making and a “right to explanation”. AI Magazine, v. 38, n. 03, p. 50-57, 2017.

HARRIS, J. The tyranny of algorithms is part of our lives: soon they could rate everything we do. The Guardian, 5 de março de 2018. Disponível em: https://www.theguardian.com/commentisfree/2018/mar/05/algorithms-rate-credit-scores-finances-data. Acesso em: 6 maio 2021.

HORTA, R. de L.; COSTA, A. A. Vieses na decisão judicial e desenho institucional: uma discussão necessária na era da pós-verdade. Cadernos Adenauer 1, p. 11-34, 2017.

HUNT, E. Tay, Microsoft’s AI chatbot, gets a crash course in racism from Twitter. The Guardian, 24 de março de 2016. Disponível em: https://www.theguardian.com/technology/2016/mar/24/tay-microsofts-ai-chatbot-gets-a-crash-course-in-racism-from-twitter. Acesso em: 6 maio 2021.

INAZAWA, P. et al. Projeto Victor. Especial Machine Learning, p. 19-46, 2019. Disponível em: https://cic.unb.br/~teodecampos/ViP/inazawa_etal_compBrasil2019.pdf. Acesso em: 24 maio 2021.

ISRANI, E. T. When an algorithm helps send you to prison. The New York Times, Nova York, 26 out. 2017. Disponível em: https://www.nytimes.com/2017/10/26/opinion/algorithm-compas-sentencing-bias.html. Acesso em: 25 maio 2021.

KAHNEMAN, D. Thinking, fast and slow. London: Penguin Books, 2012.

KAMAYURÁ, U. Advocacia-Geral aposta em inteligência artificial e automação de processos para agilizar trabalhos jurídicos. AGU, 2013. Disponível em: https://agu.jusbrasil.com.br/noticias/100362832/agu-aposta-em-inteligencia-artificial-e-automacao-de-processos-para-agilizar-trabalhos-juridicos. Acesso em: 24 maio 2021.

KASPERKEVIC, J. Google says sorry for racist auto-tag in photo app. The Guardian, 1º de julho de 2015. Disponível em: https://www.theguardian.com/technology/2015/jul/01/google-sorry-racist-auto-tag-photo-app. Acesso em: 25 maio 2021.

LARSON, J.; MATTU, S.; KIRCHNER, L.; ANGWIN, J. How we analyzed the COMPAS. Recidivism algorithm. ProPublica, 23 de maio de 2016. Disponível em: https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm. Acesso em: 12 maio 2021.

NORTHPOINTE. Practitioners Guide to COMPAS. 17 de agosto de 2012. Disponível em: http://www.northpointeinc.com/files/technical_documents/FieldGuide2_081412.pdf. Acesso em: 14 maio 2021.

NUNES, D. J. C. O princípio do contraditório. Revista Síntese de Direito Civil e Processual Civil, Porto Alegre, n. 29, maio/jun. 2004.

NUNES, D.; LUD, N.; PEDRON, F. Desconfiando da (im)parcialidade dos sujeitos processuais: um estudo sobre os vieses cognitivos, a mitigação de seus efeitos e o debiasing. Salvador: JusPodivm, 2018.

O’NEIL, C. Weapons of math destruction: how big data increases inequality and threatens democracy. New York: Crown Publishers, 2016.

PARLAMENTO EUROPEU. Disposições de direito civil sobre robótica. Resolução do Parlamento Europeu, de 16 de fevereiro de 2017, que contém recomendações à Comissão sobre disposições de Direito Civil sobre Robótica. Disponível em: https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_PT.pdf. Acesso em: 25 maio 2021.

PARLAMENTO EUROPEU. Resolução do Parlamento Europeu, de 14 de março de 2017. Dispõe sobre as implicações dos grandes volumes de dados nos direitos fundamentais: privacidade, proteção de dados, não discriminação, segurança e aplicação da lei. Disponível em: http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+TA+P8-TA-2017-0076+0+DOC+XML+V0//PT. Acesso em: 15 abr. 2021.

PEER, E.; GAMLIEL, E. Heuristics and biases in judicial decisions. Court Review, v. 49, p. 114-118. Disponível em: http://aja.ncsc.dni.us/publications/courtrv/cr49-2/CR49-2Peer.pdf. Acesso em: 18 maio 2021.

PEIXOTO, F. H. Projeto Victor: relato do desenvolvimento da inteligência artificial na repercussão geral do Supremo Tribunal Federal. Revista Brasileira de Inteligência Artificial e Direito – RBIAD, v. 1, n. 1, p. 1-22, 2020. Disponível em: https://rbiad.com.br/index.php/rbiad/article/view/4. Acesso em: 20 maio 2021.

RACANICCI, J. Judiciário desenvolve tecnologia de voto assistido por máquinas. Jota, 2018. Disponível em: https://www.jota.info/justica/judiciario-desenvolve-tecnologia-de-voto-assistido-por-maquinas-08012018. Acesso em: 24 maio 2021.

SATURNO, A. Inteligência artificial da IBM está ajudando escritório de advocacia brasileiro. CanalTech, 18 de janeiro de 2018. Disponível em: https://canaltech.com.br/inteligencia-artificial/inteligencia-artificial-da-ibm-esta-ajudando-escritorio-de-advocacia-brasileiro-106622/. Acesso em: 24 maio 2021.

SOUZA, E. de. Simsimi é suspenso no Brasil; entenda caso do app de chat online. TechTudo, 18 de abril de 2018. Disponível em: https://www.techtudo.com.br/noticias/2018/04/simsimi-e-suspenso-no-brasil-entenda-caso-do-app-de-chat-online.ghtml. Acesso em: 6 maio 2021.

SPINOZA, R. M. Accountability. In: CASTRO, C. L. F.; GONTIJO, C. R. B.; AMABILE, A. E. N. (org.). Dicionário de políticas públicas. Barbacena: EdUEMG, 2012.

STAFFORD, T. Biases in decision making. Tribunals, 2017. Disponível em: https://www.judiciary.uk/wp-content/uploads/2018/02/stafford-biases-in-decision-making-winter-2017.pdf. Acesso em: 29 abr. 2021.

SUNSTEIN, C. The partial Constitution. Cambridge: Harvard University Press, 1993.

SUNSTEIN, C.; THALER, R. Nudge. Rio: Elsevier, 2009.

SURDEN, H. Values embedded in legal artificial intelligence. U of Colorado Law Legal Studies Research Paper, n. 17-17, 15 de março de 2017. Disponível em: https://ssrn.com/abstract=2932333. Acesso em: 1º fev. 2021.

SUSSKIND, R. Tomorrow lawyers: an introduction to your future. Oxford: Oxford University Press, 2013.

THEODORO JÚNIOR, H.; NUNES, D. J. C. Uma dimensão que urge reconhecer ao contraditório no direito brasileiro: sua aplicação como garantia de influência, de não surpresa e de aproveitamento da atividade processual. Revista de Processo, n. 168, p. 107-141, 2009.

VALENTINI, R. S. Julgamento por computadores? As novas possibilidades da juscibernética no século XXI e suas implicações para o futuro do direito e do trabalho dos juristas. Tese (Doutorado em direito) – Faculdade de Direito, Universidade Federal de Minas Gerais. Belo Horizonte, 2017. Disponível em: https://repositorio.ufmg.br/bitstream/1843/BUOS-B5DPSA/1/vers_o_completa_tese_romulo_soares_valentini.pdf. Acesso em: 20 maio 2021.

VIANA, A.; NUNES, D. Precedentes: a mutação do ônus argumentativo. Rio de Janeiro: GEN Forense, 2018.

VIEIRA, O. V. Justiça, ainda que tardia: moradora de rua teve esterilização determinada sem direito de defesa. 9 de junho de 2018. Disponível em: https://goo.gl/2DrLRh. Acesso em: 20 abr. 2021.

VILLANI, C. Donner uns sens à li’intelligence artificielle: pour une stratégie nationale et européenne. AI for Humanity, 2018. Disponível em: https://www.aiforhumanity.fr. Acesso em: 24 maio 2021.

Downloads

Publicado

2022-10-16

Como Citar

ÁVILA, G. N. de; CORAZZA, T. A. M. OS VIESES ALGORÍTMICOS NA FUNÇÃO DECISÓRIA DOS SISTEMAS DE INTELIGÊNCIA ARTIFICIAL. Revista da AJURIS - QUALIS A2, [S. l.], v. 49, n. 152, p. 181–210, 2022. Disponível em: https://revistadaajuris.ajuris.org.br/index.php/REVAJURIS/article/view/1230. Acesso em: 3 mar. 2024.

Edição

Seção

DOUTRINA NACIONAL
Loading...