Hodiernamente, os juristas (brasileiros e estrangeiros), de maneira geral, preocupam-se e impressionam-se cada vez mais com as novas conquistas no uso das ferramentas e das plataformas de Inteligência Artificial aplicáveis ao direito. Definitivamente, não se pode mais negar que diante da introdução da tecnologia no universo jurídico, a forma de compreender como se revela, se estuda e se coloca em prática o Direito está sofrendo uma grande transformação.
A Inteligência Artificial refere-se a um campo de conhecimento associado à linguagem e à inteligência, ao raciocínio, à aprendizagem e à resolução de problemas e seu eterno desafio é fazer com que computadores possam realizar tarefas essencialmente humanas. A Inteligência Artificial viabiliza uma ligação entre o humano e a máquina seja conectando sistemas inteligentes artificiais em seu corpo (prótese cerebral, braço biônico, células artificiais, entre outros), ou ainda possibilitando uma interação entre o homem e a máquina como duas “espécies” distintamente conectadas (homem-aplicativos, homem-algoritmo de IA)[1].
Tema de pesquisa em diversas áreas do conhecimento humano – computação, linguística, filosofia, matemática, neurociências, entre outras – a diversidade de subcampos e atividades, pesquisas e experimentações, dificulta descrever o atual estado da arte. As expectativas e os estágios de desenvolvimento variam entre os campos e suas aplicações, que vão desde a robótica, games, tradução de linguagem natural, diagnósticos médicos e agora na área jurídica, praticamente, estão presentes em todas as áreas do conhecimento e da vida em sociedade.
Entretanto, numa definição mais recente, pode-se dizer que a Inteligência Artificial se refere “à habilidade de um sistema de interpretar corretamente dados externos, aprender a partir deles e usar este aprendizado para alcançar objetivos e tarefas específicas por meio de uma adaptação flexível”[2].
E de acordo com os relatos da história da ciência, uma das primeiras referências à Inteligência Artificial foi atribuída ao matemático e cientista da computação, o inglês Alan Turing[3], em seu conhecido trabalho Computing Machinery and Itelligence de 1950 no qual propôs o desafio Can Machines Think? (“podem as máquinas pensar?”). Há mais de sete décadas este matemático inglês afirmou que era apenas uma questão de tempo o fato de que as máquinas começariam a competir com todos os homens no campo da inteligência, tendo ele se empenhado na criação e desenvolvimento das primeiras equações capazes de simular a inteligência humana.
Como boa parte dos projetos de IA daquela época não concretizaram suas promessas iniciais houve o primeiro “inverno da IA”, conhecido como “AI winter”, período de retratação no qual o financiamento diminuiu e o ceticismo aumentou. Contudo, há cerca de uma década, recentemente, os avanços nesse campo são consideráveis exponencialmente. Entre as razões para tal avanço, estariam a grande massa de dados que passou a estar disponível, o aprimoramento computacional e sua redução de custos a partir da computação em nuvem e a criação de algoritmos capazes de simular a capacidade cognitiva dos seres humanos.
Todavia uma ressalva merece ser feita, mesmo tendo avançado bastante nos últimos anos, ainda se opera por sistemas restritos de Inteligência Artificial. Isto é, os sistemas de IA desenvolvidos e aplicados têm se restringido a domínios muito específicos, como por exemplo, “respostas a perguntas escritas ou faladas sobre domínio pré-especificado, automação fabril, pesquisas sobre determinado ramo da medicina, elaboração de peças jurídicas processuais específicas etc”[4].
Em contrapartida, na medida em que avança a digitização da sociedade, um grande volume de dados começa a ser produzidos, tais como fotos, vídeos, textos, em todos as áreas do conhecimento humano com as mais diversas finalidades. E como esse volume de dados se torna tão grande fica praticamente impossível a capacidade humana correlacioná-los e analisá-los sem o auxílio de ferramentas cognitivas automatizadas. Nesse sentido, percebe-se que será através dessa fresta que os sistemas de inteligência artificial vão assumindo um papel cada vez mais relevante ao futuro da humanidade.
Existem diferentes tecnologias dentro do universo da Inteligência Artificial[5]. Nele se pode mencionar os algoritmos de análise de dados que fazem cruzamentos, conhecidos como analytics, incluindo-se também os sistemas que conseguem aprender sozinhos pela metodologia do aprendizado de máquinas. De modo geral, os algoritmos de análise de dados são aqueles que fazem os cruzamentos nos ajudando a fazer correlações e a buscar padrões. Exemplo dessa tecnologia, é o sistema de credit score utilizado pelo setor financeiro. Por ele, se coletam informações a respeito daquele que pretende obter um crédito bancário para comprar algum produto no mercado de consumo, que serão lançadas em um algoritmo que irá demonstrar em qual categoria de risco aquela pessoa poderá ser alocada demonstrando quais são as possíveis chances de o pretendente arcar ou não com o compromisso assumido com o banco. Aqui, tanto os dados quanto os parâmetros possíveis de tratamento de dados são dados a priori, ficando ao utilizador do algoritmo a possibilidade de manipulá-lo dentro de um contexto específico e com algumas limitações[6].
Por outro lado, os sistemas conhecidos como machine learning são dotados de maior complexidade e apesar de serem programados a priori, sua construção algorítmica está voltada a interagir com um ambiente externo e mais dinâmico tomando por base a partir dele as correlações e o reconhecimento de padrões. O machine learning ao contrário dos algoritmos analíticos, é capaz de analisar, fazer correlações e buscar padrões por meio de dados não estruturados encontrados em fotos, vídeos, textos e dados coletados por smartphones.
Com efeito, diante dessas primeiras constatações não há como se discutir a criação e o desenvolvimento de tecnologias inteligentes emuladoras da capacidade de cognição humana sem analisar a forma pela qual ela se materializa que é linguagem algorítmica.
Em uma breve síntese e sem a pretensão de esgotar o assunto, descendo a níveis desnecessários na tentativa de compreender toda a complexidade que gira em torno do processo de tomada de decisões por máquinas inteligentes, apresenta-se aqui o conceito de algoritmo como “um conjunto de instruções organizadas de forma sequencial, que determina como algo deve ser feito”[7].
Este conceito, diante de sua simplicidade, não é um conceito dependente do uso da linguagem computacional moderna, já que é possível que alguém crie um algoritmo para ajudá-la a se vestir, para pegar um ônibus na volta para casa, para fazer um controle dos índices glicêmicos no sangue, ou para várias outras atividades, pois o algoritmo nada mais é do que uma fórmula na qual determinadas tarefas podem ser colocadas em uma ordem específica a fim de se atingir determinado objetivo. Contudo, apesar de ser uma correta e simplória descrição, não oferece ela informações suficientes para o propósito desta tese.
Nesse sentido, será adotada a definição que diferencia o algoritmo comum daqueles que são operados por computadores. Computadores[8], ao contrário dos seres humanos, não conseguem compreender o significado de termos como “suficiente”, “quase”, “ruim” ou qualquer outra palavra que requeira uma avaliação mais subjetiva do mundo ao seu redor. Por essa razão, algoritmos que determinam que um celular reduza a luz de sua tela sempre que “quase não haja mais bateria” é sem utilidade.
Um computador é capaz de interpretar complexos cálculos matemáticos, mas não de determinar o que “quase sem bateria” quer dizer, a não ser que alguém explique como fazê-lo. A pessoa pode, ainda, ser capaz de tolerar quando um algoritmo é descrito de maneira imprecisa, mas um computador, não. Porque o algoritmo computacional consiste em uma série de etapas para completar uma tarefa que é descrita de maneira precisa o bastante para que o sistema possa realizá-la[9].
Assim, é importante ser observado que a forma como os algoritmos são hoje utilizados é, inicialmente, para solucionar problemas e auxiliar na tomada de decisões, como tem sido feito pelos sistemas de Inteligência Artificial em implantação no Poder Judiciário brasileiro. E neste ponto se depara com uma peculiar condição dos algoritmos, a de que o programa será tanto mais útil quanto mais precisa a informação (input) fornecida, sendo ele considerado correto sempre que se utilizar tal informação de acordo com suas especificações.
A título exemplificativo, quando um viajante ao utilizar uma ferramenta de buscas oferecida pelo sítio de uma companhia área ao procurar o “melhor” voo de São Paulo para Berlim, o algoritmo precisa saber se por “melhor” se quer dizer “mais curto” ou “mais barato”. Se o algoritmo estiver programado para encontrar a rota mais curta, em termos de quilômetros viajados, poderá considerar que o tempo gasto em aeroporto aguardando um voo de conexão seja irrelevante, e poderia, assim, oferecer uma resposta que, apesar de incorreta com relação às preferências do viajante, seria correta do ponto de vista do programa, apesar de ser razoável admitir que para a maioria das pessoas que utilizam esse serviço o tempo gasto em conexões é um fator determinante ao se escolher a rota da viagem. Como se percebe, o problema de tal situação, não é com o algoritmo em si, mas sim com as informações que foram e ele introduzidas[10].
Desse modo, pode ser afirmado que um dos objetivos fundamentais dos algoritmos é fazer previsões se valendo de probabilidades e apesar de não fornecer respostas acuradas a todas as questões, podem eles analisar os dados fornecidos (inputs) oferecendo “premonições” coerentes. Assim, quanto maior a quantidade e principalmente, a qualidade de dados fornecidos ao sistema algorítmico, maior a possibilidade do resultado ser mais próximo do real.
E é exatamente neste contexto, que se faz necessário um debate mais acentuado quanto aos riscos associados à dependência acrítica em algoritmos no processo decisional diante da falta de sua regulamentação e na velocidade com que estão sendo criados, principalmente quando eles passam a funcionar como um dos elementos nucleares na elaboração da decisão judicial. Visto que uma das atribuições mais relevantes no processamento de dados pela linguagem algorítmica proporcionada pelos avançados estudos computacionais de Inteligência Artificial é a de oferecer embasamento para tomada de decisões das mais variadas modalidades de forma preditiva e precisa.
Essa constatação se aprofunda a cada dia diante da velocidade com que os sistemas computacionais, especialmente os inteligentes, avançam nos diversos setores dessa profissão. Exemplo desse fenômeno no mundo é o famoso sistema ROSS de Inteligência Artificial utilizado por uma das maiores bancas de advocacia nos Estados Unidos, a Baker & Hostetler. ROSS, além de ser um bom sistema de buscas que pode encontrar antigos casos já julgados, também consegue dar dicas sobre a melhor maneira de utilizar as referidas decisões a título argumentativo em casos atuais e que por conta de sua capacidade acabou sendo conhecido por vários escritórios de advocacia no Brasil. Esse software funciona como se fosse uma espécie de ‘‘advogado virtual’’ que usa a tecnologia IBM Watson para compilar e avaliar um enorme volume de dados, aprendendo com o tempo (machine learning) a melhor maneira de aplicar toda essa transformação”[11].
No Brasil, o uso de programas inteligentes que estão redesenhando as tradicionais práticas jurídicas já é uma realidade desde 2018 diante da implantação do sistema Victor pelo Supremo Tribunal Federal. O programa Victor[12] tem como uma de suas funções primárias a de ler todos os recursos extraordinários que são distribuídos ao STF identificando quais estão vinculados a determinados temas de repercussão geral. Este programa já sabe interpretar recursos, separá-los por temas e destacar as principais peças do processo para agilizar o seu trâmite na Corte, o que diminui assim o acervo dos gabinetes dos ministros. Em alguns casos, o sistema já faz em 5 (cinco) segundos o serviço que servidores levariam mais de 30 (trinta) minutos para realizá-los[13].
No entanto, e conforme já noticiado pelo próprio Tribunal, a tecnologia envolvida na criação de Victor não irá parar de ser aprimorada, pois já estão em discussão várias outras ideias para ampliar as suas habilidades. A necessidade de ampliação deve-se ao potencial de solucionar, pelo próprio algoritmo, “cerca de um oitavo dos recursos extraordinários que chegam ao STF, ao devolver[14] automaticamente aos tribunais de origem os recursos extraordinários que se enquadrarem em um dos 27 temas de repercussão geral que o instrumento foi ensinado a identificar”[15].
No âmbito do Superior Tribunal de Justiça (STJ) tem-se ainda os sistemas Sócrates e Athos de Inteligência Artificial baseados no natural language processing[16]. Sócrates, a partir da análise do recurso e do acórdão recorrido, fornece informações relevantes aos ministros relatores, de forma a facilitar a identificação das demandas consideradas repetitivas. O Sócrates identifica grupos de processos que possuem acórdãos semelhantes, se determinado caso corresponde a demandas repetitivas, as bases legislativas envolvidas nos casos contribuindo e otimizando a gestão administrativa da corte no julgamento dos recursos repetitivos.
Este sistema opera em 21 (vinte e um) gabinetes de Ministros, efetuando a análise semântica das peças processuais para a triagem de processos, identificando casos com matérias semelhantes, além de realizar a pesquisa de julgamentos do próprio Tribunal que possa servir como precedente ao processo em exame[17]. Quanto ao projeto Athos, desenvolvido em junho de 2019, voltado à intensificação da formação dos precedentes qualificados, tem o propósito de identificar, mesmo antes da distribuição aos Ministros, processos que possam ser submetidos à afetação para julgamento sob o rito dos recursos repetitivos. Este sistema monitora e indica processos com entendimento convergentes ou divergentes entre os órgãos fracionários do próprio tribunal, casos com matéria de notória relevância, indicando ainda, possíveis distinções ou superação de precedentes qualificados.
O sistema Athos viabilizou ao STJ a identificação de 51 controvérsias – conjunto de processos com sugestão de afetação ao procedimento dos repetitivos – e a efetiva afetação de 13 temas[18]. Como se vê, o Athos tem três relevantes funções, a de monitoramento, a de agrupamento e a de identificação de temas repetitivos. No que se refere ao monitoramento, o foco é a supervisão da repetitividade na entrada, e a operação realizada é periodicamente comparar lotes de processos entre si para a formação de novos agrupamentos, assim como comparar cada processo novo com grupos previamente formados.
Na esfera regional destaca-se também o sistema ELIS, criado e desenvolvido pela Comissão para Aplicação de Soluções em Inteligência Artificial (CIA) do Tribunal de Justiça de Pernambuco, que ultimamente vem compartilhando seus avanços tecnológicos com o Conselho Nacional de Justiça e com os demais tribunais da Federação. ELIS configura o início do uso da Inteligência Artificial pelo TJPE, “impactando positivamente na celeridade dos processos executivos fiscais e contribuindo para a redução da taxa de congestionamento e aumento da recuperação do crédito público”[19]. Nos termos da primeira divulgação de dados a respeito do trabalho operacional de ELIS, o sistema avaliou 5.247 processos fiscais e conseguiu classificá-los com precisão a competência das ações, divergências cadastrais, erros no cadastro de dívida ativa e os casos de prescrição. Este sistema foi programado para aprender a realizar a triagem inicial destas execuções fiscais ajuizadas no PJe em relação a divergências cadastrais, competências diversas e como dito, eventuais prescrições. E em uma segunda etapa, o algoritmo de ELIS ainda é capaz de inserir as minutas de decisão no sistema e até mesmo assinar os despachos proferidos pelo juiz[20].
Apesar do crescimento da percepção de que as transformações promovidas pelos avanços da Inteligência Artificial (IA) e da linguagem algorítmica irão alterar decisivamente os rumos tomados pela sociedade moderna, mais do que nunca, faz-se necessário, que essa mesma sociedade que se beneficia desse avanço tecnológico, saiba também lidar com as novas questões éticas que isto tem implicado com intuito de se amenizar os efeitos colaterais provocados pela era digital.
Nesse sentido, destaca-se que, quanto maiores forem os incentivos para o uso de processamento de dados por meio de algoritmos voltados à tomada de decisões, especialmente as judiciais, mais urgente se torna o debate acerca das consequências de tais procedimentos para a sociedade diante dos riscos aos quais ela está sendo silenciosamente submetida. Bom exemplo de que essa discussão deve ser feita o quanto antes no Brasil é a ascensão do uso do machine learning nos Estados Unidos e o obscurantismo do algoritmo utilizado no processo decisório pelo sistema do Correctional Offender Management Profiling for Alternative Sanctions (COMPAS).
O COMPAS é um sistema voltado ao gerenciamento de penitenciárias que utiliza informações sobre gestão de detentos críticos, passando pela análise de sua saúde mental até o seu envolvimento com gangues. De acordo com a Equivant, empresa de tecnologia que desenvolveu o COMPAS, o programa funciona a partir de uma árvore decisória que classifica os presos em espectro de risco que varia de um a nove, sendo nove o mais alto e um o mais baixo. Apesar do programa ter sido projeto para monitorar o sistema penitenciário, o algoritmo vem sendo utilizado com outra finalidade, no caso, para avaliação do risco de reincidência dos detentos, como ocorreu no caso de Eric Loomis[21] no ano de 2013.
Loomis havia sido acusado de fugir da polícia na cidade de La Crosse dirigindo um automóvel utilizado em um tiroteio. Como ele havia sido condenado anteriormente por agressão sexual, ao ser avaliado pelo COMPAS, o sistema apontou que ele tinha um alto risco de cometer outro crime, sendo ele condenado a uma sentença de seis anos. Seus advogados recorreram da sentença à Suprema Corte de Wisconsin, alegando que a defesa não teve acesso à avaliação de risco de reincidência efetuada pelo COMPAS por conta da sua natureza confidencial, o que em tese, estaria ferindo o contraditório e a ampla defesa, pois o resultado da análise do programa foi utilizado pela justiça de 1° instância. O recurso dos advogados não foi acolhido e o caso foi levado à Suprema Corte daquele país, que também o negou.
Como se pode notar neste caso, algumas questões fatalmente ficaram sem repostas como por exemplo, os critérios éticos eventualmente utilizados pelo COMPAS ao definir a alta taxa de probabilidade de Loomis voltar a delinquir, o porquê ele poderia ser considerado uma ameaça à sociedade que justificasse o seu encarceramento a 6 seis anos por ter fugido da polícia ao dirigir um automóvel utilizado em um tiroteio e se este veículo havia sido utilizado por ele naquela ocasião e o principal, por quê um sistema de monitoramento penitenciário foi utilizado para analisar riscos de reincidência durante a fase cognitiva do processo.
Conforme observado[22], embora as atividades judiciais envolvam, por vezes, julgamentos discricionários pautados em critérios e aspectos subjetivos dos julgadores, o mero emprego de mecanismos automatizados não é capaz de retirar enviesamento, pois costumam ser alimentados por dados que refletem tendências igualmente inclináveis a certos rumos. E sob este aspecto reside um dos grandes riscos da operacionalização do método decisório inteligente estritamente quantitativo e não qualitativo, já que a saída convergente com padrões identificados na jurisprudência pode reforçar a própria rede de precedentes judiciais mecanicamente padronizados, em um ciclo vicioso de feedback de permanente positivação do mesmo padrão.
No Brasil, apesar dos sistemas de Inteligência Artificial criados, desenvolvidos e aplicados pelo Poder Judiciário, até agora, não estarem sendo utilizados em todas as áreas do Direito, deve ser observado que várias discussões éticas e jurídicas implicarão necessariamente em uma nova dimensão do direito fundamental de acesso à justiça e à motivação das decisões. Especialmente ao se examinar os vetores normativos contidos no Código de Processo Civil de 2015 (arts. 926, 947, 976 e arts. 1036 a 1041) que desenham a sistemática dos precedentes judiciais assim como a extinção em seu texto do princípio do livre convencimento do juiz. Considerando que a eficácia normativa dos precedentes vinculantes é um dos mandamentos nucleares do sistema decisional sendo indispensável conferir-lhe maior qualidade, transparência e precisão na sua elaboração ao fundamentar os atos decisórios.
Como se sabe, e o sistema processual já tem dado provas disso, tendo inclusive se repetido a sistemática da fundamentação das decisões do processo civil no processo penal por meio do Pacote Anticrime. Ao reproduzir o §1° do art. 489, do CPC/15, no §2°, do art. 315 do CPP, não há mais como reputar suficiente a fundamentação de uma decisão judicial que se restringe a uma mera repetição do texto legal ou de apontamentos jurisprudenciais e doutrinários destituídos de qualquer ligação com a causa.
E mesmo diante da introdução das benesses conferidas ao processo decisório proporcionadas pela IA pautada pela linguagem algorítmica, continuará sendo exigido que a decisão judicial identifique fidedignamente as questões de fato que se reputarem como essenciais ao deslinde da causa. Devendo ela apontar a tese jurídica adotada no julgamento ao se chegar na parte dispositiva do julgado. Sendo igualmente exigível que, ao aplicar ou deixar de aplicar o precedente vinculante, o Judiciário avalie de modo claro, a pertinência de sua aplicação ou não, ao caso concreto, contrapondo circunstâncias de fato envolvidas em todas as linhas argumentativas no intuito de verificar a tese adequada ou não para o caso em questão.
Devendo agora ser levado em consideração novos elementos chaves no emprego das decisões por algoritmos tais como a explicabilidade e a inteligibilidade que têm como objetivo fazer com que a lógica interna do processo decisional de máquinas seja bem compreendida não só pelos jurisdicionados assim como pelos demais operadores do Direito. O direito à explicação no uso de dados agora fará parte do direito à autodeterminação informacional dos titulares desses dados principalmente porque a ponderação entre “precisão versus explicabilidade” implica que “os algoritmos mais precisos podem ser baseados em métodos (como deep learning) muito complexos, cuja lógica interna não é inteiramente compreensível até mesmo pelos seus desenvolvedores e construtores”[23].
Dessa forma, até mesmo a função extraprocessual da motivação das decisões judiciais receberá uma dose de reforço. Já que ela serve para justificar o porquê se tomou determinada decisão para as partes envolvidas em processo específico, assim como o modelo de conduta a ser adotado pelas pessoas que não participaram deste processo. Tendo em vista que o precedente agora criado poderá ser invocado tanto a seu favor quanto em seu desfavor, seja para legitimar, para justificar ou para questioná-la em uma outra oportunidade.
Assim, a regra pela qual o processo de tomada de decisões judiciais deve ser fundamentado deverá ser analisada sob uma nova perspectiva, a de que não será qualquer fundamento exposto pelo Poder Judiciário, mas aquilo que se reputa como fundamento útil para a solução do caso, com a revelação de quais dados foram utilizados pelo sistema autônomo e quais foram os motivos que levaram a máquina inteligente a crer que o dado contido em seu algoritmo pode ser considerado hábil o suficiente para resolver o objeto do processo.
Apesar desses programas inteligentes estarem sendo aplicados nos setores da gestão administrativa de processos nos tribunais brasileiros, de acordo com os próprios engenheiros envolvidos com essa tecnologia, já é sabido que o potencial dos algoritmos operados nesses setores é imenso. Todavia, se os algoritmos acabam impondo uma implacável lógica matemática que, de fato, tem tudo para favorecer aos tribunais nessa empreitada, como poderá a sociedade brasileira, e em especial, o litigante judicial, se assegurar que os dados utilizados para treinar a I.A dos tribunais, não irá absorver todos os preconceitos, vises e injustiças neles contidos e até mesmo o próprio enviesamento embutido no subjetivismo do próprio programador?
Enfim, são essas questões que devem ser discutidas, cujo intuito é o de se demonstrar que a depender da forma como a avançada implementação de sistemas de inteligência artificial pelos tribunais brasileiros continuar sendo feita, esse processo de pragmatização da tomada de decisões judiciais que já está sendo operado pelo Poder Judiciário trará grandes implicações éticas à motivação das decisões judiciais e ao direito fundamental de acesso à justiça. Devendo a comunidade jurídica ter um papel mais ativo e democrático em todas essas discussões a fim de que essa nova tecnologia automatizada decisional possa atender os jurisdicionados em geral e não apenas a estrutura judiciária.
[1] KAUFMAN, Dora. A inteligência artificial irá suplantar a inteligência humana? Barueri, São Paulo: Estação das Letras e Cores, 2019. p. 19.
[2] STEIBEL, Fabro; VICENTE Victor Freitas; DE JESUS, Diego Santos Vieira. Possibilidades e Pontenciais da utilização da Inteligência Artificial. In: FRAZÃO, Ana; MULHOLLAND, Caitlin. (coord.) Inteligência Artificial e Direito. Ética, Regulação e Responsabilidade. São Paulo: Revista dos Tribunais, 2019. p. 53.
[3] Alan Mathison Turing (1912-1954) foi um dos primeiros cientistas no mundo a desenvolver a ciência da computação e a concretizar o conceito de algoritmo que mais tarde se revelou uma das grandes conquistas da computação moderna. Turing coordenou a equipe responsável que desvendou o código alemão Enigma na Segunda Grande Guerra Mundial. In: GUNKEL, David J. Comunicação e Inteligência Artificial: novos desafios e oportunidades para a pesquisa em comunicação. Galaxia (São Paulo, online), n. 34, jan-abr., 2017. p. 06.
[4] GUTIERREZ, Andrei. É possível confiar em um sistema de Inteligência Artificial? Práticas em torno da melhoria da sua confiança, segurança e evidências de accountability. In: FRAZÃO, Ana; MULHOLLAND, Caitlin. (coord.). Inteligência Artificial e Direito. Ética, Regulação e Responsabilidade. São Paulo: Revista dos Tribunais, 2019. p. 85.
[5] TAULLI, Tom. Introdução à Inteligência Artificial – Uma abordagem não técnica.São Paulo: Novatec. Apress, 2020. p. 62-119.
[6] GUTIERREZ, Andrei. Inteligência Artificial e Direito. Ética, Regulação e Responsabilidade. Coord.: FRAZÃO, Ana; MULHOLLAND, Caitlin. São Paulo: Revista dos Tribunais, 2019. p. 85.
[7] MENDES, Laura Schertel; MATTIUZZO, Marcela. Discriminação algorítmica: Conceito, fundamento legal e tipologia. RDU, Porto Alegre, v. 16, n. 90, nov.-dez. 2019. p. 41.
[8] CORMEN, Thomas. Algorithms Unlocked. MIT Press, 2013. p. 1.
[9] CORMEN, Thomas. Algorithms Unlocked. MIT Press, 2013. p. 3.
[10]MENDES, Laura Schertel; MATTIUZZO, Marcela. Discriminação algorítmica: Conceito, fundamento legal e tipologia. RDU, Porto Alegre, v. 16, n. 90, nov.-dez. 2019. p. 41-42.
[11] CANAL TECH. Sistema com inteligência artificial ajuda advogados na hora de pesquisar a lei. 18.05.2016. Disponível em:https://goo.gl/fH293U.
[12] BRASIL. Supremo Tribunal Federal. Notícias: Inteligência Artificial vai agilizar a tramitação de projetos no STF. 30 maio 2018. Disponível em: http://portal.stf.jus.br/noticias/verNoticiaDetalhe.asp?idConteudo=380038&ori=1.
[13] BRASIL. Supremo Tribunal de Federal. Inteligência Artificial vai agilizar a tramitação de processos no STF: 30 maio 2018. Disponível em: http://www.stf.jus.br/portal/cms/verNoticiaDetalhe.asp?id-Conteudo=380038.
[14] O termo “devolver” aqui deve ser compreendido como a possibilidade de se aplicar a tese já estabelecida pelo Supremo Tribunal Federal, quanto também para o sobrestamento de processos que aguardam uma definição da tese em sede de repercussão geral ou recursos repetitivos.
[15] TEIXEIRA, Matheus. STF investe em inteligência artificial para dar celeridade a processos. Jota. 11.12.2018. Disponível em: https://www.jota.info/coberturas-especiais/inova-e-acao/stf-aposta-inteligencia-artificial-celeridade-processos-11122018.
[16] BRASIL. Superior Tribunal de Justiça. STJ entra na era da inteligência artificial – STJ. Disponível em: http://www.sjt.jus.br-STJ-default-pt_BR-Comunicação-notícias-Notícias.
[17]BRASIL. Superior Tribunal de Justiça. Revolução tecnológica e desafios da pandemia marcaram gestão do ministro Noronha na presidência do STJ. Portal de notícias do STJ. 23 ago. 2020. Disponível em: https://www.stj.jus.br/sites/portalp/Paginas/Comunicacao/Noticias/23082020-Revolucao-tecnologica-e-desafios-da-pandemia-marcaram-gestao-do-ministro-Noronha-na-presidencia-do-STJ.aspx.
[18] Nesse sentido: “O sucesso do Sistema Athos levou o STJ a se articular com os tribunais de segunda instância para que também eles pudessem utilizar esses recursos tecnológicos na gestão de precedentes. Assim, foi idealizado o Athos Tribunais, projeto que visa apoiar as 32 cortes sob a jurisdição do STJ e a Turma Nacional de Uniformização na formação de precedentes e, adicionalmente, incentivar o envio ao STJ de recursos representativos de controvérsia, a fim de que sejam julgados sob o rito processual dos repetitivos. O Athos Tribunais está atualmente em desenvolvimento e deverá compor o Módulo de Jurisdição Extraordinária, iniciativa do Supremo Tribunal Federal (STF) que busca auxiliar os tribunais na análise de admissibilidade dos recursos especiais e recursos extraordinários. Inserido em uma visão de integração entre STF e STJ, o projeto busca agregar uma série de iniciativas, de modo a maximizar os resultados com uma significativa redução de custos”. BRASIL. Superior Tribunal de Justiça. Revolução tecnológica e desafios da pandemia marcaram gestão do ministro Noronha na presidência do STJ. Portal de notícias do STJ. 23 ago. 2020. Disponível em: https://www.stj.jus.br/sites/portalp/Paginas/Comunicacao/Noticias/23082020-Revolucao-tecnologica-e-desafios-da-pandemia-marcaram-gestao-do-ministro-Noronha-na-presidencia-do-STJ.aspx.
[19] BRASIL. Superior Tribunal de Justiça. TJPE usará inteligência artificial para agilizar processos de execução fiscal no Recife. Disponível em: http://www.tjpe.jus.br/noticias/-/asset_publisher/ubhL04hQXv5n/content/id2079372.
[20] PERNAMBUCO. Tribunal de Justiça de Pernambuco. TJPE usará inteligência artificial para agilizar processos de execução fiscal no Recife. Disponível em: http://www.tjpe.jus.br/noticias/-/asset_publisher/ubhL04hQXv5n/content/id2079372.
[21] State v. Loomis. 881 N.W.2d 749 (Wis. 2016). Disponível em: https://harvardlawreview.org/2017/03/state-v-loomis/.
[22] SOURDAIN, Tania. Judge v Robot?Artificial Intelligence and judicial decision-making. University of New South Wales Law Journal, v. 41, n. 4, p. 1126, 2018. Disponível em: https://bit.ly/2D2HCAP.
[23]WHITTLESTONE, Jesse et al. Ethical and societal implications of algorithms, data, and artificial intelligence: a roadmap for research. London: Nuffield Foundation, 2019.