A IA pode prever se alguém estava realmente no local de uma amostra de DNA. Crédito:Gorodenkoff / Shutterstock
As evidências de DNA geralmente não são tão estanques quanto muitas pessoas pensam. Técnicas sensíveis desenvolvidas nos últimos 20 anos significam que a polícia agora pode detectar vestígios minúsculos de DNA na cena do crime ou em um pedaço de evidência. Mas os vestígios de um perpetrador são frequentemente misturados com os de muitas outras pessoas que foram transferidas para o local da amostra, por exemplo, por meio de um aperto de mão. E esse problema fez com que pessoas fossem condenadas injustamente.
Os cientistas desenvolveram algoritmos para separar essa sopa de DNA e medir as quantidades relativas de DNA de cada pessoa em uma amostra. Esses métodos de "genotipagem probabilística" permitiram aos investigadores forenses indicar a probabilidade de o DNA de um indivíduo ter sido incluído em uma amostra mista encontrada na cena do crime.
E agora, técnicas mais sofisticadas de inteligência artificial (IA) estão sendo desenvolvidas na tentativa de extrair perfis de DNA e tentar descobrir se uma amostra de DNA veio diretamente de alguém que estava na cena do crime, ou se tinha sido transferido inocentemente.
Mas se essa tecnologia for bem-sucedida, pode introduzir um novo problema, porque atualmente é impossível entender exatamente como essa IA chega às suas conclusões. E como podemos confiar na tecnologia para fornecer evidências vitais se não podemos interrogar como ela produziu essas evidências em primeiro lugar? Ela tem o potencial de abrir caminho para ainda mais erros judiciais e, portanto, essa falta de transparência pode ser uma barreira para o uso da tecnologia em investigações forenses.
Desafios semelhantes surgiram quando o software de análise de DNA foi desenvolvido pela primeira vez, há uma década. As evidências derivadas do software de mistura de DNA rapidamente enfrentaram desafios das equipes de defesa (incluindo a de OJ Simpson), que estavam preocupados que a acusação deveria demonstrar que o software foi validado corretamente.
Quão precisos foram os resultados, e qual foi a taxa de erro conhecida? Como exatamente o software funcionava e poderia acomodar as hipóteses de defesa? Os resultados foram realmente tão confiáveis que um júri poderia condenar com segurança?
É um princípio fundamental da lei que as evidências devem ser abertas ao exame. O júri não pode confiar em afirmações simples (afirmações feitas sem provas), não importa quem os faz e que experiência eles têm. Mas os proprietários do software argumentaram que se tratava de sua propriedade intelectual protegida e como funcionava não deveria ser tornado público.
Seguiu-se uma batalha que envolveu o uso de novos procedimentos judiciais para permitir que as equipes de defesa examinassem em particular como o software funcionava. Finalmente, os tribunais foram persuadidos de que era necessário acesso total ao código-fonte, não menos importante para testar outras hipóteses além das apresentadas pela acusação.
Mas o software não resolveu completamente os problemas de misturas de DNA e pequenas, amostras degradadas. Ainda não sabemos com certeza se o DNA de uma amostra veio diretamente de uma pessoa ou foi transferido para lá. Isso é complicado pelo fato de que diferentes pessoas eliminam DNA em taxas diferentes - um fenômeno conhecido como seu "status de eliminação".
Por exemplo, uma amostra retirada de uma arma de crime pode conter mais DNA de alguém que não a tocou do que da pessoa que realmente cometeu o crime. Pessoas foram acusadas de crimes graves por causa disso.
Adicione o fato de que o DNA é transferido em taxas diferentes em diferentes superfícies e em diferentes condições ambientais e pode se tornar quase impossível saber exatamente de onde veio o DNA em uma amostra. Este problema de "transferência e persistência" ameaça minar seriamente o DNA forense.
Como resultado, experimentos estão em andamento para encontrar maneiras de quantificar com mais precisão a transferência de DNA em diferentes circunstâncias. E a IA tem o potencial de analisar os dados desses experimentos e usá-los para indicar a origem do DNA em uma amostra.
Mas o software baseado em IA tem um problema de transparência ainda maior do que o software de genotipagem probabilística, e que atualmente é fundamental para o modo como funciona. A maneira exata como o software funciona não é apenas um segredo comercial - não está claro nem mesmo para os desenvolvedores de software.
Problemas de transparência
A IA usa algoritmos matemáticos para completar tarefas, como combinar uma expressão facial com um determinado conjunto de emoções. Mas, crucialmente, é capaz de aprender por meio de um processo de tentativa e erro e, gradualmente, manipula seus algoritmos subjacentes para se tornar mais eficiente.
É esse processo de manipulação e mudança que nem sempre é transparente. O software faz suas alterações com uma rapidez incrível, de acordo com sua própria lógica indecifrável. Pode obter resultados fantasticamente eficientes, mas não podemos dizer como o fez. Ele atua como uma caixa preta que recebe entradas e dá saídas, mas cujo funcionamento interno é invisível. Os programadores podem passar por um processo de desenvolvimento mais claro, mas é mais lento e menos eficiente.
Este problema de transparência afeta muitas aplicações mais amplas de IA. Por exemplo, torna muito difícil corrigir os sistemas de IA cujas decisões exibem um preconceito racial ou de gênero, como aqueles usados para filtrar currículos de funcionários, ou para direcionar os recursos da polícia.
E o advento da análise de DNA impulsionada por IA acrescentará uma nova dimensão aos problemas já encontrados. Os advogados de defesa podem desafiar com razão o uso desta tecnologia, mesmo que seu uso se limite à coleta de informações, em vez de fornecer evidências para a acusação. A menos que os problemas de transparência sejam resolvidos em um estágio inicial, os obstáculos ao uso de IA no campo forense podem ser intransponíveis.
Como podemos enfrentar esses desafios? Uma opção pode ser optar pelo menos eficiente, formas restritas de IA. Mas se o objetivo da IA é fazer as tarefas de que somos menos capazes ou menos dispostos a fazer nós mesmos, então, reduzir a eficiência pode ser uma solução ruim. Qualquer que seja a forma de IA que optemos por usar, dentro de um sistema contraditório de justiça criminal, deve haver potencial para revisão, para fazer engenharia reversa em todas as decisões automatizadas, e para que terceiros forneçam validação inequívoca.
Em última análise, este não é apenas um problema técnico, mas um problema ético urgente que atinge o cerne de nossos sistemas de justiça criminal. Em jogo está o direito a uma feira, julgamento aberto e transparente. Este é um requisito fundamental que deve ser abordado antes que a corrida precipitada do avanço tecnológico nos leve além do ponto sem volta.
Este artigo foi republicado de The Conversation sob uma licença Creative Commons. Leia o artigo original.