Crédito CC0:domínio público
O uso de animais para testar a toxicidade de produtos químicos pode um dia ficar desatualizado graças a um baixo custo, algoritmo de alta velocidade desenvolvido por pesquisadores da Rutgers e outras universidades.
Os testes de toxicidade - determinar a quantidade de exposição a um produto químico que não é seguro para humanos - é vital para a segurança de milhões de trabalhadores em vários setores. Mas dos 85, 000 compostos usados em produtos de consumo, a maioria não foi exaustivamente testada quanto à segurança. Testes em animais, além de suas preocupações éticas, pode ser muito caro e demorado para atender a essa necessidade, de acordo com o estudo publicado em Perspectivas de Saúde Ambiental .
"Há uma urgência, necessidade mundial de maneira econômica e rápida de testar a toxicidade de produtos químicos, a fim de garantir a segurança das pessoas que trabalham com eles e dos ambientes em que são utilizados, "disse o pesquisador principal Daniel Russo, Doutoranda do Rutgers University-Camden Center for Computational and Integrative Biology. "Os testes em animais por si só não podem atender a essa necessidade."
Esforços anteriores para resolver este problema usaram computadores para comparar produtos químicos não testados com compostos estruturalmente semelhantes, cuja toxicidade já é conhecida. Mas esses métodos não foram capazes de avaliar produtos químicos estruturalmente únicos - e foram confundidos pelo fato de que alguns produtos químicos estruturalmente semelhantes têm níveis muito diferentes de toxicidade.
O grupo liderado por Rutgers superou esses desafios desenvolvendo um algoritmo pioneiro que extrai dados automaticamente do PubChem, um banco de dados do National Institutes of Health com informações sobre milhões de produtos químicos. O algoritmo compara fragmentos químicos de compostos testados com aqueles de compostos não testados, e usa vários métodos matemáticos para avaliar suas semelhanças e diferenças a fim de prever a toxicidade de um produto químico não testado.
"O algoritmo desenvolvido por Daniel e o laboratório Zhu extrai grandes quantidades de dados, e discerne as relações entre fragmentos de compostos de diferentes classes químicas, exponencialmente mais rápido do que um humano poderia, "disse a co-autora Lauren Aleksunes, professor associado da Rutgers 'Ernest Mario School of Pharmacy e do Rutgers Environmental and Occupational Health Sciences Institute. "Este modelo é eficiente e fornece às empresas e reguladores uma ferramenta para priorizar produtos químicos que podem precisar de testes mais abrangentes em animais antes de serem usados no comércio."
Para ajustar o algoritmo, os pesquisadores começaram com 7, 385 compostos para os quais os dados de toxicidade são conhecidos, e comparou-o com dados sobre os mesmos produtos químicos no PubChem. Eles então testaram o algoritmo com 600 novos compostos. Para vários grupos de produtos químicos, o algoritmo liderado por Rutgers teve uma taxa de sucesso de 62 a 100 por cento na previsão de seu nível de toxicidade oral. E ao comparar as relações entre conjuntos de produtos químicos, eles lançam luz sobre novos fatores que podem determinar a toxicidade de um produto químico.
Embora o algoritmo tenha sido direcionado apenas para avaliar o nível de toxicidade dos produtos químicos quando consumidos por via oral, os pesquisadores liderados por Rutgers concluem que sua estratégia pode ser estendida para prever outros tipos de toxicidade.
“Embora a substituição completa dos testes em animais ainda não seja viável, este modelo dá um passo importante para atender às necessidades da indústria, em que novos produtos químicos estão constantemente em desenvolvimento, e para segurança ambiental e ecológica, "disse o autor correspondente Hao Zhu, professor associado de química da Rutgers-Camden e do Rutgers and Environmental and Occupational Health Sciences Institute.