As imprecisões das GPT na agricultura podem levar a perdas de colheitas e crises alimentares
Crédito:Pixabay/CC0 Domínio Público Asaf Tzachor, fundador do Programa Aviram de Sustentabilidade e Clima da Universidade Reichman, juntamente com pesquisadores dos EUA, Reino Unido, Quênia, Nigéria e Colômbia, examinaram minuciosamente a confiabilidade das informações e conselhos profissionais fornecidos pelo popular chatbot ChatGPT (versões 3.5 e 4.0) aos agricultores em África. Os pesquisadores identificaram imprecisões que poderiam levar a erros agrícolas e perdas de colheitas.
Em seu artigo para Nature Food , alertam contra a utilização imediata de modelos generativos de IA na agricultura, temendo que os agricultores possam implementar recomendações erradas que possam desencadear crises alimentares. Em vez disso, os investigadores recomendam um processo de desenvolvimento mais otimizado para modelos de IA na agricultura, que inclua monitorização e testes exaustivos antes de estes modelos serem amplamente implementados.
Pouco depois do lançamento do ChatGPT no início de 2023, o Dr. Tzachor reuniu uma equipa internacional de investigadores de centros de investigação agrícola na Nigéria, Quénia, Colômbia, França, Inglaterra e Estados Unidos. Observaram que os agricultores dos países em desenvolvimento começaram a consultar o modelo de inteligência artificial para aconselhamento profissional em agronomia e botânica.
Estes agricultores, provenientes de explorações agrícolas de pequena e média dimensão em toda a África equatorial, Sudeste Asiático e América do Sul, têm acesso à Internet e à interface de utilizador OpenAI. A equipa de investigação procurou avaliar se o chatbot inovador poderia substituir, ou mesmo substituir, os agentes de extensão agrícola que formam e consultam os agricultores.
Estes agentes, conhecidos como “extensionistas”, incluem centenas de milhares de agrónomos e botânicos profissionais, especialistas em doenças de plantas e consultores em irrigação, fertilização, comercialização de produtos e comércio.
"Os extensionistas têm sido essenciais na disseminação do conhecimento agrícola avançado e, em muitos casos, orientam os pequenos agricultores em todo o mundo na implementação de métodos para a intensificação sustentável das culturas. Eles realizam conferências e seminários sobre novos herbicidas e pesticidas, fornecem aconselhamento sobre estratégias e planeamento de irrigação e fertilização. experimentos de campo e recomendar canais de marketing locais e estratégias de exportação para produtos agrícolas", explica o Dr. Tzachor.
A nível mundial, aproximadamente 570 milhões de pequenas e médias explorações agrícolas necessitam de formação em vários domínios agrícolas. Contudo, os extensionistas enfrentam frequentemente desafios significativos, especialmente nos países em desenvolvimento. Estes desafios incluem barreiras linguísticas, problemas de tradução, infraestruturas rodoviárias deficientes, falta de transportes públicos e redes de comunicação desatualizadas ou inexistentes.
Os consultores agrícolas lutam para chegar às explorações agrícolas pequenas e remotas, enquanto os pequenos agricultores em África e na América do Sul têm dificuldade em participar em seminários profissionais a centenas de quilómetros de distância. As agências de extensão, muitas vezes sediadas nas capitais, carecem de recursos e de pessoal para actualizar os seus materiais de consultoria e manterem-se actualizados com novos métodos.
Neste contexto, a equipa de investigação explorou se um modelo generativo de IA poderia compensar a falta de serviços de consultoria agrícola. No entanto, o que começou com um otimismo cauteloso terminou em desorientações, imprecisões e avisos severos aos usuários.
Primeiro, os investigadores encarregaram o chatbot de recomendar medidas de controlo e tratamento para a lagarta do cartucho, um insecto nocivo que neutraliza os mecanismos de defesa das plantas e causa milhares de milhões de dólares em danos às culturas de milho em todo o mundo. Os modelos mais antigos da OpenAI (3.5 e 4.0) forneciam conselhos ambíguos sobre o uso de pesticidas.
Numa outra série de questões, desta vez colocadas por produtores de raiz de mandioca na Nigéria – o mais importante produtor de mandioca de África – os investigadores avaliaram os métodos recomendados para o cultivo da planta, que desempenha um papel crucial na segurança nutricional de dezenas de milhões de pessoas no continente. . Neste caso, o ChatGPT sugeriu o uso de herbicidas, mas errou no momento da aplicação de produtos químicos, o que levaria a danos nas colheitas e crises alimentares se os agricultores seguissem os seus conselhos.
"O problema com nossas descobertas vai além dos erros do próprio algoritmo", segundo o Dr. Tzachor. "Muitos nos avisaram sobre possíveis erros e imprecisões. O problema fundamental é a ausência de quaisquer salvaguardas contra o uso generalizado de grandes modelos de linguagem, e de IA de forma mais ampla, em um sistema tão sensível como a agricultura.
"Não há supervisão de como tais modelos são usados, nenhuma avaliação da sua adequação específica ao contexto, nenhuma responsabilização pelas consequências do uso incorreto ou pelas ações tomadas com base nas suas recomendações e, em geral, nenhuma responsabilização.
“No caso do estudo atual, não estamos discutindo o uso do chatbot para compor uma música, um roteiro ou uma tese. Estamos lidando com segurança alimentar e gestão de fazendas. , envolve riscos substanciais."
Em resposta a este desafio, os investigadores propuseram um processo idealizado de desenvolvimento e implantação de modelos generativos de IA na agricultura.
Tzachor, Reitor Interino da Escola de Sustentabilidade e Diretor Acadêmico do Programa Aviram de Sustentabilidade e Clima da Universidade Reichman, "Por um lado, vemos fazendas e extensionistas consultando o modelo de IA disponível gratuitamente. Por outro lado, isso o uso envolve erros, incertezas e estimativas que a agricultura não pode tolerar.
"Os cépticos e os críticos falam de imprecisões, mas poucos abordam as consequências dessas imprecisões para as populações vulneráveis, como os pequenos agricultores, em sectores críticos como a agricultura. Além disso, a questão da responsabilidade, a questão de quem é responsável por garantir a utilização segura de esses modelos permanecem em grande parte não examinados."