Anucha Tiemsom/Shutterstock
Quando a OpenAI revelou o ChatGPT em 30 de novembro de 2022, a resposta foi modesta. Em dois meses, a plataforma acumulou 100 milhões de usuários ativos, estabelecendo um recorde para o aplicativo de crescimento mais rápido da história. Esta rápida adoção repercutiu em todos os setores que dependem da linguagem humana, e a educação não é exceção. Universidades e escolas em todo o mundo depararam-se com dificuldades para determinar se o trabalho dos alunos era genuinamente seu ou produto de uma máquina.
Para muitos educadores, os detetores de IA pareciam uma panaceia:uma forma de distinguir o esforço do engano. No entanto, mesmo antes da existência do ChatGPT, o software de plágio já enfrentava problemas com falsos positivos, penalizando os alunos injustamente. As novas ferramentas de IA apenas ampliaram esse problema. Os alunos agora podem produzir ensaios sofisticados com apenas algumas teclas, aliviando o pensamento crítico que o aprendizado deve nutrir. Na corrida para acompanhar o ritmo, os professores recorrem cada vez mais a ferramentas de deteção que classificam erroneamente o trabalho original como gerado por máquina, o que leva a acusações injustificadas de fraude.
Neste artigo, examinamos a forma como a IA tem impactado as escolas em todo o mundo – aumentando a trapaça, promovendo a dependência tecnológica e espalhando desinformação – ao mesmo tempo que revela um caminho para uma educação mais centrada no ser humano, numa era de mudanças tecnológicas sem precedentes.
Trapaça habilitada para IA
Xavier Lorenzo/Shutterstock
ChatGPT e plataformas semelhantes oferecem aos estudantes um novo atalho para a desonestidade acadêmica. Além de gerar ensaios, essas ferramentas podem resolver problemas matemáticos complexos (com precisão variável) e até mesmo produzir código de computador a partir de solicitações mínimas. Detectar esse tipo de trabalho é notoriamente difícil. Um estudo publicado na PLOS One fez com que pesquisadores enviassem ensaios totalmente gerados por IA para um sistema de exames de um programa de psicologia do Reino Unido; 94% dos envios não foram detectados. Nos cursos de ciência da computação, os educadores temem que o GitHub Copilot e outras ferramentas de geração de código exijam uma reformulação completa dos currículos.
Os incidentes de trapaça alimentados por IA aumentaram. A Escócia relatou centenas de casos nos últimos dois anos, e uma universidade turca prendeu recentemente um estudante que usou uma câmera disfarçada de botão de camisa – conectada à IA por meio de um roteador escondido em um sapato – para receber respostas durante um exame de admissão.
Excesso de confiança na tecnologia
Luis Álvarez/Getty Images
Embora a IA possa agilizar as operações em sala de aula, pesquisas em *Informática e Educação* mostram que os alunos que dependem fortemente dessas ferramentas apresentam agência reduzida, aprendendo mais copiando do que interagindo com o conteúdo. Os professores também estão cada vez mais dependentes de detectores de plágio baseados em IA, apesar das evidências das suas elevadas taxas de falsos positivos. Uma pesquisa realizada pelo Centro para Democracia e Tecnologia descobriu que dois terços de uma amostra representativa nacionalmente de 460 instrutores dos EUA usam essas ferramentas.
A OpenAI desenvolveu uma técnica de marca d'água que identifica de forma confiável o texto da IA, mas a liberação comercial é limitada pelas pressões do mercado. Os esforços recentes do Google podem oferecer uma solução de detecção mais acessível. Além disso, alguns educadores utilizam a IA para avaliar redações, desencadeando debates éticos e levantando questões de privacidade quando o trabalho dos alunos é carregado nestes sistemas sem consentimento.
Desinformação e alucinações
Rob Dobi/Getty Images
Grandes modelos de linguagem são propensos a “alucinações” – apresentando informações fabricadas num tom convincente e autoritário. Isto é especialmente problemático na educação, onde o objetivo é ensinar o raciocínio baseado em factos. Em dezembro de 2023, um aluno da Hingham High School, em Massachusetts, recebeu nota baixa em um projeto AP de História dos EUA após enviar um texto gerado por IA que citava fontes inexistentes. A falta de uma política anti-IA na escola levou os pais do aluno a processarem a reversão de notas, um pedido negado pelo tribunal federal.
Scientific Reports relata que 55% das revisões de literatura produzidas pelo ChatGPT‑3.5 e 18% pelo ChatGPT‑4 continham citações fabricadas. À medida que os professores incorporam a IA no planeamento das aulas, aumenta o risco de disseminar inadvertidamente informações falsas aos alunos.
Amplificação de polarização em modelos de IA
Imagens Tarikvision/Getty
Os sistemas de IA treinados em vastos conjuntos de dados não filtrados podem perpetuar e ampliar os preconceitos existentes. A OpenAI reconhece que os seus modelos tendem para pontos de vista ocidentais e favorecem a entrada em inglês. Este preconceito pode prejudicar os falantes não nativos de inglês, com os detetores de IA a sinalizarem com mais frequência o seu trabalho como gerado por máquina.
A análise preditiva utilizada nas escolas – como ferramentas que prevêem a probabilidade de conclusão do ensino secundário – muitas vezes classifica mal os alunos pertencentes a minorias. Um sistema do Wisconsin, em utilização desde 2012, identificou repetidamente estudantes negros e hispânicos como em risco, mas o algoritmo estava errado em quase três quartos das vezes, distorcendo as perceções dos educadores.
Transformando a IA em uma força positiva
Foto de olhos/Getty Images
Apesar dos seus desafios, a IA pode melhorar a experiência educacional quando aplicada de forma ponderada. Estudos mostram que as ferramentas de IA funcionam como parceiros eficazes de brainstorming, despertando curiosidade e investigação. Os alunos devem primeiro praticar o pensamento original antes de utilizar a IA como tutor para uma exploração mais profunda. O feedback baseado em IA e a geração de conteúdo em tempo real podem criar um ambiente de aprendizagem mais responsivo e personalizado.
O equilíbrio é a chave para desbloquear os benefícios da IA e, ao mesmo tempo, mitigar os seus danos. Para aqueles interessados no impacto social mais amplo da IA, veja nossa análise das preocupações de Elon Musk sobre o DeepMind do Google e o incidente envolvendo o diálogo do Google Gemini com um estudante.