Perguntas e respostas:pesquisadores alertam sobre o perigo e pedem uma pausa na introdução da IA nas escolas
Crédito:Universidade do Colorado em Boulder Nas escolas de ensino fundamental e médio de todo o país, uma nova espécie de corrida do ouro está em andamento:as salas de aula em todo o país estão correndo para trazer as mais recentes ferramentas de inteligência artificial, como plataformas alimentadas pelo chatbot ChatGPT, para a sala de aula.
Alex Molnar, diretor do Centro Nacional de Política Educacional (NEPC) da CU Boulder, vê um perigo nesta pressa de introduzir a IA nas escolas. Essas plataformas, disse ele, usam algoritmos opacos e geralmente proprietários – tornando seu funcionamento interno misterioso para educadores, pais e alunos.
“O que temos é um monte de promessas que a IA cumprirá conforme prometido”, disse Molnar, professor pesquisador da Escola de Educação. “O problema é que atualmente não há forma de avaliar de forma independente as alegações feitas.”
Num novo relatório, Molnar e os seus colegas destacam as potenciais armadilhas da IA na educação e apelam a uma “pausa” indefinida na integração da IA na aprendizagem K-12. Os coautores incluíram Ben Williamson, da Universidade de Edimburgo, no Reino Unido, e Faith Boninger, professora assistente de pesquisa em educação na CU Boulder.
Molnar explica por que a IA é uma aposta arriscada para a educação – e o que pais preocupados e outras pessoas podem fazer para se envolverem.
As novas tecnologias representam riscos para a educação básica?
Tem havido todo o tipo de problemas associados à utilização de plataformas digitais nas escolas, mesmo antes da adopção generalizada da inteligência artificial.
Os dados dos alunos muitas vezes não são devidamente protegidos. Por exemplo, tem havido todos os tipos de vazamentos de fornecedores terceirizados e não existe nenhuma lei ou política eficaz que os responsabilize. Você também tem muitos testes beta acontecendo nas escolas. As afirmações de marketing parecem boas, mas as plataformas digitais muitas vezes não produzem os resultados prometidos e estão repletas de problemas técnicos.
As tecnologias digitais tornaram difícil ou impossível responder a questões fundamentais, tais como:Quem decide o conteúdo curricular a ser incorporado nestas plataformas? Quem está revisando seu trabalho?
A IA poderia piorar esses problemas?
Todas as questões relacionadas às tecnologias digitais tendem a ser amplificadas pela inteligência artificial.
A chamada IA utiliza algoritmos e enormes quantidades de poder computacional para produzir resultados baseados em inúmeros cálculos de probabilidades. Por exemplo, qual é a probabilidade de a próxima palavra numa sequência ser “suco”? Estes cálculos não produzem “verdade” ou mesmo, necessariamente, precisão. Eles produzem resultados probabilísticos.
Atualmente, a construção e operação de algoritmos de IA estão em grande parte fora da vista do público e sem qualquer responsabilidade pública. No entanto, os profissionais das escolas estão a ser pressionados, tanto por profissionais de marketing como por entidades governamentais, a serem vistos como estando na vanguarda desta alegada revolução digital – entregando cada vez mais processos escolares a tecnólogos com pouco ou nenhum conhecimento de pedagogia ou currículo escolar.
Muitas pessoas chamam as ferramentas de IA de 'caixa preta'. O que isso significa?
Para usar uma explicação do velho mundo, imagine se você dissesse:“Gostaria de ver o livro de geografia do meu filho”. Você pode dizer:“Tenho alguns problemas aqui”. Você poderia conversar com alguém sobre isso, alguém que pudesse explicar essas questões. Mas com IA, você não pode fazer isso.
Você não pode entrar e dizer, por exemplo:"Como funcionou a pontuação neste trabalho?" A resposta seria:“Bem, não sabemos”. “Como sabemos que este conteúdo é preciso?” "Bem, nós também não sabemos disso."
A preocupação, então, é que a IA possa tomar decisões no lugar dos educadores ou dos pais?
Você pode usar a IA para ajudá-lo a determinar se uma criança trapaceou. Você o usa para determinar se uma criança deve ou não estar neste ou naquele programa. Você pode usar a IA para decidir todos os tipos de coisas sobre uma criança, e a criança fica presa com pouco ou nenhum recurso.
Os pais podem reclamar o quanto quiserem. Eles ainda não conseguem obter informações sobre a base de uma decisão tomada pela IA porque o diretor não as possui. A professora não tem isso. O superintendente não tem. Está escondido atrás de uma cortina proprietária de um fornecedor privado.
Você defende uma “pausa” no uso da IA nas escolas. Como seria isso?
A solução seria que as legislaturas estaduais, por estatuto, dissessem, em essência:as escolas públicas neste estado não podem adotar programas de inteligência artificial a menos e até que esses programas sejam certificados por esta entidade governamental – eles teriam que criar a entidade. Ele revisou esses programas. Afirmou que eles são seguros para uso e define quais são os usos apropriados do programa e para quem.
Por outras palavras, nada acontece nas escolas até que tenhamos o quadro estatutário e regulamentar e a capacidade institucional em vigor para avaliar de forma independente as plataformas de IA propostas para utilização nas escolas.
O que os pais, ou qualquer outra pessoa, que esteja preocupada com esse problema podem fazer?
Exija que os seus representantes levem estas questões a sério – em primeiro lugar, para legislar uma pausa na adopção da IA nas escolas. Período. Depois, podem pedir aos seus representantes que criem uma entidade estatal destinada a regular o uso da IA nas escolas.
Este é um problema político. Este não é um problema técnico.
Temos uma longa história de empresas de tecnologia que não seguem as suas próprias regras, que são ridiculamente inadequadas. Para qualquer pessoa que esteja seriamente tentando descobrir como usar a IA de forma responsável na educação, se não estiver falando de ação política, não está realmente falando. Os tecnólogos não nos salvarão.