Crédito:inteligência artificial-503593_1920 / flickr
A histeria sobre o futuro da inteligência artificial (IA) está em toda parte. Parece que não faltam notícias sensacionalistas sobre como a IA pode curar doenças, acelerar a inovação humana e melhorar a criatividade humana. Basta olhar para as manchetes da mídia, você pode pensar que já estamos vivendo em um futuro onde a IA se infiltrou em todos os aspectos da sociedade.
Embora seja inegável que a IA abriu uma grande variedade de oportunidades promissoras, também levou ao surgimento de uma mentalidade que pode ser melhor descrita como "solucionismo de IA". Esta é a filosofia que, dados suficientes, algoritmos de aprendizado de máquina podem resolver todos os problemas da humanidade.
Mas há um grande problema com essa ideia. Em vez de apoiar o progresso da IA, na verdade, isso prejudica o valor da inteligência da máquina ao desconsiderar importantes princípios de segurança de IA e definir expectativas irreais sobre o que a IA pode realmente fazer pela humanidade.
Solucionismo de IA
Em apenas alguns anos, O solucionismo de IA abriu caminho da boca dos evangelistas de tecnologia no Vale do Silício para as mentes de funcionários do governo e legisladores em todo o mundo. O pêndulo oscilou da noção distópica de que a IA destruirá a humanidade para a crença utópica de que nosso salvador algorítmico está aqui.
Agora estamos vendo governos prometerem apoio a iniciativas nacionais de IA e competir em uma corrida armamentista tecnológica e retórica para dominar o crescente setor de aprendizado de máquina. Por exemplo, o governo do Reino Unido prometeu investir £ 300 milhões em pesquisas de IA para se posicionar como líder no campo. Apaixonado pelo potencial transformador da IA, o presidente francês Emmanuel Macron se comprometeu a transformar a França em um centro de IA global. Enquanto isso, o governo chinês está aumentando suas proezas de IA com um plano nacional para criar uma indústria chinesa de IA no valor de US $ 150 bilhões até 2030. O solucionismo de IA está em ascensão e veio para ficar.
Redes neurais - mais fácil falar do que fazer
Embora muitos manifestos políticos apregoem os efeitos transformadores da iminente "revolução da IA", eles tendem a subestimar a complexidade em torno da implantação de sistemas avançados de aprendizado de máquina no mundo real.
Uma das variedades mais promissoras de tecnologias de IA são as redes neurais. Essa forma de aprendizado de máquina é vagamente modelada a partir da estrutura neuronal do cérebro humano, mas em uma escala muito menor. Muitos produtos baseados em IA usam redes neurais para inferir padrões e regras de grandes volumes de dados. Mas o que muitos políticos não entendem é que simplesmente adicionar uma rede neural a um problema não significa automaticamente que você encontrará uma solução. De forma similar, adicionar uma rede neural a uma democracia não significa que ela será instantaneamente mais inclusiva, justo ou personalizado.
Desafiando a burocracia de dados
Os sistemas de IA precisam de muitos dados para funcionar, mas o setor público normalmente não tem a infraestrutura de dados apropriada para dar suporte ao aprendizado de máquina avançado. A maioria dos dados permanece armazenada em arquivos offline. As poucas fontes de dados digitalizadas que existem tendem a ser enterradas na burocracia. Mais frequentes do que não, os dados são espalhados por diferentes departamentos do governo, cada um deles requerendo permissões especiais para serem acessados. Sobre tudo, o setor público normalmente carece de talento humano com as capacidades tecnológicas certas para colher plenamente os benefícios da inteligência da máquina.
Por estas razões, o sensacionalismo sobre a IA atraiu muitos críticos. Stuart Russell, professor de ciência da computação em Berkeley, há muito defende uma abordagem mais realista que se concentra em aplicações simples do dia-a-dia da IA, em vez da aquisição hipotética por robôs superinteligentes. De forma similar, Professor de robótica do MIT, Rodney Brooks, escreve que "quase todas as inovações em robótica e IA vão longe, longe, mais tempo para ser amplamente implantado do que as pessoas no campo e fora do campo imaginam ".
Uma das muitas dificuldades na implantação de sistemas de aprendizado de máquina é que a IA é extremamente suscetível a ataques adversários. Isso significa que uma IA maliciosa pode ter como alvo outra IA para forçá-la a fazer previsões erradas ou a se comportar de uma determinada maneira. Muitos pesquisadores alertaram contra o lançamento de IA sem os padrões de segurança e mecanismos de defesa apropriados. Ainda, A segurança da IA continua sendo um tópico frequentemente esquecido.
O aprendizado de máquina não é mágico
Se quisermos colher os benefícios e minimizar os danos potenciais da IA, devemos começar a pensar em como o aprendizado de máquina pode ser aplicado de forma significativa a áreas específicas do governo, negócios e sociedade. Isso significa que precisamos discutir sobre a ética da IA e a desconfiança que muitas pessoas têm em relação ao aprendizado de máquina.
Mais importante, precisamos estar cientes das limitações da IA e de onde os humanos ainda precisam assumir a liderança. Em vez de pintar uma imagem irreal do poder da IA, é importante dar um passo para trás e separar as capacidades tecnológicas reais da IA da magia.
Por muito tempo, O Facebook acreditava que problemas como a disseminação de desinformação e discurso de ódio poderiam ser identificados e interrompidos por algoritmos. Mas, sob pressão recente de legisladores, a empresa rapidamente se comprometeu a substituir seus algoritmos por um exército de mais de 10, 000 revisores humanos.
A profissão médica também reconheceu que a IA não pode ser considerada uma solução para todos os problemas. O programa IBM Watson for Oncology era uma peça de IA destinada a ajudar os médicos a tratar o câncer. Embora tenha sido desenvolvido para fornecer as melhores recomendações, especialistas humanos acharam difícil confiar na máquina. Como resultado, o programa de IA foi abandonado na maioria dos hospitais onde foi testado.
Problemas semelhantes surgiram no domínio jurídico quando algoritmos foram usados em tribunais nos Estados Unidos para sentenciar criminosos. Um algoritmo calculou as pontuações da avaliação de risco e aconselhou os juízes sobre a sentença. Descobriu-se que o sistema ampliava a discriminação racial estrutural e mais tarde foi abandonado.
Esses exemplos demonstram que não há solução de IA para tudo. Usar IA simplesmente por IA nem sempre pode ser produtivo ou útil. Nem todo problema é resolvido melhor aplicando inteligência de máquina a ele. Esta é a lição crucial para todos os que desejam aumentar os investimentos em programas nacionais de IA:todas as soluções têm um custo e nem tudo que pode ser automatizado deveria ter.
Este artigo foi publicado originalmente em The Conversation. Leia o artigo original.