Como podemos garantir que as novas tecnologias permaneçam centradas no bem-estar humano? Crédito:Axel Heimken / DPA
Se programas de televisão recentes servirem de referência, estamos um pouco preocupados com as consequências do desenvolvimento tecnológico. As narrativas distópicas são abundantes.
Black Mirror projeta as consequências negativas das redes sociais, enquanto a inteligência artificial se torna desonesta em The 100 and Better Than Us. A potencial extinção da raça humana está em jogo entre os viajantes, e o Carbono Alterado se preocupa com a separação da consciência humana do corpo. E Humanos e Westworld veem problemas à frente para as relações humano-andróides.
Narrativas como essas têm uma longa linhagem. A ficção científica tem articulado nossas esperanças e medos sobre a ruptura tecnológica, pelo menos desde Frankenstein (1818) de Mary Shelley.
Contudo, à medida que surgem carros como carros sem motorista e terapeutas robóticos, algumas preocupações anteriormente fictícias não são mais especulações imaginativas. Em vez de, eles representam problemas reais e urgentes.
Que tipo de futuro queremos?
Ano passado, O cientista-chefe da Austrália, Alan Finkel, sugeriu que nós, na Austrália, deveríamos nos tornar "guardiães humanos". Isso significaria ser líderes em desenvolvimento tecnológico, ética, e direitos humanos.
Finkel não está sozinho em sua preocupação. Mas não será simples lidar com essas questões no desenvolvimento de novas tecnologias.
Muitas pessoas no governo, a indústria e as universidades agora argumentam que incluir perspectivas das ciências humanas e sociais será um fator chave.
Um relatório recente do Conselho Australiano de Academias Aprendidas (ACOLA) reuniu especialistas das áreas científicas e técnicas, bem como das humanidades, artes e ciências sociais para examinar questões-chave decorrentes da inteligência artificial.
De acordo com o presidente do conselho da ACOLA, Hugh Bradlow, o relatório visa garantir que "o bem-estar da sociedade" seja colocado "no centro de qualquer desenvolvimento".
IA centrada no ser humano
Uma visão semelhante impulsiona o Instituto de Inteligência Artificial Centrada no Homem da Universidade de Stanford. O instituto reúne pesquisadores da área de humanidades, Educação, lei, Medicina, negócios e STEM para estudar e desenvolver tecnologias de IA "centradas no ser humano". A ideia que sustenta seu trabalho é que "IA deve ser colaborativa, aumentativa e melhorando a produtividade humana e a qualidade de vida. "
Enquanto isso, através do Atlântico, o Instituto do Futuro da Humanidade da Universidade de Oxford também investiga "questões gerais" para garantir "um futuro longo e próspero para a humanidade".
O centro deve dobrar de tamanho no próximo ano, graças a uma contribuição de £ 13,3 milhões (A $ 25 milhões) do Open Philanthropy Project. O fundador do instituto, filósofo Nick Bostrom, disse:"Há uma corrida de longa distância entre a capacidade tecnológica da humanidade, que é como um garanhão galopando pelos campos, e a sabedoria da humanidade, que é mais como um potro com pernas instáveis. "
O que construir e por quê
O setor de TI também está lutando com as questões éticas levantadas pelo rápido avanço tecnológico. Brad Smith e Harry Shum, da Microsoft, escreveram em seu livro The Future Computed de 2018 que uma de suas "conclusões mais importantes" foi que as ciências humanas e sociais têm um papel crucial a desempenhar no enfrentamento dos desafios levantados pela IA:
"Línguas, arte, história, economia, ética, filosofia, cursos de psicologia e desenvolvimento humano podem ensinar habilidades filosóficas e baseadas na ética que serão fundamentais no desenvolvimento e gerenciamento de soluções de IA.
"As práticas de contratação em empresas de tecnologia já estão mudando. Em uma palestra TED sobre" Por que a tecnologia precisa das ciências humanas, "Eric Berridge - presidente-executivo da empresa de consultoria em tecnologia Bluewolf, de propriedade da IBM - explica por que sua empresa cada vez mais contrata graduados em humanidades."
Enquanto as ciências nos ensinam como construir coisas, são as ciências humanas que nos ensinam o que construir e por que fazê-lo.
Apenas 100 de Bluewolf's 1, 000 funcionários são graduados em ciência da computação e engenharia. Até o Diretor de Tecnologia é formado em inglês.
Educação para um futuro melhor
De forma similar, Matt Reaney, o executivo-chefe e fundador da Big Cloud, uma empresa de recrutamento especializada em ciência de dados, aprendizado de máquina e emprego de IA - argumentou que a tecnologia precisa de mais pessoas com treinamento em ciências humanas. "[As humanidades] dão contexto ao mundo em que operamos no dia a dia. Habilidades de pensamento crítico, compreensão mais profunda do mundo que nos rodeia, filosofia, ética, comunicação, e a criatividade oferecem abordagens diferentes para os problemas colocados pela tecnologia. "
Reaney propõe uma "abordagem mais mista" para o ensino superior, oferecendo cursos que combinam as artes e STEM.
Outro defensor da abordagem interdisciplinar é Joseph Aoun, Presidente da Northeastern University em Boston. Ele argumentou que na era da IA, o ensino superior deve se concentrar no que ele chama de "humanidades, "equipar os formandos com três alfabetizações essenciais:alfabetização tecnológica, literacia em dados e literacia humana.
Chegou a hora de responder ao apelo por formados em humanidades capazes de entrar no mundo da tecnologia para que nosso futuro humano seja o mais brilhante possível.
Sem treinamento em ética, direitos humanos e justiça social, as pessoas que desenvolvem as tecnologias que moldarão nosso futuro podem tomar decisões erradas. E esse futuro pode acabar sendo uma das calamidades que já vimos na tela.
Este artigo foi republicado de The Conversation sob uma licença Creative Commons. Leia o artigo original.