Crédito CC0:domínio público
No programa da HBO Westworld , robôs projetados para exibir emoções, sentir dor, e morrer como humanos em um amplo parque temático de estilo ocidental para hóspedes ricos que pagam para encenar suas fantasias. Conforme o show avança, e os robôs aprendem mais sobre o mundo em que vivem, eles começam a perceber que são brinquedos da pessoa que os programou.
Os espectadores podem concluir que os humanos precisam pagar robôs com inteligência artificial sofisticada, como os de Westworld —As mesmas proteções éticas que oferecemos uns aos outros. Mas Westworld é um programa de TV fictício. E robôs com sofisticação cognitiva de humanos não existem.
No entanto, os avanços em inteligência artificial por universidades e empresas de tecnologia significam que estamos mais perto do que nunca de criar máquinas que são "aproximadamente tão cognitivamente sofisticadas quanto ratos ou cachorros, "diz John Basl, que é professor assistente de filosofia na Northeastern University. Ele argumenta que essas máquinas merecem as mesmas proteções éticas que damos aos animais envolvidos na pesquisa.
"O cenário de pesadelo é que criamos uma mente de máquina, e sem saber, faça algo que seja doloroso, "Basl diz." Nós criamos um ser consciente e então o causamos sofrimento. "
Os comitês de cuidado e uso de animais examinam cuidadosamente as pesquisas científicas para garantir que os animais não sofram indevidamente, e os padrões são ainda mais elevados para pesquisas que envolvem células-tronco humanas, Basl diz.
Conforme os cientistas e engenheiros se aproximam da criação de máquinas artificialmente inteligentes que são conscientes, a comunidade científica precisa construir uma estrutura semelhante para proteger essas máquinas inteligentes do sofrimento e da dor, também, Basl diz.
"Normalmente esperamos até que haja uma catástrofe ética, e, em seguida, crie regras para evitar que aconteça novamente, "Basl diz." Estamos dizendo que precisamos começar a pensar sobre isso agora, antes que tenhamos uma catástrofe. "
Basl e seu colega da Universidade da Califórnia, Riverside, propor a criação de comitês de supervisão - compostos por cientistas cognitivos, designers de inteligência artificial, filósofos, e eticistas - para avaliar cuidadosamente pesquisas envolvendo inteligência artificial. E eles dizem que é provável que tais comitês julguem todas as pesquisas atuais de inteligência artificial permitidas.
Mas uma questão filosófica está no cerne de tudo isso:como saberemos quando criamos uma máquina capaz de experimentar alegria e sofrimento, especialmente se essa máquina não puder comunicar esses sentimentos para nós?
Não há uma resposta fácil para esta pergunta, Basl diz, em parte porque os cientistas não concordam sobre o que a consciência realmente é.
Algumas pessoas têm uma visão "liberal" da consciência, Basl diz. Eles acreditam que tudo o que é necessário para a existência da consciência é "processamento de informações bem organizado, "e um meio pelo qual prestar atenção e planejar a longo prazo. Pessoas que têm pontos de vista mais" conservadores ", ele diz, exigem que os robôs tenham características biológicas específicas, como um cérebro semelhante ao de um mamífero.
Neste ponto, Basl diz, não está claro qual visão pode ser correta, ou se há outra maneira de definir a consciência que ainda não consideramos. Mas, se usarmos a definição mais liberal de consciência, os cientistas podem em breve ser capazes de criar máquinas inteligentes que podem sentir dor e sofrimento, e que merecem proteções éticas, Basl diz.
"Poderíamos estar muito longe de criar uma IA consciente, ou poderíamos estar perto, "Basl diz." Devemos estar preparados para o caso de estarmos perto. "