Criar um futuro brilhante para todos requer mais humanidade, e não menos. Principalmente no caso de robôs.
Termos como "IA" e "aprendizado de máquina" estão lentamente se tornando parte de nosso mundo cotidiano. De documentos de pesquisa a seu feed de notícias, é provável que você tenha visto esses termos aparecendo com mais frequência nos últimos anos.
Embora essas ideias estejam se tornando mais populares, eles começam a levantar questões filosóficas antigas que ainda temos que responder. Perguntas como "O que significa ser humano?" ou "Como quantificamos o dano?"
Para algumas aplicações de IA, responder a essas perguntas antigas é fundamental. Em casos onde riscos estão envolvidos, como carros sem motorista, ter uma resposta pode ser uma questão de vida ou morte.
Ética do Robô
Essas questões não estão sendo ignoradas à medida que o impulso para a automação continua. Pesquisadores de todo o mundo estão procurando maneiras de responder a essas perguntas.
Uma dessas pesquisadoras é Anna Sawyer, quem está escrevendo seu Ph.D. sobre ética de robôs na University of Western Australia.
Anna diz que é sobre como as máquinas tomam decisões com resultados sérios e as estruturas que devemos ter para orientar essas decisões.
O trabalho de Anna a viu aconselhar a equipe por trás Eu sou mãe , um filme de ficção científica australiano que explora algumas dessas questões.
Humanos vs robôs
Uma parte fundamental da ética do robô é a diferença entre a tomada de decisão humana e a do robô.
No caso de tentar evitar um acidente, humanos tomam decisões reativas com tempo e informações limitados. Mas os robôs podem fazer cálculos, decisões proativas, potencialmente com mais informações.
Mas aqui está o problema - temos que decidir como os robôs estão tomando essas decisões. E está nos forçando a tomar algumas decisões muito desconfortáveis no processo.
Como decidir entre um carro com dois filhos e um dos pais bater em um ônibus escolar cheio de crianças ou bater em uma parede para evitar o ônibus.
Ou decidir salvar um passageiro mais jovem às custas de uma pessoa mais velha que tem menos vida para viver.
Também traz uma discussão sobre a redução de danos. Quando a redução vai longe demais? Ou um exemplo que Anna dá - gostaríamos de evitar uma arrancada do dedo do pé ao custo de uma obra de arte de valor inestimável?
Esse dilema está no centro da discussão sobre a ética do robô.
Big data para o resgate?
Você pode pensar que a solução está em mais dados, mas pode complicar ainda mais as coisas.
Pense nos dados pessoais que o Google ou a Apple podem ter sobre você a partir do seu telefone e uso de mídia social. Agora, considere que eles estão entrando no negócio de carros sem motorista.
Anna diz que esses dados podem ser usados para tomar decisões em situações de vida ou morte, como um acidente de carro.
Voltando à escolha entre sacrificar uma pessoa mais velha ou mais jovem, o que aconteceria se o idoso recebesse o Prêmio Nobel da Paz? E o mais jovem tinha ficha criminal violenta?
"Isso muda - e deveria mudar - a maneira como o veículo age?" Anna pergunta. "Se isso acontecer, como então o programamos? "
O futuro
Ainda não temos as respostas, então, como ensinamos um robô a respondê-las?
Como muitas questões éticas, tudo se resume a um ditado antigo.
"Só porque podemos fazer isso não significa que devemos fazer, "Anna diz.
"Mas se vamos fazer isso, devemos ter certeza de que o maior número possível de pessoas está envolvido nessa conversa. "
Muitas vezes esquecemos que o futuro, por definição, está sempre para ser escrito. Mas se a tecnologia continuar nessa direção, podemos não ter muito tempo para resolver isso.
Este artigo apareceu pela primeira vez no Particle, um site de notícias científicas baseado na Scitech, Perth, Austrália. Leia o artigo original.