Talal Rahwan, professor associado de Ciência da Computação na NYU Abu Dhabi. Crédito:NYU Abu Dhabi
Avanços tecnológicos recentes em inteligência artificial tornaram possível para as máquinas, ou bots, passar por humanos. Uma equipe de pesquisadores liderada por Talal Rahwan, professor associado de Ciência da Computação na NYU Abu Dhabi, conduziu um experimento para estudar como as pessoas interagem com bots que acreditam ser humanos, e como essas interações são afetadas quando os bots revelam sua identidade. Os pesquisadores descobriram que os bots são mais eficientes do que os humanos em certas interações homem-máquina, mas apenas se eles tiverem permissão para esconder sua natureza não humana.
Em seu artigo intitulado "Evidência Comportamental para uma Compensação Transparência-Eficiência na Cooperação Homem-Máquina", publicado em Nature Machine Intelligence , os pesquisadores apresentaram seu experimento no qual os participantes foram convidados a jogar um jogo de cooperação com um associado humano ou um associado bot. Este jogo, chamado de Dilema do Prisioneiro Iterado, foi projetado para capturar situações em que cada uma das partes interagindo pode agir de forma egoísta na tentativa de explorar a outra, ou agir cooperativamente na tentativa de alcançar um resultado mutuamente benéfico.
Crucialmente, os pesquisadores deram a alguns participantes informações incorretas sobre a identidade de seus associados. Alguns participantes que interagiram com um humano foram informados de que estavam interagindo com um bot, e vice versa. Através deste experimento, pesquisadores conseguiram determinar se as pessoas têm preconceito contra os parceiros sociais que acreditam ser bots, e avaliar o grau em que tal preconceito, se existe, afeta a eficiência dos bots que são transparentes sobre sua natureza não humana.
Os resultados mostraram que os bots se passando por humanos foram mais eficientes em persuadir o parceiro a cooperar no jogo. Contudo, assim que sua verdadeira natureza foi revelada, as taxas de cooperação caíram e a superioridade dos bots foi negada.
"Embora haja um amplo consenso de que as máquinas devem ser transparentes sobre como tomam decisões, é menos claro se eles devem ser transparentes sobre quem são, "disse Rahwan.
"Considerar, por exemplo, Google Duplex, um assistente de voz automatizado capaz de gerar fala humana para fazer chamadas telefônicas e agendar compromissos em nome de seu usuário. O discurso do Google Duplex é tão realista que a pessoa do outro lado do telefone pode nem perceber que está falando com um bot. É ético desenvolver tal sistema? Devemos proibir os bots de se passarem por humanos, e forçá-los a serem transparentes sobre quem são? Se a resposta é sim', então, nossas descobertas destacam a necessidade de estabelecer padrões para o custo de eficiência que estamos dispostos a pagar em troca de tal transparência. "