Crédito CC0:domínio público
Um novo estudo sugere que o uso de máquinas autônomas aumenta a cooperação entre os indivíduos.
Pesquisadores do Laboratório de Pesquisa do Exército do Comando de Desenvolvimento de Capacidades de Combate dos EUA, o Instituto de Tecnologias Criativas do Exército e a Universidade do Nordeste colaboraram em um artigo publicado no Proceedings of the National Academy of Sciences .
A equipe de pesquisa, liderado pelo Dr. Celso de Melo, ARL, em colaboração com os drs. Jonathan Gratch, TIC, e Stacy Marsella, NU, conduziu um estudo de 1, 225 voluntários que participaram de experimentos computadorizados envolvendo um dilema social com veículos autônomos.
"Máquinas autônomas que agem em nome das pessoas - como robôs, drones e veículos autônomos estão rapidamente se tornando uma realidade e devem desempenhar um papel cada vez mais importante no campo de batalha do futuro, "De Melo disse." As pessoas são mais propensas a tomar decisões altruístas para favorecer o interesse coletivo quando solicitadas a programar máquinas autônomas com antecedência em vez de tomar a decisão em tempo real de momento a momento. "
De Melo disse que apesar das promessas de aumento de eficiência, não está claro se essa mudança de paradigma mudará a forma como as pessoas decidem quando seu interesse próprio se opõe ao interesse coletivo.
"Por exemplo, um drone de reconhecimento deve priorizar a coleta de inteligência que seja relevante para as necessidades imediatas do esquadrão ou a missão geral do pelotão?
"Nossa pesquisa em PNAS começa a examinar como essas transformações podem alterar as organizações e relacionamentos humanos, "Gratch disse." Nossa expectativa, com base em algum trabalho anterior sobre intermediários humanos, foi que os representantes da IA podem tornar as pessoas mais egoístas e mostrar menos preocupação com os outros. "
No papel, os resultados indicam que os voluntários programaram seus veículos autônomos para se comportar de forma mais cooperativa do que se estivessem dirigindo eles próprios. De acordo com as evidências, isso acontece porque a programação de máquinas faz com que recompensas egoístas de curto prazo se tornem menos salientes, levando a considerações de objetivos sociais mais amplos.
"Ficamos surpresos com essas descobertas, "Gratch disse." Ao pensar sobre as escolhas de alguém com antecedência, as pessoas realmente mostram mais consideração pela cooperação e justiça. É como se sendo forçado a considerar cuidadosamente suas decisões, as pessoas colocavam mais peso nas metas pró-sociais. Ao tomar decisões a cada momento, em contraste, eles se tornam mais movidos pelo interesse próprio. "
Os resultados mostram ainda que esse efeito ocorre em uma versão abstrata do dilema social, o que eles dizem indica que generaliza além do domínio dos veículos autônomos.
"A decisão de como programar máquinas autônomas, na prática, é provável que seja distribuído por várias partes interessadas com interesses concorrentes, incluindo o governo, fabricantes e controladores, "disse de Melo." Em dilemas morais, por exemplo, pesquisas indicam que as pessoas prefeririam veículos autônomos de outras pessoas para maximizar a preservação da vida (mesmo que isso significasse sacrificar o motorista), considerando seu próprio veículo para maximizar a preservação da vida do motorista. "
À medida que essas questões são debatidas, pesquisadores dizem que é importante entender que no caso possivelmente mais prevalente de dilemas sociais - onde o interesse individual é contraposto ao interesse coletivo - as máquinas autônomas têm o potencial de moldar como os dilemas são resolvidos e, portanto, essas partes interessadas têm a oportunidade de promover uma sociedade mais cooperativa.