Um método com raízes na IA revela como os humanos fazem escolhas em grupos e mídias sociais
p Crédito CC0:domínio público
p As escolhas que fazemos em grandes configurações de grupo - como em fóruns online e mídia social - podem parecer bastante automáticas para nós. Mas nosso processo de tomada de decisão é mais complicado do que imaginamos. Então, pesquisadores têm trabalhado para entender o que está por trás desse processo aparentemente intuitivo. p Agora, uma nova pesquisa da Universidade de Washington descobriu que, em grandes grupos de membros essencialmente anônimos, as pessoas fazem escolhas com base em um modelo da "mente do grupo" e uma simulação em evolução de como uma escolha afetará essa mente teorizada.
p Usando uma estrutura matemática com raízes na inteligência artificial e na robótica, Os pesquisadores da UW conseguiram descobrir o processo de como uma pessoa faz escolhas em grupos. E, eles também descobriram que eram capazes de prever a escolha de uma pessoa com mais frequência do que os métodos descritivos mais tradicionais. Os resultados foram publicados na quarta-feira, 27 de novembro no
Avanços da Ciência .
p "Nossos resultados são particularmente interessantes à luz do crescente papel das mídias sociais em ditar como os humanos se comportam como membros de grupos específicos, "disse o autor sênior Rajesh Rao, o professor CJ e Elizabeth Hwang na Escola Paul G. Allen de Ciência da Computação e Engenharia da UW e co-diretor do Centro de Neurotecnologia.
p "Em fóruns online e grupos de mídia social, as ações combinadas de membros anônimos do grupo podem influenciar sua próxima ação, e inversamente, sua própria ação pode mudar o comportamento futuro de todo o grupo, "Disse Rao.
p Os pesquisadores queriam descobrir quais mecanismos estão em ação em ambientes como esses.
p No papel, eles explicam que o comportamento humano depende de previsões de estados futuros do ambiente - uma melhor estimativa do que pode acontecer - e o grau de incerteza sobre esse ambiente aumenta "drasticamente" em ambientes sociais. Para prever o que pode acontecer quando outro humano está envolvido, uma pessoa faz um modelo da mente do outro, chamada de teoria da mente, e então usa esse modelo para simular como as próprias ações de alguém afetarão essa outra "mente".
p Embora este ato funcione bem para interações individuais, a capacidade de modelar mentes individuais em um grande grupo é muito mais difícil. A nova pesquisa sugere que os humanos criam um modelo médio de uma "mente" representativa do grupo, mesmo quando as identidades dos outros não são conhecidas.
p Para investigar as complexidades que surgem na tomada de decisões em grupo, os pesquisadores se concentraram na "tarefa do dilema do voluntário, "em que alguns indivíduos suportam alguns custos para beneficiar todo o grupo. Exemplos da tarefa incluem o dever de guarda, doação de sangue e dando um passo à frente para impedir um ato de violência em um lugar público, eles explicam no jornal.
p Para imitar esta situação e estudar as respostas comportamentais e cerebrais, os pesquisadores colocaram os sujeitos em uma ressonância magnética, um por um, e os fez jogar um jogo. No jogo, chamado de jogo de bens públicos, a contribuição do sujeito para um pote de dinheiro comum influencia os outros e determina o que todos no grupo recebem de volta. Um sujeito pode decidir contribuir com um dólar ou decidir "pegar carona" - isto é, não contribuir para obter a recompensa na esperança de que outros contribuam para o pote.
p Se o total de contribuições exceder um valor predeterminado, todo mundo recebe dois dólares de volta. Os sujeitos jogaram dezenas de rodadas com outros que nunca conheceram. Sem o conhecimento do assunto, os outros foram simulados por um computador imitando jogadores humanos anteriores.
p "Quase podemos ter um vislumbre da mente humana e analisar seu mecanismo computacional subjacente para a tomada de decisões coletivas, "disse o autor principal Koosha Khalvati, estudante de doutorado na Allen School. “Ao interagir com um grande número de pessoas, descobrimos que os humanos tentam prever as futuras interações do grupo com base em um modelo de intenção de um membro médio do grupo. Mais importante, eles também sabem que suas próprias ações podem influenciar o grupo. Por exemplo, eles estão cientes de que, embora sejam anônimos para os outros, seu comportamento egoísta diminuiria a colaboração no grupo em futuras interações e possivelmente traria resultados indesejados. "
p Em seu estudo, os pesquisadores conseguiram atribuir variáveis matemáticas a essas ações e criar seus próprios modelos de computador para prever quais decisões a pessoa poderia tomar durante o jogo. Eles descobriram que seu modelo prevê o comportamento humano significativamente melhor do que os modelos de aprendizagem por reforço, ou seja, quando um jogador aprende a contribuir com base em como a rodada anterior foi ou não paga, independentemente dos outros jogadores - e abordagens descritivas mais tradicionais.
p Dado que o modelo fornece uma explicação quantitativa para o comportamento humano, Rao se perguntou se isso pode ser útil na construção de máquinas que interagem com humanos.
p "Em cenários onde uma máquina ou software está interagindo com grandes grupos de pessoas, nossos resultados podem conter algumas lições para IA, ", disse ele." Uma máquina que simula a 'mente de um grupo' e simula como suas ações afetam o grupo pode levar a uma IA mais amigável, cujo comportamento está mais alinhado com os valores dos humanos. "