Crédito CC0:domínio público
Em uma nova série de experimentos, algoritmos de inteligência artificial (I.A.) foram capazes de influenciar as preferências das pessoas por candidatos políticos fictícios ou potenciais parceiros românticos, dependendo se as recomendações foram explícitas ou encobertas. Ujué Agudo e Helena Matute da Universidad de Deusto em Bilbao, Espanha, apresentar essas descobertas no jornal de acesso aberto PLOS ONE em 21 de abril, 2021.
Do Facebook aos resultados de pesquisa do Google, muitas pessoas encontram a I.A. algoritmos todos os dias. Empresas privadas estão conduzindo pesquisas extensas sobre os dados de seus usuários, gerando percepções sobre o comportamento humano que não estão publicamente disponíveis. A pesquisa acadêmica em ciências sociais fica atrás da pesquisa privada, e conhecimento público sobre como a I.A. algoritmos podem moldar as decisões das pessoas.
Para lançar uma nova luz, Agudo e Matute conduziram uma série de experimentos que testaram a influência do I.A. algoritmos em diferentes contextos. Eles recrutaram participantes para interagir com algoritmos que apresentavam fotos de candidatos políticos fictícios ou candidatos a encontros online, e pediu aos participantes que indicassem em quem votariam ou enviariam uma mensagem. Os algoritmos promoveram alguns candidatos em detrimento de outros, seja explicitamente (por exemplo, "90% de compatibilidade") ou disfarçadamente, como, por exemplo, mostrando suas fotos com mais frequência do que outras.
Geral, os experimentos mostraram que os algoritmos tiveram uma influência significativa nas decisões dos participantes sobre em quem votar ou enviar mensagem. Para decisões políticas, a manipulação explícita influenciou significativamente as decisões, enquanto a manipulação encoberta não foi eficaz. O efeito oposto foi visto nas decisões de namoro.
Os pesquisadores especulam que esses resultados podem refletir a preferência das pessoas por conselhos humanos explícitos quando se trata de questões subjetivas, como namoro, enquanto as pessoas podem preferir conselhos algorítmicos sobre decisões políticas racionais.
À luz de suas descobertas, os autores expressam apoio a iniciativas que buscam aumentar a confiabilidade da I.A., como as Diretrizes de Ética da Comissão Europeia para IA confiável e o programa de IA explicável (XAI) da DARPA. Ainda, eles alertam que mais pesquisas disponíveis publicamente são necessárias para entender a vulnerabilidade humana aos algoritmos.
Enquanto isso, os pesquisadores pedem esforços para educar o público sobre os riscos da confiança cega nas recomendações dos algoritmos. Eles também destacam a necessidade de discussões sobre a propriedade dos dados que impulsionam esses algoritmos.
Os autores acrescentam:"Se um algoritmo fictício e simplista como o nosso pode atingir tal nível de persuasão sem estabelecer perfis realmente personalizados dos participantes (e usando as mesmas fotografias em todos os casos), um algoritmo mais sofisticado, como aqueles com os quais as pessoas interagem em suas vidas diárias, certamente seria capaz de exercer uma influência muito mais forte. "