Crédito:Lucky Raccoon / Shutterstock
A história tem muito a recomendar:o psicólogo Dan Ariely, o autor de um livro best-seller sobre a ciência comportamental da desonestidade, retira seu estudo porque os dados eram falsos. Não é de admirar que tenha sido divulgado pela mídia mundial. Buzzfeed declarou este "o último golpe no movimentado campo da economia comportamental". O psicólogo Stuart Ritchie, ele mesmo um cientista, escreveu sobre o caso com o título:"Nunca confie em um cientista".
Eu me preocupo com essas interpretações. E não porque eu ensino em um programa de mestrado em ciências comportamentais. Eu me preocupo porque manchetes como esta correm o risco de alimentar um sentimento anticientífico em um momento em que a fé nos especialistas é baixa, quando pessoas pensativas repetem que vivemos em um "mundo pós-verdade" e onde a desconfiança da ciência está causando mortes.
Mas a maioria, Preocupo-me com essas interpretações porque tiro a conclusão oposta desta história. Nesse caso, a lição é que o processo científico realmente funcionou bem.
Lançando dúvidas sobre a ciência
Um detalhe importante e esquecido é que o processo científico revelou, anos atrás, que os resultados do artigo não se sustentavam. Usando dados fornecidos por uma seguradora, O estudo de Ariely afirma que as pessoas são mais honestas em seus relatórios se assinarem uma declaração de veracidade no início de um documento, e não no final. O método foi adotado pelo IRS, a agência de arrecadação de impostos dos EUA, e pelo menos uma grande seguradora.
Embora ninguém tenha expressado preocupação com fraude deliberada, muitas equipes de pesquisa relataram suas tentativas fracassadas de replicar os estudos iniciais. A replicação é importante. Porque a ciência está enraizada na probabilidade, observar o mesmo resultado em duas ocasiões independentes torna muito menos provável que o resultado seja um acaso.
Em 2020, Ariely e seus co-autores publicaram um artigo no qual eles próprios tentaram e não conseguiram reproduzir os resultados iniciais. Naquela época, ainda não havia sido descoberto que os dados iniciais haviam sido falsificados. Os autores concluíram que os resultados iniciais foram um acaso e intitularam o artigo de acompanhamento:"Assinar no início versus no final não diminui a desonestidade."
Outra característica marcante é que as replicações com falha foram publicadas em uma das principais revistas científicas gerais. É um fato recente que os cientistas devotariam seu tempo a estudos de replicação - e que os principais periódicos dedicariam preciosos centímetros de colunas para publicá-los - e seguir uma série de estudos estatísticos que lançam dúvidas sobre o rigor da ciência publicada.
O primeiro foi o estudo provocativo de simulação de dados que sugeriu que mais da metade dos resultados publicados de pesquisas científicas são falsos. Essa descoberta deriva dos três seguintes recursos:
Em seguida, houve o projeto de replicação Many Labs. Ele descobriu que mais da metade dos resultados publicados nas principais revistas de psicologia não podiam ser replicados.
Expor resultados falsos
Algumas contribuições perspicazes vêm da ciência comportamental, que compreende várias disciplinas que examinam o comportamento humano e a interação, e trabalha na interseção das estatísticas, economia e psicologia. Um desses insights foi que os cientistas podem publicar resultados falsos mesmo sem saber.
Para ter uma ideia disso, primeiro você precisa saber se a comunidade científica considera que um resultado fornece evidências se o resultado ultrapassar um limite. Esse limite é medido como um valor p, com p representando probabilidade. Valores de p mais baixos indicam resultados mais confiáveis. Um resultado ultrapassa o limite em evidência confiável ou, na linguagem da ciência, é estatisticamente significativo, se seu valor p estiver abaixo de algum limite, por exemplo, p <0,05.
Intencionalmente ou não, os pesquisadores aumentam as chances de obter resultados estatisticamente significativos ao se engajar em práticas de pesquisa questionáveis. Em uma pesquisa publicada em 2012, a maioria dos psicólogos relatou que testam sua teoria medindo mais de um resultado e, em seguida, relatam os resultados apenas no resultado que atinge significância estatística. Presumivelmente, eles admitiram esse comportamento porque não reconheceram que isso aumenta a chance de chegar a uma conclusão incorreta.
Uri Simonsohn, Leif Nelson e Joe Simmons, um trio de cientistas comportamentais que são rotineiramente descritos como "detetives de dados, "desenvolveu um teste para verificar se uma conclusão é provavelmente derivada de práticas de pesquisa questionáveis. O teste examina se a evidência que apóia uma afirmação está suspeitamente agrupada logo abaixo do limite de significância estatística.
Foi esse teste que desmascarou a ideia de "pose de poder" - a afirmação amplamente divulgada de que você pode ter um desempenho melhor em situações estressantes se adotar uma postura física assertiva, como as mãos nos quadris.
Agora, os três detetives de dados fizeram isso de novo. Foi em seu blog que os fatos marcantes e sensacionais do estudo de desonestidade de Ariely foram expostos. Ao contrário da alegação de Buzzfeed de que este caso constitui um golpe para a economia comportamental, na verdade, demonstra como a ciência comportamental nos levou a erradicar resultados falsos. Expondo aquela maçã podre, e as técnicas fascinantes empregadas para fazer isso, na verdade, constitui uma vitória para os cientistas comportamentais.
Este artigo foi republicado de The Conversation sob uma licença Creative Commons. Leia o artigo original.