Se o Google e o Facebook têm a obrigação moral ou legal de reprimir a desinformação é uma questão multifacetada e sem resposta fácil. Vamos considerar diferentes perspectivas e argumentos:
Argumentos a favor da obrigação do Google e do Facebook de eliminar a desinformação: 1.
Saúde Pública e Bem-Estar :A desinformação pode espalhar-se rapidamente online e ter efeitos prejudiciais para a saúde pública. Alegações falsas e conspirações podem levar à relutância em vacinas, à desconfiança nas instituições científicas e a práticas de saúde prejudiciais. As empresas têm a responsabilidade social de proteger os seus utilizadores de tais danos.
2.
Liberdade de expressão versus interesse público :A liberdade de expressão é vital, mas pode entrar em conflito com o interesse público quando conteúdos enganosos representam riscos. Plataformas como Google e Facebook argumentam que priorizam a liberdade de expressão, mas também têm o dever de equilibrá-la com o bem-estar da sociedade.
3.
Erosão da confiança e da credibilidade :A desinformação mina a confiança nas fontes online, o que é essencial para uma democracia saudável. A confiança do público nas instituições e nos especialistas é prejudicada quando se permite que alegações erróneas se espalhem sem controlo. Abordar esta questão pode fortalecer o envolvimento cívico e os processos democráticos.
4.
Populações Vulneráveis :A desinformação pode afetar desproporcionalmente as populações vulneráveis, que têm menos probabilidades de ter as competências ou os recursos para discernir informações precisas. As empresas devem tomar medidas para garantir que estes grupos sejam protegidos.
5.
Obrigações Legais :Há um debate contínuo sobre se as empresas devem ser legalmente responsáveis pela divulgação consciente de informações falsas ou por não regulamentarem adequadamente o conteúdo gerado pelos utilizadores. Alguns países já implementaram regulamentos para lidar com conteúdos online nocivos.
Argumentos contra a obrigação exclusiva do Google e do Facebook: 1.
Preocupações com censura e liberdade de expressão :Os críticos argumentam que as empresas não devem agir como árbitros da verdade ou decidir quais informações devem ser consideradas desinformadas. Isto levanta preocupações sobre a censura e definições subjetivas de “verdade”.
2.
Complexidade Algorítmica :identificar informações incorretas nem sempre é simples e os algoritmos podem cometer erros ao sinalizar informações precisas. Isto coloca desafios na concepção de mecanismos eficazes para remoção de conteúdo sem impactar o discurso legítimo.
3.
Liberdade de escolha :Alguns argumentam que os utilizadores devem ser responsáveis por avaliar criticamente a informação que encontram online e fazer os seus próprios julgamentos. Esta perspetiva coloca sobre os indivíduos o ónus de consumir informações de forma sensata, em vez de depender apenas de plataformas para verificação de factos.
4.
Falta de soluções abrangentes :Alguns acreditam que não existem soluções perfeitas para lidar com a propagação da desinformação e que se trata de uma questão social que exige uma abordagem multifacetada que envolve educação, regulamentação e responsabilidade colectiva.
Determinar se o Google e o Facebook “deveriam” ter a obrigação de reprimir a desinformação é uma questão de considerações éticas, sociais e legais que estão em constante evolução. Os reguladores, os legisladores e a sociedade em geral devem encontrar um equilíbrio entre preservar a liberdade de expressão, proteger os utilizadores de danos e garantir a continuidade da saúde do discurso digital.