• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  •  Science >> Ciência >  >> Outros
    Por que os conselhos escolares de Ontário estão processando plataformas de mídia social por causarem uma crise de atenção
    Crédito:Jessica Lewis 🦋 thepaintedsquare de Pexels

    Quatro dos maiores conselhos escolares de Ontário abriram uma ação judicial contra quatro das maiores empresas de mídia social por causarem uma epidemia de dependência entre adolescentes. Os conselhos estão pedindo mais de US$ 4 bilhões em danos.



    O tempo gasto no Snapchat, TikTok, Instagram e Youtube, afirma o processo, levou a “uma crise de atenção, aprendizado e saúde mental”. Os aplicativos causam “distração, isolamento social, cyberbullying” e “uma rápida escalada de agressão”.

    A principal alegação do processo é que os aplicativos de mídia social causam incômodo público. Uma empresa faz isso quando polui um rio. Os manifestantes fazem isso quando bloqueiam uma via pública. Os conselhos escolares alegam que o TikTok, o Snapchat e outros interferiram no direito público à educação e prejudicaram a saúde mental dos jovens.

    Assim como uma empresa pode ser forçada a parar de poluir, os conselhos escolares querem que Google, Meta, ByteDance e Snapchat sejam forçados a mudar seus algoritmos para torná-los menos viciantes e prejudiciais. Devem também pagar os custos incorridos pelos conselhos para abordar questões de saúde mental e atenção.

    Seguindo uma tendência maior


    A ação movida pelos conselhos escolares de Ontário é um uso criativo da lei, mas não é nova. Segue-se a mais de 200 ações judiciais movidas por conselhos escolares nos Estados Unidos no ano passado contra as mesmas quatro empresas, fazendo uma reclamação semelhante.

    A ideia para estas ações judiciais baseia-se, por sua vez, numa onda anterior de ações movidas por conselhos escolares contra criadores de cigarros eletrónicos. Esses processos alegavam que a vaporização constituía um incômodo público, pois causava dependência entre adolescentes e outros problemas de saúde.

    Nesse caso, uma acção colectiva resultou num acordo de milhares de milhões de dólares, oferecendo um projecto do que poderia acontecer no Ontário.

    As escolas poderiam forçar um acordo com as empresas de mídia social para provocar mudanças na forma como seus aplicativos funcionam. Por exemplo, o conteúdo de uma plataforma pode ser apresentado cronologicamente em vez de ser escolhido por um algoritmo. O TikTok e o Youtube não nos mostrariam o conteúdo mais viciante, mas apenas o conteúdo que escolhemos ver.

    A Califórnia apresentou recentemente um projeto de lei que forçaria as empresas de mídia social a fazer exatamente isso e também exigiria que os aplicativos tivessem como padrão um limite de tempo diário de uma hora para crianças. Vários outros estados apresentaram projetos de lei semelhantes.
    CBC News analisa o processo movido por quatro conselhos escolares de Ontário contra várias plataformas de mídia social.

    As mídias sociais devem ser responsabilizadas?

    Os debates sobre os danos que as redes sociais podem estar a causar às mentes jovens e impressionáveis ​​continuam a desenrolar-se. Mas os limites da responsabilidade legal permanecem em grande parte desconhecidos.

    Parte do problema é uma lei americana aprovada na época em que a web nasceu:a seção 230 da Lei de Decência nas Comunicações. Isso deu a qualquer empresa nos Estados Unidos que hospede uma plataforma na Internet uma proteção contra responsabilidade por qualquer coisa que alguém possa postar em sua plataforma.

    Desde então, não foram aprovadas muitas leis na América do Norte que tratassem dos danos causados ​​pelas próprias plataformas – pela concepção de algoritmos ou outras funcionalidades que possam causar danos.

    Até agora, o foco tem sido a aprovação de leis que obrigariam as empresas de redes sociais a remover ou bloquear rapidamente conteúdos nocivos, como a Lei dos Serviços Digitais da União Europeia ou a Lei de Danos Online, agora em apreciação no Parlamento do Canadá.

    Um incômodo público?


    Mas os tribunais estão cada vez mais perto de resolver a questão da responsabilidade.

    Um caso importante foi ouvido em fevereiro na Suprema Corte dos EUA. No caso Gonzalez v Google, a família de uma vítima de um ataque terrorista em Paris em 2015 processou a Google, proprietária do YouTube, com base no facto de os seus algoritmos terem desempenhado um papel importante ao ajudar o ISIS a recrutar pessoas que possam ter estado envolvidas no ataque.

    Esse caso tem um problema óbvio. Como sabemos se os algoritmos do YouTube desempenharam um papel material no facto de alguém se juntar ao ISIS, e muito menos participar num ataque terrorista – e no de Paris em particular? O dano é muito remoto.

    Os conselhos escolares em Ontário e em todos os EUA estão a tentar contornar este problema, apoiando-se numa lei com um alcance muito maior. Afirmar que o TikTok ou o Snap oferecem aos adolescentes um produto defeituoso, causando danos, é mais difícil de entender. Qual é exatamente o defeito? E quantas outras coisas estão acontecendo em suas vidas que podem afetar sua atenção ou saúde mental?

    Mas o incômodo público é uma alegação mais fácil de decifrar – se um tribunal concordar que o TikTok, o Instagram ou outras plataformas interferiram em um público direito à educação, de uma forma que poderia prejudicar qualquer aluno.

    O tribunal teria de concordar que um “direito público à educação” é como um direito público de viajar por uma estrada, pescar num riacho ou respirar ar puro. Teria também de concordar que, ao expor os adolescentes ao algoritmo altamente viciante do Tiktok (ou de outras plataformas), interferia no direito dos jovens à educação e à saúde mental, da mesma forma que poluir um riacho ou bloquear uma estrada interfere no direito público de água limpa ou movimento em via pública.

    O paralelo pareceria suficientemente plausível para tornar um acordo uma possibilidade razoável.

    Mas o que poderá ser mais importante é que estes casos trouxeram à tona uma questão de séria preocupação pública e forçaram as empresas a fazer mais do que fazer promessas sobre tentar fazer melhor no futuro.

    Pode ser o primeiro processo desse tipo no Canadá. Mas pode não ser o último.

    Fornecido por The Conversation


    Este artigo foi republicado de The Conversation sob uma licença Creative Commons. Leia o artigo original.




    © Ciência https://pt.scienceaq.com