Como a inteligência artificial orientada por valores pode remodelar a forma como nos comunicamos
Crédito:Yale University Press
Mike Ananny passeou com seu cachorro esta manhã. Ele o fez sem nenhuma expectativa de privacidade.
"Sei que fui submetido a uma grande variedade de câmeras, sejam campainhas de campainha, carros passando ou até câmeras de trânsito da cidade", disse ele. "Eu não escolhi participar de toda essa variedade de sistemas de vigilância por vídeo. Apenas levei meu cachorro para passear."
Ananny entende que, por onde passa, dados sobre ele estão sendo coletados, analisados e monetizados pela inteligência artificial (IA).
Kate Crawford dirigiu uma van nas profundezas da paisagem árida de Nevada para dar uma boa olhada nas lagoas de salmoura evaporando da mina de lítio Silver Peak.
Essas faixas desoladas de líquido não são apenas a maior fonte de lítio dos EUA – o metal essencial para as baterias que alimentam tudo, desde laptops a dispositivos móveis e carros elétricos – eles também são um lembrete vívido do impacto que a IA tem no mundo material. .
"Metáforas que as pessoas usam para falar sobre IA como 'a nuvem' implicam algo flutuante e abstrato", disse Crawford. "Mas a computação em larga escala tem uma enorme pegada de carbono e impacto ambiental."
Crawford sabe que os sistemas mundiais de energia, mineração, trabalho e poder político estão sendo reescritos pelas necessidades da IA.
Quando a pandemia do COVID-19 começou, Ashley Alvarado sabia que os ouvintes de sua estação estavam assustados e confusos.
Na KPCC-FM e LAist, Alvarado usou uma variedade de ferramentas de comunicação para se conectar com o público, mas a escala dos comentários, perguntas e dicas que a emissora estava recebendo exigia uma solução que pudesse processar grandes quantidades de dados, rapidamente.
“Com o COVID, havia tanta necessidade de informações no início da pandemia que a maneira como poderíamos ser mais humanos para Angelenos era alavancar a IA”, disse Alvarado.
Conhecidas por muitos nomes – algoritmos, bots, big data, processamento de linguagem natural, aprendizado de máquina, agentes inteligentes – as tecnologias que se enquadram na ampla definição de IA estão remodelando não apenas o mundo da comunicação, mas o mundo como um todo. Em toda a USC Annenberg, professores, alunos e ex-alunos estão explorando o imenso potencial e as armadilhas muitas vezes menos óbvias apresentadas por essas tecnologias.
"Annenberg está em uma posição única para liderar essa conversa, porque esses são problemas sócio-técnicos e de comunicação", disse Ananny. "Não quero que nossas respostas a essas perguntas sejam apenas técnicas. Quero uma resposta que seja profundamente histórica e enraizada na compreensão cultural."
Termos de pesquisa Na imaginação popular, IA pode significar qualquer coisa, desde a conveniência cotidiana de seu telefone escolher músicas que ele sabe que você pode gostar ou indicar o melhor caminho para a casa de seu amigo, ou a promessa de panacéias de big data para questões como mudanças climáticas ou Pandemia do covid19. Também é quase impossível discutir a IA sem fazer referência à frequência com que a IA é escalada como a vilã da ficção científica:a proibição de "máquinas pensantes" em Duna de Frank Herbert, HAL 9000 em 2001:Uma Odisséia no Espaço, de Arthur C. Clarke, o Borg em Star Trek, Agente Smith em Matrix.
"Acho que a maioria das pessoas tende a pensar nisso como um tipo de tecnologia de ficção científica do Terminator ou Ready Player One", disse Fred Cook, diretor do Centro de Relações Públicas. "Na realidade, é o motor por trás de muitas das coisas que as pessoas, especialmente na indústria de relações públicas, já usam em seu trabalho diário."
Para simplificar grosseiramente, a maior parte do que é comumente considerado IA se resume à interação de algoritmos – funções matemáticas – fazendo cálculos com base em enormes quantidades de dados.
"Algoritmos são as instruções e regras que governam a computação", disse Marlon Twyman II, que pesquisa como a tecnologia molda as interações de indivíduos e equipes no local de trabalho. "A inteligência artificial deve ter algoritmos que sustentem as decisões e os compromissos que faz."
Twyman cita o exemplo do reconhecimento de imagem:IA que tenta detectar se a imagem de um gato é um gato ou um cachorro. Quanto mais exemplos os algoritmos são expostos – quanto mais dados – melhor eles são capazes de fazer essas determinações.
"Inteligência artificial é quando os computadores começam a ser capazes de responder a entradas nas quais não foram necessariamente treinados - ou expostos - quando foram programados", disse Twyman, professor assistente de comunicação.
"O que estamos interagindo é apenas matemática", disse Ignacio Cruz, que obteve seu Ph.D. em comunicação em 2021 e agora leciona na Northwestern University. Ele enfatiza que, apesar das capacidades da IA para reconhecer tendências e padrões, não é tão misterioso. A tecnologia que tem, se não senciência, pelo menos alguma agência independente – ou o que Cruz chama de “qualidades de agência” – é, por enquanto, em grande parte coisa de ficção científica.
"Algoritmos não funcionam da maneira que o cérebro humano funciona", observou Lynn Miller, professora de comunicação. "A IA é realmente apenas uma máquina de previsão."
Essas máquinas permitem conquistas tecnológicas notáveis em saúde, logística, jogos, entretenimento, justiça criminal, contratação e muitos outros campos – incluindo jornalismo local – de maneiras inesperadas.
IA e comunidade A KPCC-FM não esperava usar a IA para construir o envolvimento da comunidade, mas quando a pandemia chegou em 2020 e eles começaram a ser inundados com mensagens de pânico sobre o bloqueio, a liderança da estação de rádio pública de Pasadena sabia que precisava fazer algo para ajudar seus ouvintes.
"Começou apenas com preocupação", disse Alvarado. "E então entrou em pânico total - perguntas sobre escassez na Target, se cancelar um casamento, se era ilegal se reunir com entes queridos para lamentar alguém."
A maioria dessas perguntas vinha de uma ferramenta que a estação de rádio havia incorporado em sua página inicial que usa o Hearken, uma plataforma de engajamento e suporte organizacional. "Às vezes, recebíamos 10 mensagens por minuto por meio dessa ferramenta", disse Alvarado, vice-presidente de engajamento comunitário e iniciativas estratégicas da KPCC-FM e LAist. "Tivemos que pensar criativamente sobre como poderíamos atender às necessidades de informação de milhares e milhares de pessoas."
Ela conversou com Paul Cheung, então diretor de jornalismo e inovação tecnológica da John S. and James L. Knight Foundation, que perguntou se ela havia pensado em aprendizado de máquina. "E eu não tinha", disse ela com uma risada. Cheung os conectou a alguns jornalistas que trabalhavam com IA na publicação online Quartz, e eles ajudaram Alvarado e sua equipe a desenvolver uma ferramenta de processamento de linguagem natural que pudesse analisar os pedidos que estavam recebendo dos ouvintes.
"Com a ferramenta, pudemos identificar temas nos quais precisávamos nos concentrar - não apenas para responder a perguntas, mas para quais histórias deveríamos cobrir e onde", disse Alvarado, que obteve seu bacharelado em 2005 com especialização dupla em jornalismo impresso e espanhol .
Alvarado vê um grande potencial para essa tecnologia para permitir que a audiência mostre padrões de outros eventos de notícias em movimento rápido, de incêndios florestais a debates políticos. "Normalmente, você teria que ler todas as perguntas à medida que elas surgiam e esperar que observasse uma tendência, em vez de ter a IA pronta para dizer:'Aqui está algo que está surgindo de novo e de novo'".
Algumas publicações já estão usando a IA diretamente para escrever histórias, geralmente peças básicas e facilmente formatadas, como relatórios de ações, boletins meteorológicos e histórias esportivas. Embora essas peças acabem salvando alguns repórteres iniciantes do trabalho rotineiro, Twyman vê uma desvantagem potencial.
"O problema é que isso tira a possibilidade de inovar, mesmo nessas tarefas simples", disse. “Se continuarmos removendo humanos de tarefas de escrita cada vez mais complexas, podemos acabar em um mundo que parece muito diferente”.
Agentes com agência Às vezes, remover humanos da equação é necessário para sua segurança. Em sua pesquisa sobre atividade sexual de risco há mais de 25 anos, Miller estava enfrentando um problema muito fundamental – e muito humano. "Eu estava interessada no comportamento sexual entre os jovens que fazem sexo com homens", disse ela. "Eu fiz muito trabalho qualitativo sobre o que levou a esses momentos de risco, mas obviamente não consegui me esconder debaixo das camas para descobrir o que estava acontecendo. Foi quando comecei a me interessar em criar ambientes virtuais."
Miller queria criar um jogo interativo onde sujeitos humanos pudessem tomar decisões sobre se envolver ou não em comportamentos sexuais de risco, mas ela estava limitada pela tecnologia que tinha disponível para criar situações roteirizadas.
A resposta foi um ambiente virtual povoado por "agentes inteligentes", personagens cujo comportamento era governado por algoritmos que definiam suas preferências e objetivos - em outras palavras, IA - em vez de scripts fixos. Trabalhando com uma equipe de cientistas da computação e psicólogos da USC, Miller desenvolveu personagens cujo comportamento era representativo das pessoas na vida real. Esses personagens povoavam um mundo virtual e podiam interagir com sujeitos de pesquisa humanos de maneiras mais naturais que realmente produziriam dados de pesquisa acionáveis sobre comportamento sexual de risco sem o risco.
“Você pode ter um humano no circuito que responde ao que o agente inteligente está fazendo, que então molda seu comportamento, ou você pode ter todos os agentes interagindo e executando simulações”, disse Miller. Seu trabalho ajudou a identificar não apenas padrões de comportamento de risco, mas também maneiras de efetivamente intervir e mitigar esse risco.
Em sua pesquisa premiada na última década e meia que se baseou nesses ambientes virtuais originais, Miller e sua equipe também aprenderam quais tipos de intervenções funcionam melhor para limitar o risco em situações sexuais – nenhuma das quais teria sido possível sem IA.
Seu trabalho mais recente mudou-se para o campo da neurociência, usando esses agentes inteligentes para modelar processos humanos mais complexos, como competência de comunicação e como os humanos criam significado por meio da interação social.
“Um dos problemas com a IA atual em geral é que ela só pode chegar até certo ponto ao inferir emoções”, disse Miller. “Dito isso, existem certas probabilidades e parâmetros que podemos programar em nossos agentes inteligentes quando se trata de interação social que realmente fazem um bom trabalho ao modelar como humanos reais, em um ambiente altamente interativo e flexível, tomarão decisões”.
Embora o futuro da IA seja difícil de prever, Miller disse que pesquisadores de IA de ponta já estão tentando alavancar como os cérebros humanos entendem o mundo. "Como acontece com qualquer inovação, há riscos a serem mitigados", observou Miller. "Mas também há enormes oportunidades para aprimorar intervenções e terapias para melhorar drasticamente a comunicação e o bem-estar individual e social".
Analisando a polarização Como Miller aponta, um dos pontos fortes da IA é encontrar padrões entre enormes conjuntos de dados. Fred Cook queria pegar um conjunto de dados particularmente controverso – postagens de mídia social sobre questões políticas controversas – e descobrir se a IA poderia ajudar a medir o grau de polarização no debate em torno dessas questões.
O processo começou com uma pesquisa realizada pelo Centro de Relações Públicas para seu Relatório de Comunicação Global de 2021, que identificou várias questões importantes que os profissionais de relações públicas achavam que teriam que resolver no próximo ano. Cook compartilhou esses problemas com executivos da empresa de relações públicas Golin, onde ele havia sido CEO (e ainda tem interesse financeiro), e depois os compartilhou com a empresa de software Zignal Labs.
“Dado o enorme problema que o atual nível de polarização causa para as pessoas, o governo e as empresas, decidimos desenvolver uma nova ferramenta para medi-lo – e esperamos ajudar a reduzi-lo”, disse Cook.
Sua abordagem é baseada no gráfico Ad Fontes de viés de mídia, que categoriza os meios de comunicação por um espectro político esquerda-direita em um eixo e confiabilidade no outro eixo. A ferramenta Zignal AI insere as 10 principais questões políticas quentes e as cruza com postagens sociais que incluem links para artigos de publicações que estão no gráfico Ad Fontes. Com base na posição da publicação no gráfico, a ferramenta atribui uma pontuação que determina o quão à esquerda ou à direita está a maioria dos compartilhamentos de mídia social em um determinado assunto. A diferença entre quantos artigos de direita/conservadores são compartilhados em uma questão versus quantas publicações de esquerda/liberais são compartilhadas fornece uma pontuação do Índice de Polarização.
O grande número de postagens envolvidas na criação dessa pontuação – mais de 60 milhões – exige que a IA faça o trabalho rapidamente.
“O Índice de Polarização fornece um mapa de calor de quais questões são as mais controversas e os fatores que estão contribuindo para sua divisão”, disse Cook. “Podemos extrair implicações para pessoas, empresas e comunicadores que queiram se envolver nesses tópicos”.
Cook também diz que os profissionais de relações públicas terão que continuar a enfrentar as críticas à IA com base em questões de privacidade, trabalho, preconceito e justiça social, mas acrescenta que sua própria experiência mostrou que a IA também pode causar impactos positivos nessas áreas.
Dito isto, Cook acrescentou:"Toda nova tecnologia tem aspectos assustadores, e a IA não é diferente de qualquer outra coisa. Embora tenhamos usado a IA para fazer um trabalho realmente importante em nosso Índice de Polarização, a IA pode e tem sido usada para espalhar desinformação e influenciar campanhas políticas por meio de bots. Sempre que houver uma nova tecnologia, alguém a usará de maneira prejudicial."
Caçando IA com IA Quando se trata de questionar os aspectos positivos e negativos da IA, os alunos de doutorado em comunicação da USC Annenberg estão na vanguarda dessa pesquisa, unindo a ciência da computação e as ciências sociais para construir uma visão profunda das implicações técnicas e culturais da IA.
O estudante de doutorado Ho-Chun Herbert Chang diz que seus anos de graduação no Dartmouth College foram formativos. "Dartmouth foi o lugar onde o termo IA foi cunhado em 1952", observou ele. "Estudei matemática e ciências sociais quantitativas e, para meu programa de bolsa sênior, fiz um projeto de ficção sobre inteligência artificial. Esse foi o começo de minha visão da IA de uma maneira técnica e humanista."
À medida que sua carreira acadêmica progredia, Chang viu um "abismo" entre como os profissionais e o público veem a inteligência artificial. "Do lado da ciência da computação, há mais ênfase nos aspectos técnicos de projetar algoritmos", disse ele. "Do lado humanista, há um foco nos valores sociais como o princípio principal em termos de organização da pesquisa."
Um dos projetos em que Chang trabalhou no ano passado mostrou o potencial da IA para investigar o comportamento humano – e o comportamento de outros sistemas de IA. Trabalhando com Emilio Ferrara, professor associado de comunicação e ciência da computação cuja pesquisa inovadora identificou como os bots do Twitter afetaram a campanha presidencial dos EUA em 2016, Chang ajudou a desenvolver esse trabalho no período que antecedeu as eleições de 2020. Usando uma ferramenta de IA chamada Botometer, a equipe conseguiu quantificar quanto tráfego do Twitter em torno de teorias da conspiração foi gerado e amplificado por bots. “O Botometer analisa os dados e metadados da linha do tempo de cada conta do Twitter, usando aprendizado de máquina para descobrir se uma conta é humana ou bot”, disse Chang.
Chang também trabalhou com Allissa Richardson, professora assistente de jornalismo, para analisar o movimento por justiça racial que se seguiu ao assassinato de George Floyd pela polícia de Minneapolis. “Uma grande parte da pesquisa de comunicação é sobre como os usuários participam de plataformas sociais – mediadas por algoritmos – e como eles usam essas plataformas para se auto-organizar em movimentos democráticos”, disse ele. "Esse é o tipo de trabalho que quero fazer. Estou me envolvendo de forma holística com a IA, e Annenberg é o lugar perfeito para essa pesquisa."
Ignacio Cruz concentrou sua dissertação no uso de ferramentas de IA no recrutamento no local de trabalho. Perhaps not surprisingly, he found that the human recruiters who used AI to sort and recommend applicants for positions had very polarized opinions about the effectiveness of the AI. "They often saw AI as either an adversary or an ally," said Cruz, now a postdoctoral fellow at Northwestern University. "Sometimes recruiters see these systems as a time-saver, as an ally. But the job candidates these systems surface often don't jibe with the recruiters' expertise."
While acknowledging the power of AI to help people make meaning out of huge data sets, Cruz also cautions about many issues that can arise from uncritically accepting the outputs of such systems. Using AI as an intermediary for communication is such a new phenomenon, "We just need a lot more education and critical inquiry about how these technologies are developed before they are deployed to the masses," he said.
Cruz's own research has shown that AI systems often reflect the biases of those who develop them, as they rely upon human intervention during their creation and implementation. "Artificial intelligence as it's being developed is scattered and largely unregulated," he said. "If these technologies really are going to help us create a better tomorrow, then they need to be designed with purpose, and they need to be continually audited—not only for efficiency, but for sustainability and ethics."
The desert of AI For Kate Crawford, the problem with much of the public conversation around the potential of AI is the lack of any critical lens by which to monitor it in the meaningful ways Cruz suggests.
"We are subjected to huge amounts of marketing hype, advertising and boosterism around artificial intelligence," said Crawford, research professor of communication. "Part of what I do is look at the way in which artificial intelligence is not just a series of algorithms or code … but to really look at this much bigger set of questions around what happens when we create these planetary-scale computational networks? Who gains, but also, who loses?"
In the first chapter of her new book "Atlas of AI:Power, Politics and the Planetary Costs of Artificial Intelligence " (Yale University Press, 2021), Crawford begins with her journey to that lithium mine, setting the tone for an exploration of the planetary costs of AI. Her devastating critique frames AI as an extractive industry—both literally, in its reliance on finite resources and labor for its components and its power, and figuratively, in the amount of data it consumes, categorizes and monetizes.
"Over the course of researching this book, I learned much more about the environmental harms of AI systems," Crawford said. "Servers are hidden in nondescript data centers, and their polluting qualities are far less visible than the billowing smokestacks of coal-fired power stations."
Describing the amount of energy needed to power something like Amazon Web Services as "gargantuan," Crawford noted that the environmental impact of the AI systems that run on those platforms is continuing to grow. "Certainly, the industry has made significant efforts to make data centers more energy-efficient and to increase their use of renewable energy," Crawford said. "But already, the carbon footprint of AI has matched that of the aviation industry at its height."
Crawford said that the entire model of AI is extractive and exploitative and would need to be "re-architected" to work differently. "We also need regulatory and democratic oversight," she added. "The proposed European Union AI regulations offer a good starting point, but that's just one effort—and we have yet to see something similar in the United States or China, the two largest producers of AI technologies."
Working with her USC Annenberg colleagues, Crawford is hoping to contribute to what a reimagined AI would look like.Crawford has teamed up with Mike Ananny and a team of doctoral students and practitioners on a new research project that will analyze issues within the data sets used to train AI systems.
"AI could help design a shipping system that would minimize the carbon imprint, rather than maximizing profit margin," said Ananny, associate professor of communication. "It's a question of, what do we want to maximize for in our AI systems? It pushes the problem back onto the people with power and it says, it's not a data problem. It's a values problem."
Crawford said that USC Annenberg's combination of technical expertise with a deep understanding of human communication makes it the ideal place for that kind of reimagining of a less-harmful AI.
"Our hope is that the research will contribute to how USC and the broader academic community thinks about the future of AI, in terms of how we build it, use it, and regulate it," she said.
Toward an ethical AI As part of his studies of media and technology, Ananny is a scholar of, and a contributor to, the big conversations about how society can reap the benefits of big-data AI systems while still preserving (or better, reestablishing) something that might be recognized as ethics and privacy.
While many critics and policymakers have proposed stronger tech company regulations that would force them to behave more like public utilities, with greater transparency, Ananny is among those who argue that regulatory reforms don't go far enough.
"We've allowed capitalist institutions to have massive amounts of power for commodifying people, for allowing wealth inequalities and wealth concentrations—and data is just a part of that, and part of perpetuating that," Ananny said. "Honestly, until you solve this problem of late capitalism where individuals have zero power and companies have all the power, you can kind of nibble around the edges with regulations, but that won't have any real effect on the problem."
Ananny echoes Crawford's work, asserting that the climate crisis is bringing increasing urgency to the problem of AI as an extractive industry.
"We cannot allow the planet to burn because of the energy needs of Bitcoin's server farms," he said. "These AI systems are optimizing Amazon's ability to fly products all over the world, with a huge carbon footprint, so people can have a spatula delivered to their Amazon box."
Ananny does note that some scholars, scientists, activists and politicians are looking for opportunities to leverage the positive impacts of AI's computing power in a way that doesn't exacerbate the climate emergency.
"This is the language we're using to create a new kind of reality," Ananny said. "Data sets, statistical certainty, optimization, model-making, error detection—all those kinds of seemingly technical terms. But we also need to engage with questions of values. Is it worth it to have all of these things happening at such a huge scale? At what point, in terms of the human and material cost, do you tip too far over? We're going to have to be able to make these kinds of judgments about particular AI tools—including, "Don't build it.'"