Em 18 de março em Tempe, Arizona, um carro autônomo do Uber atropelou e matou Elaine Herzberg, que estava andando de bicicleta em uma rua. O motorista humano deveria estar monitorando o comportamento do carro, mas não o fez. Seus sistemas aparentemente não detectaram a vítima, já que não diminuiu a velocidade nem tentou evitar bater. Crédito:Herzberg Wikimedia
O acidente fatal envolvendo um carro autônomo operado pela Uber nos Estados Unidos foi um lembrete trágico, mas oportuno, dos perigos das empresas que correm para implementar a inteligência artificial para serem as primeiras a chegar ao mercado.
No momento do acidente, o motorista que deveria estar pronto para reagir em um evento como este estava olhando para baixo. O próprio carro aparentemente falhou completamente em ver o pedestre e não diminuiu a velocidade ou tentou evitar atropelá-lo.
Testes do mundo real, e riscos
Novamente, estamos vendo uma tecnologia sendo testada principalmente para funcionar em condições normais, de modo que possa ser lançada no mercado e não necessariamente sendo construída tendo a segurança como foco principal. Como disse o ex-desenvolvedor da plataforma de aprendizado de máquina e IA do Uber, as montadoras devem treinar seus carros em ambientes simulados que podem ser programados para treiná-los em como detectar e evitar qualquer número de possibilidades de eventos aleatórios que o carro possa encontrar na estrada.
O aprendizado de máquina sofre de um problema fundamental, pois sua capacidade de realizar uma tarefa depende dos dados que são usados para treiná-lo. Que algoritmo exato ele acaba usando para cumprir seu propósito final e quais recursos são os mais importantes é amplamente desconhecido. Com aprendizado profundo, as múltiplas camadas que compõem a rede neural geral do software de aprendizado de máquina tornam esse processo ainda mais misterioso e desconhecido.
Sabemos que o software de aprendizado de máquina detecta tendências nos dados que são usados para testá-lo. O software usado para calcular o risco de um infrator cometer um crime futuro e usado com frequência pelos tribunais nos Estados Unidos demonstrou calcular sistematicamente um risco significativamente menor para infratores brancos do que para pessoas de cor. Outros pesquisadores mostraram que algoritmos de aprendizagem de máquina aprendem preconceitos de gênero que são inerentes aos textos que são usados para treiná-los.
Os perigos de saber agora como as coisas funcionam foram claramente demonstrados pela recente admissão do Facebook de que ele realmente não sabia o que as pessoas estavam fazendo com os dados de milhões de seus usuários que o Facebook as encorajou a pegar. Com o uso de sua plataforma para a divulgação de notícias falsas direcionadas durante a eleição presidencial dos EUA, O Facebook novamente admitiu que não percebeu que governos estrangeiros explorariam essa ingenuidade para minar a democracia.
Mais do que apenas Facebook
Seria errado destacar o Facebook por ser a única empresa que não sabia que seu software poderia ser explorado para prejudicar indivíduos e a sociedade. As emendas do "direito de ser esquecido" à legislação de privacidade de dados promulgadas pela União Europeia foram formuladas especificamente para lidar com a relutância do Google em consertar os efeitos colaterais de sua busca na privacidade dos indivíduos. A legislação em muitos países para tornar obrigatória a comunicação de violações de dados foi necessária porque as empresas não estavam dispostas a assumir a segurança cibernética, e a proteção dos dados de seus usuários, a sério.
Dado o passado, não há razão para acreditar que as empresas que estão implementando sistemas baseados em IA pensem em segurança e privacidade desde o projeto. Pelo contrário, o aprendizado de máquina precisa de dados, muitos disso, e assim as empresas estão adquirindo enormes repositórios de dados de informações detalhadas para explorá-las por meio de algoritmos. Embora se possa argumentar que foi tratado com responsabilidade, grandes quantidades de dados serão inestimáveis para a pesquisa, em questões de saúde em particular, os riscos da coleta, armazenar e usar esses dados, especialmente em um ambiente comercial são muito elevados.
Relatório do governo francês
Na França, Cédric Villani - o matemático vencedor do Field Prize e membro da Assembleia Nacional - entregou seu relatório final detalhando uma estratégia nacional para o estudo e exploração da inteligência artificial. As recomendações cobrem muitos dos problemas potenciais que podem surgir ao tentar equilibrar as demandas de pesquisa, inovação e comercialização de IA. Eles também reconhecem a necessidade de proteger a privacidade e a segurança da sociedade e dos indivíduos e sugere um papel ativo para o governo, garantindo que a IA seja usada de uma forma que beneficie a sociedade e respeite os direitos e valores humanos.
Contudo, Nada disso será fácil. Já houve reclamações de que o Regulamento Geral de Proteção de Dados (GDPR) da Europa entrará em vigor em 25 de maio, colocará as empresas da UE "em desvantagem competitiva em comparação com seus concorrentes na América do Norte e na Ásia".
É preciso esperar que tragédias como a morte de Elaine Herzberg, de 49 anos, atropelado por um carro Uber autônomo, e a indignação generalizada com o desprezo do Facebook pelos dados pessoais de seus usuários lembrará às pessoas que há um benefício no progresso tecnológico medido e não o mantra atual de avanço tecnológico a qualquer preço.
Este artigo foi publicado originalmente em The Conversation. Leia o artigo original. Este artigo foi publicado originalmente em The Conversation. Leia o artigo original.