Crédito CC0:domínio público
Engenheiros de inteligência artificial devem alistar ideias e conhecimentos de uma ampla gama de disciplinas de ciências sociais, incluindo aqueles que adotam métodos qualitativos, a fim de reduzir o dano potencial de suas criações e servir melhor a sociedade como um todo, uma dupla de pesquisadores concluiu em uma análise que aparece na revista Nature Machine Intelligence .
"Há evidências crescentes de que a IA pode exacerbar a desigualdade, perpetuar a discriminação, e infligir dano, "escreva Mona Sloane, pesquisador do Instituto de Conhecimento Público da Universidade de Nova York, e Emanuel Moss, candidato a doutorado na City University of New York. "Para alcançar tecnologia socialmente justa, precisamos incluir a noção mais ampla possível de ciências sociais, um que inclui disciplinas que desenvolveram métodos para lidar com a vastidão do mundo social e que nos ajuda a entender como e por que os danos da IA surgem como parte de um grande, complexo, e sistema tecno-social emergente. "
Os autores descrevem as razões pelas quais as ciências sociais se aproximam, e seus muitos métodos qualitativos, pode aumentar amplamente o valor da IA e, ao mesmo tempo, evitar armadilhas documentadas. Estudos mostraram que os motores de busca podem discriminar mulheres negras, enquanto muitos analistas levantaram questões sobre como os carros autônomos tomarão decisões socialmente aceitáveis em situações de acidente (por exemplo, evitando humanos em vez de hidrantes).
Sloane, também membro adjunto do corpo docente da Tandon School of Engineering da NYU, e Moss reconhece que os engenheiros de IA estão atualmente buscando incutir "alinhamento de valores" - a ideia de que as máquinas devem agir de acordo com os valores humanos - em suas criações, mas acrescente que "é excepcionalmente difícil definir e codificar algo tão fluido e contextual como 'valores humanos' em uma máquina".
Para resolver esta lacuna, os autores oferecem um modelo para a inclusão das ciências sociais na IA por meio de uma série de recomendações:
"À medida que avançamos com a tecelagem social, cultural, e elementos tecnológicos de nossas vidas, devemos integrar diferentes tipos de conhecimento no desenvolvimento de tecnologia, "Sloane e Moss concluem." Um futuro mais socialmente justo e democrático para a IA na sociedade não pode ser meramente calculado ou planejado; deve ser vivido, narrado, e extraído de conhecimentos profundos sobre a sociedade. "