• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • A revisão periódica da indústria de inteligência artificial revela desafios

    Um índice de inteligência artificial liderado por Stanford, chamado AI100, avalia periodicamente o estado da tecnologia de IA e faz previsões para o próximo século. Crédito:Tricia Seibold

    Como parte do estudo contínuo de Stanford de 100 anos sobre inteligência artificial, conhecido como AI100, dois workshops consideraram recentemente as questões de tecnologias de cuidado e modelagem preditiva para informar o desenvolvimento futuro de tecnologias de IA.

    "Agora estamos vendo uma ênfase particular nas ciências humanas e como elas interagem com a IA, "disse Russ Altman, Professor de engenharia de Stanford e diretor do AI100. O AI100 é um projeto do Stanford Institute for Human-Centered Artificial Intelligence.

    Após a primeira reunião do AI100, o grupo planejava se reunir a cada cinco anos para discutir a situação da indústria de IA. A ideia era que os relatórios dessas reuniões capturassem o entusiasmo e as preocupações em relação às tecnologias de IA da época, fazer previsões para o próximo século e servir como um recurso para formuladores de políticas e partes interessadas da indústria que moldam o futuro da IA ​​na sociedade.

    Mas a tecnologia está avançando mais rápido do que o esperado, e os organizadores do AI100 sentiram que havia questões a serem discutidas antes da próxima sessão agendada. Os relatórios que resultaram dessas oficinas pintam um quadro das armadilhas potenciais de terceirizar nossos problemas para que a tecnologia os resolva, em vez de abordar as causas, ou permitindo que a modelagem preditiva desatualizada fique desmarcada. Juntos, eles fornecem um instantâneo intermediário que pode orientar as discussões na próxima reunião completa, disse Altman.

    "Os relatórios capturam a natureza cíclica das opiniões e atitudes do público em relação à IA, "disse Peter Stone, professor de ciência da computação da Universidade do Texas em Austin que atuou como presidente do painel de estudo para o último relatório, e agora é presidente do comitê permanente. "Há momentos de exagero e empolgação com a IA, e há momentos de decepção e desilusão - chamamos isso de invernos de IA. "

    Este estudo longitudinal visa encapsular todos os altos e baixos - criando uma visão de longo prazo da inteligência artificial.

    Alexa não liga para você

    Embora a inteligência artificial seja difundida em aplicativos de saúde, os participantes do workshop debatendo a capacidade da IA ​​para cuidar concluíram que o cuidado em si não é algo que pode ser codificado na tecnologia. Baseado nisso, eles recomendam que as novas tecnologias sejam integradas às relações de cuidado humano-a-humano existentes.

    “O cuidado não é um problema a ser resolvido; é uma parte fundamental de viver como humanos, "disse Fay Niker, professor de filosofia na Universidade de Stirling, e presidente do workshop Coding Caring. "A ideia de uma solução técnica para algo como a solidão, por exemplo, é desconcertante. "

    Os participantes da oficina enquadram as tecnologias de cuidado como ferramentas para complementar as relações de cuidado humano, como aquelas entre um cuidador e quem recebe o cuidado. A tecnologia pode certamente dar lembretes para tomar medicamentos ou monitorar informações de saúde, mas é limitado na capacidade de demonstrar empatia ou fornecer suporte emocional que não pode ser mercantilizado ou reduzido a tarefas orientadas para resultados.

    "Tememos que a interação humana significativa possa ser congelada pela tecnologia, "disse Niker." A esperança é que o relatório AI2020, e outros trabalhos nesta área, contribuirá para prevenir esta 'era do gelo', desafiando e, portanto, mudando a cultura e o debate em torno do projeto e implementação de tecnologias de cuidado em nossas sociedades. "

    Regulando tecnologias preditivas

    As tecnologias de IA podem ser capazes de aprender, mas eles não estão imunes a se tornarem desatualizados, levando os participantes do segundo workshop a introduzir o conceito de "datas de expiração" para controlar sua implantação ao longo do tempo. "Eles treinam com dados do passado para prever o futuro, "disse Altman." As coisas mudam em qualquer campo, então você precisa fazer uma atualização ou uma reavaliação. "

    "Isso significa que devemos prestar atenção aos novos dados, "disse David Robinson, um cientista visitante da Faculdade de Computação e Ciência da Informação de Cornell, e um dos organizadores do workshop. A menos que informado de outra forma, o algoritmo assumirá cegamente que o mundo não mudou, e fornecerá resultados sem integrar fatores recém-introduzidos.

    Decisões importantes podem depender dessas tecnologias, incluindo avaliação de risco no sistema de justiça criminal e exames pelos serviços de proteção à criança. Mas Robinson enfatizou que é a combinação líquida dos resultados do algoritmo e a interpretação daqueles que usam a tecnologia que resulta em uma decisão final. Deve haver tanto escrutínio nas informações que a IA está fornecendo quanto nos usuários que estão interpretando os resultados do algoritmo.

    Ambos os workshops chegaram à conclusão de que a regulamentação é necessária para a tecnologia de IA, de acordo com Altman, o que não deve ser surpresa para quem está ligado às referências da cultura popular da área. Se a indústria pode se autorregular, ou que outras entidades devem supervisionar o progresso no campo, ainda está em questão.

    Participantes e organizadores sentem que o AI100 tem um papel a desempenhar no futuro das tecnologias de IA. "Espero que isso realmente ajude a educar as pessoas e o público em geral sobre como eles podem e devem interagir com IA, "disse Stone. Talvez ainda mais importante, os resultados dos relatórios de IA podem ser referenciados por formuladores de políticas e especialistas da indústria, moldar como essas tecnologias são desenvolvidas.


    © Ciência https://pt.scienceaq.com