Assistente de AI monitora trabalho em equipe para promover colaboração eficaz.


0

Durante uma expedição de pesquisa ao redor do Havaí em 2018, Yuening Zhang SM ’19, PhD ’24 percebeu o quão difícil era manter a equipe alinhada. A coordenação cuidadosa necessária para mapear o terreno subaquático podia levar a um ambiente estressante para os membros da equipe, que poderiam ter entendimentos diferentes sobre quais tarefas deveriam ser realizadas em condições em constante mudança. Durante essas viagens, Zhang considerou como um companheiro robótico poderia ter ajudado ela e seus colegas a alcançarem seus objetivos de forma mais eficiente.

Seis anos depois, como assistente de pesquisa no Laboratório de Ciência da Computação e Inteligência Artificial do MIT (CSAIL), Zhang desenvolveu o que poderia ser considerado uma peça fundamental: um assistente de IA que se comunica com os membros da equipe para alinhar os papéis e alcançar um objetivo comum. Em um artigo apresentado na Conferência Internacional de Robótica e Automação (ICRA) e publicado no IEEE Xplore em 8 de agosto, ela e seus colegas apresentam um sistema que pode supervisionar uma equipe de agentes humanos e de IA, intervindo quando necessário para aumentar potencialmente a eficácia do trabalho em equipe em domínios como missões de busca e resgate, procedimentos médicos e jogos de estratégia.

O grupo liderado pelo CSAIL desenvolveu um modelo de teoria da mente para agentes de IA, que representa como os humanos pensam e entendem possíveis planos de ação uns dos outros quando cooperam em uma tarefa. Observando as ações de seus colegas agentes, esse novo coordenador de equipe pode inferir seus planos e seu entendimento mútuo a partir de um conjunto prévio de crenças. Quando seus planos são incompatíveis, o assistente de IA intervém alinhando suas crenças sobre uns aos outros, instruindo suas ações, e fazendo perguntas quando necessário.

Por exemplo, quando uma equipe de socorristas está em campo para triar vítimas, eles devem tomar decisões com base em suas crenças sobre os papéis e o progresso uns dos outros. Esse tipo de planejamento epistêmico poderia ser aprimorado pelo software do CSAIL, que pode enviar mensagens sobre o que cada agente pretende fazer ou fez para garantir a conclusão da tarefa e evitar esforços duplicados. Nesse caso, o assistente de IA pode intervir para comunicar que um agente já avançou para um determinado local, ou que nenhum dos agentes está cobrindo uma área com potenciais vítimas.

“Nosso trabalho leva em consideração o sentimento de ‘Eu acredito que você acredita no que outra pessoa acredita’”, diz Zhang, que agora é cientista de pesquisa na Mobi Systems. “Imagine que você está trabalhando em uma equipe e se pergunta: ‘O que exatamente essa pessoa está fazendo? O que vou fazer? Ele sabe o que estou prestes a fazer?’ Modelamos como diferentes membros da equipe entendem o plano geral e comunicam o que precisam realizar para ajudar a completar o objetivo geral de sua equipe.”

AI para o resgate

Mesmo com um plano sofisticado, tanto os agentes humanos quanto os robóticos encontrarão confusão e até cometerão erros se seus papéis não estiverem claros. Essa situação é especialmente desafiadora em missões de busca e resgate, onde o objetivo pode ser localizar alguém em perigo, apesar do tempo limitado e de uma vasta área para vasculhar. Felizmente, a tecnologia de comunicação, aliada ao novo assistente robótico, poderia potencialmente notificar as equipes de busca sobre o que cada grupo está fazendo e onde estão procurando. Por sua vez, os agentes poderiam navegar mais eficientemente em seu terreno.

Esse tipo de organização de tarefas também poderia ajudar em outros cenários de alto risco, como cirurgias. Nesses casos, a enfermeira precisa primeiro levar o paciente à sala de operações, então o anestesista seda o paciente antes que os cirurgiões comecem a operação. Durante a operação, a equipe deve monitorar continuamente a condição do paciente, respondendo dinamicamente às ações de cada colega. Para garantir que cada atividade dentro do procedimento permaneça bem organizada, o coordenador da equipe de IA poderia supervisionar e intervir se houver confusão sobre alguma dessas tarefas.

O trabalho em equipe eficaz também é fundamental em jogos de vídeo como “Valorant”, onde os jogadores coordenam colaborativamente quem precisa atacar e defender contra outra equipe online. Nesses cenários, um assistente de IA poderia aparecer na tela para alertar os usuários individuais sobre onde interpretaram erroneamente quais tarefas precisam realizar.

Antes de liderar o desenvolvimento desse modelo, Zhang projetou o EPike, um modelo computacional que pode atuar como membro da equipe. Em um programa de simulação 3D, esse algoritmo controlava um agente robótico que precisava combinar um recipiente com a bebida escolhida pelo humano. Por mais racionais e sofisticados que possam ser, surgem casos em que esses robôs simulados por IA são limitados por seus equívocos sobre seus parceiros humanos ou a tarefa. O novo coordenador de IA pode corrigir as crenças dos agentes quando necessário para resolver possíveis problemas, e consistentemente interveio neste caso. O sistema enviou mensagens ao robô sobre as verdadeiras intenções do humano para garantir que ele combinasse o recipiente corretamente.

“Em nosso trabalho de colaboração entre humanos e robôs, fomos tanto humildes quanto inspirados ao longo dos anos pela fluidez dos parceiros humanos”, diz Brian C. Williams, professor do MIT de aeronáutica e astronautica, membro do CSAIL e autor sênior do estudo. “Basta olhar para um casal jovem com filhos, que trabalham juntos para dar café da manhã às crianças e levá-las para a escola. Se um dos pais vê o parceiro servindo o café da manhã e ainda de roupão, o parceiro sabe para tomar banho rapidamente e levar as crianças para a escola, sem a necessidade de dizer uma palavra. Bons parceiros estão bem sintonizados com as crenças e objetivos um do outro, e nosso trabalho de planejamento epistêmico se esforça para capturar esse estilo de raciocínio.”

O método dos pesquisadores incorpora o raciocínio probabilístico com modelagem mental recursiva dos agentes, permitindo que o assistente de IA tome decisões com risco limitado. Além disso, eles se concentraram em modelar o entendimento dos agentes sobre planos e ações, o que poderia complementar trabalhos anteriores sobre modelagem de crenças sobre o mundo ou ambiente atual. O assistente de IA atualmente infere as crenças dos agentes com base em um conjunto prévio de crenças possíveis, mas o grupo do MIT prevê a aplicação de técnicas de aprendizado de máquina para gerar novas hipóteses rapidamente. Para aplicar esse modelo em tarefas da vida real, eles também visam considerar representações de planos mais ricas em seu trabalho e reduzir ainda mais os custos computacionais.

O presidente da Dynamic Object Language Labs, Paul Robertson, o professor assistente da Universidade Johns Hopkins, Tianmin Shu, e o ex-afiliado do CSAIL, Sungkweon Hong PhD ’23, juntam-se a Zhang e Williams no artigo. Seu trabalho foi apoiado, em parte, pelo programa de Inteligência Social Artificial para Equipes de Sucesso (ASIST) da Agência de Projetos de Pesquisa Avançada de Defesa (DARPA) dos EUA.

Redação Confraria Tech

Referências:
AI assistant monitors teamwork to promote effective collaboration


Like it? Share with your friends!

0
admin