Facilitando a verificação das respostas de um modelo de IA.


0

Modelos de linguagem grandes (LLMs) têm atraído bastante atenção por suas habilidades impressionantes, mas é importante lembrar que eles ainda estão longe de serem perfeitos. Um dos principais desafios que enfrentam é o fenômeno conhecido como “alucinação”, onde esses modelos geram informações incorretas ou não suportadas em resposta a consultas. Essa questão torna-se especialmente crítica em áreas onde a precisão é fundamental, como na saúde e nas finanças, levando à necessidade de validação por humanos.

Para lidar com esse problema de alucinação, pesquisadores do MIT desenvolveram uma ferramenta chamada SymGen, que visa facilitar a verificação das respostas geradas pelos LLMs. Em vez de exigir que os usuários leiam longos documentos para confirmar as informações, o SymGen possibilita que eles verifiquem rapidamente as respostas do modelo. Através de citações que apontam diretamente para partes específicas de um documento, como células em uma tabela, os usuários podem passar o mouse sobre trechos destacados para visualizar os dados que sustentam a informação.

Shannon Shen, um dos autores do estudo sobre o SymGen, explica que essa abordagem permite que os usuários se concentrem nas partes do texto que realmente necessitam de atenção, aumentando a confiança nas respostas do modelo. Em testes realizados, a equipe descobriu que o SymGen acelerou o tempo de verificação em cerca de 20%, comparado aos métodos manuais, o que pode ser um grande avanço para a utilização de IA generativa em situações do dia a dia, como a geração de notas clínicas ou resumos de relatórios financeiros.

Normalmente, os LLMs são projetados para gerar citações que apontam para documentos externos, mas essas funcionalidades costumam ser uma consideração secundária. Shen destaca que o objetivo da IA generativa é reduzir o tempo que os usuários gastam em tarefas, e não aumentar esse tempo com a leitura de documentos extensos. Por isso, a equipe abordou o problema de validação levando em conta a perspectiva dos humanos que farão esse trabalho.

O SymGen funciona solicitando que o usuário forneça ao LLM dados que podem ser referenciados em sua resposta. Em vez de pedir ao modelo que gere um resumo a partir desses dados imediatamente, os pesquisadores introduzem um passo intermediário. O modelo é instruído a produzir uma resposta em um formato simbólico, onde cada citação é substituída pelo nome da célula correspondente na tabela de dados. Isso permite que as referências sejam muito mais precisas.

Os testes com usuários mostraram que a maioria dos participantes achou o SymGen mais fácil para validar textos gerados por LLMs, conseguindo verificar as respostas cerca de 20% mais rápido do que com métodos tradicionais. Contudo, é importante notar que o SymGen depende da qualidade dos dados de origem. Se o LLM citar uma variável incorreta, o verificador humano pode não perceber o erro. Além disso, a ferramenta atualmente só funciona com dados estruturados, como tabelas.

Os pesquisadores estão trabalhando para aprimorar o SymGen, tornando-o capaz de lidar com textos arbitrários e outras formas de dados. Essa evolução poderá auxiliar na validação de resumos de documentos legais gerados por IA, por exemplo, e há planos para testar a ferramenta com médicos, visando identificar erros em resumos clínicos gerados por inteligência artificial.

A inovação trazida pelo SymGen representa um passo significativo em direção a um uso mais responsável e eficiente da IA generativa, permitindo que mais pessoas se sintam confiantes ao implementar essas tecnologias em suas práticas diárias.

Redação Confraria Tech.

Referências:
Making it easier to verify an AI model’s responses


Like it? Share with your friends!

0
Marcos Baião