Como a IA está aprimorando simulações com técnicas de amostragem mais inteligentes


0

Imagine que você é responsável por enviar um time de jogadores de futebol para um campo para avaliar a condição da grama (uma tarefa provável para eles, é claro). Se você escolher suas posições aleatoriamente, eles podem se agrupar em algumas áreas enquanto negligenciam completamente outras. Mas se você lhes der uma estratégia, como se espalhar uniformemente pelo campo, você pode obter uma imagem muito mais precisa da condição da grama.

Agora, imagine precisar se espalhar não apenas em duas dimensões, mas em dezenas ou até centenas. Esse é o desafio que os pesquisadores do Laboratório de Ciência da Computação e Inteligência Artificial do MIT estão superando. Eles desenvolveram uma abordagem impulsionada por IA para “amostragem de baixa discrepância”, um método que melhora a precisão da simulação distribuindo os pontos de dados de forma mais uniforme no espaço.

Uma novidade chave está em usar redes neurais gráficas (GNNs), que permitem que os pontos “se comuniquem” e se auto-otimizem para uma melhor uniformidade. Sua abordagem marca um aprimoramento fundamental para simulações em campos como robótica, finanças e ciência computacional, especialmente no tratamento de problemas complexos e multidimensionais críticos para simulações e cálculos numéricos precisos.

O trabalho deles foi publicado na edição de setembro dos Anais da Academia Nacional de Ciências.

A ideia dos métodos de Monte Carlo é aprender sobre um sistema simulando-o com amostragem aleatória. A amostragem é a seleção de um subconjunto de uma população para estimar características de toda a população. Historicamente, ela já era usada no século XVIII, quando o matemático Pierre-Simon Laplace a empregou para estimar a população da França sem ter que contar cada indivíduo.

Sequências de baixa discrepância, que são sequências com baixa discrepância, ou seja, alta uniformidade, como Sobol’, Halton e Niederreiter, há muito tempo são o padrão-ouro para amostragem quase aleatória, que troca a amostragem aleatória pela amostragem de baixa discrepância. Elas são amplamente utilizadas em campos como gráficos de computador e finanças computacionais, para tudo, desde precificação de opções até avaliação de riscos, onde o preenchimento uniforme de espaços com pontos pode levar a resultados mais precisos.

O framework MPMC sugerido pela equipe transforma amostras aleatórias em pontos com alta uniformidade. Isso é feito processando as amostras aleatórias com uma GNN que minimiza uma medida de discrepância específica.

Um grande desafio ao usar IA para gerar pontos altamente uniformes é que a maneira usual de medir a uniformidade dos pontos é muito lenta para calcular e difícil de trabalhar. Para resolver isso, a equipe mudou para uma medida de uniformidade mais rápida e flexível chamada discrepância L2. Para problemas de alta dimensionalidade, onde esse método não é suficiente por si só, eles usam uma técnica inovadora que se concentra em projeções dimensionais inferiores importantes dos pontos. Dessa forma, eles podem criar conjuntos de pontos mais adequados para aplicações específicas.

As implicações vão muito além da academia, diz a equipe. Na finança computacional, por exemplo, as simulações dependem fortemente da qualidade dos pontos de amostragem. “Com esses tipos de métodos, os pontos aleatórios muitas vezes são ineficientes, mas nossos pontos de baixa discrepância gerados por GNN levam a uma maior precisão”, diz Rusch. “Por exemplo, consideramos um problema clássico da finança computacional em 32 dimensões, onde nossos pontos MPMC superaram os métodos de amostragem quase aleatória de última geração por um fator de quatro a 24.”

Em robótica, o planejamento de caminhos e movimentos muitas vezes depende de algoritmos baseados em amostragem, que guiam os robôs por processos de tomada de decisão em tempo real. A maior uniformidade do MPMC poderia levar a uma navegação robótica mais eficiente e adaptações em tempo real para coisas como direção autônoma ou tecnologia de drones. “Na verdade, em um artigo recente, demonstramos que nossos pontos MPMC alcançam uma melhoria de quatro vezes em relação aos métodos de baixa discrepância anteriores quando aplicados a problemas de planejamento de movimento de robótica do mundo real”, diz Rusch.

“Sequências tradicionais de baixa discrepância foram um grande avanço em seu tempo, mas o mundo se tornou mais complexo, e os problemas que estamos resolvendo agora muitas vezes existem em espaços de 10, 20 ou até 100 dimensões”, diz Daniela Rus, diretora do CSAIL e professora do MIT de engenharia elétrica e ciência da computação. “Precisávamos de algo mais inteligente, algo que se adapte conforme a dimensionalidade cresce. As GNNs são uma mudança de paradigma na forma como geramos conjuntos de pontos de baixa discrepância. Ao contrário dos métodos tradicionais, onde os pontos são gerados independentemente, as GNNs permitem que os pontos ‘conversem’ entre si para que a rede aprenda a colocar os pontos de forma a reduzir aglomerações e lacunas – problemas comuns com abordagens típicas.”

No futuro, a equipe planeja tornar os pontos MPMC ainda mais acessíveis a todos, abordando a limitação atual de treinar uma nova GNN para cada número fixo de pontos e dimensões.

“Grande parte da matemática aplicada usa quantidades continuamente variáveis, mas a computação geralmente nos permite usar apenas um número finito de pontos”, diz Art B. Owen, professor de estatística da Universidade de Stanford, que não esteve envolvido na pesquisa. “O campo de discrepância, com mais de um século, usa álgebra abstrata e teoria dos números para definir pontos de amostragem eficazes. Este artigo usa redes neurais gráficas para encontrar pontos de entrada com baixa discrepância em comparação com uma distribuição contínua. Essa abordagem já se aproxima muito dos melhores conjuntos de pontos de baixa discrepância conhecidos em problemas pequenos e está mostrando grande promessa para uma integral de 32 dimensões da finança computacional. Podemos esperar que este seja o primeiro de muitos esforços para usar métodos neurais para encontrar bons pontos de entrada para cálculos numéricos.”

Rusch e Rus escreveram o artigo com o pesquisador da Universidade de Waterloo Nathan Kirk, o Professor de IA da DeepMind da Universidade de Oxford e ex-afiliado do CSAIL Michael Bronstein, e a Professora de Estatística e Ciência Atuarial da Universidade de Waterloo Christiane Lemieux. Sua pesquisa foi apoiada, em parte, pelo programa AI2050 da Schmidt Futures, Boeing, Laboratório de Pesquisa da Força Aérea dos Estados Unidos e Acelerador de Inteligência Artificial da Força Aérea dos Estados Unidos, Fundação Nacional de Ciência da Suíça, Conselho de Pesquisa em Ciências Naturais e Engenharia do Canadá e uma Bolsa de Pesquisa Líder Mundial em IA do EPSRC Turing.

Redação Confraria Tech.

Referências:
How AI is improving simulations with smarter sampling techniques


Like it? Share with your friends!

0

What's Your Reaction?

hate hate
0
hate
confused confused
0
confused
fail fail
0
fail
fun fun
0
fun
geeky geeky
0
geeky
love love
0
love
lol lol
0
lol
omg omg
0
omg
win win
0
win
admin

Choose A Format
Personality quiz
Series of questions that intends to reveal something about the personality
Trivia quiz
Series of questions with right and wrong answers that intends to check knowledge
Poll
Voting to make decisions or determine opinions
Story
Formatted Text with Embeds and Visuals
List
The Classic Internet Listicles
Countdown
The Classic Internet Countdowns
Open List
Submit your own item and vote up for the best submission
Ranked List
Upvote or downvote to decide the best list item
Meme
Upload your own images to make custom memes
Video
Youtube and Vimeo Embeds
Audio
Soundcloud or Mixcloud Embeds
Image
Photo or GIF
Gif
GIF format