“Inteligência Artificial: A Nova Fronteira da Ciência Brasileira”

19 a 24 de outubro de 2020

Trabalho 13446

ISSN 2237-9045
Instituição Universidade Federal de Itajubá
Nível Graduação
Modalidade Pesquisa
Área de conhecimento Ciências Exatas e Tecnológicas
Área temática Inteligência Artificial
Setor Departamento de Física
Bolsa PIBIC/CNPq
Conclusão de bolsa Sim
Apoio financeiro CNPq
Primeiro autor Daniel Augusto de Sousa Mendes
Orientador Alan Bendasoli Pavan
Título Aplicações de Redes Neurais Profundas na Solução de Equações Diferenciais Parciais da Física Teórica.
Resumo A aplicação de redes neurais na solução de problemas em Física tem se popularizado bastante nos últimos anos. Propostas, em 2017, por Raissi e colaboradores, as Physics Informed Neural Networks (PINN) são redes neurais profundas treinadas a partir de dados para representarem "leis da física" impostas por equações diferenciais parciais não lineares (EDPs), que modelam problemas físicos. Com elas é possível resolver dois tipos de problemas: obter uma solução para a EDP e descobrir os coeficientes da equação diferencial em si. Portanto, ambas as possibilidades são de interesse aos físicos. Este trabalho tem por objetivo utilizar as PINN para obter soluções para EDPs que não possuem soluções exatas de áreas da física como Gravitação e Relatividade Geral. Em especial, equações resultantes da perturbação de buracos negros. Além disso, percebendo que o tempo de treino das redes neurais se torna impraticável para EDPs mais complexas, quando se utiliza o método de treino proposto por Raissi, propomos também um método mais eficiente de treinamento para auxiliar o processo de aprendizado da rede e reduzir o tempo de computação consideravelmente. O método original consiste em escrever a EDP de interesse em um formato específico para que assim possamos utilizar uma rede neural profunda para aproximar sua solução. Esta rede é treinada minimizando uma função de erro composta do somatório dos erros quadráticos médios (MSE) entre pontos das condições iniciais e de contorno e os mesmos pontos aproximados pela rede neural. Também é levado em conta o MSE da curva numérica gerada pela rede e sua correspondência com a EDP dada, onde as derivadas da curva aproximada são calculadas por diferenciação automática. Raissi utiliza um otimizador baseado em descida de gradiente conhecido como L-BFGS, que funciona bem para diversas EDPs. Porém, para equações mais complexas o método acaba por se prender em um mínimo local ou necessitar de um tempo impraticável de treinamento. Por isso, propomos duas alterações no treinamento da rede. A primeira corresponde a criar um laço infinito para revezarmos dois otimizadores: ADAM, para procurar mínimos, seguido do L-BFGS para "refinar" o resultado obtido pelo ADAM. O laço termina com um critério de parada a ser definido. A segunda é simplificar algebricamente a equação através da variação de seus parâmetros ou da exclusão de termos, para que façamos um "pré-treino" obtendo uma curva mais suave. Após isto, retornamos os parâmetros originais (de interesse) e os termos retirados e treinamos novamente a PINN anterior com estas novas condições. Isto faz com que consigamos atingir uma curva mais elaborada mais rapidamente. Testes realizados utilizando uma equação de oscilador harmônico amortecido forçado em uma GPU Tesla K80 revelaram que, com a nossa estratégia, podemos realizar o treinamento em até 46% do tempo do método original. Testes com a EDP resultante da perturbação escalar de um buraco negro de Schwarzschild estão em andamento.
Palavras-chave Deep Learning, Física Teórica, Equações Diferenciais.
Forma de apresentação..... Painel
Link para apresentação Painel
Gerado em 0,62 segundos.