Curve fit

O ajuste de curva é uma análise técnica de uma curva experimental de construção de uma curva usando funções matemáticas e ajuste as configurações dessas funções para ficar mais próximo da curva medida - por isso falamos também de ajuste de parâmetros. Freqüentemente usamos o termo inglês ajuste de curva , ajuste de perfil ou simplesmente ajuste , para designar este método; Freqüentemente usamos o frenglish “ajustar uma curva” para significar “ajustar uma curva”.

Métodos de regressão são usados . Em casos simples, é regressão multilinear se a lei for linear para todos os parâmetros, ou regressão polinomial quando um polinômio é usado para simular o fenômeno (os parâmetros físicos podem ser deduzidos dos coeficientes do polinômio).

Os métodos clássicos de regressão permitem determinar os parâmetros a partir de cálculos nos dados, mas são inaplicáveis ​​se a função for muito complexa. Devemos então trabalhar por tentativa e erro para chegar mais perto de uma solução, no sentido do método dos mínimos quadrados . A solução não é necessariamente única.

Ajuste algébrico ou geométrico

Existem dois tipos de ajuste:

No caso de um ajustamento geométrica, que é chamada o método de mínimos quadrados no total ( total de menos quadrado , TLS): de facto, as duas coordenadas sejam tomadas em consideração x e y para a determinação do desvio padrão.

Função de modelo usada

Em alguns casos, temos um modelo teórico que permite prever a forma da curva; o método de ajuste permite que os parâmetros da amostra sejam determinados. Em outros casos, uma função empírica é usada; estamos então geralmente interessados ​​na área, na largura ou na posição do máximo da função.

Freqüentemente usamos polinômios: eles são modelos que são facilmente calculados. Para formas do tipo “pico” ( distribuições unimodais ), gaussianas , funções ou combinações Lorentzianas (funções Voigt ou pseudo- funções ), ou mesmo funções de Pearson são freqüentemente usadas . curvas mostrando amortecimento freqüentemente têm um componente exponencial negativo (função em e - x ); as curvas S podem ser modeladas por uma função sigmóide .

Em geral, temos uma função modelo f tendo n parâmetros p 1 , p 2 , ..., p n que conecta a abscissa x à ordenada y  :

e comparamos esta função com os m pontos experimentais

A função f às vezes pode ser decomposta em várias funções f 1 , f 2 ... ou seja, é a soma , o produto , o produto da convolução ...

Abordagem de regressão

Considerações gerais

Calculamos os pontos y i cal da curva simulada:

.

Normalmente, um algoritmo de regressão é usado para minimizar o desvio quadrático entre a curva simulada e a curva experimental; falamos de um algoritmo de minimização de erros.

Assim, definimos um fator de confiabilidade ( fator de confiabilidade ) R  :

onde y i exp é o i -ésimo ponto medido e y i cal é o i -ésimo ponto calculado. O factor R é semelhante na sua expressão para o coeficiente de correlação múltipla ( R 2 , em seguida, sendo o coeficiente de determinação ). Fator de confiabilidade ponderado mais comumente usado ( fator de confiabilidade ponderado ) R wp  :

onde w i é o peso atribuído ao ponto i  ; este peso representa a incerteza associada ao ponto i .

A regressão consiste em encontrar o conjunto de parâmetros ( p 1 , p 2 ,…, p n ) tal que R wp seja mínimo. Portanto, temos em particular

.

Em casos simples, o sistema de equações que obtemos pode ser resolvido "simplesmente"; em particular para regressões multilineares, pode ser resolvido por inversão de matriz.

Regressão não linear

Quando não é possível resolver o sistema de equações de forma simples, o método de Newton-Raphson pode ser usado .

É um algoritmo iterativo  : em cada etapa, observamos como uma pequena variação em um parâmetro faz com que a função de confiabilidade R varie . O conjunto de parâmetros retidos para a etapa seguinte é obtido por extrapolação dessas pequenas variações, por linearização: busca-se os valores dos parâmetros que tornariam R nulo se as variações de R fossem proporcionais às variações dos parâmetros. A computação para quando não se consegue mais reduzir o fator de confiabilidade, fala-se em convergência.

Se denotarmos ( p k ) o conjunto de parâmetros, a intensidade calculada em cada ponto i na etapa j é expressa por

.

Para simplificar os cálculos, podemos fazer uma expansão limitada de primeira ordem desta função f , então, aplicando incrementos Δ p k aos parâmetros, podemos escrever

ao impor y i cal = y i exp , obtemos, assim, um sistema de equações lineares (o índice j é omitido para maior clareza):

que pode ser resolvido por uma pseudo-inversão da matriz, o que torna possível calcular o Δ p k e, portanto, os valores dos parâmetros na etapa seguinte j + 1:

se chamarmos A de matriz , o sistema de equações é escrito A matriz pseudo-inversa B tem as mesmas dimensões que t A (a matriz transposta de A ) e satisfaz

A matriz pseudo-inversa pode ser calculada por decomposição em valores singulares .

Nós então pegamos e

A pseudo-inversão é justificada pelo fato de que o primeiro membro do sistema de equações é então escrito

se multiplicarmos por B , torna-se:

e então nós temos

Observe que esta é uma condição suficiente, mas não necessária.

Na verdade, é um método de Newton-Raphson, uma vez que se lineariza a função e se busca o ponto que cancela R ( R = 0 se y i cal = y i exp para todo i ).

Ao notar que A é de fato a matriz Jacobiana de f ( A = J ), vemos que o sistema de equações é composto de equações normais . Os incrementos dos parâmetros podem ser calculados por

Em seguida, encontramos o algoritmo de Gauss-Newton .

Por vezes, a linearização é “muito violenta”: se a função apresentar uma “curvatura” importante quando os parâmetros variam, a aplicação da “lei da tangente” pode afastar-se da solução em vez de se aproximar. Podemos, portanto, usar um coeficiente de atenuação d ≤ 1 , então temos:

Também podemos usar um algoritmo mais complexo usando derivadas secundárias.

Pode acontecer que o programa convirja para um mínimo local de R, que não é o mínimo absoluto. Para evitar esta situação, utilizamos o algoritmo Metropolis-Hastings  : ao convergirmos, variamos os parâmetros em um determinado valor e recomeçamos o processo para ver se conseguimos convergir para outro jogo. Parâmetros com menor fator de confiabilidade.

Se a simulação fosse perfeita, o fator de confiabilidade teria um valor dependendo da relação sinal / ruído . Se soubermos calcular esta relação sinal / ruído, isto é, se conhecermos a lei da probabilidade que rege as flutuações do sinal, podemos então determinar um fator de confiabilidade incompressível R 0 . Se a simulação for perfeita, então temos R = R 0; de fato, a qualidade da simulação é freqüentemente expressa pela razão R / R 0 , que deve tender para 1 conforme as etapas iterativas vão.

Regressão circular

A regressão circular consiste em encontrar o “melhor círculo”, no sentido de mínimos quadrados, descrevendo um conjunto de pontos. É um problema de regressão geométrica não linear. No entanto, uma escolha inteligente da função de erro torna possível reduzi-la a um problema linear.

Regressão elíptica

A regressão elíptica consiste em encontrar a “melhor elipse”, no sentido de mínimos quadrados, descrevendo um conjunto de pontos.

Formulários

Notas e referências

  1. "  Phil Weyman fez descobrir seu know-how  " , em Ouest-France.fr (consultado em 22 de junho de 2015 )

Veja também

Artigos relacionados