Ajuste por Mínimos Quadrados para funções polinomiais de grau n e para funções quaisquer.

Matemática


O método dos mínimos quadrados, como vimos no post anterior desta série, pode ser utilizado para qualquer tipo de função, podendo ser restrito para funções lineares e polinomiais. Sabendo que um fenômeno é regido por uma função polinomial, estabelecemos qual o grau desta função, o qual chamaremos de n e, sendo feita uma coleta de dados, temos a seguinte tabela:

xk || x1 | x2 | x3 ... | xm |
yk || y1 | y2 | y3 ... | ym |

Estes dados são regidos por uma função y(x) = c0 + c1x + ··· + cnxn. Estes coeficientes, como feito na dedução anterior, são supostos conhecidos para o prosseguimento de nossa dedução. Com base nisso, a distância quadrática entre cada valor de y e de y experimental para um mesmo x é dada por:

d = [(c0 + c1xk + ··· + cnxkn) - yk

Mas não basta ter o distanciamento apenas entre um ponto e a melhor curva. Então, nesta busca, usa-se a função distanciamento geral φ:

φ (c0, c1, ... , cn) = Σmk=1 [(c0 + c1xk + ··· + cnxkn) - yk

Como se quer que sejam as menores distâncias d’s entre o ponto experimental e o ponto correspondente do domínio para a melhor curva polinomial, temos de otimizar esta função para que seja um mínimo, e isto ocorre, conhecidos os princípios do Cálculo, quando as derivadas parciais da função são iguais a zero. Sendo o valor da função φ um número positivo, sempre existirá um valor mínimo pelos axiomas da matemática. Considerando a propriedade de que a da soma é a soma das derivadas, sendo Σ uma soma de parcelas que seguem uma regra de formação, tem-se:

φ’(c0) =  Σmk=1 2[(c0 + c1xk + ··· + cnxkn) - yk ] = 0,
φ’(c1) =  Σmk=1 2[(c0 + c1xk + ··· + cnxkn) - yk ] · xk = 0
...
φ’(cn) =  Σmk=1 2[(c0 + c1xk + ··· + cnxkn) - yk ] · xkn = 0

Separando as parcelas dos somatórios, tem-se um sistema linear da forma:

mc0
+
c1Σmk=1 [xk]
+ ··· +
cnΣmk=1 [xkn]
=
Σmk=1 [yk]
c0Σmk=1 [xk]
+
c1Σmk=1 [xk²]
+ ··· +
cnΣmk=1 [xkn+1]
=
Σmk=1 [ykxk]
···
+
···
+ ··· +
···
=
···
c0Σmk=1 [xkn]
+
c1Σmk=1 [xkn+1]
+ ··· +
cnΣmk=1 [xk2n]
=
Σmk=1 [ykxkn]


O que equivale a um sistema linear n x n, pois os x’s e os y’s não são variáveis – são os dados em que se busca a curva de ajuste das (n + 1) equações normais. Resolvido o sistema por algum método de resolução de sistemas lineares como a eliminação gaussiana, tem-se os coeficientes c0, c1, ... , cn desejados.

Seguindo o mesmo raciocínio anterior, podemos estender a regressão linear para outros casos, com funções quaisquer. Entretanto, as funções seguidas por seus coeficientes precisam ter como argumento o próprio domínio, e também ser linearmente independentes (não podem ser a mesma função com coeficiente diferente). Supondo três funções, f(x), g(x) e h(x), e que temos um fenômeno cujos dados experimentais já foram obtidos e são regidos pela função y = af + bg + ch, em que a, b e c são constantes. A distância d será dada por:

d = [(af(xk) + bg(xk) + ch(xk))- yk

O que leva à função φ (a, b, c) = Σmk=1 [(af(xk) + bg(xk) + ch(xk))- yk

Assim como o procedimento anterior, φ’(a) = φ’(b) = φ’(c) = 0, o que leva ao sistema linear:

aΣmk=1 f(xk
+
bΣmk=1 f(xk) g(xk)
+
Σmk=1 f(xk) h(xk)
=
Σmk=1 f(xk) · yk
aΣmk=1  f(xk) g(xk)
+
bΣmk=1 g(xk
+
Σmk=1 g(xk) h(xk)
=
Σmk=1 g(xk) ·  yk
aΣmk=1 f(xk) h(xk)
+
bΣmk=1 g(xk) h(xk)
+
Σmk=1  h(xk
=
Σmk=1 h(xk) ·  yk


Observe que, desta estrutura se pode restringir os casos de funções lineares e polinomiais. Também, seguindo o mesmo conceito, podemos fazer sistemas com mais constantes arbitrárias a conhecer. Após, basta o uso de eliminação gaussiana (preferivelmente com pivotamento parcial) e resolução do sistema n x n, com n funções. 

 




Þ Gostou desta postagem? Usando estes botões, compartilhe com seus amigos!

Postar um comentário

0 Comentários