Método de constantes variáveis
Em matemática , e mais precisamente em análise , o método de variação de constantes (ou método de Lagrange ) é um método de resolver equações diferenciais . Permite em particular determinar as soluções de uma equação diferencial com segundo membro, conhecendo as soluções da equação homogênea (isto é sem segundo membro) associada.
O método foi inventado pelo matemático e físico Pierre-Simon de Laplace , para a resolução de equações diferenciais lineares . Recebe o seu nome do facto de, essencialmente, consistir em procurar as soluções de uma forma semelhante à já encontrada para uma equação associada mais simples, mas substituindo a (s) constante (s) desta solução por novas funções desconhecidas.
Caixa de primeira ordem
Para uma equação diferencial linear de ordem 1, se a solução geral da equação homogênea
noz′+bz=0{\ displaystyle az '+ bz = 0}![az '+ bz = 0](https://wikimedia.org/api/rest_v1/media/math/render/svg/95a478165b1a666e4197283bb58fb69a2f7a431c)
é
zK(x)=Kz1(x),K∈R,{\ displaystyle z_ {K} (x) = Kz_ {1} (x), K \ in \ mathbb {R},}![z_ {K} (x) = Kz_ {1} (x), K \ in \ mathbb {R},](https://wikimedia.org/api/rest_v1/media/math/render/svg/11a4dba31dd1167f77360a7f01cbe60f85229efa)
nós estamos procurando por aquilo de
noy′+by=vs{\ displaystyle ay '+ por = c}![ay '+ por = c](https://wikimedia.org/api/rest_v1/media/math/render/svg/e645b259dd199a965fe39603f277d505b4a8d89b)
Sob o formulário
y(x)=k(x)z1(x).{\ displaystyle y (x) = k (x) z_ {1} (x).}![y (x) = k (x) z_ {1} (x).](https://wikimedia.org/api/rest_v1/media/math/render/svg/c349e6352a13ef5bb8feb3223468dd0a70d35be9)
Ao adiar a equação inicial, obtemos uma equação equivalente à equação inicial, mas baseada em k :
k′=vsnoz1.{\ displaystyle k '= {\ frac {c} {az_ {1}}}.}![k '= {\ frac c {az_ {1}}}.](https://wikimedia.org/api/rest_v1/media/math/render/svg/8dce8171f27f2217b122a9e186382aa8d210a9b2)
Ao denotar k 0 uma antiderivada da função c / ( az 1 ), a solução geral k é expressa na forma
kK(x)=k0(x)+K,K∈R{\ displaystyle k_ {K} (x) = k_ {0} (x) + K, K \ in \ mathbb {R}}
o que permite voltar à expressão da solução geral y K = y 0 + z K :
yK(x)=(k0(x)+K)z1(x),K∈R.{\ displaystyle y_ {K} (x) = (k_ {0} (x) + K) z_ {1} (x), K \ in \ mathbb {R}.}
Para esclarecer z 1 então k 0 , é necessário realizar dois cálculos de primitivas. Como resultado, a solução na maioria das vezes não é expressa usando as funções usuais (ver sobre este assunto o teorema de Liouville ).
Caso de segunda ordem
Para uma equação diferencial linear de ordem dois , coloque na forma :
y″+no(x)⋅y′+b(x)⋅y=d(x){\ displaystyle y '' + a (x) \ cdot y '+ b (x) \ cdot y = d (x)}![{\ displaystyle y '' + a (x) \ cdot y '+ b (x) \ cdot y = d (x)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a9307eabc902542bffccd931abc161040e9bc2ff)
Denote por e duas soluções que formam a base das soluções da equação homogênea. Vamos procurar uma solução particular y no formulário
y1{\ displaystyle y_ {1}}
y2{\ displaystyle y_ {2}}![y_ {2}](https://wikimedia.org/api/rest_v1/media/math/render/svg/7377c7399e662562cd420fa5c7ce49cfba574998)
y(x)=λ(x)⋅y1(x)+µ(x)⋅y2(x){\ displaystyle y (x) = \ lambda (x) \ cdot y_ {1} (x) + \ mu (x) \ cdot y_ {2} (x)}![{\ displaystyle y (x) = \ lambda (x) \ cdot y_ {1} (x) + \ mu (x) \ cdot y_ {2} (x)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2c4750cedc177d91f1ae43054cae0b590a515134)
(daí o nome "método de variação de constantes").
Mostramos que se as funções e verificamos o seguinte sistema
λ{\ displaystyle \ lambda}
µ{\ displaystyle \ mu}![\ mu](https://wikimedia.org/api/rest_v1/media/math/render/svg/9fd47b2a39f7a7856952afec1f1db72c67af6161)
{λ′(x)⋅y1(x)+µ′(x)⋅y2(x)=0λ′(x)⋅y1′(x)+µ′(x)⋅y2′(x)=d(x){\ displaystyle {\ begin {cases} \ lambda '(x) \ cdot y_ {1} (x) + \ mu' (x) \ cdot y_ {2} (x) = 0 \\ lambda '(x) \ cdot y '_ {1} (x) + \ mu' (x) \ cdot y '_ {2} (x) = d (x) \ end {casos}}}![{\ displaystyle {\ begin {cases} \ lambda '(x) \ cdot y_ {1} (x) + \ mu' (x) \ cdot y_ {2} (x) = 0 \\ lambda '(x) \ cdot y '_ {1} (x) + \ mu' (x) \ cdot y '_ {2} (x) = d (x) \ end {casos}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/aff2f6700e5b6e518c5017dc454dfaa941cc410e)
então a função y acima é uma solução particular.
Observação.
1) Pegamos e usando a regra de Cramer .
λ′{\ displaystyle \ lambda '}
µ′{\ displaystyle \ mu '}![\ mu '](https://wikimedia.org/api/rest_v1/media/math/render/svg/53b9ddd6bbc6f1ef9ca40b1c2e6e2c1c8d141aed)
2) Podemos mostrar que este sistema é da Cramer.
Caso Geral
Para uma equação diferencial linear de ordem n com o segundo membro, buscaremos uma combinação linear de solução particular de um sistema fundamental de soluções , ou seja , de uma base do espaço vetorial das soluções da equação homogênea. Os coeficientes da combinação linear são agora funções que se busca determinar. É uma simples generalização do caso n = 2 , porém há uma reformulação da matriz.
y{\ displaystyle y}
(y1,y2,⋯,ynão){\ displaystyle (y_ {1}, y_ {2}, \ cdots, y_ {n})}
(vs1,vs2,⋯,vsnão){\ displaystyle (c_ {1}, c_ {2}, \ cdots, c_ {n})}![{\ displaystyle (c_ {1}, c_ {2}, \ cdots, c_ {n})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/48a33e710e87e5b7640a2d68c2a9a5f1ee5f6c07)
Uma equação diferencial ordinária linear não homogênea é geralmente escrita
y(não)(x)+∑k=0não-1nok(x)y(k)(x)=d(x)(1){\ displaystyle y ^ {(n)} (x) + \ sum _ {k = 0} ^ {n-1} a_ {k} (x) \, y ^ {(k)} (x) = d ( x) \ qquad (1)}
onde é a derivada k -ésima . Supomos de antemão ter n soluções linearmente independentes da equação homogênea
y(k){\ displaystyle y ^ {(k)}}
y{\ displaystyle y}
(y1,y2,⋯,ynão){\ displaystyle (y_ {1}, y_ {2}, \ cdots, y_ {n})}![{\ displaystyle (y_ {1}, y_ {2}, \ cdots, y_ {n})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d7bb2dbc0cdeea06f568baa739887fef34fd19ef)
y(não)(x)+∑k=0não-1nok(x)y(k)(x)=0(2){\ displaystyle y ^ {(n)} (x) + \ sum _ {k = 0} ^ {n-1} a_ {k} (x) \, y ^ {(k)} (x) = 0 \ qquad (2)}![{\ displaystyle y ^ {(n)} (x) + \ sum _ {k = 0} ^ {n-1} a_ {k} (x) \, y ^ {(k)} (x) = 0 \ qquad (2)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c7fd1c5d238b08ff9bbc0b459035023210880d60)
.
Ao reunir em uma coluna as derivadas sucessivas de cada solução , forma-se a seguinte matriz
yeu{\ displaystyle y_ {i}}![y_ {i}](https://wikimedia.org/api/rest_v1/media/math/render/svg/67d30d30b6c2dbe4d6f150d699de040937ecc95f)
Φ(x): =(y1(x)y2(x)⋯ynão(x)⋮⋮⋮y1(k)(x)y2(k)(x)⋯ynão(k)(x)⋮⋮⋮y1(não-1)(x)y2(não-1)(x)⋯ynão(não-1)(x))(3){\ displaystyle \ Phi (x): = {\ begin {pmatrix} y_ {1} (x) & y_ {2} (x) & \ cdots & y_ {n} (x) \\\ vdots & \ vdots && \ vdots \\ y_ {1} ^ {(k)} (x) & y_ {2} ^ {(k)} (x) & \ cdots & y_ {n} ^ {(k)} (x) \\ \ vdots & \ vdots && \ vdots \\ y_ {1} ^ {(n-1)} (x) & y_ {2} ^ {(n-1)} (x) & \ cdots & y_ {n} ^ {(n-1)} (x) \ end {pmatriz}} \ qquad (3)}![{\ displaystyle \ Phi (x): = {\ begin {pmatrix} y_ {1} (x) & y_ {2} (x) & \ cdots & y_ {n} (x) \\\ vdots & \ vdots && \ vdots \\ y_ {1} ^ {(k)} (x) & y_ {2} ^ {(k)} (x) & \ cdots & y_ {n} ^ {(k)} (x) \\ \ vdots & \ vdots && \ vdots \\ y_ {1} ^ {(n-1)} (x) & y_ {2} ^ {(n-1)} (x) & \ cdots & y_ {n} ^ {(n-1)} (x) \ end {pmatriz}} \ qquad (3)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a09aca603683ce3db686faeb59d1594f7d9c333d)
.
A independência das n soluções pode ser verificada para cada x fixo, calculando o determinante desta matriz que não deve anular, cf. Wronskien .
O método de variar a constante consiste em procurar uma solução particular de (1) na forma
y(x)=∑eu=1nãovseu(x)yeu(x)(4){\ displaystyle y (x) = \ sum _ {i = 1} ^ {n} c_ {i} (x) \, y_ {i} (x) \ qquad (4)}
com funções, pelo menos . Na realidade, introduz-se nesta fase muitas incógnitas e é necessário impor uma igualdade semelhante nas derivadas superiores:
vseu{\ displaystyle c_ {i}}
VS1{\ displaystyle C ^ {1}}![C ^ {1}](https://wikimedia.org/api/rest_v1/media/math/render/svg/bd24bae0d7570018e828e19851902c09c618af91)
y(k)(x)=∑eu=1nãovseu(x)yeu(k)(x)∀ k, 1≤k≤não-1(5){\ displaystyle y ^ {(k)} (x) = \ sum _ {i = 1} ^ {n} c_ {i} (x) \, y_ {i} ^ {(k)} (x) \ quad \ forall \ k, \ 1 \ leq k \ leq n-1 \ qquad (5)}
quais valores, por recorrência, para impor
∑eu=1nãovseu′(x)yeu(k)(x)=0∀ k, 0≤k≤não-2(6){\ displaystyle \ sum _ {i = 1} ^ {n} c_ {i} '(x) y_ {i} ^ {(k)} (x) = 0 \ quad \ forall \ k, \ 0 \ leq k \ leq n-2 \ qquad (6)}![{\ displaystyle \ sum _ {i = 1} ^ {n} c_ {i} '(x) y_ {i} ^ {(k)} (x) = 0 \ quad \ forall \ k, \ 0 \ leq k \ leq n-2 \ qquad (6)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c6b2720f02fd42473942b42dff06a2a7c80e7107)
.
No entanto, a n- ésima derivada é deixada como está; obtemos diferenciando (5) com k : = n - 1:
y(não)(x)=∑eu=1não(vseu′(x)yeu(não-1)(x)+vseu(x)yeu(não)(x))(7){\ displaystyle y ^ {(n)} (x) = \ sum _ {i = 1} ^ {n} {\ bigl (} c '_ {i} (x) \, y_ {i} ^ {(n -1)} (x) + c_ {i} (x) \, y_ {i} ^ {(n)} (x) {\ bigr)} \ qquad (7)}![{\ displaystyle y ^ {(n)} (x) = \ sum _ {i = 1} ^ {n} {\ bigl (} c '_ {i} (x) \, y_ {i} ^ {(n -1)} (x) + c_ {i} (x) \, y_ {i} ^ {(n)} (x) {\ bigr)} \ qquad (7)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e7b5be4620b60bc308a14cc4ccdda7427ffc05c6)
.
Nota: entendemos melhor a origem das condições (6) e (7) na formulação da matriz, equação (16).
Inserindo agora (4), (5) e (7) na equação não homogênea (1), obtemos
∑eu=1nãovseu(x)(yeu(não)(x)+∑k=0não-1nok(x)yeu(k)(x))+∑eu=1nãovseu′(x)yeu(não-1)(x)=d(x){\ displaystyle \ sum _ {i = 1} ^ {n} c_ {i} (x) \, {\ biggl (} y_ {i} ^ {(n)} (x) + \ sum _ {k = 0 } ^ {n-1} a_ {k} (x) \, y_ {i} ^ {(k)} (x) {\ biggr)} + \ sum _ {i = 1} ^ {n} c '_ {i} (x) \, y_ {i} ^ {(n-1)} (x) = d (x)}![{\ displaystyle \ sum _ {i = 1} ^ {n} c_ {i} (x) \, {\ biggl (} y_ {i} ^ {(n)} (x) + \ sum _ {k = 0 } ^ {n-1} a_ {k} (x) \, y_ {i} ^ {(k)} (x) {\ biggr)} + \ sum _ {i = 1} ^ {n} c '_ {i} (x) \, y_ {i} ^ {(n-1)} (x) = d (x)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a635ee72b754fd67ef518fe38c3c36d57f2713d8)
.
Agora, uma vez que são a solução de (2), a primeira soma desaparece, deixando
yeu{\ displaystyle y_ {i}}![y_ {i}](https://wikimedia.org/api/rest_v1/media/math/render/svg/67d30d30b6c2dbe4d6f150d699de040937ecc95f)
∑eu=1nãovseu′(x)yeu(não-1)(x)=d(x)(8){\ displaystyle \ sum _ {i = 1} ^ {n} c '_ {i} (x) \, y_ {i} ^ {(n-1)} (x) = d (x) \ qquad (8 )}![{\ displaystyle \ sum _ {i = 1} ^ {n} c '_ {i} (x) \, y_ {i} ^ {(n-1)} (x) = d (x) \ qquad (8 )}](https://wikimedia.org/api/rest_v1/media/math/render/svg/488e7c1626a293b840ecb50e961392b7bc2bc937)
.
Teorema: Se as equações diferenciais (6) e (8) os satisfazem, então a expressão (4) é uma solução de (1).
vseu′{\ displaystyle c '_ {i}}![{\ displaystyle c '_ {i}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/83ee71790524fdc492a1df20718354d6231368ac)
(6) e (8) podem ser reescritos em forma de matriz
(y1(x)y2(x)⋯ynão(x)⋮⋮⋮y1(k)(x)y2(k)(x)⋯ynão(k)(x)⋮⋮⋮y1(não-1)(x)y2(não-1)(x)⋯ynão(não-1)(x))⋅(vs1′⋮vsk′⋮vsnão′)=(00⋮0d(x))(9){\ displaystyle {\ begin {pmatrix} y_ {1} (x) & y_ {2} (x) & \ cdots & y_ {n} (x) \\\ vdots & \ vdots && \ vdots \\ y_ {1 } ^ {(k)} (x) & y_ {2} ^ {(k)} (x) & \ cdots & y_ {n} ^ {(k)} (x) \\\ vdots & \ vdots && \ vdots \\ y_ {1} ^ {(n-1)} (x) & y_ {2} ^ {(n-1)} (x) & \ cdots & y_ {n} ^ {(n-1)} (x) \ end {pmatrix}} \ cdot {\ begin {pmatrix} c '_ {1} \\\ vdots \\ c' _ {k} \\\ vdots \\ c '_ {n} \ end { pmatriz}} = {\ begin {pmatrix} 0 \\ 0 \\\ vdots \\ 0 \\ d (x) \ end {pmatrix}} \ qquad (9)}
que é resolvido como no caso da segunda ordem com a regra de Cramer . Observe o wronskien, que assumimos ser diferente de zero, então
C(x): =detΦ{\ displaystyle W (x): = \ det \ Phi}![{\ displaystyle W (x): = \ det \ Phi}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9097d4c5f7430db859f5738daecf1026f398fd96)
∀ eu, 1≤eu≤não,vseu′(x)=1C(x)|y1(x)⋯yeu-1(x)0⋯ynão(x)⋮⋯⋮0⋯⋮y1(k)(x)⋯yeu-1(k)(x)0⋯ynão(k)(x)⋮⋯⋮0⋯⋮y1(não-1)(x)⋯yeu-1(não-1)(x)d(x)⋯ynão(não-1)(x)|(10){\ displaystyle \ forall \ i, \ 1 \ leq i \ leq n, \ quad c '_ {i} (x) = {\ frac {1} {W (x)}} {\ begin {vmatrix} y_ { 1} (x) & \ cdots & y_ {i-1} (x) & 0 & \ cdots & y_ {n} (x) \\\ vdots & \ cdots & \ vdots & 0 & \ cdots & \ vdots \ \ y_ {1} ^ {(k)} (x) & \ cdots & y_ {i-1} ^ {(k)} (x) & 0 & \ cdots & y_ {n} ^ {(k)} ( x) \\\ vdots & \ cdots & \ vdots & 0 & \ cdots & \ vdots \\ y_ {1} ^ {(n-1)} (x) & \ cdots & y_ {i-1} ^ {( n-1)} (x) & d (x) & \ cdots & y_ {n} ^ {(n-1)} (x) \ end {vmatrix}} \ qquad (10)}
Formulação de matriz
Qualquer um . Denotar pelo vetor coluna
y∈VSnão(eu), eu⊆R{\ displaystyle y \ in C ^ {n} (I), \ I \ subseteq \ mathbb {R}}
Y{\ displaystyle Y}![Y](https://wikimedia.org/api/rest_v1/media/math/render/svg/961d67d6b454b4df2301ac571808a3538b3a6d3f)
Y(x): =(y(x)y′(x)y(2)(x)⋮y(não-1)(x)){\ displaystyle Y (x): = {\ begin {pmatrix} y (x) \\ y '(x) \\ y ^ {(2)} (x) \\\ vdots \\ y ^ {(n- 1)} (x) \ end {pmatriz}}}
Uma função é a solução de (1) se e somente se satisfeita
y{\ displaystyle y}
Y{\ displaystyle Y}![Y](https://wikimedia.org/api/rest_v1/media/math/render/svg/961d67d6b454b4df2301ac571808a3538b3a6d3f)
Y′=(010⋯0⋮010⋮⋮⋮⋱⋱0⋮⋮001-no0(x)-no1(x)⋯-nonão-2(x)-nonão-1(x))⋅Y+(00⋮0d(x))(11){\ displaystyle Y '= {\ begin {pmatrix} 0 & 1 & 0 & \ cdots & 0 \\\ vdots & 0 & 1 & 0 & \ vdots \\\ vdots & \ vdots & \ ddots & \ ddots & 0 \\\ vdots & \ vdots & 0 & 0 & 1 \\ - a_ {0} (x) & - a_ {1} (x) & \ cdots & -a_ {n-2} (x) & - a_ { n-1} (x) \ end {pmatriz}} \ cdot Y + {\ begin {pmatriz} 0 \\ 0 \\\ vdots \\ 0 \\ d (x) \ end {pmatriz}} \ qquad (11 )}
Vamos denotar a matriz do lado direito. Transformamos uma equação de ordem n em uma equação de ordem 1.
NO{\ displaystyle A}![NO](https://wikimedia.org/api/rest_v1/media/math/render/svg/7daff47fa58cdfd29dc333def748ff5fa4c923e3)
O resolvente da equação homogênea associada é a aplicação que envia o valor de qualquer solução no ponto x 1 para o seu valor no ponto x 2 (justificação da existência, cf. teorema de Cauchy-Lipschitz ), ou seja , -d. para qualquer solução da equação homogênea associada com (11)
R:eu×eu⟶Mnão(K){\ displaystyle R: I \ times I \ longrightarrow \ mathbb {M} _ {n} (\ mathbb {K})}
Y(x1){\ displaystyle Y (x_ {1})}
Y(x2){\ displaystyle Y (x_ {2})}
Y{\ displaystyle Y}![Y](https://wikimedia.org/api/rest_v1/media/math/render/svg/961d67d6b454b4df2301ac571808a3538b3a6d3f)
Y(x2)=R(x2,x1)⋅Y(x1)(12){\ displaystyle Y (x_ {2}) = R (x_ {2}, x_ {1}) \ cdot Y (x_ {1}) \ qquad (12)}![{\ displaystyle Y (x_ {2}) = R (x_ {2}, x_ {1}) \ cdot Y (x_ {1}) \ qquad (12)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/df8dac69bb037d3e44e2c96dfcda941ba5ca21c1)
.
Se agruparmos n soluções linearmente independentes da equação homogênea na matriz de (3), naturalmente temos
(Y1,Y2,⋯,Ynão){\ displaystyle (Y_ {1}, Y_ {2}, \ cdots, Y_ {n})}
Φ{\ displaystyle \ Phi}![\ Phi](https://wikimedia.org/api/rest_v1/media/math/render/svg/aed80a2011a3912b028ba32a52dfa57165455f24)
Φ′(x)=NO⋅Φ(13){\ displaystyle \ Phi '(x) = A \ cdot \ Phi \ qquad (13)}
assim como
Φ(x2)=R(x2,x1)⋅Φ(x1)(14){\ displaystyle \ Phi (x_ {2}) = R (x_ {2}, x_ {1}) \ cdot \ Phi (x_ {1}) \ qquad (14)}![{\ displaystyle \ Phi (x_ {2}) = R (x_ {2}, x_ {1}) \ cdot \ Phi (x_ {1}) \ qquad (14)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/060f895b230af03f53789c241436687d626c8f05)
.
Observação:
- (13) e (14) permanecem válidos para qualquer família de soluções, linearmente independentes ou não.(Y1,Y2,⋯,Ynão){\ displaystyle (Y_ {1}, Y_ {2}, \ cdots, Y_ {n})}
![{\ displaystyle (Y_ {1}, Y_ {2}, \ cdots, Y_ {n})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a35809862f8c711a90b83e699252e4cf9651138f)
- Se conhecermos explicitamente um sistema fundamental de soluções , então podemos tornar o resolvente explícito de (14). De fato, pela fórmula de Liouville , se é invertível para um certo x 0 , então é para todo x ; pode-se assim escrever .(Y1,Y2,⋯,Ynão){\ displaystyle (Y_ {1}, Y_ {2}, \ cdots, Y_ {n})}
Φ{\ displaystyle \ Phi}
Φ(x2)⋅Φ-1(x1)=R(x2,x1){\ displaystyle \ Phi (x_ {2}) \ cdot \ Phi ^ {- 1} (x_ {1}) = R (x_ {2}, x_ {1})}![{\ displaystyle \ Phi (x_ {2}) \ cdot \ Phi ^ {- 1} (x_ {1}) = R (x_ {2}, x_ {1})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/b56ce1d0a2ccae4e79932c01f867f63f63450e00)
Atenção: vamos usar, sem demonstrar, a invariância do resolvente por tradução, em particular que (abuso de notação) e que visto como uma função com uma variável, é um "grupo com 1 parâmetro" onde quer que esteja . definido, ou seja , e quando é definido. Aliás, também satisfeito (13).
R(x2,x1)=R(x2-x1){\ displaystyle R (x_ {2}, x_ {1}) = R (x_ {2} -x_ {1})}
R(no)⋅R(b)=R(no+b){\ displaystyle R (a) \ cdot R (b) = R (a + b)}
R-1(no)=R(-no){\ displaystyle R ^ {- 1} (a) = R (-a)}
R{\ displaystyle R}![R](https://wikimedia.org/api/rest_v1/media/math/render/svg/4b0bfb3769bf24d80e15374dc37b0441e2616e33)
Nesta formulação, o método de variar as constantes consiste em fazer a "mudança de variável"
Y(x)=R(x,x0)⋅(vs1(x)vs2(x)vs3(x)⋮vsnão(x))⟺(vs1(x)vs2(x)vs3(x)⋮vsnão(x))=R-1(x,x0)⋅Y(x)(15){\ displaystyle Y (x) = R (x, x_ {0}) \ cdot {\ begin {pmatrix} c_ {1} (x) \\ c_ {2} (x) \\ c_ {3} (x) \\\ vdots \\ c_ {n} (x) \ end {pmatriz}} \ quad \ Longleftrightarrow \ quad {\ begin {pmatrix} c_ {1} (x) \\ c_ {2} (x) \\ c_ {3} (x) \\\ vdots \\ c_ {n} (x) \ end {pmatriz}} = R ^ {- 1} (x, x_ {0}) \ cdot Y (x) \ qquad (15 )}
(11) é, portanto, reescrito
R′(x-x0)⋅(vs1(x)vs2(x)vs3(x)⋮vsnão(x))+R(x-x0)⋅(vs1′(x)vs2′(x)vs3′(x)⋮vsnão′(x))=NO⋅R(x-x0)⋅(vs1(x)vs2(x)vs3(x)⋮vsnão(x))+(00⋮0d(x)){\ displaystyle R '(x-x_ {0}) \ cdot {\ begin {pmatrix} c_ {1} (x) \\ c_ {2} (x) \\ c_ {3} (x) \\\ vdots \\ c_ {n} (x) \ end {pmatriz}} + R (x-x_ {0}) \ cdot {\ begin {pmatriz} c '_ {1} (x) \\ c' _ {2} (x) \\ c '_ {3} (x) \\\ vdots \\ c' _ {n} (x) \ end {pmatriz}} = A \ cdot R (x-x_ {0}) \ cdot {\ begin {pmatrix} c_ {1} (x) \\ c_ {2} (x) \\ c_ {3} (x) \\\ vdots \\ c_ {n} (x) \ end {pmatrix}} + {\ begin {pmatrix} 0 \\ 0 \\\ vdots \\ 0 \\ d (x) \ end {pmatrix}}}![{\ displaystyle R '(x-x_ {0}) \ cdot {\ begin {pmatrix} c_ {1} (x) \\ c_ {2} (x) \\ c_ {3} (x) \\\ vdots \\ c_ {n} (x) \ end {pmatriz}} + R (x-x_ {0}) \ cdot {\ begin {pmatriz} c '_ {1} (x) \\ c' _ {2} (x) \\ c '_ {3} (x) \\\ vdots \\ c' _ {n} (x) \ end {pmatriz}} = A \ cdot R (x-x_ {0}) \ cdot {\ begin {pmatrix} c_ {1} (x) \\ c_ {2} (x) \\ c_ {3} (x) \\\ vdots \\ c_ {n} (x) \ end {pmatrix}} + {\ begin {pmatrix} 0 \\ 0 \\\ vdots \\ 0 \\ d (x) \ end {pmatrix}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/34cd15f5e66e254d406edde8658343f58f992483)
.
No entanto, uma vez que também satisfaz (13), apenas
R{\ displaystyle R}![R](https://wikimedia.org/api/rest_v1/media/math/render/svg/4b0bfb3769bf24d80e15374dc37b0441e2616e33)
R(x-x0)⋅(vs1′(x)vs2′(x)vs3′(x)⋮vsnão′(x))=(00⋮0d(x))(16){\ displaystyle R (x-x_ {0}) \ cdot {\ begin {pmatrix} c '_ {1} (x) \\ c' _ {2} (x) \\ c '_ {3} (x ) \\\ vdots \\ c '_ {n} (x) \ end {pmatriz}} = {\ begin {pmatrix} 0 \\ 0 \\\ vdots \\ 0 \\ d (x) \ end {pmatriz }} \ qquad (16)}
que é equivalente a (9), com aqui a dependência explícita dos valores das soluções fundamentais em x 0 .
Ao perceber que (matriz de identidade) e com (15), integramos o componente vetorial por componente
R(0)=eunão{\ displaystyle R (0) = I_ {n}}![{\ displaystyle R (0) = I_ {n}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/14691d53b0eae14241c0a2c29162557908624397)
(vs1(x)vs2(x)vs3(x)⋮vsnão(x))=∫x0xR-1(eu-x0)⋅(00⋮0d(x))deu+Y(x0){\ displaystyle {\ begin {pmatrix} c_ {1} (x) \\ c_ {2} (x) \\ c_ {3} (x) \\\ vdots \\ c_ {n} (x) \ end { pmatrix}} = \ int _ {x_ {0}} ^ {x} R ^ {- 1} (l-x_ {0}) \ cdot {\ begin {pmatrix} 0 \\ 0 \\\ vdots \\ 0 \\ d (x) \ end {pmatriz}} \, dl + Y (x_ {0})}![{\ displaystyle {\ begin {pmatrix} c_ {1} (x) \\ c_ {2} (x) \\ c_ {3} (x) \\\ vdots \\ c_ {n} (x) \ end { pmatrix}} = \ int _ {x_ {0}} ^ {x} R ^ {- 1} (l-x_ {0}) \ cdot {\ begin {pmatrix} 0 \\ 0 \\\ vdots \\ 0 \\ d (x) \ end {pmatriz}} \, dl + Y (x_ {0})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a2732922a51ce014e41fb4f27f4b79eac94348e1)
.
Ao reutilizar (15) e onde quer que seja definido, finalmente obtemos
R-1(ϵ)=R(-ϵ){\ displaystyle R ^ {- 1} (\ epsilon) = R (- \ epsilon)}![{\ displaystyle R ^ {- 1} (\ epsilon) = R (- \ epsilon)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/f13815d8306521a5398cc72dce74207592a4eab9)
Y(x)=R(x-x0)Y(x0)+∫x0xR(x-eu)⋅(00⋮0d(x))deu{\ displaystyle Y (x) = R (x-x_ {0}) Y (x_ {0}) + \ int _ {x_ {0}} ^ {x} R (xl) \ cdot {\ begin {pmatrix} 0 \\ 0 \\\ vdots \\ 0 \\ d (x) \ end {pmatriz}} \, dl}![{\ displaystyle Y (x) = R (x-x_ {0}) Y (x_ {0}) + \ int _ {x_ {0}} ^ {x} R (xl) \ cdot {\ begin {pmatrix} 0 \\ 0 \\\ vdots \\ 0 \\ d (x) \ end {pmatriz}} \, dl}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6531fa2e93ee354689913dcddca333d6ad2df317)
.
Exemplo de aplicação à física
A equação diferencial de segunda ordem com coeficientes constantes intervém na física no estudo de sistemas oscilantes com um grau de liberdade , quando a excitação (força, corrente ...) aplicada ao sistema oscilante é zero.
noy″(t)+by′(t)+vsy(t)=0{\ displaystyle ay '' (t) + por '(t) + cy (t) = 0}![ay '' (t) + por '(t) + cy (t) = 0](https://wikimedia.org/api/rest_v1/media/math/render/svg/7b919f9b45a1056bdd1f988ad176c63fdbe48226)
O método da equação característica (descoberto por Euler) dá a solução desta equação diferencial homogênea, que é uma combinação linear de funções exponenciais (complexas).
Quando aplicamos uma excitação , a equação se torna:
f(t){\ displaystyle f (t)}![f (t)](https://wikimedia.org/api/rest_v1/media/math/render/svg/5bf044fe2fbfc4bd8d6d7230f4108430263f9fd6)
noy″(t)+by′(t)+vsy(t)=f(t){\ displaystyle ay '' (t) + por '(t) + cy (t) = f (t)}![{\ displaystyle ay '' (t) + por '(t) + cy (t) = f (t)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/54c0d9588aae27727fa27bc97e136307e01c23b5)
.
O método da variação constante permite encontrar a solução geral .
<img src="https://fr.wikipedia.org/wiki/Special:CentralAutoLogin/start?type=1x1" alt="" title="" width="1" height="1" style="border: none; position: absolute;">