Separazione delle variabili

In matematica, per separazione delle variabili o metodo di Fourier si intende una strategia risolutiva per equazioni differenziali ordinarie e alle derivate parziali in cui è possibile riscrivere l'equazione in modo che due date variabili compaiano l'una al membro di destra e l'altra al membro di sinistra dell'equazione.

Equazioni differenziali ordinarie

Si supponga che un'equazione differenziale ordinaria (ODE) si possa scrivere nella forma:

d y d x = g ( x ) h ( y ) {\displaystyle {\frac {dy}{dx}}=g(x)h(y)}

con y = f ( x ) {\displaystyle y=f(x)} . Se h ( y ) 0 {\displaystyle h(y)\neq 0} si possono riordinare i termini:

d y h ( y ) = g ( x ) d x {\displaystyle \int {dy \over h(y)}=\int {g(x)dx}}

in modo che le variabili x {\displaystyle x} e y {\displaystyle y} siano separate ognuna in uno dei due membri.

Una delle equazioni più significative a cui si applica il metodo è y = a y {\displaystyle y'=ay} , la crescita esponenziale.

Esempio

Lo stesso argomento in dettaglio: Equazione logistica.

La crescita di una popolazione è spesso modellata da un'equazione differenziale del tipo:

d P d t = k P ( 1 P K ) {\displaystyle {\frac {dP}{dt}}=kP\left(1-{\frac {P}{K}}\right)}

dove P {\displaystyle P} è la popolazione in funzione del tempo t {\displaystyle t} , k {\displaystyle k} è il suo tasso di crescita e K {\displaystyle K} è la capacità portante dell'ambiente. Riordinando i termini e integrando:

d P P ( 1 P K ) = k d t {\displaystyle \int {\frac {dP}{P\left(1-{\frac {P}{K}}\right)}}=\int k\,dt}

Per valutare l'integrale a sinistra si semplifica la frazione:

1 P ( 1 P K ) = K P ( K P ) {\displaystyle {\frac {1}{P\left(1-{\frac {P}{K}}\right)}}={\frac {K}{P\left(K-P\right)}}}

e quindi la si decompone in fratti semplici:

K P ( K P ) = 1 P + 1 K P {\displaystyle {\frac {K}{P\left(K-P\right)}}={\frac {1}{P}}+{\frac {1}{K-P}}}

Si ha quindi:

( 1 P + 1 K P ) d P = k d t {\displaystyle \int \left({\frac {1}{P}}+{\frac {1}{K-P}}\right)\,dP=\int k\,dt}

Uguagliando gli integrandi:

ln | P | ln | K P | = k t + C {\displaystyle \ln {\begin{vmatrix}P\end{vmatrix}}-\ln {\begin{vmatrix}K-P\end{vmatrix}}=kt+C}

da cui:

ln | K P | ln | P | = k t C {\displaystyle \ln {\begin{vmatrix}K-P\end{vmatrix}}-\ln {\begin{vmatrix}P\end{vmatrix}}=-kt-C}

per le proprietà dei logaritmi:

ln | K P P | = k t C {\displaystyle \ln {\begin{vmatrix}{\cfrac {K-P}{P}}\end{vmatrix}}=-kt-C}

Si ha:

| K P P | = e k t C = e C e k t {\displaystyle {\begin{vmatrix}{\cfrac {K-P}{P}}\end{vmatrix}}=e^{-kt-C}=e^{-C}e^{-kt}}

e quindi:

K P P = ± e C e k t {\displaystyle {\frac {K-P}{P}}=\pm e^{-C}e^{-kt}}

Sia A = ± e C {\displaystyle A=\pm e^{-C}} . Allora:

K P P = A e k t {\displaystyle {\frac {K-P}{P}}=Ae^{-kt}}

che si può riscrivere:

K P 1 = A e k t {\displaystyle {\frac {K}{P}}-1=Ae^{-kt}}

da cui si ricava:

P = K 1 + A e k t {\displaystyle P={\frac {K}{1+Ae^{-kt}}}}

Quindi la soluzione all'equazione logistica è:

P ( t ) = K 1 + A e k t {\displaystyle P\left(t\right)={\frac {K}{1+Ae^{-kt}}}}

Per trovare A {\displaystyle A} , sia t = 0 {\displaystyle t=0} e P ( 0 ) = P 0 {\displaystyle P\left(0\right)=P_{0}} . Si ha:

P 0 = K 1 + A e 0 {\displaystyle P_{0}={\frac {K}{1+Ae^{0}}}}

Notando che e 0 = 1 {\displaystyle e^{0}=1} , risolvendo per A {\displaystyle A} si ha:

A = K P 0 P 0 {\displaystyle A={\frac {K-P_{0}}{P_{0}}}}

Equazioni alle derivate parziali

Il metodo è utilizzato per affrontare un grande numero di equazioni differenziali alle derivate parziali, come l'equazione delle onde, l'equazione del calore, l'equazione di Laplace o l'equazione di Helmholtz.

Caso omogeneo

Data l'equazione della diffusione in una dimensione:

u t α 2 u x 2 = 0 {\displaystyle {\frac {\partial u}{\partial t}}-\alpha {\frac {\partial ^{2}u}{\partial x^{2}}}=0}

con condizione al contorno:

u | x = 0 = u | x = L = 0 {\displaystyle u{\big |}_{x=0}=u{\big |}_{x=L}=0}

si cerca di trovare una soluzione u {\displaystyle u} non identicamente nulla che soddisfa le condizioni al contorno e tale che sia un prodotto in cui la dipendenza da x {\displaystyle x} e t {\displaystyle t} è separata, ovvero:

u ( x , t ) = X ( x ) T ( t ) {\displaystyle u(x,t)=X(x)T(t)}

Sostituendo u {\displaystyle u} nell'equazione e usando la regola del prodotto:

T ( t ) α T ( t ) = X ( x ) X ( x ) {\displaystyle {\frac {T'(t)}{\alpha T(t)}}={\frac {X''(x)}{X(x)}}}

Dato che il membro alla destra dipende solo da x {\displaystyle x} e quello alla sinistra solo da t {\displaystyle t} , entrambi sono uguali ad una qualche costante λ {\displaystyle -\lambda } :

T ( t ) = λ α T ( t ) X ( x ) = λ X ( x ) {\displaystyle T'(t)=-\lambda \alpha T(t)\qquad X''(x)=-\lambda X(x)}

dove λ {\displaystyle -\lambda } è autovalore di entrambi gli operatori differenziali, con T ( t ) {\displaystyle T(t)} e X ( x ) {\displaystyle X(x)} le rispettive autofunzioni.

Per mostrare che non vi sono soluzioni per λ 0 {\displaystyle \lambda \leq 0} , si osserva inizialmente che per λ < 0 {\displaystyle \lambda <0} esistono due numeri reali B {\displaystyle B} e C {\displaystyle C} tali che:

X ( x ) = B e λ x + C e λ x {\displaystyle X(x)=Be^{{\sqrt {-\lambda }}\,x}+Ce^{-{\sqrt {-\lambda }}\,x}}

Utilizzando le condizioni al contorno si ha che X ( 0 ) = 0 = X ( L ) {\displaystyle X(0)=0=X(L)} , da cui si ha B = 0 = C {\displaystyle B=0=C} , che implica che u {\displaystyle u} è nulla. Supponendo λ = 0 {\displaystyle \lambda =0} , del resto, in tal caso esistono due numeri reali B {\displaystyle B} e C {\displaystyle C} tali che:

X ( x ) = B x + C {\displaystyle X(x)=Bx+C}

Dal fatto che X ( 0 ) = 0 = X ( L ) {\displaystyle X(0)=0=X(L)} si conclude in modo analogo che u {\displaystyle u} è nulla. Quindi, deve essere λ > 0 {\displaystyle \lambda >0} , ed esistono A {\displaystyle A} , B {\displaystyle B} e C {\displaystyle C} tali che:

T ( t ) = A e λ α t X ( x ) = B sin ( λ x ) + C cos ( λ x ) {\displaystyle T(t)=Ae^{-\lambda \alpha t}\qquad X(x)=B\sin({\sqrt {\lambda }}\,x)+C\cos({\sqrt {\lambda }}\,x)}

Sfruttando nuovamente X ( 0 ) = 0 = X ( L ) {\displaystyle X(0)=0=X(L)} , si ha C = 0 {\displaystyle C=0} e che per qualche intero positivo n {\displaystyle n} si verifica:

λ = n π L {\displaystyle {\sqrt {\lambda }}=n{\frac {\pi }{L}}}

Questo risolve l'equazione nel caso in cui la dipendenza di u {\displaystyle u} ha la forma u ( x , t ) = X ( x ) T ( t ) {\displaystyle u(x,t)=X(x)T(t)} . In generale, la somma di soluzioni all'equazione del calore che soddisfano le condizioni al contorno sono soluzioni che soddisfano anche questo caso particolare, e quindi una soluzione completa è data da:

u ( x , t ) = n = 1 D n sin n π x L exp ( n 2 π 2 α t L 2 ) {\displaystyle u(x,t)=\sum _{n=1}^{\infty }D_{n}\sin {\frac {n\pi x}{L}}\exp \left(-{\frac {n^{2}\pi ^{2}\alpha t}{L^{2}}}\right)}

dove D n {\displaystyle D_{n}} sono coefficienti determinati dalla condizione iniziale.

Se la condizione iniziale è:

u | t = 0 = f ( x ) {\displaystyle u{\big |}_{t=0}=f(x)}

si ottiene:

f ( x ) = n = 1 D n sin n π x L {\displaystyle f(x)=\sum _{n=1}^{\infty }D_{n}\sin {\frac {n\pi x}{L}}}

che è l'espansione in serie di seni di f ( x ) {\displaystyle f(x)} . Moltiplicando ambo i membri per sin ( n π x / L ) {\displaystyle \sin(n\pi x/L)} e integrando nell'intervallo [ 0 , L ] {\displaystyle [0,L]} si ha:

D n = 2 L 0 L f ( x ) sin n π x L d x {\displaystyle D_{n}={\frac {2}{L}}\int _{0}^{L}f(x)\sin {\frac {n\pi x}{L}}\,dx}

Questo metodo richiede che le autofunzioni di x {\displaystyle x} , che in tal caso sono:

{ sin n π x L } n = 1 {\displaystyle \left\{\sin {\frac {n\pi x}{L}}\right\}_{n=1}^{\infty }}

siano ortogonali e siano una base completa. Ciò è garantito in generale dalla teoria di Sturm-Liouville.

Caso non omogeneo

Si consideri l'equazione non omogenea:

u t α 2 u x 2 = h ( x , t ) {\displaystyle {\frac {\partial u}{\partial t}}-\alpha {\frac {\partial ^{2}u}{\partial x^{2}}}=h(x,t)}

con le medesime condizioni iniziali di quella omogenea. Le funzioni h ( x , t ) {\displaystyle h(x,t)} , u ( x , t ) {\displaystyle u(x,t)} e f ( x , t ) {\displaystyle f(x,t)} possono essere espanse in serie di seni:

h ( x , t ) = n = 1 h n ( t ) sin n π x L {\displaystyle h(x,t)=\sum _{n=1}^{\infty }h_{n}(t)\sin {\frac {n\pi x}{L}}}
u ( x , t ) = n = 1 u n ( t ) sin n π x L {\displaystyle u(x,t)=\sum _{n=1}^{\infty }u_{n}(t)\sin {\frac {n\pi x}{L}}}
f ( x ) = n = 1 b n sin n π x L {\displaystyle f(x)=\sum _{n=1}^{\infty }b_{n}\sin {\frac {n\pi x}{L}}}

dove h n ( t ) {\displaystyle h_{n}(t)} e b n {\displaystyle b_{n}} possono essere calcolati per integrazione, mentre u n ( t ) {\displaystyle u_{n}(t)} deve essere determinato. Sostituendo le espansioni di h n ( t ) {\displaystyle h_{n}(t)} e u n ( t ) {\displaystyle u_{n}(t)} nell'equazione non omogenea e considerando l'ortogonalità delle funzioni seno si ottiene:

u n ( t ) + α n 2 π 2 L 2 u n ( t ) = h n ( t ) {\displaystyle u'_{n}(t)+\alpha {\frac {n^{2}\pi ^{2}}{L^{2}}}u_{n}(t)=h_{n}(t)}

che è una successione di equazioni differenziali lineari che possono essere risolte facilmente con alcuni metodi quali il fattore di integrazione o la trasformata di Laplace. Alla fine si ottiene:

u n ( t ) = e α n 2 π 2 L 2 t ( b n + 0 t h n ( s ) e α n 2 π 2 L 2 s d s ) {\displaystyle u_{n}(t)=e^{-\alpha {\frac {n^{2}\pi ^{2}}{L^{2}}}t}\left(b_{n}+\int _{0}^{t}h_{n}(s)e^{\alpha {\frac {n^{2}\pi ^{2}}{L^{2}}}s}\,ds\right)}

Il metodo può essere utilizzato anche per coordinate curvilinee ortogonali, anche se con alcune differenze rispetto alle coordinate cartesiane.

Software

Xcas:[1] split((x+1)*(y-2),[x,y]) = [x+1,y-2]

Note

  1. ^ Symbolic algebra and Mathematics with Xcas (PDF), su www-fourier.ujf-grenoble.fr.

Bibliografia

  • (EN) Andrei D. Polyanin, Handbook of Linear Partial Differential Equations for Engineers and Scientists, Boca Raton, Chapman & Hall/CRC Press, 2002, ISBN 1-58488-299-9.
  • (EN) Tyn Myint-U, Lokenath Debnath, Linear Partial Differential Equations for Scientists and Engineers[collegamento interrotto], Boston, MA, 2007, ISBN 978-0-8176-4393-5. URL consultato il 29 marzo 2011.
  • (EN) Gerald Teschl, Ordinary Differential Equations and Dynamical Systems, Graduate Studies in Mathematics, vol. 140, Providence, RI, American Mathematical Society, 2012, ISBN 978-0-8218-8328-0.

Voci correlate

Collegamenti esterni

  • (EN) separation of variables, su Enciclopedia Britannica, Encyclopædia Britannica, Inc. Modifica su Wikidata
  • (EN) Eric W. Weisstein, Separazione delle variabili, su MathWorld, Wolfram Research. Modifica su Wikidata
  • (EN) Separazione delle variabili, su Encyclopaedia of Mathematics, Springer e European Mathematical Society. Modifica su Wikidata
  • (EN) Methods of Generalized and Functional Separation of Variables at EqWorld: The World of Mathematical Equations
  • (EN) Examples of separating variables to solve PDEs
  • (EN) "A Short Justification of Separation of Variables" (PDF), su math-cs.gordon.edu.
  Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica