Matematika A2a 2008/5. gyakorlat

A MathWikiből
(Változatok közti eltérés)
(Másodrendű parciális deriváltak)
(Másodrendű parciális deriváltak)
3. sor: 3. sor:
 
Ha ''f'' a ''H'' &sube; '''R'''<sup>2</sup> halmazon értelmezett '''R'''-be képező, az ''u'' &isin; ''H''-ban differenciálható függvény és a   
 
Ha ''f'' a ''H'' &sube; '''R'''<sup>2</sup> halmazon értelmezett '''R'''-be képező, az ''u'' &isin; ''H''-ban differenciálható függvény és a   
 
:<math>\mathrm{grad}\,f</math>  
 
:<math>\mathrm{grad}\,f</math>  
gradiensfüggvény szintén differenciálható ''u''-ban, akkor ''f''-et ''u''-ban kétszer differenciálhatónak nevezzük és az ''f'' függény ''u''-beli másodrendű differenciálja:
+
gradiensfüggvény szintén differenciálható ''u''-ban, akkor ''f''-et ''u''-ban kétszer differenciálhatónak nevezzük és az ''f'' függény ''u''-beli '''másodrendű differenciálja''':
 
:<math>\mathrm{d}^2f(u):=\mathrm{d}(\mathrm{grad}\,f)(u)</math>  
 
:<math>\mathrm{d}^2f(u):=\mathrm{d}(\mathrm{grad}\,f)(u)</math>  
Ennek Jacobi-mátrixa akkor is létezik, ha csak azt feltételezzük, hogy a parciális deriváltak léteznek az ''u'' egykörnyezetében, és ott differenciálhatóak. Ekkor a szóban forgó Jacobi-mátrix   
+
Ennek Jacobi-mátrixa akkor is létezik, ha csak azt feltételezzük, hogy a parciális deriváltak léteznek az ''u'' egykörnyezetében, és ott differenciálhatóak. Ekkor a szóban forgó Jacobi-mátrix kvadratikus és    
 
:<math>H^f(u)=\begin{bmatrix}
 
:<math>H^f(u)=\begin{bmatrix}
 
\cfrac{\partial^2 f(u)}{\partial x^2} & \cfrac{\partial^2 f(u)}{\partial y\partial x}\\\\
 
\cfrac{\partial^2 f(u)}{\partial x^2} & \cfrac{\partial^2 f(u)}{\partial y\partial x}\\\\
 
\cfrac{\partial^2 f(u)}{\partial x\partial y} & \cfrac{\partial^2 f(u)}{\partial y^2}
 
\cfrac{\partial^2 f(u)}{\partial x\partial y} & \cfrac{\partial^2 f(u)}{\partial y^2}
 
\end{bmatrix}</math>
 
\end{bmatrix}</math>
alakú és Hesse-féle mátrixnak nevezzük.
+
alakú, amit '''Hesse-féle mátrix'''nak nevezünk.
  
A Young-tétel értelmében ezek másodrendű vegyes parciális deriváltak egyenlők, azaz a Hesse-mátrix szimmetrikus (a d<sup>2</sup>f(u) pedig szimmetrikus tenzor):
+
A vegyes másodrendű parciális deriváltakra vonatkozik a Young-tétel:
 +
 
 +
'''Tétel''' (''Young'') A vegyes másodrendű parciális deriváltak egyenlők.
 +
 
 +
A Young-tétel értelmében  a Hesse-mátrix szimmetrikus illetve a d<sup>2</sup>''f''(u) szimmetrikus tenzor
 
:<math>H^f(u)=(H^f(u))^{\mathrm{T}}=\begin{bmatrix}
 
:<math>H^f(u)=(H^f(u))^{\mathrm{T}}=\begin{bmatrix}
 
\partial_{11} f(u) & \partial_{12} f(u)\\\\
 
\partial_{11} f(u) & \partial_{12} f(u)\\\\
 
\partial_{12} f(u) & \partial_{22} f(u)\\
 
\partial_{12} f(u) & \partial_{22} f(u)\\
 
\end{bmatrix}</math>
 
\end{bmatrix}</math>
 +
 +
Általában a deriváltmátrixok nem szimmetrikusak, ez egy különleges tulajdonsága a második differenciálnak. Sőt, általában az a kérdés, hogy mi a deriválttenzor szimmetrikus és antiszimmetrikus része.
  
 
'''Megjegyzés.''' Elvileg a
 
'''Megjegyzés.''' Elvileg a

A lap 2008. március 22., 07:49-kori változata

Ez az szócikk a Matematika A2a 2008 alszócikke.

Tartalomjegyzék

Másodrendű parciális deriváltak

Ha f a HR2 halmazon értelmezett R-be képező, az uH-ban differenciálható függvény és a

\mathrm{grad}\,f

gradiensfüggvény szintén differenciálható u-ban, akkor f-et u-ban kétszer differenciálhatónak nevezzük és az f függény u-beli másodrendű differenciálja:

\mathrm{d}^2f(u):=\mathrm{d}(\mathrm{grad}\,f)(u)

Ennek Jacobi-mátrixa akkor is létezik, ha csak azt feltételezzük, hogy a parciális deriváltak léteznek az u egykörnyezetében, és ott differenciálhatóak. Ekkor a szóban forgó Jacobi-mátrix kvadratikus és

H^f(u)=\begin{bmatrix}
\cfrac{\partial^2 f(u)}{\partial x^2} & \cfrac{\partial^2 f(u)}{\partial y\partial x}\\\\
\cfrac{\partial^2 f(u)}{\partial x\partial y} & \cfrac{\partial^2 f(u)}{\partial y^2}
\end{bmatrix}

alakú, amit Hesse-féle mátrixnak nevezünk.

A vegyes másodrendű parciális deriváltakra vonatkozik a Young-tétel:

Tétel (Young) A vegyes másodrendű parciális deriváltak egyenlők.

A Young-tétel értelmében a Hesse-mátrix szimmetrikus illetve a d2f(u) szimmetrikus tenzor

H^f(u)=(H^f(u))^{\mathrm{T}}=\begin{bmatrix}
\partial_{11} f(u) & \partial_{12} f(u)\\\\
\partial_{12} f(u) & \partial_{22} f(u)\\
\end{bmatrix}

Általában a deriváltmátrixok nem szimmetrikusak, ez egy különleges tulajdonsága a második differenciálnak. Sőt, általában az a kérdés, hogy mi a deriválttenzor szimmetrikus és antiszimmetrikus része.

Megjegyzés. Elvileg a

\{x\in \mathbf{R}^2\mid f\in\mathrm{Diff}(x)\}\rightarrow\mathrm{Lin}(\mathbf{R}^2;\mathbf{R});\quad x\mapsto \mathrm{d}f(x)

leképezésnek kellett volna a differenciálját venni az u pontban, és ezt tekinteni a differenciálnak. Ám ez nem Rm-be, hanem egy általánosabb normált térbe, a R2 \to R lináris leképezések terébe képez (az ún. kétváltozós lineáris funkcionálok terébe). Ebben a norma az operátornorma (az operátor minimális Lipschitz-konstansa), és a tér véges dimenziós. A differenciálhatóság pontosan ugyanúgy értelmezhető, mint a többváltozs esetben. Ekkor az f függvény u-beli másodrendű differenciálja az

\mathrm{d}(\mathrm{d}f(.))(u)=\mathcal{A}:\mathbf{R}^2\rightarrow\mathrm{Lin(\mathbf{R}^2;\mathbf{R})}

lineáris leképezés, melyre teljesül a

\lim\limits_{x\to u}\frac{\mathrm{d}f(x)-\mathrm{d}f(u)-\mathcal{A}(x-u)}{||x-u||}=0_{\mathrm{Lin(\mathbf{R}^2;\mathbf{R})}}

A bázisvektorokon A a következőt veszi fel:

\lim\limits_{t\to 0}\frac{\mathrm{d}f(u+te_1)-\mathrm{d}f(u)}{t}=\mathcal{A}(e_1)

ennek a mátrixa a sztenderd bázisban

\lim\limits_{t\to 0}\frac{[\partial_1 f(u+te_1)\quad\partial_2 f(u+te_1)]-[\partial_1 f(u)\quad\partial_2 f(u)]}{t}=[\mathcal{A}(e_1)]

ami a kivonás és az osztást komponensenként elvégezve az parciális deriváltak első változó szerinti parciális deriváltjait adja:

[\mathcal{A}(e_1)]=[\partial_1(\partial_1 f)(u)\quad \partial_1(\partial_2 f)(u)]=[\partial_{11} f(u)\quad \partial_{12}f(u)]

Az 1 bázisvektoron felvett érték tehát az a lineáris operártor, melyet a fenti sorvektorral való szorzás határoz meg. A másik bázisvektoron szintén felríható ez a mátrix, így világos, hogy d(df(.))(u) jellemezhető a d2f(u) mátrixával, így azonosítható vele.

A differenciálás tulajdonságai

Lineáris és affin függvény deriváltja

Az A : Rn \to Rm lineáris leképezés differenciálható és differenciálja minden pontban saját maga.

Ugyanis, legyen uRn. Ekkor

\lim\limits_{x\to u}\frac{\mathcal{A}(x)-\mathcal{A}(u)-\mathcal{A}(x-u)}{||x-u||}=\lim\limits_{x\to u}0=0

c konstans függény esetén az dc(u) \equiv 0 alkalmas differenciálnak, mert

\lim\limits_{x\to u}\frac{c-c-0\cdot(x-u)}{||x-u||}=\lim\limits_{x\to u}0=0

így világos, hogy c + A alakú affin függvények is differenciálhatóak, és differenciáljuk minden pontban az az A lineáris leképezés, melynek eltolásából az affin származik. Ezt szintén behelyettesítéssel ellenőrizhetjük.

Tehát minden uRn-re

\mathrm{d}\mathcal{A}(u)=\mathcal{A},\quad\quad\mathrm{d}c(u)\equiv 0,\quad\quad\mathrm{d}(b+\mathcal{A}\circ(id-a))(u)=\mathcal{A}

Példa.

Az A: x \mapsto 2x1 + 3x2 - 4x3 lineáris leképezés differenciálja az u pontban az u-tól független

(\mathrm{d}\mathcal{A}(\mathbf{u}))(x_1,x_2,x_3)=2x_1+3x_2-4x_3\,

és Jacobi-mátrixa a konstans

\mathbf{J}^\mathcal{A}(\mathbf{u})=\begin{bmatrix}2 & 3 & -4\end{bmatrix}

mátrix.

Világos, hogy a

\mathrm{pr}_i:(x_1,x_2,...,x_i,...,x_n)\mapsto x_i

koordináta vagy projekciófüggvény lineáris, differenciálja minden u pontban saját maga és ennek mátrixa:

[\mathrm{grad}\,\mathrm{pr_i}]=\mathbf{J}^{\mathrm{pr}_i}(\mathbf{u})=\begin{bmatrix}0 & 0 & ... & 1 & ...& 0\end{bmatrix}

ahol az 1 az i-edik helyen áll. Másként

\partial_kx_i=\delta_{ki}

ahol

\delta_{ij}=\left\{\begin{matrix}1, \mbox{ ha }i=j\\0, \mbox{ ha }i\ne j \end{matrix}\right.

azaz a Kronecker-féle δ szimbólum.

Függvények lineáris kombinációja

Ha f és g a HRn halmazon értelmezett Rm-be képező, az uH-ban differenciálható függvények, akkor minden λ számra

\lambda.f\, is differenciálható u-ban és \mathrm{d}(\lambda.f)(u)=\lambda.\mathrm{d}f(u)\, és
f+g\, is differenciálható u-ban és \mathrm{d}(f+g)(u)=\mathrm{d}f(u)+\mathrm{d}g(u)\,

Ugyanis, a mondott differenciálokkal és a

\varepsilon_{\lambda.f}=\lambda.\varepsilon_{f}\,
\varepsilon_{f+g}=\varepsilon_{f}+\varepsilon_{g}\,

választással, ezek az u-ban folytonosak lesznek és a lineáris résszekel együtt ezek előállítják a skalárszoros és összegfüggvények megváltozásait.

Függvénykompozíció differenciálja

Tétel. Legyen g: Rn\to Rm, az u-ban differenciálható, f: Rm\to Rk a g(u)-ban differenciálható függvény, u ∈ int Dom(f \circ g). Ekkor az

f\circ g differenciálható u-ban és
 \mathrm{d}(f\circ g)(u)=\mathrm{d}f(g(u))\circ\mathrm{d}g(u)

Bizonyítás. Alkalmas ε, A és η B párral, minden x ∈ Dom(f \circ g)-re:

f(g(x))=f(g(u))+\mathcal{A}(g(x)-g(u))+\varepsilon(g(x))||g(x)-g(u)||)=
=f(g(u))+\mathcal{A}(\mathcal{B}(x-u)+\eta(x)||x-u||)+\varepsilon(g(x))||g(x)-g(u)||)=
=f(g(u))+(\mathcal{A}\circ\mathcal{B})(x-u)+\mathcal{A}(\eta(x)||x-u||)+\varepsilon(g(x))||g(x)-g(u)||)=
=f(g(u))+(\mathcal{A}\circ\mathcal{B})(x-u)+(\mathcal{A}(\eta(x))+\varepsilon(g(x))||\mathcal{B}\frac{x-u}{||x-u||}+\eta(x)||)||x-u||

Innen leolvasható a differenciál és a másodrendben eltűnő mennyiség vektortényezője, az

\varepsilon_{f\circ g}(x)=\mathcal{A}(\eta(x))+\varepsilon(g(x))||\mathcal{B}\frac{x-u}{||x-u||}+\eta(x)||

melyben az első tag a 0-hoz tart, mivel a lineáris leképezés a 0-ban folytonos, és η a 0-hoz tart az u-ban. A második tag nulla szor korlátos alakú, hiszen a lineáris leképezés Lipschitz-tuladonsága folytán B minden egységvektoron korlátos értéket vesz fel.

Példa.

\Phi(\mathbf{r})=|\mathbf{r}|=\sqrt{\mathbf{r}^2}

Mivel a gyökfüggvény nem differenciálható a 0-ban, ezért a differenciál csak nemnulla r-re számítható ki:

\mathrm{d}\Phi(\mathbf{r}):\mathbf{x}\mapsto \frac{1}{2\sqrt{\mathbf{r}^2}}.2\mathbf{r}\cdot\mathbf{x}=\frac{\mathbf{r}}{|\mathbf{r}|}\cdot\mathbf{x}

illetve a gradiens:

\mathrm{grad}\,|\mathbf{r}|=\frac{\mathbf{r}}{|\mathbf{r}|}

Szemléleti okokból lényeges, hogy itt . a skalárral való szorzás, \cdot a skaláris szorzás.

\Psi(\mathbf{r})=|\mathbf{r}|^{\alpha}
\mathrm{d}\Psi(\mathbf{r}):\mathbf{x}\mapsto \alpha|\mathbf{r}|^{\alpha-1}.\frac{\mathbf{r}}{|\mathbf{r}|}\cdot\mathbf{x}

illetve a gradiens:

\mathrm{grad}\,|\mathbf{r}|^\alpha=\alpha|\mathbf{r}|^{\alpha-1}.\frac{\mathbf{r}}{|\mathbf{r}|}

Folytonosság mint szükséges feltétel

Ha f differenciálható u-ban, akkor ott folytonos is, ugyanis minden x-re:

f(x)=f(u)+(\mathrm{d}f(u))(x-u)+\varepsilon(x)||x-u||

amely tagjai mind folytonosak u-ban.

Skalárfüggvények szorzata

λ, μ: H \to R, ahol HRn és az uH-ban mindketten differenciálhatók, akkor λμ is és

[\mathrm{d}(\lambda\mu)(u)]_{1j}=\partial_j(\lambda\mu)=\mu\partial_j\lambda+\lambda\partial_j\mu=[\mu(u).\mathrm{grad}\,\lambda(u)+\lambda(u).\mathrm{grad}\,\mu(u)]_{j}

azaz

\mathrm{grad}(\lambda\mu)(u)=\mu(u).\mathrm{grad}\,\lambda(u)+\lambda(u).\mathrm{grad}\,\mu(u)


4. gyakorlat 6. gyakorlat
Személyes eszközök