Matematika A2a 2008/5. gyakorlat

A MathWikiből
(Változatok közti eltérés)
(A differenciálás tulajdonságai)
(Lineáris és affin függvény deriváltja)
53. sor: 53. sor:
 
:<math>\mathrm{d}\mathcal{A}(u)=\mathcal{A},\quad\quad\mathrm{d}c(u)\equiv 0,\quad\quad\mathrm{d}(b+\mathcal{A}\circ(id-a))(u)=\mathcal{A}</math>
 
:<math>\mathrm{d}\mathcal{A}(u)=\mathcal{A},\quad\quad\mathrm{d}c(u)\equiv 0,\quad\quad\mathrm{d}(b+\mathcal{A}\circ(id-a))(u)=\mathcal{A}</math>
  
'''Példa.'''
+
====Példa====
  
 
Az ''A'': '''x''' <math>\mapsto</math> 2<math>x_1</math> + 3<math>x_2</math> - 4<math>x_3</math> lineáris leképezés differenciálja az '''u''' pontban az '''u'''-tól független
 
Az ''A'': '''x''' <math>\mapsto</math> 2<math>x_1</math> + 3<math>x_2</math> - 4<math>x_3</math> lineáris leképezés differenciálja az '''u''' pontban az '''u'''-tól független

A lap 2008. március 22., 09:17-kori változata

Ez az szócikk a Matematika A2a 2008 alszócikke.

Tartalomjegyzék

Másodrendű parciális deriváltak

Ha f a HR2 halmazon értelmezett R-be képező, az uH-ban differenciálható függvény és a

\mathrm{grad}\,f

gradiensfüggvény szintén differenciálható u-ban, akkor f-et u-ban kétszer differenciálhatónak nevezzük és az f függény u-beli másodrendű differenciálja:

\mathrm{d}^2f(u):=\mathrm{d}(\mathrm{grad}\,f)(u)

Ennek Jacobi-mátrixa akkor is létezik, ha csak azt feltételezzük, hogy a parciális deriváltak léteznek az u egykörnyezetében, és ott differenciálhatóak. Ekkor a szóban forgó Jacobi-mátrix kvadratikus és

H^f(u)=\begin{bmatrix}
\cfrac{\partial^2 f(u)}{\partial x^2} & \cfrac{\partial^2 f(u)}{\partial y\partial x}\\\\
\cfrac{\partial^2 f(u)}{\partial x\partial y} & \cfrac{\partial^2 f(u)}{\partial y^2}
\end{bmatrix}

alakú, amit Hesse-féle mátrixnak nevezünk.

A vegyes másodrendű parciális deriváltakra vonatkozik a Young-tétel:

Tétel (Young) A vegyes másodrendű parciális deriváltak egyenlők.

A Young-tétel értelmében a Hesse-mátrix szimmetrikus illetve a d2f(u) szimmetrikus tenzor

H^f(u)=(H^f(u))^{\mathrm{T}}=\begin{bmatrix}
\partial_{11} f(u) & \partial_{12} f(u)\\\\
\partial_{12} f(u) & \partial_{22} f(u)\\
\end{bmatrix}

Általában a deriváltmátrixok nem szimmetrikusak, ez egy különleges tulajdonsága a második differenciálnak. Sőt, általában az a kérdés, hogy mi a deriválttenzor szimmetrikus és antiszimmetrikus része.

Megjegyzés. Elvileg a

\{x\in \mathbf{R}^2\mid f\in\mathrm{Diff}(x)\}\rightarrow\mathrm{Lin}(\mathbf{R}^2;\mathbf{R});\quad x\mapsto \mathrm{d}f(x)

leképezésnek kellett volna a differenciálját venni az u pontban, és ezt tekinteni a differenciálnak. Ám ez nem Rm-be, hanem egy általánosabb normált térbe, a R2 \to R lináris leképezések terébe képez (az ún. kétváltozós lineáris funkcionálok terébe). Ebben a norma az operátornorma (az operátor minimális Lipschitz-konstansa), és a tér véges dimenziós. A differenciálhatóság pontosan ugyanúgy értelmezhető, mint a többváltozs esetben. Ekkor az f függvény u-beli másodrendű differenciálja az

\mathrm{d}(\mathrm{d}f(.))(u)=\mathcal{A}:\mathbf{R}^2\rightarrow\mathrm{Lin(\mathbf{R}^2;\mathbf{R})}

lineáris leképezés, melyre teljesül a

\lim\limits_{x\to u}\frac{\mathrm{d}f(x)-\mathrm{d}f(u)-\mathcal{A}(x-u)}{||x-u||}=0_{\mathrm{Lin(\mathbf{R}^2;\mathbf{R})}}

A bázisvektorokon A a következőt veszi fel:

\lim\limits_{t\to 0}\frac{\mathrm{d}f(u+te_1)-\mathrm{d}f(u)}{t}=\mathcal{A}(e_1)

ennek a mátrixa a sztenderd bázisban

\lim\limits_{t\to 0}\frac{[\partial_1 f(u+te_1)\quad\partial_2 f(u+te_1)]-[\partial_1 f(u)\quad\partial_2 f(u)]}{t}=[\mathcal{A}(e_1)]

ami a kivonás és az osztást komponensenként elvégezve az parciális deriváltak első változó szerinti parciális deriváltjait adja:

[\mathcal{A}(e_1)]=[\partial_1(\partial_1 f)(u)\quad \partial_1(\partial_2 f)(u)]=[\partial_{11} f(u)\quad \partial_{12}f(u)]

Az 1 bázisvektoron felvett érték tehát az a lineáris operártor, melyet a fenti sorvektorral való szorzás határoz meg. A másik bázisvektoron szintén felríható ez a mátrix, így világos, hogy d(df(.))(u) jellemezhető a d2f(u) mátrixával, így azonosítható vele.

A differenciálás tulajdonságai

Lineáris és affin függvény deriváltja

Az A : Rn \to Rm lineáris leképezés differenciálható és differenciálja minden pontban saját maga.

Ugyanis, legyen uRn. Ekkor

\lim\limits_{x\to u}\frac{\mathcal{A}(x)-\mathcal{A}(u)-\mathcal{A}(x-u)}{||x-u||}=\lim\limits_{x\to u}0=0

c konstans függény esetén az dc(u) \equiv 0 alkalmas differenciálnak, mert

\lim\limits_{x\to u}\frac{c-c-0\cdot(x-u)}{||x-u||}=\lim\limits_{x\to u}0=0

így világos, hogy c + A alakú affin függvények is differenciálhatóak, és differenciáljuk minden pontban az az A lineáris leképezés, melynek eltolásából az affin származik. Ezt szintén behelyettesítéssel ellenőrizhetjük.

Tehát minden uRn-re

\mathrm{d}\mathcal{A}(u)=\mathcal{A},\quad\quad\mathrm{d}c(u)\equiv 0,\quad\quad\mathrm{d}(b+\mathcal{A}\circ(id-a))(u)=\mathcal{A}

Példa

Az A: x \mapsto 2x1 + 3x2 - 4x3 lineáris leképezés differenciálja az u pontban az u-tól független

(\mathrm{d}\mathcal{A}(\mathbf{u}))(x_1,x_2,x_3)=2x_1+3x_2-4x_3\,

és Jacobi-mátrixa a konstans

\mathbf{J}^\mathcal{A}(\mathbf{u})=\begin{bmatrix}2 & 3 & -4\end{bmatrix}

mátrix.

Világos, hogy a

\mathrm{pr}_i:(x_1,x_2,...,x_i,...,x_n)\mapsto x_i

koordináta vagy projekciófüggvény lineáris, differenciálja minden u pontban saját maga és ennek mátrixa:

[\mathrm{grad}\,\mathrm{pr_i}]=\mathbf{J}^{\mathrm{pr}_i}(\mathbf{u})=\begin{bmatrix}0 & 0 & ... & 1 & ...& 0\end{bmatrix}

ahol az 1 az i-edik helyen áll. Másként

\partial_kx_i=\delta_{ki}

ahol

\delta_{ij}=\left\{\begin{matrix}1, \mbox{ ha }i=j\\0, \mbox{ ha }i\ne j \end{matrix}\right.

azaz a Kronecker-féle δ szimbólum.

Függvények lineáris kombinációja

Ha f és g a HRn halmazon értelmezett Rm-be képező, az uH-ban differenciálható függvények, akkor minden λ számra

\lambda.f\, is differenciálható u-ban és \mathrm{d}(\lambda.f)(u)=\lambda.\mathrm{d}f(u)\, és
f+g\, is differenciálható u-ban és \mathrm{d}(f+g)(u)=\mathrm{d}f(u)+\mathrm{d}g(u)\,

Ugyanis, a mondott differenciálokkal és a

\varepsilon_{\lambda.f}=\lambda.\varepsilon_{f}\,
\varepsilon_{f+g}=\varepsilon_{f}+\varepsilon_{g}\,

választással, ezek az u-ban folytonosak lesznek és a lineáris résszekel együtt ezek előállítják a skalárszoros és összegfüggvények megváltozásait.

Függvénykompozíció differenciálja

Tétel. Legyen g: Rn\to Rm, az u-ban differenciálható, f: Rm\to Rk a g(u)-ban differenciálható függvény, u ∈ int Dom(f \circ g). Ekkor az

f\circ g differenciálható u-ban és
 \mathrm{d}(f\circ g)(u)=\mathrm{d}f(g(u))\circ\mathrm{d}g(u)

Bizonyítás. Alkalmas ε, A és η B párral, minden x ∈ Dom(f \circ g)-re:

f(g(x))=f(g(u))+\mathcal{A}(g(x)-g(u))+\varepsilon(g(x))||g(x)-g(u)||)=
=f(g(u))+\mathcal{A}(\mathcal{B}(x-u)+\eta(x)||x-u||)+\varepsilon(g(x))||g(x)-g(u)||)=
=f(g(u))+(\mathcal{A}\circ\mathcal{B})(x-u)+\mathcal{A}(\eta(x)||x-u||)+\varepsilon(g(x))||g(x)-g(u)||)=
=f(g(u))+(\mathcal{A}\circ\mathcal{B})(x-u)+(\mathcal{A}(\eta(x))+\varepsilon(g(x))||\mathcal{B}\frac{x-u}{||x-u||}+\eta(x)||)||x-u||

Innen leolvasható a differenciál és a másodrendben eltűnő mennyiség vektortényezője, az

\varepsilon_{f\circ g}(x)=\mathcal{A}(\eta(x))+\varepsilon(g(x))||\mathcal{B}\frac{x-u}{||x-u||}+\eta(x)||

melyben az első tag a 0-hoz tart, mivel a lineáris leképezés a 0-ban folytonos, és η a 0-hoz tart az u-ban. A második tag nulla szor korlátos alakú, hiszen a lineáris leképezés Lipschitz-tuladonsága folytán B minden egységvektoron korlátos értéket vesz fel.

Példa

\Phi(\mathbf{r})=|\mathbf{r}|=\sqrt{\mathbf{r}^2}

Mivel a gyökfüggvény nem differenciálható a 0-ban, ezért a differenciál csak nemnulla r-re számítható ki:

\mathrm{d}\Phi(\mathbf{r}):\mathbf{x}\mapsto \frac{1}{2\sqrt{\mathbf{r}^2}}.2\mathbf{r}\cdot\mathbf{x}=\frac{\mathbf{r}}{|\mathbf{r}|}\cdot\mathbf{x}

illetve a gradiens:

\mathrm{grad}\,|\mathbf{r}|=\frac{\mathbf{r}}{|\mathbf{r}|}

Szemléleti okokból lényeges, hogy itt . a skalárral való szorzás, \cdot a skaláris szorzás.

\Psi(\mathbf{r})=|\mathbf{r}|^{\alpha}
\mathrm{d}\Psi(\mathbf{r}):\mathbf{x}\mapsto \alpha|\mathbf{r}|^{\alpha-1}.\frac{\mathbf{r}}{|\mathbf{r}|}\cdot\mathbf{x}

illetve a gradiens:

\mathrm{grad}\,|\mathbf{r}|^\alpha=\alpha|\mathbf{r}|^{\alpha-1}.\frac{\mathbf{r}}{|\mathbf{r}|}

Folytonosság mint szükséges feltétel

Ha f differenciálható u-ban, akkor ott folytonos is, ugyanis minden x-re:

f(x)=f(u)+(\mathrm{d}f(u))(x-u)+\varepsilon(x)||x-u||

amely tagjai mind folytonosak u-ban.

Skalárfüggvények szorzata

λ, μ: H \to R, ahol HRn és az uH-ban mindketten differenciálhatók, akkor λμ is és

[\mathrm{d}(\lambda\mu)(u)]_{1j}=\partial_j(\lambda\mu)=\mu\partial_j\lambda+\lambda\partial_j\mu=[\mu(u).\mathrm{grad}\,\lambda(u)+\lambda(u).\mathrm{grad}\,\mu(u)]_{j}

azaz

\mathrm{grad}(\lambda\mu)(u)=\mu(u).\mathrm{grad}\,\lambda(u)+\lambda(u).\mathrm{grad}\,\mu(u)

Példa

Számoljuk ki r2 deriváltját a szorzat szabálya szerint.

Egyrészt, ha r0, akkor

\mathrm{grad}\,\mathbf{r}^2=\mathrm{grad}\,|\mathbf{r}|\cdot|\mathbf{r}|=2|\mathbf{r}|.\mathrm{grad}|\mathbf{r}|=2|\mathbf{r}|.\frac{\mathbf{r}}{|\mathbf{r}| } =2\mathbf{r}\,

Másrészt, ha r = 0, akkor

 \mathbf{r}^2=0+\mathbf{0}\cdot\mathbf{r}+|\mathbf{r}|\cdot |\mathbf{r}|\,

minden r-re fennáll, így grad(id2)(0) = 0 alkalmas az ε(r)=|r|-rel, tehát r2 differenciálható 0-ban is.

4. gyakorlat 6. gyakorlat
Személyes eszközök