Matematika A2a 2008/5. gyakorlat

A MathWikiből
(Változatok közti eltérés)
 
(egy szerkesztő 4 közbeeső változata nincs mutatva)
1. sor: 1. sor:
 +
==Differenciálhatóság==
 +
A többváltozós differenciálhatóságot az egyváltozós alábbi átfogalmazásából általánosítjuk:
  
==Folytonosság és totális differenciálhatóság==
+
:<math>\lim\limits_{x\to u}\frac{f(x)-f(u)-m(x-u)}{|x-u|}=0</math>
Tekintsük az
+
:<math>\lim\limits_{x\to u+}\frac{f(x)-f(u)-m(x-u)}{x-u}=0\quad\wedge\quad\lim\limits_{x\to u-}\frac{f(x)-f(u)-m(x-u)}{-(x-u)}=0</math>
:<math>g(x,y)=\left\{\begin{matrix}\begin{pmatrix}\frac{xy}{x^2+y^2}\\ x+y\end{pmatrix}& \mbox{, ha }&(x,y)\ne (0,0)\\
+
:<math>\lim\limits_{x\to u+}\left(\frac{f(x)-f(u)}{x-u}-m\right)=0,\quad\wedge\quad\lim\limits_{x\to u-}-\left(\frac{f(x)-f(u)}{x-u}-m\right)=0</math>
\begin{pmatrix}0\\ 0\end{pmatrix}&\mbox{, ha }&(x,y)=(0,0)\end{matrix}\right.</math>
+
:<math>\lim\limits_{x\to u+}\frac{f(x)-f(u)}{x-u}=m,\quad\wedge\quad\lim\limits_{x\to u-}-\frac{f(x)-f(u)}{x-u}=-m</math>
Ekkor
+
:<math>\lim\limits_{x\to u}\frac{f(x)-f(u)}{x-u}=m</math>
:<math>J^g(0,0)=\begin{pmatrix}0 & 0\\
+
1 & 1\end{pmatrix}</math>
+
Viszont g nem totálisan diffható, mert a (t,t) mentén a (0,0)-ba tartva:
+
:<math>\lim\limits_{t\to 0}\frac{g(t,t)-g(0,0)-J^g(0,0)\cdot(t,t)}{\sqrt{2}|t|}=\lim\limits_{t\to 0}\frac{(\frac{1}{2},2t)-(0,t)}{\sqrt{2}|t|}=\lim\limits_{t\to 0}\frac{(\frac{1}{2},t)}{\sqrt{2}|t|}=\lim\limits_{t\to 0}(\frac{1}{\sqrt{2}2|t|},\frac{t}{\sqrt{2}|t|})</math>
+
ami nem létezik.
+
  
'''Megjegyzés.''' Itt persze g nem folytonos, és itt is igaz az, hogy ha totálisan differenciálható egy függvény, akkor folytonos is:
 
  
'''Tétel.''' Ha ''f'' differenciálható ''u''-ban, akkor ott folytonos is, ugyanis minden ''x''-re:
+
'''Definíció.''' Legyen ''f'': '''R'''<sup>n</sup> <math>\supset\!\longrightarrow</math> '''R'''<sup>m</sup> és ''u'' &isin; int Dom(f). Azt mondjuk, hogy ''f'' '''differenciálható''' az ''u'' pontban, ha létezik olyan ''A'': '''R'''<sup>n</sup> <math>\to</math> '''R'''<sup>m</sup> lineáris leképezés, hogy
:<math>f(x)=f(u)+(\mathrm{d}f(u))(x-u)+\varepsilon(x)||x-u||</math>
+
:<math>\lim\limits_{x\to u}\frac{f(x)-f(u)-\mathcal{A}(x-u)}{||x-u||_{\mathbf{R}^n}}=0_{\mathbf{R}^m}</math>
amely tagjai mind folytonosak ''u''-ban.
+
Ekkor ''A'' egyértelmű és az ''f'' leképezés ''u''-bent beli '''differenciál'''jának  nevezzük és d''f''(''u'')-val vagy D''f''(u)-val jelöljük. Ezt a fogalmat néha ''teljes differenciál''nak, ''totális differenciál''nak vagy ''Fréchet-derivált''nak is mondjuk.
  
==Iránymenti deriválhatóság és differenciálhatóság==
+
'''Megjegyzés.''' A fenti határérték 0 volta egyenértékű a következő kijelentéssel. Létezik ''A''': ''R'''<sup>n</sup> <math>\to</math> '''R'''<sup>m</sup> lineáris leképezés és &epsilon;: Dom(''f'') <math>\to</math> '''R'''<sup>m</sup> függvény, melyre:
'''Példa.'''
+
: &epsilon; folytonos u-ban és &epsilon;(u)=0, továbbá
:<math>f(x,y)=\left\{\begin{matrix}\frac{xy}{\sqrt{x^2+y^2}}& \mbox{, ha }&(x,y)\ne (0,0)\\
+
minden ''x'' &isin; Dom(''f'')-re:
0&\mbox{, ha }&(x,y)=(0,0)\end{matrix}\right.</math>  
+
: <math>f(x)=f(u)+\mathcal{A}(x-u)+\varepsilon(x)||x-u||</math>
 +
'''Megjegyzés.''' Azt, hogy ''A'' egyértelmű, a következőkkel bizonyíthatjuk. Legyen ''A'' és ''B'' is a mondott tulajdonságú, azaz létezzenek &epsilon; és &eta; az ''u''-ban eltűnő és ott folytonos Dom(''f'')-en értelmezett függvények, melyekre teljesül, hogy minden ''x'' &isin; Dom(''f'')-re
 +
:<math>f(x)=f(u)+\mathcal{A}(x-u)+\varepsilon(x)||x-u||</math>
 +
:<math>f(x)=f(u)+\mathcal{B}(x-u)+\eta(x)||x-u||</math>
 +
ezeket kivonva egymásból és használva '''minden''' ''x''-re:
 +
:<math>(\mathcal{A}-\mathcal{B})(x-u)+(\varepsilon(x)-\eta(x))||x-u||=0</math>
 +
így minden x = u + ty értékre is az azonosan nullát kapjuk, ha t pozitív szám, y pedig rögzített nemnulla vektor, azaz minden t-re
 +
:<math>(\mathcal{A}-\mathcal{B})ty+(\varepsilon(u+ty)-\eta(u+ty))||ty||=0</math>
 +
az azonosan 0 függény határértéke t<math>\to</math> 0 esetén szintén nulla:
 +
:<math> 0=\lim\limits_{t\to 0}\frac{(\mathcal{A}-\mathcal{B})(ty)+(\varepsilon(u+ty)-\eta(u+ty))||ty||}{t}=(\mathcal{A}-\mathcal{B})y</math>
 +
hiszen t-t kiemelhetünk és egyszerűsíthetünk és t<math>\to</math> 0 esetén
 +
&epsilon; és &eta; nullává válik.
 +
Ez viszont pont azt jelenti, hogy a két lineéris operátor azonosan egyenlő.
  
Ekkor
+
==Jacobi-mátrix==
:<math>\mathrm{J}^f(0,0)=[0, 0]\,</math>
+
A d''f''(''u'') lineáris leképezés (<math>e_1</math>,<math>e_2</math>,...,<math>e_n</math>) szetenderd bázisbeli mátrixa legyen: [d''f''(''u'')] = '''A'''. Vizsgáljuk mibe viszi a bázisokat d''f''(''u'') leképezés!
  
Ha tehát differenciálható, akkor az '''iránymenti derivált'''ak (Gateau-deriváltak) is léteznek (e egységvektor):
+
Írjuk fel a definíciót, de az <math>e_1</math> egységvektor mentén tartsunk ''u''-hoz: ''x'' = ''u'' + ''t''<math>e_1</math>. Ekkor
 +
:<math>x-u=te_1\,</math>
 +
ami azért hasznos, mert a
 +
:<math>\mathcal{A}(x-u)=\mathcal{A}(te_1)\,</math>
 +
alakból kiemelhetó t:
 +
:<math>0=\lim\limits_{t\to 0}\frac{f(u+te_1)-f(u)-\mathcal{A}(te_1)}{t}=</math>
 +
:::<math>=\lim\limits_{t\to 0}\frac{f(u+te_1)-f(u)-t.\mathcal{A}(e_1)}{t}=</math>
 +
:::<math>=-\mathcal{A}(e_1)+\lim\limits_{t\to 0}\frac{f(u+te_1)-f(u)}{t}</math>
 +
azaz
 +
:<math>\mathcal{A}(e_1)=\lim\limits_{t\to 0}\frac{f(u+te_1)-f(u)}{t}=\partial_1 f(u)</math>
 +
vagyis ''f'' koordinátafüggvényeinek az első változó szerinti parciális deriváltja az ''u'' pontban. A többi oszlopvektor ugyanígy:
  
:<math>\partial_ef(u)=\lim\limits_{t\to 0}\frac{f(u+te)-f(u)}{t}=\mathrm{J}^f(0,0)\cdot e=e\cdot\mathrm{grad}\,f(u)</math>
+
:<math>[\mathrm{d}f(u)]=\mathbf{J}^f(u)=\begin{bmatrix}
 
+
\partial_1 f_1(u) & \partial_2 f_1(u) & \dots & \partial_n f_1(u)\\
Ám, polárkoordinátákra áttérve:
+
\partial_1 f_2(u) & \partial_2 f_2(u) & \dots & \partial_n f_2(u)\\
:<math>f(x(r,\varphi),y(r,\varphi))=\frac{r^2\cos\varphi\sin\varphi}{r}=r\cos\varphi\sin\varphi=r\cdot \frac{1}{2}\sin 2\varphi</math>
+
\vdots            &     \vdots        &   \ddots    & \vdots \\
&phi; = &pi;/4-et és &pi; + &pi;/4-et véve a vetületfüggvény a
+
\partial_1 f_m(u) & \partial_2 f_m(u) & \dots & \partial_n f_m(u)\\
:<math>t\mapsto\frac{1}{2}|t|</math>,
+
ami nem differenciálható a 0-ban.
+
 
+
'''Megjegyzés.''' Persze abból, hogy az összes iránymenti derivált létezik, abból nem következik, hogy a függvény totálisan deriválható:
+
 
+
==Egyváltozós illetve valós értékű függvény deriváltja==
+
 
+
Ha f:'''R'''<sup>n</sup> <math>\supset\!\to</math> '''R''', akkor a definíciót még így is ki szokás mondani:
+
 
+
f diffható ''r''<sub>0</sub>-ban, ha létezik ''m'' vektor, hogy
+
:<math>\lim\limits_{r\to r_0}\frac{f(r)-f(r_0)-m\cdot(r-r_0)}{|r-r_0|}=0</math>
+
 
+
Ekkor az m a '''gradiensvektor''', melynek sztenderd bázisbeli koordinátamátrixa a Jacobi mátrix:
+
:<math>\mathrm{grad}\,f(r_0)=[\partial_1f(r_0),...,\partial_nf(r_0)]</math>
+
 
+
Ha f:'''R''' <math>\supset\!\to</math> '''R'''<sup>n</sup>, akkor a definíciót még így is ki szokás mondani:
+
:<math>\exists\,f'(t_0)=\lim\limits_{t\to t_0}\frac{f(t)-f(t_0)}{t-t_0}\,</math>
+
és ekkor f'(<math>t_0</math>) a <math>t_0</math>-beli '''deriváltvektor''' (ha t az idő és r=f(t) a hely, akkor ez a sebeségvektor).
+
 
+
Ha f:'''R'''<sup>n</sup> <math>\supset\!\to</math> '''R'''<sup>n</sup>, akkor a differenciált '''deriválttenzor'''nak is nevezik.
+
 
+
 
+
'''Példa.'''
+
 
+
Mi az
+
:<math>f(r)=r^2\,</math>,
+
skalárfüggvény gradiense?
+
 
+
Válasszuk le a lineáris részét!
+
 
+
:<math>r^2-r_0^2=(r-r_0)(r+r_0)=(r-r_0)(2r_0+r-r_0)=2r_0\cdot(r-r_0)+(r-r_0)^2\,</math>
+
Itt az első tag a lineáris, a második a magasabbfokú. Tehát:
+
:<math>\mathrm{grad}\,r^2=2r\,</math>
+
 
+
==Lineáris és affin függvény deriváltja==
+
'''Tétel.''' Az ''A'' : '''R'''<sup>n</sup> <math>\to</math> '''R'''<sup>m</sup> lineáris leképezés differenciálható és differenciálja minden pontban saját maga:
+
:<math>\mathrm{d}\mathcal{A}(u)=\mathcal{A}\,</math>
+
 
+
''Ugyanis, '' legyen ''u'' &isin;  '''R'''<sup>n</sup>. Ekkor
+
 
+
:<math>\lim\limits_{x\to u}\frac{\mathcal{A}(x)-\mathcal{A}(u)-\mathcal{A}(x-u)}{||x-u||}=\lim\limits_{x\to u}0=0</math>
+
 
+
'''Tétel.''' Az azonosan '''c''' konstans függény esetén az d''c''(''u'') <math>\equiv</math> 0 alkalmas differenciálnak, mert
+
:<math>\lim\limits_{x\to u}\frac{c-c-0\cdot(x-u)}{||x-u||}=\lim\limits_{x\to u}0=0</math>
+
 
+
 
+
'''Tétel.''' Ha ''f'' és ''g'' a ''H'' &sube; '''R'''<sup>n</sup> halmazon értelmezett '''R'''<sup>m</sup>-be képező, az ''u'' &isin; ''H''-ban differenciálható függvények, akkor minden &lambda; számra
+
:<math>\lambda.f\,</math>  is differenciálható ''u''-ban és <math>\mathrm{d}(\lambda.f)(u)=\lambda.\mathrm{d}f(u)\,</math> és
+
:<math>f+g\,</math> is differenciálható ''u''-ban és <math>\mathrm{d}(f+g)(u)=\mathrm{d}f(u)+\mathrm{d}g(u)\,</math>
+
''Ugyanis,'' a mondott differenciálokkal és a
+
:<math>\varepsilon_{\lambda.f}=\lambda.\varepsilon_{f}\,</math>
+
:<math>\varepsilon_{f+g}=\varepsilon_{f}+\varepsilon_{g}\,</math>
+
választással, ezek az ''u''-ban folytonosak lesznek és a lineáris résszekel együtt ezek előállítják a skalárszoros és összegfüggvények megváltozásait.
+
 
+
'''Következmény.''' Tehát minden ''u'' &isin; '''R'''<sup>n</sup>-re az '''affin''' c+''A'' diffható és
+
:<math>\mathrm{d}(c+\mathcal{A})(u)=\mathcal{A}</math>
+
 
+
===Példa===
+
 
+
Az ''A'': '''x''' <math>\mapsto</math> 2<math>x_1</math> + 3<math>x_2</math> - 4<math>x_3</math> lineáris leképezés differenciálja az '''u''' pontban az '''u'''-tól független
+
:<math>(\mathrm{d}\mathcal{A}(\mathbf{u}))(x_1,x_2,x_3)=2x_1+3x_2-4x_3\,</math>
+
és Jacobi-mátrixa a konstans
+
:<math>\mathbf{J}^\mathcal{A}(\mathbf{u})=\begin{bmatrix}2 & 3 & -4\end{bmatrix}</math>
+
mátrix.
+
 
+
Világos, hogy a
+
:<math>\mathrm{pr}_i:(x_1,x_2,...,x_i,...,x_n)\mapsto x_i</math>
+
koordináta vagy projekciófüggvény lineáris, differenciálja minden '''u''' pontban saját maga és ennek mátrixa:
+
:<math>[\mathrm{grad}\,\mathrm{pr_i}]=\mathbf{J}^{\mathrm{pr}_i}(\mathbf{u})=\begin{bmatrix}0 & 0 & ... & 1 & ...& 0\end{bmatrix}</math>
+
ahol az 1 az i-edik helyen áll. Másként
+
:<math>\partial_kx_i=\delta_{ki}</math>
+
ahol
+
:<math>\delta_{ij}=\left\{\begin{matrix}1, \mbox{ ha }i=j\\0, \mbox{ ha }i\ne j \end{matrix}\right.</math>
+
azaz a Kronecker-féle &delta; szimbólum.
+
 
+
 
+
==Szélsőérték szükséges feltétele==
+
 
+
Egyelőre állapodjunk meg abban, hogy gradiensnek nevezzük a következő többváltozós vektorértékű függvényt: ha  ''f'': '''R'''<sup>n</sup> <math>\supset\!\to</math> '''R'''  parciálisan differenciálható, akkor
+
:<math>\mathrm{grad}\,f(x)=(\partial_1f(x),...,\partial_nf(x))</math>
+
mely lényegében az ''f'' elsőrendű parciális deriváltjaiból képezett vektor.
+
 
+
Később a gradienst egy kissé másképp fogjuk értelmezni és amit most definiáltunk, az a gradiens sztenderd bázisbeli mátrixa lesz (adott pontra vonatkozóan).
+
 
+
 
+
'''Tétel''' - ''Fermat-tétel'' - Legyen ''f'': '''R'''<sup>n</sup> <math>\supset\!\to</math> '''R''', ''u'' &isin; int Dom(''f''), ''f''  parciálisan differenciálható ''u''-ban.
+
:Ha ''u''-ban ''f''-nek (lokális) szélsőértéke van, akkor
+
::<math>\mathrm{grad}\,f(u)=0_{\mathbf{R}^n}\,</math>
+
''U.is:'' minden ''i''-re az ''i''-edik parciális függvénynek szélsőértéke van ''u''<sub>i</sub>-ben, így az egyváltozós Fermat-tétel miatt ezeknek a deriváltja ''u''<sub>i</sub>-ben 0, így a gradiens értéke 0.
+
 
+
====Példa====
+
:<math>f(x,y)=x^2y^2\,</math>
+
Ennek gradiense:
+
:<math>\mathrm{grad}\,f(x,y)=(2xy^2,2yx^2)</math>
+
Az
+
:<math>\left.
+
\begin{matrix}
+
\mathrm{I.} & 2xy^2 & = & 0\\
+
\mathrm{II.} & 2yx^2 & = & 0\\
+
\end{matrix}
+
\right\}</math>
+
egyenletrendszer megoldásai: ''x'' = 0, ''y'' tetszőleges ill. ''y'' = 0 és ''x'' tetszőleges. A szélsőértékek helyei csak ezek közül kerülhetnek ki és ezek valóban szélsőértékek is, mert ezeken a függvény 0-t vesz fel, ami a lehetséges legkisebb értéke.
+
:<gnuplot>
+
set pm3d
+
set size 0.8,0.8
+
set xrange [-1:1]
+
set yrange [-1:1]
+
set zrange [-2:2]
+
set view 50,30,1,1
+
unset xtics
+
unset ytics
+
unset ztics
+
unset key
+
unset colorbox
+
splot 5*x*x*y*y
+
</gnuplot>
+
 
+
==Magasabbrendű parciális deriváltak==
+
Ha ''f'' parciálisan deriválható, akkor &part;<sub>1</sub>''f'' és &part;<sub>2</sub>''f'' szintén kétváltozós függvények (a pontonként a deriváltak, mint függvényértékek értelmezésével) és érdeklődhetünk ezek parciális differenciálhatóságuk iránt. Például:
+
 
+
:<math>f(x,y)=x^2y^4+x^5-y^3\,</math>
+
 
+
:<math>\partial_xf(x,y)=xy^4+5x^4</math>
+
:<math>\partial_yf(x,y)=x^24y^3-3y^2</math>
+
 
+
:<math>\partial_x(\partial_xf)(x,y)=y^4+20x^3</math>
+
:<math>\partial_y(\partial_yf)(x,y)=12x^2y^2-6y^2</math>
+
:<math>\partial_y(\partial_xf)(x,y)=x4y^3</math>
+
:<math>\partial_x(\partial_yf)(x,y)=4xy^3</math>
+
 
+
És valóban:
+
 
+
'''Tétel.''' (Young-tétel) Ha a másodrendű parciláis deriváltak léteznek az ''u'' egy  környezetében és folytonosak az ''u'' pontban, akkor az ''u''-beli vegyes másodrendű parciláis deriváltak egyenlőek:
+
:<math>\partial_x(\partial_y f)(u)=\partial_y(\partial_x f)(u)</math>
+
 
+
Azaz az alábbi, úgy nevezett Hesse-mátrix szimmetrikus:
+
:<math>H^f(u)=\begin{bmatrix}
+
\cfrac{\partial^2 f(u)}{\partial x^2} & \cfrac{\partial^2 f(u)}{\partial y\partial x}\\\\
+
\cfrac{\partial^2 f(u)}{\partial x\partial y} & \cfrac{\partial^2 f(u)}{\partial y^2}
+
 
\end{bmatrix}</math>
 
\end{bmatrix}</math>
 +
amelyet '''Jacobi-mátrix'''nak nevezünk.
  
'''Feladat.''' Az a kitétel, hogy az ''u''-ban a másodrenrű parciláis deriváltak folytonosak, nem hagyható el, ugyanis. Legyen
+
'''Következmény.''' Tehát. ha f totálisan differenciálható, akkor parciálisan is differenciálható és a differenciál sztenderd bázisbeli mátrixa a Jacobi-mátrix.
:<math>f(x,y)=\left\{\begin{matrix}
+
0,& \mbox{ ha }(x,y)=(0,0)\\
+
\frac{xy(x^2-y^2)}{x^2+y^2},& \mbox{ ha }(x,y)\ne(0,0)
+
\end{matrix}\right.</math>
+
Ekkor a 0-ban nem egyenlő a két vegyes parciális derivált.
+
 
+
Tekintsük a parciális deriváltakat:
+
:<math>\partial_x(\partial_yf)(0,0)=\lim\limits_{x\to 0}\frac{(\partial_yf)(x,0)-(\partial_yf)(0,0)}{x}</math>
+
:<math>\partial_y(\partial_xf)(0,0)=\lim\limits_{y\to 0}\frac{(\partial_xf)(0,y)-(\partial_xf)(0,0)}{y}</math>
+
:<math>\partial_x(\partial_xf)(0,0)=\lim\limits_{x\to 0}\frac{(\partial_xf)(x,0)-(\partial_xf)(0,0)}{x}</math>
+
:<math>\partial_y(\partial_yf)(0,0)=\lim\limits_{y\to 0}\frac{(\partial_yf)(0,y)-(\partial_yf)(0,0)}{y}</math>
+
Ehhez tehát elegendő kiszámítani a következő föggvényeket: y <math>\mapsto</math> (&part;<sub>x</sub>f)(0,y), x <math>\mapsto</math> (&part;<sub>y</sub>f)(x,0). Ehhez a parciális deriváltak:
+
:<math>\partial_xf(0,y)=\lim\limits_{t\to 0}\frac{f(t,y)-f(0,0)}{t}=\left\{\begin{matrix}
+
0,& \mbox{ ha }y=0\\
+
-y,& \mbox{ ha }y\ne 0
+
\end{matrix}\right.</math>
+
:<math>\partial_yf(x,0)=\lim\limits_{t\to 0}\frac{f(x,t)-f(0,0)}{t}=\left\{\begin{matrix}
+
0,& \mbox{ ha }x=0\\
+
x,& \mbox{ ha }x\ne 0
+
\end{matrix}\right.</math>
+
:<math>\partial_yf(0,y)=\lim\limits_{t\to 0}\frac{f(0,y+t)-f(0,0)}{t}=0</math>
+
:<math>\partial_xf(x,0)=\lim\limits_{t\to 0}\frac{f(x+t,0)-f(0,0)}{t}=0</math>
+
 
+
Megjegyezzük, hogy a g=(&part;<sub>x</sub>f,&part;<sub>y</sub>f) függvény (0,0)-beli parciális deriváltjai nem lehetnek folytonosak, mert ott a függvény nem totálisan diffható. Ugyanis a g Jacobi-mátrixa:
+
:<math>J^g(0,0)=H^f(0,0)=\begin{bmatrix}
+
0 & -1\\
+
1 & 0
+
\end{bmatrix}</math>
+
ami a 90˚-os forgatás. Ekkor a g-t a (t,0) vektorral közelítve a 0-ba:
+
:<math>\lim\limits_{t\to 0}\frac{g(t,0)-g(0,0)-J^g(0,0)\cdot (t,0)}{|t|}=\lim\limits_{t\to 0}\frac{(0,-t)}{|t|}\ne (0,0)\,</math>
+
márpedig ha g minden parciális deriváltja folytonos lenne a (0,0)-ban, akkor g totálisan is deriválható lenne.
+
 
+
==Többváltozós függvény szélsőértéke==
+
 
+
 
+
===Másodikderivált próba===
+
Kétszer differenciálható függvényre vonatkozóan megfogalmazhatjuk a  lokális maximum és minimum létezésének elégséges feltételét. Csak a kétváltozós függvényekkel foglalkozunk. Tegyük fel, hogy grad ''f''(u) = 0 és H<sup>f</sup>(u) az ''f'' Hesse-mátrixa
+
# ha det H<sup>f</sup>(u) > 0 és &part;<sub>11</sub>''f''(''u'') < 0, akkor ''f''-nek ''u''-ban '''maximuma''' van
+
# ha det H<sup>f</sup>(u) > 0 és &part;<sub>11</sub>''f''(''u'') > 0, akkor ''f''-nek ''u''-ban '''minimuma''' van
+
# ha det H<sup>f</sup>(u) < 0, akkor ''f''-nek biztosan nincs szélsőértéke, ún. '''nyeregpont'''ja van
+
# ha det H<sup>f</sup>(u) = 0, akkor a próba nem járt sikerrel, azaz további vizsgálatokat igényel annak eldöntése, hogy ''u'' szélsőérték hely-e.
+
 
+
''Megjegyzések.'' Mivel kétváltozós esetben
+
:<math>\mathrm{det}\,\mathrm{H}^f(u)=\partial_{11}f(u)\cdot \partial_{22}f(u)-(\partial_{12}f(u))^2</math>
+
ezért olyan eset nem létezik, hogy det H<sup>f</sup>(u) > 0 és &part;<sub>11</sub>''f''(''u'') = 0.
+
 
+
Világos, hogy a másodikderivált tipikusan azoknál a függvényeknél jár sikerrel, melyeket egy másodfokú függvény közelít a legjobban (aszimptotikusan másodfokúak). Ha a függvény ennél magasabb fokú, akkor a második deriváltak eltűnnek és a Hesse-mártix elfajul (vagy legalább is tipikusan elfajul).
+
+
Ha tehát
+
:<math>\mathrm{H}^{f}(u)=\begin{pmatrix}
+
A & B \\
+
B & C
+
\end{pmatrix}</math>, akkor <math>\mathrm{det\,H}^{f}(u)=AC - B^2 </math>,
+
és így a tipikus példák a következők.
+
 
+
====Példák====
+
 
+
'''1.''' Ha B kicsi, azaz az AC-hez képest kis abszolútrétékű szám, akkor a szélsőérték irányába mozdul el a feladat.
+
:<math>f(x,y)=x^2+xy+y^2\,</math>
+
 
+
Ekkor grad ''f'' = ( 2x + y , 2y + x ) és 
+
:<math>\mathrm{H}^{f}(x,y)=\begin{pmatrix}
+
2 & 1 \\
+
1 & 2
+
\end{pmatrix}</math>
+
azaz 4 - 1 = 3 > 0 és 2 > 0 miatt minimum.
+
:<gnuplot>
+
set pm3d
+
set size 0.8,0.8
+
set xrange [-1:1]
+
set yrange [-1:1]
+
set zrange [-2:2]
+
set view 50,30,1,1
+
unset xtics
+
unset ytics
+
unset ztics
+
unset key
+
unset colorbox
+
splot x*x+x*y+y*y
+
</gnuplot>
+
 
+
'''2.''' Ha |B| nagy (azaz AC-hez képest nagy), akkor a bizonyosan nemszélsőérték irányába.
+
:<math>f(x,y)=x^2-3xy+y^2\,</math>
+
 
+
Ekkor grad ''f'' = ( 2x + -3y , 2y + -3x ) és 
+
:<math>\mathrm{H}^{f}(x,y)=\begin{pmatrix}
+
2 & -3 \\
+
-3 & 2
+
\end{pmatrix}</math>
+
azaz 4 - 9 = -5 < 0 miatt nincs szélsőérték: nyeregpont.
+
:<gnuplot>
+
set pm3d
+
set size 0.8,0.8
+
set xrange [-1:1]
+
set yrange [-1:1]
+
set zrange [-2:2]
+
set view 50,30,1,1
+
unset xtics
+
unset ytics
+
unset ztics
+
unset key
+
unset colorbox
+
splot x*x -3*x*y+y*y
+
</gnuplot>
+
 
+
'''3.''' Negatív A és C-re és kis B-re:
+
:<math>f(x,y)=-x^2+xy-y^2\,</math>
+
 
+
Ekkor grad ''f'' = ( -2x + 3y , -2y + 3x ) és 
+
:<math>\mathrm{H}^{f}(x,y)=\begin{pmatrix}
+
-2 & 1 \\
+
1 & -2
+
\end{pmatrix}</math>
+
azaz 4 - 1 = 3 > 0 és -2 < 0 miatt maximum.
+
:<gnuplot>
+
set pm3d
+
set size 0.8,0.8
+
set xrange [-1:1]
+
set yrange [-1:1]
+
set zrange [-2:2]
+
set view 50,30,1,1
+
unset xtics
+
unset ytics
+
unset ztics
+
unset key
+
unset colorbox
+
splot -x*x +x*y-y*y
+
</gnuplot>
+
 
+
'''4.''' Ha A és C előjele ellenkező, akkor rögtön következik, hogy nincs sz.é.
+
:<math>f(x,y)=x^2+xy-y^2\,</math>
+
  
Ekkor grad ''f'' = ( 2x + y , -2y + x ) és 
+
Azaz:
:<math>\mathrm{H}^{f}(x,y)=\begin{pmatrix}
+
:'''teljes''' differenciálhatóság <math>\Longrightarrow</math> '''parciális''' differenciálhatóság
2 & 1 \\
+
de ez fordítva már nem igaz:
1 & -2
+
: '''parciális''' differenciálhatóság <math>\not\Rightarrow</math> '''teljes''' differenciálhatóság
\end{pmatrix}</math>
+
Erre vonatkozik a két alábbi példa.
azaz -4 - 1 = -5 < 0 azaz nyeregpont.
+
:<gnuplot>
+
set pm3d
+
set size 0.8,0.8
+
set xrange [-1:1]
+
set yrange [-1:1]
+
set zrange [-2:2]
+
set view 50,30,1,1
+
unset xtics
+
unset ytics
+
unset ztics
+
unset key
+
unset colorbox
+
splot x*x +x*y-y*y
+
</gnuplot>
+
  
'''5.''' Atipikus eset, ha  AC = B<sup>2</sup>. Ekkor nem jár sikerrel a próba:
 
:<math>f(x,y)=x^2+2xy+y^2\,</math>
 
  
Ekkor grad ''f'' = ( 2x + 2y , 2y + 2x ) és 
 
:<math>\mathrm{H}^{f}(x,y)=\begin{pmatrix}
 
2 & 2 \\
 
2 & 2
 
\end{pmatrix}</math>
 
azaz 4 - 4 = 0, azaz határozatlan eset.
 
De tudjuk, hogy
 
:<math>f(x,y)=(x+y)^2\,</math>
 
ami pontosan akkor minimális, ha x = -y, azaz ezeken a helyeken van szélsőérték.
 
:<gnuplot>
 
set pm3d
 
set size 0.8,0.8
 
set xrange [-1:1]
 
set yrange [-1:1]
 
set zrange [-2:2]
 
set view 50,30,1,1
 
unset xtics
 
unset ytics
 
unset ztics
 
unset key
 
unset colorbox
 
splot (x+y)*(x+y)
 
</gnuplot>
 
  
  

A lap jelenlegi, 2013. október 21., 11:44-kori változata

Differenciálhatóság

A többváltozós differenciálhatóságot az egyváltozós alábbi átfogalmazásából általánosítjuk:

\lim\limits_{x\to u}\frac{f(x)-f(u)-m(x-u)}{|x-u|}=0
\lim\limits_{x\to u+}\frac{f(x)-f(u)-m(x-u)}{x-u}=0\quad\wedge\quad\lim\limits_{x\to u-}\frac{f(x)-f(u)-m(x-u)}{-(x-u)}=0
\lim\limits_{x\to u+}\left(\frac{f(x)-f(u)}{x-u}-m\right)=0,\quad\wedge\quad\lim\limits_{x\to u-}-\left(\frac{f(x)-f(u)}{x-u}-m\right)=0
\lim\limits_{x\to u+}\frac{f(x)-f(u)}{x-u}=m,\quad\wedge\quad\lim\limits_{x\to u-}-\frac{f(x)-f(u)}{x-u}=-m
\lim\limits_{x\to u}\frac{f(x)-f(u)}{x-u}=m


Definíció. Legyen f: Rn \supset\!\longrightarrow Rm és u ∈ int Dom(f). Azt mondjuk, hogy f differenciálható az u pontban, ha létezik olyan A: Rn \to Rm lineáris leképezés, hogy

\lim\limits_{x\to u}\frac{f(x)-f(u)-\mathcal{A}(x-u)}{||x-u||_{\mathbf{R}^n}}=0_{\mathbf{R}^m}

Ekkor A egyértelmű és az f leképezés u-bent beli differenciáljának nevezzük és df(u)-val vagy Df(u)-val jelöljük. Ezt a fogalmat néha teljes differenciálnak, totális differenciálnak vagy Fréchet-deriváltnak is mondjuk.

Megjegyzés. A fenti határérték 0 volta egyenértékű a következő kijelentéssel. Létezik A: Rn \to Rm lineáris leképezés és ε: Dom(f) \to Rm függvény, melyre:

ε folytonos u-ban és ε(u)=0, továbbá

minden x ∈ Dom(f)-re:

f(x)=f(u)+\mathcal{A}(x-u)+\varepsilon(x)||x-u||

Megjegyzés. Azt, hogy A egyértelmű, a következőkkel bizonyíthatjuk. Legyen A és B is a mondott tulajdonságú, azaz létezzenek ε és η az u-ban eltűnő és ott folytonos Dom(f)-en értelmezett függvények, melyekre teljesül, hogy minden x ∈ Dom(f)-re

f(x)=f(u)+\mathcal{A}(x-u)+\varepsilon(x)||x-u||
f(x)=f(u)+\mathcal{B}(x-u)+\eta(x)||x-u||

ezeket kivonva egymásból és használva minden x-re:

(\mathcal{A}-\mathcal{B})(x-u)+(\varepsilon(x)-\eta(x))||x-u||=0

így minden x = u + ty értékre is az azonosan nullát kapjuk, ha t pozitív szám, y pedig rögzített nemnulla vektor, azaz minden t-re

(\mathcal{A}-\mathcal{B})ty+(\varepsilon(u+ty)-\eta(u+ty))||ty||=0

az azonosan 0 függény határértéke t\to 0 esetén szintén nulla:

 0=\lim\limits_{t\to 0}\frac{(\mathcal{A}-\mathcal{B})(ty)+(\varepsilon(u+ty)-\eta(u+ty))||ty||}{t}=(\mathcal{A}-\mathcal{B})y

hiszen t-t kiemelhetünk és egyszerűsíthetünk és t\to 0 esetén ε és η nullává válik. Ez viszont pont azt jelenti, hogy a két lineéris operátor azonosan egyenlő.

Jacobi-mátrix

A df(u) lineáris leképezés (e1,e2,...,en) szetenderd bázisbeli mátrixa legyen: [df(u)] = A. Vizsgáljuk mibe viszi a bázisokat df(u) leképezés!

Írjuk fel a definíciót, de az e1 egységvektor mentén tartsunk u-hoz: x = u + te1. Ekkor

x-u=te_1\,

ami azért hasznos, mert a

\mathcal{A}(x-u)=\mathcal{A}(te_1)\,

alakból kiemelhetó t:

0=\lim\limits_{t\to 0}\frac{f(u+te_1)-f(u)-\mathcal{A}(te_1)}{t}=
=\lim\limits_{t\to 0}\frac{f(u+te_1)-f(u)-t.\mathcal{A}(e_1)}{t}=
=-\mathcal{A}(e_1)+\lim\limits_{t\to 0}\frac{f(u+te_1)-f(u)}{t}

azaz

\mathcal{A}(e_1)=\lim\limits_{t\to 0}\frac{f(u+te_1)-f(u)}{t}=\partial_1 f(u)

vagyis f koordinátafüggvényeinek az első változó szerinti parciális deriváltja az u pontban. A többi oszlopvektor ugyanígy:

[\mathrm{d}f(u)]=\mathbf{J}^f(u)=\begin{bmatrix}
\partial_1 f_1(u) & \partial_2 f_1(u) & \dots & \partial_n f_1(u)\\
\partial_1 f_2(u) & \partial_2 f_2(u) & \dots & \partial_n f_2(u)\\
\vdots            &     \vdots        &   \ddots    & \vdots \\
\partial_1 f_m(u) & \partial_2 f_m(u) & \dots & \partial_n f_m(u)\\
\end{bmatrix}

amelyet Jacobi-mátrixnak nevezünk.

Következmény. Tehát. ha f totálisan differenciálható, akkor parciálisan is differenciálható és a differenciál sztenderd bázisbeli mátrixa a Jacobi-mátrix.

Azaz:

teljes differenciálhatóság \Longrightarrow parciális differenciálhatóság

de ez fordítva már nem igaz:

parciális differenciálhatóság \not\Rightarrow teljes differenciálhatóság

Erre vonatkozik a két alábbi példa.



4. gyakorlat 6. gyakorlat
Személyes eszközök