Matematika A2a 2008/4. gyakorlat

A MathWikiből
(Változatok közti eltérés)
(Vektor-vektor függvény)
(Többváltozós függvény szélsőértéke)
 
(egy szerkesztő 35 közbeeső változata nincs mutatva)
1. sor: 1. sor:
 
:''Ez az szócikk a [[Matematika A2a 2008]] alszócikke.''
 
:''Ez az szócikk a [[Matematika A2a 2008]] alszócikke.''
==Lineáris leképezések folytonossága==
 
'''Megjegyzés.''' A normált terek között ható ''A'' lineáris leképezés folytonos, ha a 0-ban folytonos.
 
  
''Ugyanis, '' legyen az ''A'': <math>N_1</math> <math>\to</math> <math>N_2</math> lineáris leképezés és tegyük fel, hogy 0-ban folytonos, azaz minden &epsilon;>0-ra létezik &delta;>0, hogy minden ''x'' &isin; B<sub>&delta;</sub>(0)-ra ''Ax'' &isin; B<sub>&epsilon;</sub>(0).
+
==Teljes differenciálhatóság, gyakorlás==
  
Most ha &epsilon; > 0 tetszőleges és <math>x_1</math> és <math>x_2</math> <math>N_1</math>-beliek is tetszőlegesek, akkor
+
'''1.''' Hol deriválható?
: <math>||\mathcal{A}x_1-\mathcal{A}x_2||=||\mathcal{A}(x_1-x_2)||\leq\varepsilon</math>
+
:<math>f(x,y)=\sqrt[3]{x^4+y^4}</math>
amennyiben <math>x_1</math>-<math>x_2</math> &isin; B<sub>&delta;</sub>(0), ahol &delta; a 0-beli folytonosság által az &epsilon;-hoz tartozó &delta;.
+
  
'''Tétel.''' ''A'' : '''R'''<sup>n</sup> <math>\to</math> '''R'''<sup>m</sup> lineáris leképzés folytonos, sőt:
+
'''2.''' Hol deriválható?
:<math>\exists L\geq 0\quad\forall x\in \mathbf{R}^n\quad||\mathcal{A}(x)||\leq L||x||</math>  
+
:<math>\begin{cases}
 +
\frac{x^2y^3}{x^4+y^4}, & (x,y)\neq (0,0)\\
 +
0, & (x,y)=(0,0)
 +
\end{cases}
 +
</math>
  
'''Megjegyzés.''' Ez azt is jelenti, hogy egy ilyen leképezés Lipschitz-függvény. Az ''f'': '''R'''<sup>n</sup> &sup;<math>\to</math> '''R'''<sup>m</sup> függvényt Lipschitz-függvénynek nevezük, ha létezik L nemnegatív szám, hogy minden  <math>x_1</math> és <math>x_2</math> Dom(''f'')-belire:
+
==Iránymenti deriválhatóság és differenciálhatóság==
:<math>||f(x_1)-f(x_2)||\leq L||x_1-x_2||</math>
+
Ha e tetszőleges egységvektor, akkor
Világos, hogy ez lineáris leképezésre ekvivalens a tételbeli megfogalmazással.
+
:<math>\lim\limits_{t\to 0}\frac{f(u+te)-f(u)}{t}=\partial_{e}f(u)=[\mathrm{grad}\,f(u)]\cdot e=[\nabla f(u)]\cdot e</math>
  
''Bizonyítás.'' Vegyük az ''A'' szetenderd bázis beli mátrixát. Ekkor ''A''('''x''')='''A'''<math>\cdot</math>'''x'''. Így '''A''' minden '''A'''<sub>i</sub> sorára
 
: <math>|\mathbf{A}_i\mathbf{x}|=|\sum\limits_{j=1}^{n}\mathbf{A}_{ij}x_j|\leq\sum\limits_{j=1}^{n}|\mathbf{A}_{ij}x_j| \leq L_i\sum\limits_{j=1}^{n}|x_j|</math>
 
ahol <math>L_i</math> rögzített i mellett a {|'''A'''<sub>i,j</sub>|} <sub>j=1...n</sub> számok maximuma. Ha most vesszük L = max {<math>L_i</math>}-t is, akkor
 
: <math>||\mathcal{A}\mathbf{x}||_\max=\max_{i=1...m}|\mathbf{A}_i\mathbf{x}|\leq L\sum\limits_{j=1}^{n}|x_j|=L\cdot ||\mathbf{x}||_{p=1}</math>
 
is teljesül, azaz a kép maximumnormája felülbecsülhető L-szer a vektor norma-1 szerinti normájával. A normák ekvivalenciája miat pedig alkalmas L-re minden normára igaz.
 
==Deriváltfogalmak '''R'''<sup>n</sup>-ben==
 
A többdimenziós terekben több természetes általánosítására lelhetünk az egyváltozós függvények deriváltfogalmának. A következőkben konkrét esetekt nézünk.
 
===Sebességvektor===
 
A görbék lényegében egyváltozós vektorértékű függvények: '''r''': <math>I </math><math>\to</math> '''R'''<sup>3</sup>; ''t'' <math> \mapsto</math> '''r'''(''t''). Ezekre a deriváltat definiáló határérték válzatlan alakban írható:
 
:<math>\lim\limits_{\tau\to 0}\frac{\mathbf{r}(t+\tau)-\mathbf{r}(t)}{\tau}=\mathbf{r}'(t)</math>
 
feltéve, hogy ez a határérték egyáltalán létezik az '''R'''<sup>3</sup> normájában. A geometriai jelentésből az is következik, hogy a fenti határérték ugyanúgy a szelők határértékét, azaz az érintőt adják, mint az egyváltozós függvények esetén. Ekkor t jelentése: idő. A komponensenkénti határértékképzés miatt világos, hogy 
 
: <math>\mathbf{r}'(t)=\begin{pmatrix}x'(t)\\y'(t)\\z'(t)\end{pmatrix}</math>
 
Ezt még a görbe idő szerinti paraméterezésének is nevezzük, melynek fenti deriváltja a sebességet adja és vessző helyett ponttal is jelöljük a deriváltat:
 
:<math>\mathbf{v}(t)=\frac{\mathrm{d}\,\mathbf{r}}{\mathrm{d}\,t}(t)=\dot{\mathbf{r}}(t)</math>
 
'''Példa.'''
 
:<math>\mathbf{r}:[0,4\pi]\longrightarrow\mathbf{R}^3;\quad \mathbf{r}(t)=\begin{pmatrix}\cos(t)\\\sin(t)\\t\end{pmatrix}</math> <gnuplot>
 
set size 0.5,0.5
 
set parametric
 
set urange [0:4*pi]
 
unset colorbox
 
unset key
 
unset xtics
 
unset ytics
 
unset ztics
 
splot cos(u),sin(u),u
 
</gnuplot>
 
  
egy spirál paraméterezése. A deriváltja:
+
'''Példa.'''
:<math>\dot{\mathbf{r}}(t)=\begin{pmatrix}-\sin(t)\\\cos(t)\\1\end{pmatrix}</math>
+
:<math>f(x,y)=\left\{\begin{matrix}\frac{xy}{\sqrt{x^2+y^2}}& \mbox{, ha }&(x,y)\ne (0,0)\\
amiből látszik, hogy az [xy] síkra vett vetülete egy egyenletes körmozgás, a z tengelyre eső vetülete pedig egy egyenesvonalú egyenletes mozgás.
+
0&\mbox{, ha }&(x,y)=(0,0)\end{matrix}\right.</math>  
  
===Parciális derivált===
+
Ekkor
 +
:<math>\mathrm{J}^f(0,0)=[0, 0]\,</math>
  
Ha adott az
+
Ha tehát differenciálható, akkor az '''iránymenti derivált'''ak (Gateau-deriváltak) is léteznek (e egységvektor):
:<math>f:\mathbf{R}^2\supset\!\longrightarrow\mathbf{R}</math>
+
kétváltozós függvény, akkor adott (<math>x_0</math>,<math>y_0</math>) &isin; Dom(''f'') pont körül ebből származtathatunk két egyváltozós függvényt:
+
:<math>f(\;.\;,y_0):\{x\in \mathbf{R}\mid (x,y_0)\in\mathrm{Dom}(f)\}\longrightarrow \mathbf{R};\quad\quad x\mapsto f(x,y_0)</math>
+
:<math>f(x_0,\;.\;):\{y\in \mathbf{R}\mid (x_0,y)\in\mathrm{Dom}(f)\}\longrightarrow \mathbf{R};\quad\quad y\mapsto f(x_0,y)</math>
+
  
Ezeket parciális függvényeknek nevezzük, és ha differenciálhatóak rendre
+
:<math>\partial_ef(u)=\lim\limits_{t\to 0}\frac{f(u+te)-f(u)}{t}=\mathrm{J}^f(0,0)\cdot e=e\cdot\mathrm{grad}\,f(u)</math>
az <math>x_0</math> és az <math>y_0</math> pontokban, akkor a deriváltjuk a parciális deriváltak:
+
:<math>\partial_1f(x_0,y_0):=\frac{\partial f}{\partial x}(x_0,y_0):=\lim\limits_{t\to 0}\frac{f(x_0+t,y_0)-f(x_0,y_0)}{t}</math>
+
:<math>\partial_2f(x_0,y_0):=\frac{\partial f}{\partial y}(x_0,y_0):=\lim\limits_{t\to 0}\frac{f(x_0,y_0+t)-f(x_0,y_0)}{t}</math>
+
Geometriailag ezek a (<math>x_0</math>,<math>y_0</math>) pontban állított [x,z] síkkal illetve az [yz] síkkal vett metszetgörbék, mint egyváltozós függvények deriváltjai. A parciális deriváltfüggvényeket már mint kétváltozós függvényekként definiáljuk:
+
:<math>\partial_1 f:\quad(x_0,y_0)\mapsto \frac{\partial f}{\partial x}(x_0,y_0)</math>
+
:<math>\partial_2 f:\quad(x_0,y_0)\mapsto \frac{\partial f}{\partial y}(x_0,y_0)</math>
+
'''Példa.'''
+
:<math> f(x,y)= \sin(x) + xy^2 + y^3\,</math>, akkor <math>\begin{matrix}\frac{\partial f(x,y)}{\partial x}=\cos(x)+y^2\\ \\\frac{\partial f(x,y)}{\partial y}=2xy + 3y^2\end{matrix}</math>
+
  
===Gradiens===
+
Ám, polárkoordinátákra áttérve:
Ha adott az
+
:<math>f(x(r,\varphi),y(r,\varphi))=\frac{r^2\cos\varphi\sin\varphi}{r}=r\cos\varphi\sin\varphi=r\cdot \frac{1}{2}\sin 2\varphi</math>  
:<math>\Phi:\mathbf{R}^3\supset\!\longrightarrow\mathbf{R}</math>
+
&phi; = &pi;/4-et és &pi; + &pi;/4-et véve a vetületfüggvény a
vektorváltozós skalárfüggvény, akkor ezt általában szintfelületekkel ábrázolhatjuk. Egy (<math>x_0</math>,<math>y_0</math>,<math>z_0</math>)elég kis környezetében a függvény -- ha a későbbi értelmeben differenciálható -- akkor jól közelíthető lineáris vektorváltozós skalárfüggvény, tehát valamely
+
:<math>t\mapsto\frac{1}{2}|t|</math>,
:<math>L(x,y,z)=Ax+By+Cz=\mathbf{n}\cdot\mathbf{r}</math>
+
ami nem differenciálható a 0-ban.
függvény (<math>x_0</math>,<math>y_0</math>,<math>z_0</math>) pontba való eltoltjával -- hiszen ennek az ábrázolása síkoksorokkal történik, amik a pont elég kis környzetében már a hibahatáron belül térnek el &Phi;-től. Ez akkor van, ha a leképezés csak elsőnél magasabbrendű tagokban különbözik a lineáristól, azaz létezik &epsilon;('''r'''):Dom(&Phi;) <math>\to</math> '''R''' az '''r'''<sub>0</sub> =  (<math>x_0</math>,<math>y_0</math>,<math>z_0</math>)-ban folytonos és ott 0 értéket felvevő függvény, hogy
+
:<math>\Phi(\mathbf{r})-\Phi(\mathbf{r}_0)=\mathbf{n}\cdot (\mathbf{r}-\mathbf{r_0})+\varepsilon(\mathbf{r}).||\mathbf{r}-\mathbf{r_0}||</math>
+
  
Mindezek miatt értelmes a fenti '''n''' vektort mint a lokális viselkedés jellemzőjét, egyfajta diváltat tekinteni. '''n'''-et ekkor a &Phi; leképezés (<math>x_0</math>,<math>y_0</math>,<math>z_0</math>) ponthoz tartozó '''gradiens'''ének nevezzük és tömör definíciója a következő:
+
Illetve nézzük meg a (3,4) vektor mentén!
:<math>\lim\limits_{\mathbf{r}\to\mathbf{r}_0}\frac{\Phi(\mathbf{r})-\Phi(\mathbf{r}_0)-\mathrm{grad}\,\Phi(\mathbf{r}_0)\cdot(\mathbf{r}-\mathbf{r}_0)}{||\mathbf{r}-\mathbf{r}_0||}=0</math>
+
  
====Példa====
+
'''Megjegyzés.''' Persze abból, hogy az összes iránymenti derivált létezik, abból nem következik, hogy a függvény totálisan deriválható.
:<math>\Phi:\mathbf{R}^3\rightarrow\mathbf{R};\mathbf{r}\mapsto\mathbf{r}^2</math>
+
függvényt.
+
  
Ekkor a gradiensét a következőkből számítjuk ki:
+
==Szélsőérték szükséges feltétele==
:<math>\Phi(\mathbf{r}) -\Phi(\mathbf{r}_0)=\mathbf{r}^2-\mathbf{r}_0^2=(\mathbf{r}-\mathbf{r}_0)(\mathbf{r}+\mathbf{r}_0)=(\mathbf{r}-\mathbf{r}_0)(\mathbf{r}-\mathbf{r}_0+\mathbf{r}_0+\mathbf{r}_0)=</math>
+
::<math>=2\mathbf{r}_0\cdot(\mathbf{r}-\mathbf{r}_0)+(\mathbf{r}-\mathbf{r}_0)^2=2\mathbf{r}_0\cdot(\mathbf{r}-\mathbf{r}_0)+||\mathbf{r}-\mathbf{r}_0||^2</math>
+
ahonnan leolvasva:
+
:<math>\mathrm{grad}\,\Phi(\mathbf{r}_0)=2\mathbf{r}_0</math>
+
:<math>\varepsilon(\mathbf{r})=||\mathbf{r}-\mathbf{r}_0||</math>
+
mely utóbbi valóban folytonos '''r'''<sub>0</sub>-ban és értéke itt 0.
+
  
==Differenciálhatóság==
+
Egyelőre állapodjunk meg abban, hogy gradiensnek nevezzük a következő többváltozós vektorértékű függvényt: ha  ''f'': '''R'''<sup>n</sup> <math>\supset\!\to</math> '''R''' parciálisan differenciálható, akkor
Legyen ''f'': '''R'''<sup>n</sup> <math>\supset\!\longrightarrow</math> '''R'''<sup>m</sup> és ''u'' &isin; int Dom(f). Azt mondjuk, hogy ''f'' '''differenciálható''' az ''u'' pontban, ha létezik olyan ''A'': '''R'''<sup>n</sup> <math>\to</math> '''R'''<sup>m</sup> lineáris leképezés, hogy
+
:<math>\mathrm{grad}\,f(x)=(\partial_1f(x),...,\partial_nf(x))</math>
:<math>\lim\limits_{x\to u}\frac{f(x)-f(u)-\mathcal{A}(x-u)}{||x-u||_{\mathbf{R}^n}}=0_{\mathbf{R}^m}</math>
+
mely lényegében az ''f'' elsőrendű parciális deriváltjaiból képezett vektor.
Ekkor ''A'' egyértelmű és az ''f'' leképezés ''u''-bent beli '''deriválttenzor'''ának vagy '''differenciál'''jának nevezzük és d''f''(''u'')-val vagy D''f''(u)-val jelöljük. Ezt a fogalmat néha ''teljes differenciál''nak, ''totális differenciál''nak vagy ''Fréchet-derivált''nak is mondjuk.
+
  
'''Megjegyzés.''' A fenti határérték 0 volta egyenértékű a következő kijelentéssel. Létezik ''A''': ''R'''<sup>n</sup> <math>\to</math> '''R'''<sup>m</sup> lineáris leképezés és &epsilon;: Dom(''f'') <math>\to</math> '''R'''<sup>m</sup> függvény, melyre:
+
Később a gradienst egy kissé másképp fogjuk értelmezni és amit most definiáltunk, az a gradiens sztenderd bázisbeli mátrixa lesz (adott pontra vonatkozóan).
: &epsilon; folytonos u-ban és &epsilon;(u)=0, továbbá
+
minden ''x'' &isin; Dom(''f'')-re:
+
: <math>f(x)=f(u)+\mathcal{A}(x-u)+\varepsilon(x)||x-u||</math>
+
'''Megjegyzés.''' Azt, hogy ''A'' egyértelmű, a következőkkel bizonyíthatjuk. Legyen ''A'' és ''B'' is a mondott tuljadonságú, azaz létezzenek &epsilon; és &eta; az ''u''-ban eltűnő és ott folytonos Dom(''f'')-en értelmezett függvények, melyekre teljesül, hogy minden ''x'' &isin; Dom(''f'')-re
+
:<math>f(x)=f(u)+\mathcal{A}(x-u)+\varepsilon(x)||x-u||</math>
+
:<math>f(x)=f(u)+\mathcal{B}(x-u)+\eta(x)||x-u||</math>
+
ezeket kivonva egymásból és használva '''minden''' ''x''-re:
+
:<math>(\mathcal{A}-\mathcal{B})(x-u)+(\varepsilon(x)-\eta(x))||x-u||=0</math>
+
így minden x = u + ty értékre is az azonosan nullát kapjuk, ha t pozitív szám, y pedig rögzített nemnulla vektor, azaz minden t-re
+
:<math>(\mathcal{A}-\mathcal{B})ty+(\varepsilon(u+ty)-\eta(u+ty))||ty||=0</math>
+
az azonosan 0 függény határértéke t<math>\to</math> 0 esetén szintén nulla:
+
:<math> 0=\lim\limits_{t\to 0}\frac{(\mathcal{A}-\mathcal{B})(ty)+(\varepsilon(u+ty)-\eta(u+ty))||ty||}{t}=(\mathcal{A}-\mathcal{B})y</math>
+
hiszen t-t kiemelhetünk és egyszerűsíthatünk és t<math>\to</math> 0 esetén
+
&epsilon; és &eta; nullává válik.
+
Ez viszont pont azt jelenti, hogy a két lineéris operátor a 0 egy környezetében azonosan egyenlő, így ilyen kicsi bázisokon egyenlő, azaz mindenhol egyenlő.
+
==Jacobi-mátrix==
+
Vizsgáljuk mibe viszi a bázisokat d''f''(''u'') komponensleképezésenként. A d''f''(''u'') lineáris leképezés (<math>e_1</math>,<math>e_2</math>,...,<math>e_n</math>) szetenderd bázisbeli mátrixa legyen: [d''f''(''u'')] = '''A'''. Világos, hogy (d''f''(''u''))(''x'')='''A''' ''x''. Először vegyük az '''A''' első sorvektorát, '''A'''<sub>1</sub>-et és az <math>e_1</math> egységvektor mentén tartunk ''u''-hoz: ''x'' = ''u'' + ''t''<math>e_1</math>. A d''f''(''u'')-t definiáló határértékegyenlőség ekkor a következő alakot ölti:
+
:<math>0=\lim\limits_{t\to 0}\frac{f_1(u+te_1)-f_1(u)-\mathbf{A}_1\cdot(te_1)}{t}=</math>
+
:::<math>=\lim\limits_{t\to 0}\frac{f_1(u+te_1)-f_1(u)-t\mathbf{A}_1\cdot(e_1)}{t}=</math>
+
:::<math>=-\mathbf{A}_1\cdot e_1+\lim\limits_{t\to 0}\frac{f_1(u+te_1)-f_1(u)}{t}</math>
+
azaz
+
:<math>\mathbf{A}_1\cdot e_1=\lim\limits_{t\to 0}\frac{f_1(u+te_1)-f_1(u)}{t}=\partial_1 f_1(u)</math>
+
vagyis ''f'' első koordinátafüggvényének <math>f_1</math>-nek az első változó szerinti parciális deriváltja az ''u'' pontban. A többi mátrixelemet ugyanígy:
+
  
:<math>[\mathrm{d}f(u)]=\mathbf{J}^f(u)=\begin{bmatrix}
+
 
\partial_1 f_1(u) & \partial_2 f_1(u) & \dots & \partial_n f_1(u)\\
+
'''Tétel''' - ''Fermat-féle szésőértéktétel'' - Legyen ''f'': '''R'''<sup>n</sup> <math>\supset\!\to</math> '''R''', ''u'' &isin; int Dom(''f''), ''f''  parciálisan differenciálható ''u''-ban.
\partial_1 f_2(u) & \partial_2 f_2(u) & \dots & \partial_n f_2(u)\\
+
:Ha ''u''-ban ''f''-nek (lokális) szélsőértéke van, akkor
\vdots            &    \vdots        &  \ddots    & \vdots \\
+
::<math>\mathrm{grad}\,f(u)=0_{\mathbf{R}^n}\,</math>
\partial_1 f_m(u) & \partial_2 f_m(u) & \dots & \partial_n f_m(u)\\
+
''U.is:'' minden ''i''-re az ''i''-edik parciális függvénynek szélsőértéke van ''u''<sub>i</sub>-ben, így az egyváltozós Fermat-tétel miatt ezeknek a deriváltja ''u''<sub>i</sub>-ben 0, így a gradiens értéke 0.
 +
 
 +
====Példa====
 +
:<math>f(x,y)=x^2y^2\,</math>
 +
Ennek gradiense:
 +
:<math>\mathrm{grad}\,f(x,y)=(2xy^2,2yx^2)</math>
 +
Az
 +
:<math>\left.
 +
\begin{matrix}
 +
\mathrm{I.} & 2xy^2 & = & 0\\
 +
\mathrm{II.} & 2yx^2 & = & 0\\
 +
\end{matrix}
 +
\right\}</math>
 +
egyenletrendszer megoldásai: ''x'' = 0, ''y'' tetszőleges ill. ''y'' = 0 és ''x'' tetszőleges. A szélsőértékek helyei csak ezek közül kerülhetnek ki és ezek valóban szélsőértékek is, mert ezeken a függvény 0-t vesz fel, ami a lehetséges legkisebb értéke.
 +
 
 +
==Magasabbrendű parciális deriváltak==
 +
Ha ''f'' parciálisan deriválható, akkor &part;<sub>1</sub>''f'' és &part;<sub>2</sub>''f'' szintén kétváltozós függvények (a pontonként a deriváltak, mint függvényértékek értelmezésével) és érdeklődhetünk ezek parciális differenciálhatóságuk iránt. Például:
 +
 
 +
:<math>f(x,y)=x^2y^4+x^5-y^3\,</math>
 +
 
 +
:<math>\partial_xf(x,y)=xy^4+5x^4</math>
 +
:<math>\partial_yf(x,y)=x^24y^3-3y^2</math>
 +
 
 +
:<math>\partial_x(\partial_xf)(x,y)=y^4+20x^3</math>
 +
:<math>\partial_y(\partial_yf)(x,y)=12x^2y^2-6y^2</math>
 +
:<math>\partial_y(\partial_xf)(x,y)=x4y^3</math>
 +
:<math>\partial_x(\partial_yf)(x,y)=4xy^3</math>
 +
 
 +
És valóban:
 +
 
 +
'''Tétel.''' (Young-tétel) Ha a másodrendű parciális deriváltak léteznek az ''u'' egy  környezetében és folytonosak az ''u'' pontban, akkor az ''u''-beli vegyes másodrendű parciláis deriváltak egyenlőek:
 +
:<math>\partial_x(\partial_y f)(u)=\partial_y(\partial_x f)(u)</math>
 +
 
 +
Azaz az alábbi, úgy nevezett Hesse-mátrix szimmetrikus:
 +
:<math>H^f(u)=\begin{bmatrix}
 +
\cfrac{\partial^2 f(u)}{\partial x^2} & \cfrac{\partial^2 f(u)}{\partial y\partial x}\\\\
 +
\cfrac{\partial^2 f(u)}{\partial x\partial y} & \cfrac{\partial^2 f(u)}{\partial y^2}
 
\end{bmatrix}</math>
 
\end{bmatrix}</math>
amelyet '''Jacobi-mátrix'''nak nevezünk.
 
  
===Példák===
+
'''Feladat.''' Az a kitétel, hogy az ''u''-ban a másodrenrű parciláis deriváltak folytonosak, nem hagyható el, ugyanis. Legyen
====Egyváltozós vektorértékű függvény====
+
:<math>f(x,y)=\left\{\begin{matrix}
A
+
0,& \mbox{ ha }(x,y)=(0,0)\\
:<math>\mathbf{r}:[0,4\pi]\longrightarrow\mathbf{R}^3;\quad \mathbf{r}(t)=\begin{pmatrix}\cos(t)\\\sin(t)\\t\end{pmatrix}</math>
+
\frac{xy(x^2-y^2)}{x^2+y^2},& \mbox{ ha }(x,y)\ne(0,0)
leképezés Jacobi-mátrixa pont a deriváltvektor koordinátamátrixa. Egyetlen változó van így csak a fenti mátrix első oszlopa látszódik, a koordinátafüggvények t-szerinti deriváltjával:  
+
\end{matrix}\right.</math>
:<math>\mathbf{J}(t)=\begin{bmatrix}-\sin(t)\\\cos(t)\\1\end{bmatrix}</math>
+
Ekkor a 0-ban nem egyenlő a két vegyes parciális derivált.
====Skalárértékű függvény====
+
 
A mindenhol értelmezett
+
Tekintsük a parciális deriváltakat:
:<math> f(x,y)= \sin(x) + xy^2 + y^3\,</math>
+
:<math>\partial_x(\partial_yf)(0,0)=\lim\limits_{x\to 0}\frac{(\partial_yf)(x,0)-(\partial_yf)(0,0)}{x}</math>
leképezés Jacobi-mátrixa a parciális deriváltakból álló sorvektor:
+
:<math>\partial_y(\partial_xf)(0,0)=\lim\limits_{y\to 0}\frac{(\partial_xf)(0,y)-(\partial_xf)(0,0)}{y}</math>
:<math>\mathbf{J}^f(x,y)=\begin{bmatrix}\cos(x)+y^2, & 2xy + 3y^2\end{bmatrix}</math>
+
:<math>\partial_x(\partial_xf)(0,0)=\lim\limits_{x\to 0}\frac{(\partial_xf)(x,0)-(\partial_xf)(0,0)}{x}</math>
====Vektor-vektor függvény====
+
:<math>\partial_y(\partial_yf)(0,0)=\lim\limits_{y\to 0}\frac{(\partial_yf)(0,y)-(\partial_yf)(0,0)}{y}</math>
Vegyük a polártranszformációt:
+
Ehhez tehát elegendő kiszámítani a következő föggvényeket: y <math>\mapsto</math> (&part;<sub>x</sub>f)(0,y), x <math>\mapsto</math> (&part;<sub>y</sub>f)(x,0). Ehhez a parciális deriváltak:
:<math>G:[0,+\infty)\times[0,2\pi)\longrightarrow\mathbf{R}^2;\begin{pmatrix}r\\ \varphi\end{pmatrix}\mapsto\begin{pmatrix}r\cdot \cos(\varphi)\\r\cdot \sin(\varphi)\end{pmatrix} </math>
+
:<math>\partial_xf(0,y)=\lim\limits_{t\to 0}\frac{f(t,y)-f(0,0)}{t}=\left\{\begin{matrix}
Ekkor komponensfüggvényenként kell kiszámítani a parciális deriváltakat:
+
0,& \mbox{ ha }y=0\\
:<math>\mathbf{J}^G(r,\varphi)=\begin{bmatrix}\cos(\varphi) & - r\cdot\sin(\varphi)\\ \sin(\varphi) & r\cdot\cos(\varphi)\end{bmatrix}</math>
+
-y,& \mbox{ ha }y\ne 0
Megjegyezzük, hogy ekkor a Jacobi-determináns értéke ''r'' (illetve a "területelem" nagysága: ''r''<math>\cdot</math>d''r''<math>\cdot</math>d&phi;).
+
\end{matrix}\right.</math>
 +
:<math>\partial_yf(x,0)=\lim\limits_{t\to 0}\frac{f(x,t)-f(0,0)}{t}=\left\{\begin{matrix}
 +
0,& \mbox{ ha }x=0\\
 +
x,& \mbox{ ha }x\ne 0
 +
\end{matrix}\right.</math>
 +
:<math>\partial_yf(0,y)=\lim\limits_{t\to 0}\frac{f(0,y+t)-f(0,0)}{t}=0</math>
 +
:<math>\partial_xf(x,0)=\lim\limits_{t\to 0}\frac{f(x+t,0)-f(0,0)}{t}=0</math>
 +
 
 +
Megjegyezzük, hogy a g=(&part;<sub>x</sub>f,&part;<sub>y</sub>f) függvény (0,0)-beli parciális deriváltjai nem lehetnek folytonosak, mert ott a függvény nem totálisan diffható. Ugyanis a g Jacobi-mátrixa:
 +
:<math>J^g(0,0)=H^f(0,0)=\begin{bmatrix}
 +
0 & -1\\
 +
1 & 0
 +
\end{bmatrix}</math>
 +
ami a 90˚-os forgatás. Ekkor a g-t a (t,0) vektorral közelítve a 0-ba:
 +
:<math>\lim\limits_{t\to 0}\frac{g(t,0)-g(0,0)-J^g(0,0)\cdot (t,0)}{|t|}=\lim\limits_{t\to 0}\frac{(0,-t)}{|t|}\ne (0,0)\,</math>
 +
márpedig ha g minden parciális deriváltja folytonos lenne a (0,0)-ban, akkor g totálisan is deriválható lenne.
 +
 
 +
==Többváltozós függvény szélsőértéke==
 +
 
 +
:<math>f(x)=f(u)+\mathrm{J}_u^f(x-u)+(x-y)\mathrm{H}^f_u(x-u)+\varepsilon(x)||x-u||^2</math>
 +
===Másodikderivált-próba===
 +
Kétszer differenciálható függvényre vonatkozóan megfogalmazhatjuk a  lokális maximum és minimum létezésének elégséges feltételét. Csak a kétváltozós függvényekkel foglalkozunk. Tegyük fel, hogy grad ''f''(u) = 0 és H<sup>f</sup>(u) az ''f'' Hesse-mátrixa
 +
# ha det H<sup>f</sup>(u) > 0 és &part;<sub>11</sub>''f''(''u'') < 0, akkor ''f''-nek ''u''-ban '''maximuma''' van
 +
# ha det H<sup>f</sup>(u) > 0 és &part;<sub>11</sub>''f''(''u'') > 0, akkor ''f''-nek ''u''-ban '''minimuma''' van
 +
# ha det H<sup>f</sup>(u) < 0, akkor ''f''-nek biztosan nincs szélsőértéke, ún. '''nyeregpont'''ja van
 +
# ha det H<sup>f</sup>(u) = 0, akkor a próba nem járt sikerrel, azaz további vizsgálatokat igényel annak eldöntése, hogy ''u'' szélsőérték hely-e.
 +
 
 +
''Megjegyzések.'' Mivel kétváltozós esetben
 +
:<math>\mathrm{det}\,\mathrm{H}^f(u)=\partial_{11}f(u)\cdot \partial_{22}f(u)-(\partial_{12}f(u))^2</math>
 +
ezért olyan eset nem létezik, hogy det H<sup>f</sup>(u) > 0 és &part;<sub>11</sub>''f''(''u'') = 0.
 +
 
 +
Világos, hogy a második derivált tipikusan azoknál a függvényeknél jár sikerrel, melyeket egy másodfokú függvény közelít a legjobban (aszimptotikusan másodfokúak). Ha a függvény ennél magasabb fokú, akkor a második deriváltak eltűnnek és a Hesse-mártix elfajul (vagy legalább is tipikusan elfajul).
 +
 +
Ha tehát
 +
:<math>\mathrm{H}^{f}(u)=\begin{pmatrix}
 +
A & B \\
 +
B & C
 +
\end{pmatrix}</math>, akkor <math>\mathrm{det\,H}^{f}(u)=AC - B^2 </math>,
 +
és így a tipikus példák a következők.
 +
 
 +
====Példák====
 +
 
 +
'''1.''' Ha B kicsi, azaz az AC-hez képest kis abszolútrétékű szám, akkor a szélsőérték irányába mozdul el a feladat.
 +
:<math>f(x,y)=x^2+xy+y^2\,</math>
 +
 
 +
Ekkor grad ''f'' = ( 2x + y , 2y + x ) és 
 +
:<math>\mathrm{H}^{f}(x,y)=\begin{pmatrix}
 +
2 & 1 \\
 +
1 & 2
 +
\end{pmatrix}</math>
 +
azaz 4 - 1 = 3 > 0 és 2 > 0 miatt minimum.
 +
 
 +
'''2.''' Ha |B| nagy (azaz AC-hez képest nagy), akkor a bizonyosan nemszélsőérték irányába.
 +
:<math>f(x,y)=x^2-3xy+y^2\,</math>
 +
 
 +
Ekkor grad ''f'' = ( 2x + -3y , 2y + -3x ) és 
 +
:<math>\mathrm{H}^{f}(x,y)=\begin{pmatrix}
 +
2 & -3 \\
 +
-3 & 2
 +
\end{pmatrix}</math>
 +
azaz 4 - 9 = -5 < 0 miatt nincs szélsőérték: nyeregpont.
 +
 
 +
'''3.''' Negatív A és C-re és kis B-re:
 +
:<math>f(x,y)=-x^2+xy-y^2\,</math>
 +
 
 +
Ekkor grad ''f'' = ( -2x + 3y , -2y + 3x ) és 
 +
:<math>\mathrm{H}^{f}(x,y)=\begin{pmatrix}
 +
-2 & 1 \\
 +
1 & -2
 +
\end{pmatrix}</math>
 +
azaz 4 - 1 = 3 > 0 és -2 < 0 miatt maximum.
 +
 
 +
'''4.''' Ha A és C előjele ellenkező, akkor rögtön következik, hogy nincs sz.é.
 +
:<math>f(x,y)=x^2+xy-y^2\,</math>
 +
 
 +
Ekkor grad ''f'' = ( 2x + y , -2y + x ) és 
 +
:<math>\mathrm{H}^{f}(x,y)=\begin{pmatrix}
 +
2 & 1 \\
 +
1 & -2
 +
\end{pmatrix}</math>
 +
azaz -4 - 1 = -5 < 0 azaz nyeregpont.
 +
 
 +
'''5.''' Atipikus eset, ha  AC = B<sup>2</sup>. Ekkor nem jár sikerrel a próba:
 +
:<math>f(x,y)=x^2+2xy+y^2\,</math>
 +
 
 +
Ekkor grad ''f'' = ( 2x + 2y , 2y + 2x ) és 
 +
:<math>\mathrm{H}^{f}(x,y)=\begin{pmatrix}
 +
2 & 2 \\
 +
2 & 2
 +
\end{pmatrix}</math>
 +
azaz 4 - 4 = 0, azaz határozatlan eset.
 +
De tudjuk, hogy  
 +
:<math>f(x,y)=(x+y)^2\,</math>
 +
ami pontosan akkor minimális, ha x = -y, azaz ezeken a helyeken van szélsőérték.
 +
 
 +
'''6.'''  
 +
 
 +
:<math>f(x,y)=3x^2-6xy+2y^3\,</math>
 +
 
 +
'''7.'''
 +
 
 +
:<math>f(x,y)=\sqrt{x^2+y^2}\cdot e^{-\frac{x^2+y^2}{2}}\,</math>
  
 
<center>
 
<center>

A lap jelenlegi, 2017. február 27., 11:49-kori változata

Ez az szócikk a Matematika A2a 2008 alszócikke.

Tartalomjegyzék

Teljes differenciálhatóság, gyakorlás

1. Hol deriválható?

f(x,y)=\sqrt[3]{x^4+y^4}

2. Hol deriválható?

\begin{cases}
\frac{x^2y^3}{x^4+y^4}, & (x,y)\neq (0,0)\\
0, & (x,y)=(0,0) 
\end{cases}

Iránymenti deriválhatóság és differenciálhatóság

Ha e tetszőleges egységvektor, akkor

\lim\limits_{t\to 0}\frac{f(u+te)-f(u)}{t}=\partial_{e}f(u)=[\mathrm{grad}\,f(u)]\cdot e=[\nabla f(u)]\cdot e


Példa.

f(x,y)=\left\{\begin{matrix}\frac{xy}{\sqrt{x^2+y^2}}& \mbox{, ha }&(x,y)\ne (0,0)\\
0&\mbox{, ha }&(x,y)=(0,0)\end{matrix}\right.

Ekkor

\mathrm{J}^f(0,0)=[0, 0]\,

Ha tehát differenciálható, akkor az iránymenti deriváltak (Gateau-deriváltak) is léteznek (e egységvektor):

\partial_ef(u)=\lim\limits_{t\to 0}\frac{f(u+te)-f(u)}{t}=\mathrm{J}^f(0,0)\cdot e=e\cdot\mathrm{grad}\,f(u)

Ám, polárkoordinátákra áttérve:

f(x(r,\varphi),y(r,\varphi))=\frac{r^2\cos\varphi\sin\varphi}{r}=r\cos\varphi\sin\varphi=r\cdot \frac{1}{2}\sin 2\varphi

φ = π/4-et és π + π/4-et véve a vetületfüggvény a

t\mapsto\frac{1}{2}|t|,

ami nem differenciálható a 0-ban.

Illetve nézzük meg a (3,4) vektor mentén!

Megjegyzés. Persze abból, hogy az összes iránymenti derivált létezik, abból nem következik, hogy a függvény totálisan deriválható.

Szélsőérték szükséges feltétele

Egyelőre állapodjunk meg abban, hogy gradiensnek nevezzük a következő többváltozós vektorértékű függvényt: ha f: Rn \supset\!\to R parciálisan differenciálható, akkor

\mathrm{grad}\,f(x)=(\partial_1f(x),...,\partial_nf(x))

mely lényegében az f elsőrendű parciális deriváltjaiból képezett vektor.

Később a gradienst egy kissé másképp fogjuk értelmezni és amit most definiáltunk, az a gradiens sztenderd bázisbeli mátrixa lesz (adott pontra vonatkozóan).


Tétel - Fermat-féle szésőértéktétel - Legyen f: Rn \supset\!\to R, u ∈ int Dom(f), f parciálisan differenciálható u-ban.

Ha u-ban f-nek (lokális) szélsőértéke van, akkor
\mathrm{grad}\,f(u)=0_{\mathbf{R}^n}\,

U.is: minden i-re az i-edik parciális függvénynek szélsőértéke van ui-ben, így az egyváltozós Fermat-tétel miatt ezeknek a deriváltja ui-ben 0, így a gradiens értéke 0.

Példa

f(x,y)=x^2y^2\,

Ennek gradiense:

\mathrm{grad}\,f(x,y)=(2xy^2,2yx^2)

Az

\left.
\begin{matrix} 
\mathrm{I.} & 2xy^2 & = & 0\\
\mathrm{II.} & 2yx^2 & = & 0\\
\end{matrix}
\right\}

egyenletrendszer megoldásai: x = 0, y tetszőleges ill. y = 0 és x tetszőleges. A szélsőértékek helyei csak ezek közül kerülhetnek ki és ezek valóban szélsőértékek is, mert ezeken a függvény 0-t vesz fel, ami a lehetséges legkisebb értéke.

Magasabbrendű parciális deriváltak

Ha f parciálisan deriválható, akkor ∂1f és ∂2f szintén kétváltozós függvények (a pontonként a deriváltak, mint függvényértékek értelmezésével) és érdeklődhetünk ezek parciális differenciálhatóságuk iránt. Például:

f(x,y)=x^2y^4+x^5-y^3\,
\partial_xf(x,y)=xy^4+5x^4
\partial_yf(x,y)=x^24y^3-3y^2
\partial_x(\partial_xf)(x,y)=y^4+20x^3
\partial_y(\partial_yf)(x,y)=12x^2y^2-6y^2
\partial_y(\partial_xf)(x,y)=x4y^3
\partial_x(\partial_yf)(x,y)=4xy^3

És valóban:

Tétel. (Young-tétel) Ha a másodrendű parciális deriváltak léteznek az u egy környezetében és folytonosak az u pontban, akkor az u-beli vegyes másodrendű parciláis deriváltak egyenlőek:

\partial_x(\partial_y f)(u)=\partial_y(\partial_x f)(u)

Azaz az alábbi, úgy nevezett Hesse-mátrix szimmetrikus:

H^f(u)=\begin{bmatrix}
\cfrac{\partial^2 f(u)}{\partial x^2} & \cfrac{\partial^2 f(u)}{\partial y\partial x}\\\\
\cfrac{\partial^2 f(u)}{\partial x\partial y} & \cfrac{\partial^2 f(u)}{\partial y^2}
\end{bmatrix}

Feladat. Az a kitétel, hogy az u-ban a másodrenrű parciláis deriváltak folytonosak, nem hagyható el, ugyanis. Legyen

f(x,y)=\left\{\begin{matrix}
0,& \mbox{ ha }(x,y)=(0,0)\\
\frac{xy(x^2-y^2)}{x^2+y^2},& \mbox{ ha }(x,y)\ne(0,0)
\end{matrix}\right.

Ekkor a 0-ban nem egyenlő a két vegyes parciális derivált.

Tekintsük a parciális deriváltakat:

\partial_x(\partial_yf)(0,0)=\lim\limits_{x\to 0}\frac{(\partial_yf)(x,0)-(\partial_yf)(0,0)}{x}
\partial_y(\partial_xf)(0,0)=\lim\limits_{y\to 0}\frac{(\partial_xf)(0,y)-(\partial_xf)(0,0)}{y}
\partial_x(\partial_xf)(0,0)=\lim\limits_{x\to 0}\frac{(\partial_xf)(x,0)-(\partial_xf)(0,0)}{x}
\partial_y(\partial_yf)(0,0)=\lim\limits_{y\to 0}\frac{(\partial_yf)(0,y)-(\partial_yf)(0,0)}{y}

Ehhez tehát elegendő kiszámítani a következő föggvényeket: y \mapsto (∂xf)(0,y), x \mapsto (∂yf)(x,0). Ehhez a parciális deriváltak:

\partial_xf(0,y)=\lim\limits_{t\to 0}\frac{f(t,y)-f(0,0)}{t}=\left\{\begin{matrix}
0,& \mbox{ ha }y=0\\
-y,& \mbox{ ha }y\ne 0
\end{matrix}\right.
\partial_yf(x,0)=\lim\limits_{t\to 0}\frac{f(x,t)-f(0,0)}{t}=\left\{\begin{matrix}
0,& \mbox{ ha }x=0\\
x,& \mbox{ ha }x\ne 0
\end{matrix}\right.
\partial_yf(0,y)=\lim\limits_{t\to 0}\frac{f(0,y+t)-f(0,0)}{t}=0
\partial_xf(x,0)=\lim\limits_{t\to 0}\frac{f(x+t,0)-f(0,0)}{t}=0

Megjegyezzük, hogy a g=(∂xf,∂yf) függvény (0,0)-beli parciális deriváltjai nem lehetnek folytonosak, mert ott a függvény nem totálisan diffható. Ugyanis a g Jacobi-mátrixa:

J^g(0,0)=H^f(0,0)=\begin{bmatrix}
0 & -1\\
1 & 0
\end{bmatrix}

ami a 90˚-os forgatás. Ekkor a g-t a (t,0) vektorral közelítve a 0-ba:

\lim\limits_{t\to 0}\frac{g(t,0)-g(0,0)-J^g(0,0)\cdot (t,0)}{|t|}=\lim\limits_{t\to 0}\frac{(0,-t)}{|t|}\ne (0,0)\,

márpedig ha g minden parciális deriváltja folytonos lenne a (0,0)-ban, akkor g totálisan is deriválható lenne.

Többváltozós függvény szélsőértéke

f(x)=f(u)+\mathrm{J}_u^f(x-u)+(x-y)\mathrm{H}^f_u(x-u)+\varepsilon(x)||x-u||^2

Másodikderivált-próba

Kétszer differenciálható függvényre vonatkozóan megfogalmazhatjuk a lokális maximum és minimum létezésének elégséges feltételét. Csak a kétváltozós függvényekkel foglalkozunk. Tegyük fel, hogy grad f(u) = 0 és Hf(u) az f Hesse-mátrixa

  1. ha det Hf(u) > 0 és ∂11f(u) < 0, akkor f-nek u-ban maximuma van
  2. ha det Hf(u) > 0 és ∂11f(u) > 0, akkor f-nek u-ban minimuma van
  3. ha det Hf(u) < 0, akkor f-nek biztosan nincs szélsőértéke, ún. nyeregpontja van
  4. ha det Hf(u) = 0, akkor a próba nem járt sikerrel, azaz további vizsgálatokat igényel annak eldöntése, hogy u szélsőérték hely-e.

Megjegyzések. Mivel kétváltozós esetben

\mathrm{det}\,\mathrm{H}^f(u)=\partial_{11}f(u)\cdot \partial_{22}f(u)-(\partial_{12}f(u))^2

ezért olyan eset nem létezik, hogy det Hf(u) > 0 és ∂11f(u) = 0.

Világos, hogy a második derivált tipikusan azoknál a függvényeknél jár sikerrel, melyeket egy másodfokú függvény közelít a legjobban (aszimptotikusan másodfokúak). Ha a függvény ennél magasabb fokú, akkor a második deriváltak eltűnnek és a Hesse-mártix elfajul (vagy legalább is tipikusan elfajul).

Ha tehát

\mathrm{H}^{f}(u)=\begin{pmatrix}
 A & B \\
 B & C
\end{pmatrix}, akkor \mathrm{det\,H}^{f}(u)=AC - B^2 ,

és így a tipikus példák a következők.

Példák

1. Ha B kicsi, azaz az AC-hez képest kis abszolútrétékű szám, akkor a szélsőérték irányába mozdul el a feladat.

f(x,y)=x^2+xy+y^2\,

Ekkor grad f = ( 2x + y , 2y + x ) és

\mathrm{H}^{f}(x,y)=\begin{pmatrix}
 2 & 1 \\
 1 & 2
\end{pmatrix}

azaz 4 - 1 = 3 > 0 és 2 > 0 miatt minimum.

2. Ha |B| nagy (azaz AC-hez képest nagy), akkor a bizonyosan nemszélsőérték irányába.

f(x,y)=x^2-3xy+y^2\,

Ekkor grad f = ( 2x + -3y , 2y + -3x ) és

\mathrm{H}^{f}(x,y)=\begin{pmatrix}
 2 & -3 \\
 -3 & 2
\end{pmatrix}

azaz 4 - 9 = -5 < 0 miatt nincs szélsőérték: nyeregpont.

3. Negatív A és C-re és kis B-re:

f(x,y)=-x^2+xy-y^2\,

Ekkor grad f = ( -2x + 3y , -2y + 3x ) és

\mathrm{H}^{f}(x,y)=\begin{pmatrix}
 -2 & 1 \\
 1 & -2
\end{pmatrix}

azaz 4 - 1 = 3 > 0 és -2 < 0 miatt maximum.

4. Ha A és C előjele ellenkező, akkor rögtön következik, hogy nincs sz.é.

f(x,y)=x^2+xy-y^2\,

Ekkor grad f = ( 2x + y , -2y + x ) és

\mathrm{H}^{f}(x,y)=\begin{pmatrix}
 2 & 1 \\
 1 & -2
\end{pmatrix}

azaz -4 - 1 = -5 < 0 azaz nyeregpont.

5. Atipikus eset, ha AC = B2. Ekkor nem jár sikerrel a próba:

f(x,y)=x^2+2xy+y^2\,

Ekkor grad f = ( 2x + 2y , 2y + 2x ) és

\mathrm{H}^{f}(x,y)=\begin{pmatrix}
 2 & 2 \\
 2 & 2
\end{pmatrix}

azaz 4 - 4 = 0, azaz határozatlan eset. De tudjuk, hogy

f(x,y)=(x+y)^2\,

ami pontosan akkor minimális, ha x = -y, azaz ezeken a helyeken van szélsőérték.

6.

f(x,y)=3x^2-6xy+2y^3\,

7.

f(x,y)=\sqrt{x^2+y^2}\cdot e^{-\frac{x^2+y^2}{2}}\,
pótló gyakorlat 5. gyakorlat
Személyes eszközök