Matematika A2a 2008/4. gyakorlat

A MathWikiből
(Változatok közti eltérés)
(Lineáris leképezések folytonossága)
(Többváltozós függvény szélsőértéke)
 
(egy szerkesztő 12 közbeeső változata nincs mutatva)
1. sor: 1. sor:
 
:''Ez az szócikk a [[Matematika A2a 2008]] alszócikke.''
 
:''Ez az szócikk a [[Matematika A2a 2008]] alszócikke.''
  
==Lineáris leképezések==
+
==Teljes differenciálhatóság, gyakorlás==
A ''V''<sub>1</sub> és ''V''<sub>2</sub>  vektorterek között ható ''A'' leképezést akkor nevezünk lineárisnak, ha teljesül minden &lambda;, &mu; &isin; '''R''' és '''v''', '''u''' &isin; ''V''<sub>1</sub>
+
:<math>\mathcal{A}(\lambda.\mathbf{v}+\mu.\mathbf{u})=\lambda.\mathcal{A}\mathbf{v}+\mu.\mathcal{A}\mathbf{u}\,</math>
+
  
A definícióból rögtön következik, hogy a nulla vektor képe nulla:
+
'''1.''' Hol deriválható?
 +
:<math>f(x,y)=\sqrt[3]{x^4+y^4}</math>
  
:<math>\mathcal{A}\mathbf{0}_{V_1}=\mathbf{0}_{V_2}</math>
+
'''2.''' Hol deriválható?
 
+
:<math>\begin{cases}
viszont más elem a ''V''<sub>2</sub> nem feltétlenül vétetik föl.
+
\frac{x^2y^3}{x^4+y^4}, & (x,y)\neq (0,0)\\
 
+
0, & (x,y)=(0,0)
Véges dimenziós terek közti lineáris leképezés a bázis választásával egyértelműen jellemezhető az alábbi mátrixszal.
+
\end{cases}
 
+
:<math>[\mathcal{A}]_{B,C} = \begin{bmatrix}
+
\begin{matrix}\vert \\ \vert \\ \mathcal{A}\mathbf{b}_1 \\ \vert \\ \vert \end{matrix}& \begin{matrix}\vert \\ \vert \\ \mathcal{A}\mathbf{b}_2 \\ \vert \\ \vert \end{matrix} & ... & \begin{matrix}\vert \\ \vert \\ \mathcal{A}\mathbf{b}_n \\ \vert \\ \vert \end{matrix}
+
\end{bmatrix} </math>
+
ahol ''B'' = ('''b'''<sub>1</sub>,'''b'''<sub>2</sub>,…,'''b'''<sub>n</sub>) a ''V''<sub>1</sub> egy bázisa, ''C'' az ''V''<sub>2</sub> bázisa, a mátrix oszlopai pedig a ''B'' elemeinek <math>\mbox{ }_\mathcal{A}</math> általi képvektoraiból, mint oszlopvektorokból áll. Ha <math>\mbox{ }_\mathcal{A}</math> ''V'' <math>\rightarrow</math> ''V'' típusú, akkor csak <math>\mbox{ }_{[\mathcal{A}]_B}</math>-t szokás írni, ha pedig pusztán <math>\mbox{ }_{[\mathcal{A}]}</math>-t írnak, akkor az azt jelenti, hogy a  '''R'''<sup>n</sup> ''sztenderd bázis''áról van szó, azaz a
+
:<math>\mbox{ }_{\mbox{ }_{\begin{pmatrix}1\\0\\0\\ \vdots \\0 \end{pmatrix},\;\begin{pmatrix}0\\1\\0\\ \vdots \\0 \end{pmatrix},\;\begin{pmatrix}0\\0\\1\\ \vdots \\0 \end{pmatrix},\;\dots\;,\begin{pmatrix}0\\0\\0\\ \vdots \\1 \end{pmatrix}}}</math>
+
vektorrendszerről.
+
===Példák===
+
'''1.''' Forgatás az origo körül &phi; szöggel:
+
:<math>[\mathcal{F}_\varphi]=\begin{bmatrix}\cos\varphi & -\sin\varphi \\ \sin\varphi & \cos\varphi \end{bmatrix}  
+
 
</math>
 
</math>
  
Világos, hogy ez invertálható leképezés és az inverze a -&phi; szögű forgatás.
+
==Iránymenti deriválhatóság és differenciálhatóság==
 +
Ha e tetszőleges egységvektor, akkor
 +
:<math>\lim\limits_{t\to 0}\frac{f(u+te)-f(u)}{t}=\partial_{e}f(u)=[\mathrm{grad}\,f(u)]\cdot e=[\nabla f(u)]\cdot e</math>
  
'''2.''' Tükrözés a &phi; szőgű egyenesre.
 
:<math>[\mathcal{T}_\varphi]=\begin{bmatrix}\cos(2\varphi) & \sin(2\varphi) \\ \sin(2\varphi) & -\cos(2\varphi) \end{bmatrix}
 
</math>
 
  
Világos, hogy ez is invertálható és inverze saját maga.
+
'''Példa.'''
 +
:<math>f(x,y)=\left\{\begin{matrix}\frac{xy}{\sqrt{x^2+y^2}}& \mbox{, ha }&(x,y)\ne (0,0)\\
 +
0&\mbox{, ha }&(x,y)=(0,0)\end{matrix}\right.</math>
  
Ezek ortogonális transzformációk, azaz a transzponáltjuk az inverzük. Speciálisan a tükrözés szimmetrikus leképezés, mert mátrixa szimmetrikus. Sőt, ezek alkotják a síkon az összes ortogonális transzformációt.
+
Ekkor
 +
:<math>\mathrm{J}^f(0,0)=[0, 0]\,</math>
  
'''3.''' Deriváló operáció. Legyen ''V'' a legfeljebb másodfokú polinomfüggvények tere. Ekkor a
+
Ha tehát differenciálható, akkor az '''iránymenti derivált'''ak (Gateau-deriváltak) is léteznek (e egységvektor):
:<math>\mathcal{D}:f\mapsto f'\,</math>
+
lineáris leképezés:  
+
  
Bázis ''V''-ben: {1, x, x<sup>2</sup>}, ezért a mátrixa:
+
:<math>\partial_ef(u)=\lim\limits_{t\to 0}\frac{f(u+te)-f(u)}{t}=\mathrm{J}^f(0,0)\cdot e=e\cdot\mathrm{grad}\,f(u)</math>
:<math>[\mathcal{D}]=
+
\begin{bmatrix}  
+
0 & 1 & 0 \\
+
0 & 0 & 2\\
+
0 & 0 & 0
+
\end{bmatrix} </math>
+
Világos, hogy a leképezés képzere nem a teljes ''V'', hanem annak egy altere (a legfeljebb elsőfokú polinomfüggvények tere) és nem csak a 0 polinom képe 0, hanem minden konstans polinomé.
+
  
===Képtér, magtér===
+
Ám, polárkoordinátákra áttérve:
''A'' magtere:
+
:<math>f(x(r,\varphi),y(r,\varphi))=\frac{r^2\cos\varphi\sin\varphi}{r}=r\cos\varphi\sin\varphi=r\cdot \frac{1}{2}\sin 2\varphi</math>  
:<math>\mathrm{Ker}(\mathcal{A})=_{\mathrm{def}}\{v\in \mathbf{R}^n\mid \mathcal{A}v=0\}</math>
+
&phi; = &pi;/4-et és &pi; + &pi;/4-et véve a vetületfüggvény a
Ez tényleg altér, mert ha '''v'', '''u'' &isin; Ker(''A''), akkor ''A'' '''v'''=''A'' '''u''' = '''0''' és
+
:<math>t\mapsto\frac{1}{2}|t|</math>,
:<math>\mathcal{A}(\lambda.\mathbf{v}+\mu.\mathbf{u})=\lambda.\mathcal{A}\mathbf{v}+\mu.\mathcal{A}\mathbf{u}=\lambda.\mathbf{0}+\mu.\mathbf{0}=\mathbf{0}</math>
+
ami nem differenciálható a 0-ban.
A magtér az ''A'' injektivitásával van kapcsolatban. ''A'' injektív, ha
+
:<math>\mathcal{A}\mathbf{v}=\mathcal{A}\mathbf{u}\quad\Rightarrow\quad \mathbf{v}=\mathbf{u}</math>
+
Azaz minden '''v''' - '''u''' alakú vektorra:
+
:<math>\mathcal{A}(\mathbf{v}-\mathbf{u})=\mathbf{0}\quad\Rightarrow\quad \mathbf{v}-\mathbf{u}=\mathbf{0}</math>
+
de minden vektor  '''v''' - '''u''' alakú, ezért ez pontosan azt jelenti, hogy Ker(''A'')={0} a triviális altér.
+
  
''A'' képtere:
+
Illetve nézzük meg a (3,4) vektor mentén!
:<math>\mathrm{Im}(\mathcal{A})=_{\mathrm{def}}\{\mathcal{A}\mathbf{v}\in V_2\mid \mathbf{v}\in V_1\}=\{\mathbf{u}\in V_2\mid \exist \mathbf{v}\in V_1\quad \mathcal{A}\mathbf{v}=\mathbf{u}\}</math>
+
Ez szintén altér, mert ha vesszük két képtérbeli elem lineáris kombinációját, akkor szintén valamilyen elem képe.
+
:<math>\lambda.\mathcal{A}\mathbf{v}+\mu.\mathcal{A}\mathbf{u}=\mathcal{A}(\lambda.\mathbf{v}+\mu.\mathbf{u})</math>
+
Ez a szűrjektivitással van kapcsolatban. ''A'' szűrjektív, ha
+
:<math>\forall \mathbf{u}\in V_2\quad\exist \mathbf{v}\in V_1\quad\mathcal{A}\mathbf{v}=\mathbf{u}\,</math>
+
márpedig  Im(''A'')=V<sub>2</sub> pontosan azt jelenti, hogy az érkezési halmaz minden vektora előáll képként.
+
  
A két altér dimenziója között szoros kapcsolat van:
+
'''Megjegyzés.''' Persze abból, hogy az összes iránymenti derivált létezik, abból nem következik, hogy a függvény totálisan deriválható.
  
'''Dimenziótétel'''. Ha ''A'' : <math>V_1</math> <math>\to</math> <math>V_2</math> véges dimenziós terek között ható lineáris leképezés, akkor
+
==Szélsőérték szükséges feltétele==
:<math>\mathrm{dim}\,\mathrm{Ker}(\mathbf{A}) + \mathrm{dim}\,\mathrm{Im}(\mathbf{A}) = n</math>
+
  
''Bizonyítás.'' Azt kell belátnunk, hogy Ker(''A'') egy bázisának száma + Im(''A'') egy bázisának száma = <math>V_1</math> egy bázisának száma. Legyen dim <math>V_1</math> = n és dim Ker(''A'') = k. Rögzítsük Ker(''A'') egy
+
Egyelőre állapodjunk meg abban, hogy gradiensnek nevezzük a következő többváltozós vektorértékű függvényt: ha  ''f'': '''R'''<sup>n</sup> <math>\supset\!\to</math> '''R''' parciálisan differenciálható, akkor
:<math>B=\{b_1,...,b_k\}\,</math>
+
:<math>\mathrm{grad}\,f(x)=(\partial_1f(x),...,\partial_nf(x))</math>
bázisát. Világos, hogy dim ''A''(<nowiki><B></nowiki>) = {0}, ezért a képtér nemnulla pontjaiba csak úgy juthatunk, ha <nowiki><B></nowiki>-n kívüli elemet választunk -- válasszunk annyit, mely az egész <math>V_1</math>-et generálja, egészítsük ki B-t a <math>V_1</math> egy bázisává a C halmaz hozzávételével:
+
mely lényegében az ''f'' elsőrendű parciális deriváltjaiból képezett vektor.
:<math>B\cup C=\{b_1,...,b_k,c_1,...,c_l\}\,</math>
+
  
Ezek speciális tulajdonsága, hogy
+
Később a gradienst egy kissé másképp fogjuk értelmezni és amit most definiáltunk, az a gradiens sztenderd bázisbeli mátrixa lesz (adott pontra vonatkozóan).
  
:<math>\langle B\rangle\oplus \langle C\rangle=V_1</math>
 
  
azaz közösen kifeszítik a <math>V_1</math>-et és a kifeszített alterek közös része a {0}. Ugyanis, ha '''v''' &isin; <nowiki><B></nowiki>&cap;<nowiki><C></nowiki>, akkor
+
'''Tétel''' - ''Fermat-féle szésőértéktétel'' - Legyen ''f'': '''R'''<sup>n</sup> <math>\supset\!\to</math> '''R''', ''u'' &isin; int Dom(''f''), ''f''  parciálisan differenciálható ''u''-ban.
 +
:Ha ''u''-ban ''f''-nek (lokális) szélsőértéke van, akkor
 +
::<math>\mathrm{grad}\,f(u)=0_{\mathbf{R}^n}\,</math>  
 +
''U.is:'' minden ''i''-re az ''i''-edik parciális függvénynek szélsőértéke van ''u''<sub>i</sub>-ben, így az egyváltozós Fermat-tétel miatt ezeknek a deriváltja ''u''<sub>i</sub>-ben 0, így a gradiens értéke 0.
  
:<math>\mathbf{v}=\lambda_1b_1+\lambda_2b_2+...+\lambda_kb_k</math>  
+
====Példa====
és
+
:<math>f(x,y)=x^2y^2\,</math>
:<math>\mathbf{v}=\mu_1c_1+\mu_2c_2+...+\mu_lc_l</math>
+
Ennek gradiense:
akkor ezeket kivonva:
+
:<math>\mathrm{grad}\,f(x,y)=(2xy^2,2yx^2)</math>
:<math>\mathbf{0}=\lambda_1b_1+\lambda_2b_2+...+\lambda_kb_k-\mu_1c_1-\mu_2c_2-...-\mu_lc_l</math>
+
Az
Amiből a BUC függetlensége miatt következik:
+
:<math>\left.
:<math>0=\lambda_1=\lambda_2=...=\lambda_k=\mu_1=\mu_2=...=\mu_l</math>
+
\begin{matrix}  
 +
\mathrm{I.} & 2xy^2 & = & 0\\
 +
\mathrm{II.} & 2yx^2 & = & 0\\
 +
\end{matrix}
 +
\right\}</math>
 +
egyenletrendszer megoldásai: ''x'' = 0, ''y'' tetszőleges ill. ''y'' = 0 és ''x'' tetszőleges. A szélsőértékek helyei csak ezek közül kerülhetnek ki és ezek valóban szélsőértékek is, mert ezeken a függvény 0-t vesz fel, ami a lehetséges legkisebb értéke.
  
 +
==Magasabbrendű parciális deriváltak==
 +
Ha ''f'' parciálisan deriválható, akkor &part;<sub>1</sub>''f'' és &part;<sub>2</sub>''f'' szintén kétváltozós függvények (a pontonként a deriváltak, mint függvényértékek értelmezésével) és érdeklődhetünk ezek parciális differenciálhatóságuk iránt. Például:
  
Ekkor a D={ ''A''c<sub>1</sub>, ''A''c<sub>2</sub>, ...,''A''c<sub>''l''</sub> } vektorrendszer bázisa lesz Im(''A'')-nak. Ugyanis
+
:<math>f(x,y)=x^2y^4+x^5-y^3\,</math>
  
 +
:<math>\partial_xf(x,y)=xy^4+5x^4</math>
 +
:<math>\partial_yf(x,y)=x^24y^3-3y^2</math>
  
1. D kifeszíti Im(''A'')-t.  Egy
+
:<math>\partial_x(\partial_xf)(x,y)=y^4+20x^3</math>  
:<math>u=\lambda_1b_1+\lambda_2b_2+...+\lambda_kb_k+\mu_1c_1+\mu_2c_2+...+\mu_lc_l\,</math>
+
:<math>\partial_y(\partial_yf)(x,y)=12x^2y^2-6y^2</math>  
elemmel:
+
:<math>\partial_y(\partial_xf)(x,y)=x4y^3</math>  
:<math>\mathcal{A}u=\mathcal{A}(\lambda_1b_1+\lambda_2b_2+...+\lambda_kb_k+\mu_1c_1+\mu_2c_2+...+\mu_lc_l)=</math>
+
:<math>\partial_x(\partial_yf)(x,y)=4xy^3</math>
:<math>=\mathcal{A}(\lambda_1b_1+\lambda_2b_2+...+\lambda_kb_k)+\mathcal{A}(\mu_1c_1+\mu_2c_2+...+\mu_lc_l)=</math>
+
:<math>=0+\mu_1.\mathcal{A}c_1+\mu_2.\mathcal{A}c_2+...+\mu_l.\mathcal{A}c_l</math>
+
2. D lineárisan független. Ha ugyanis
+
:<math>\nu_1\mathcal{A}c_1+\nu_2\mathcal{A}c_2+...+\nu_l\mathcal{A}c_l=0</math>
+
akkor
+
:<math>\mathcal{A}(\nu_1.c_1+\nu_2.c_2+...+\nu_l.c_l)=0</math>
+
azaz
+
:<math>\nu_1.c_1+\nu_2.c_2+...+\nu_l.c_l\in Ker(\mathcal{A})\cap \langle C\rangle=\{0\}</math>
+
:<math>0=\nu_1=\nu_2=...=\nu_l\,</math>
+
===Főtengelytétel===
+
Az '''R'''<sup>n</sup> <math>\to</math> '''R'''<sup>n</sup> leképezést szimmetrikusnak nevezünk, ha a szenderd bázisban szimmetrikus a mátrixa. Ekkor minden ortonormált bázisban is szimmetrikus lesz a mártixa. Ezek között a bázisok között az átváltó mátrix ortogonális, azaz
+
:<math>O\cdot O^{\mathrm{T}}=I</math>
+
Értelmezhető leképezés transzponáltja is, mert ortnormált bázisok közötti átváltás invariáns a transzponálásra. Általában az átváltott mátrix:
+
:<math>TAT^{-1}\,</math>
+
alakú. Ortogonális transzformáció esetén pedig
+
:<math>(OAO^{\mathrm{T}})^{\mathrm{T}}=(O^\mathrm{T})^\mathrm{T}(OA)^{\mathrm{T}}=OA^{\mathrm{T}}O^{\mathrm{T}}\,</math>
+
Ekkor a szimmetria pont azt jelenti, hogy ''A''=''A''<sup>T</sup>.
+
  
'''Főtengelytétel.''' Szimmetrikus leképezés sajátvektoraiból ortonormált bázis alkotható csupa valós sajátértékekkel.
+
És valóban:
  
==Lineáris leképezések folytonossága==
+
'''Tétel.''' (Young-tétel) Ha a másodrendű parciális deriváltak léteznek az ''u'' egy  környezetében és folytonosak az ''u'' pontban, akkor az ''u''-beli vegyes másodrendű parciláis deriváltak egyenlőek:
'''Megjegyzés.''' A normált terek között ható ''A'' lineáris leképezés folytonos, ha a 0-ban folytonos.
+
:<math>\partial_x(\partial_y f)(u)=\partial_y(\partial_x f)(u)</math>
  
''Ugyanis, '' legyen az ''A'': <math>N_1</math> <math>\to</math> <math>N_2</math> lineáris leképezés és tegyük fel, hogy 0-ban folytonos, azaz minden &epsilon;>0-ra létezik &delta;>0, hogy minden ''x'' &isin; B<sub>&delta;</sub>(0)-ra ''Ax'' &isin; B<sub>&epsilon;</sub>(0).
+
Azaz az alábbi, úgy nevezett Hesse-mátrix szimmetrikus:
 +
:<math>H^f(u)=\begin{bmatrix}
 +
\cfrac{\partial^2 f(u)}{\partial x^2} & \cfrac{\partial^2 f(u)}{\partial y\partial x}\\\\
 +
\cfrac{\partial^2 f(u)}{\partial x\partial y} & \cfrac{\partial^2 f(u)}{\partial y^2}
 +
\end{bmatrix}</math>
  
Most ha &epsilon; > 0 tetszőleges és <math>x_1</math> és <math>x_2</math> <math>N_1</math>-beliek is tetszőlegesek, akkor
+
'''Feladat.''' Az a kitétel, hogy az ''u''-ban a másodrenrű parciláis deriváltak folytonosak, nem hagyható el, ugyanis. Legyen
: <math>||\mathcal{A}x_1-\mathcal{A}x_2||=||\mathcal{A}(x_1-x_2)||\leq\varepsilon</math>
+
:<math>f(x,y)=\left\{\begin{matrix}
amennyiben <math>x_1</math>-<math>x_2</math> &isin; B<sub>&delta;</sub>(0), ahol &delta; a 0-beli folytonosság által az &epsilon;-hoz tartozó &delta;.
+
0,& \mbox{ ha }(x,y)=(0,0)\\
 +
\frac{xy(x^2-y^2)}{x^2+y^2},& \mbox{ ha }(x,y)\ne(0,0)
 +
\end{matrix}\right.</math>
 +
Ekkor a 0-ban nem egyenlő a két vegyes parciális derivált.
  
'''Tétel.''' ''A'' : '''R'''<sup>n</sup> <math>\to</math> '''R'''<sup>m</sup> lineáris leképzés folytonos, sőt:
+
Tekintsük a parciális deriváltakat:
:<math>\exists L\geq 0\quad\forall x\in \mathbf{R}^n\quad||\mathcal{A}(x)||\leq L||x||</math>  
+
:<math>\partial_x(\partial_yf)(0,0)=\lim\limits_{x\to 0}\frac{(\partial_yf)(x,0)-(\partial_yf)(0,0)}{x}</math>
 +
:<math>\partial_y(\partial_xf)(0,0)=\lim\limits_{y\to 0}\frac{(\partial_xf)(0,y)-(\partial_xf)(0,0)}{y}</math>
 +
:<math>\partial_x(\partial_xf)(0,0)=\lim\limits_{x\to 0}\frac{(\partial_xf)(x,0)-(\partial_xf)(0,0)}{x}</math>
 +
:<math>\partial_y(\partial_yf)(0,0)=\lim\limits_{y\to 0}\frac{(\partial_yf)(0,y)-(\partial_yf)(0,0)}{y}</math>
 +
Ehhez tehát elegendő kiszámítani a következő föggvényeket: y <math>\mapsto</math> (&part;<sub>x</sub>f)(0,y), x <math>\mapsto</math> (&part;<sub>y</sub>f)(x,0). Ehhez a parciális deriváltak:
 +
:<math>\partial_xf(0,y)=\lim\limits_{t\to 0}\frac{f(t,y)-f(0,0)}{t}=\left\{\begin{matrix}
 +
0,& \mbox{ ha }y=0\\
 +
-y,& \mbox{ ha }y\ne 0
 +
\end{matrix}\right.</math>
 +
:<math>\partial_yf(x,0)=\lim\limits_{t\to 0}\frac{f(x,t)-f(0,0)}{t}=\left\{\begin{matrix}
 +
0,& \mbox{ ha }x=0\\
 +
x,& \mbox{ ha }x\ne 0
 +
\end{matrix}\right.</math>
 +
:<math>\partial_yf(0,y)=\lim\limits_{t\to 0}\frac{f(0,y+t)-f(0,0)}{t}=0</math>
 +
:<math>\partial_xf(x,0)=\lim\limits_{t\to 0}\frac{f(x+t,0)-f(0,0)}{t}=0</math>
  
'''Megjegyzés.''' Ez azt is jelenti, hogy egy ilyen leképezés Lipschitz-függvény. Az ''f'': '''R'''<sup>n</sup> &sup;<math>\to</math> '''R'''<sup>m</sup> függvényt Lipschitz-függvénynek nevezük, ha létezik L nemnegatív szám, hogy minden  <math>x_1</math> és <math>x_2</math> Dom(''f'')-belire:
+
Megjegyezzük, hogy a g=(&part;<sub>x</sub>f,&part;<sub>y</sub>f) függvény (0,0)-beli parciális deriváltjai nem lehetnek folytonosak, mert ott a függvény nem totálisan diffható. Ugyanis a g Jacobi-mátrixa:
:<math>||f(x_1)-f(x_2)||\leq L||x_1-x_2||</math>
+
:<math>J^g(0,0)=H^f(0,0)=\begin{bmatrix}
Világos, hogy ez lineáris leképezésre ekvivalens a tételbeli megfogalmazással.
+
0 & -1\\
 +
1 & 0
 +
\end{bmatrix}</math>
 +
ami a 90˚-os forgatás. Ekkor a g-t a (t,0) vektorral közelítve a 0-ba:
 +
:<math>\lim\limits_{t\to 0}\frac{g(t,0)-g(0,0)-J^g(0,0)\cdot (t,0)}{|t|}=\lim\limits_{t\to 0}\frac{(0,-t)}{|t|}\ne (0,0)\,</math>
 +
márpedig ha g minden parciális deriváltja folytonos lenne a (0,0)-ban, akkor g totálisan is deriválható lenne.
  
Ha lipschitzes, akkor pedig folytonos, mert ekkor &delta;=&epsilon;/(L+1)-gyel
+
==Többváltozós függvény szélsőértéke==
  
:<math>|f(x)-f(0)|\leq L|x|<L\delta=L\frac{\varepsilon}{L+1}<\varepsilon.</math>
+
:<math>f(x)=f(u)+\mathrm{J}_u^f(x-u)+(x-y)\mathrm{H}^f_u(x-u)+\varepsilon(x)||x-u||^2</math>
 +
===Másodikderivált-próba===
 +
Kétszer differenciálható függvényre vonatkozóan megfogalmazhatjuk a  lokális maximum és minimum létezésének elégséges feltételét. Csak a kétváltozós függvényekkel foglalkozunk. Tegyük fel, hogy grad ''f''(u) = 0 és H<sup>f</sup>(u) az ''f'' Hesse-mátrixa
 +
# ha det H<sup>f</sup>(u) > 0 és &part;<sub>11</sub>''f''(''u'') < 0, akkor ''f''-nek ''u''-ban '''maximuma''' van
 +
# ha det H<sup>f</sup>(u) > 0 és &part;<sub>11</sub>''f''(''u'') > 0, akkor ''f''-nek ''u''-ban '''minimuma''' van
 +
# ha det H<sup>f</sup>(u) < 0, akkor ''f''-nek biztosan nincs szélsőértéke, ún. '''nyeregpont'''ja van
 +
# ha det H<sup>f</sup>(u) = 0, akkor a próba nem járt sikerrel, azaz további vizsgálatokat igényel annak eldöntése, hogy ''u'' szélsőérték hely-e.
  
 +
''Megjegyzések.'' Mivel kétváltozós esetben
 +
:<math>\mathrm{det}\,\mathrm{H}^f(u)=\partial_{11}f(u)\cdot \partial_{22}f(u)-(\partial_{12}f(u))^2</math>
 +
ezért olyan eset nem létezik, hogy det H<sup>f</sup>(u) > 0 és &part;<sub>11</sub>''f''(''u'') = 0.
  
''Bizonyítás.'' Vegyük az ''A'' sztenderd bázis beli mátrixát. Ekkor ''A''('''x''')='''A'''<math>\cdot</math>'''x'''. Így '''A''' minden '''A'''<sub>i</sub> sorára
+
Világos, hogy a második derivált tipikusan azoknál a függvényeknél jár sikerrel, melyeket egy másodfokú függvény közelít a legjobban (aszimptotikusan másodfokúak). Ha a függvény ennél magasabb fokú, akkor a második deriváltak eltűnnek és a Hesse-mártix elfajul (vagy legalább is tipikusan elfajul).  
: <math>|\mathbf{A}_i\mathbf{x}|=|\sum\limits_{j=1}^{n}\mathbf{A}_{ij}x_j|\leq\sum\limits_{j=1}^{n}|\mathbf{A}_{ij}x_j| \leq L_i\sum\limits_{j=1}^{n}|x_j|</math>
+
ahol <math>L_i</math> rögzített i mellett a {|'''A'''<sub>i,j</sub>|} <sub>j=1...n</sub> számok maximuma. Ha most vesszük L = max {<math>L_i</math>}-t is, akkor
+
Ha tehát
: <math>||\mathcal{A}\mathbf{x}||_\max=\max_{i=1...m}|\mathbf{A}_i\mathbf{x}|\leq L\sum\limits_{j=1}^{n}|x_j|=L\cdot ||\mathbf{x}||_{p=1}</math>
+
:<math>\mathrm{H}^{f}(u)=\begin{pmatrix}
is teljesül, azaz a kép maximumnormája felülbecsülhető L-szer a vektor norma-1 szerinti normájával. A normák ekvivalenciája miat pedig alkalmas L-re minden normára igaz.
+
A & B \\
 +
B & C
 +
\end{pmatrix}</math>, akkor <math>\mathrm{det\,H}^{f}(u)=AC - B^2 </math>,
 +
és így a tipikus példák a következők.
  
===Operátornorma===
+
====Példák====
  
A lineáris leképezések Lin('''R'''<sup>n</sup>,'''R'''<sup>m</sup>) tere normált tér, ugyanis vegyük a következő számot:
+
'''1.''' Ha B kicsi, azaz az AC-hez képest kis abszolútrétékű szám, akkor a szélsőérték irányába mozdul el a feladat.
:<math>||\mathcal{A}||_{op}=_{\mathrm{def}}\sup_{\mathbf{x}\ne 0}\frac{||\mathcal{A}\mathbf{x}||}{||\mathbf{x}||}=\sup_{||\mathbf{x}||=1}||\mathcal{A}\mathbf{x}||</math>
+
:<math>f(x,y)=x^2+xy+y^2\,</math>
Ez létezik, mivel x <math>\mapsto</math> ||''A''x|| folytonos a kompakt 0 középpontú, egységsugarú gömbfelületen.
+
==Differenciálhatóság==
+
A többváltozós differenciálhatóságot az egyváltozós alábbi átfogalmazásából általánosítjuk:
+
  
:<math>\lim\limits_{x\to u}\frac{f(x)-f(u)-m(x-u)}{|x-u|}=0</math>
+
Ekkor grad ''f'' = ( 2x + y , 2y + x ) és 
:<math>\lim\limits_{x\to u+}\frac{f(x)-f(u)-m(x-u)}{x-u}=0\quad\wedge\quad\lim\limits_{x\to u-}\frac{f(x)-f(u)-m(x-u)}{-(x-u)}=0</math>
+
:<math>\mathrm{H}^{f}(x,y)=\begin{pmatrix}
:<math>\lim\limits_{x\to u+}\left(\frac{f(x)-f(u)}{x-u}-m\right)=0,\quad\wedge\quad\lim\limits_{x\to u-}-\left(\frac{f(x)-f(u)}{x-u}-m\right)=0</math>
+
2 & 1 \\
:<math>\lim\limits_{x\to u+}\frac{f(x)-f(u)}{x-u}=m,\quad\wedge\quad\lim\limits_{x\to u-}-\frac{f(x)-f(u)}{x-u}=-m</math>
+
1 & 2
:<math>\lim\limits_{x\to u}\frac{f(x)-f(u)}{x-u}=m</math>
+
\end{pmatrix}</math>
 +
azaz 4 - 1 = 3 > 0 és 2 > 0 miatt minimum.
  
 +
'''2.''' Ha |B| nagy (azaz AC-hez képest nagy), akkor a bizonyosan nemszélsőérték irányába.
 +
:<math>f(x,y)=x^2-3xy+y^2\,</math>
  
'''Definíció.''' Legyen ''f'': '''R'''<sup>n</sup> <math>\supset\!\longrightarrow</math> '''R'''<sup>m</sup> és ''u'' &isin; int Dom(f). Azt mondjuk, hogy ''f'' '''differenciálható''' az ''u'' pontban, ha létezik olyan ''A'': '''R'''<sup>n</sup> <math>\to</math> '''R'''<sup>m</sup> lineáris leképezés, hogy
+
Ekkor grad ''f'' = ( 2x + -3y , 2y + -3x ) és 
:<math>\lim\limits_{x\to u}\frac{f(x)-f(u)-\mathcal{A}(x-u)}{||x-u||_{\mathbf{R}^n}}=0_{\mathbf{R}^m}</math>
+
:<math>\mathrm{H}^{f}(x,y)=\begin{pmatrix}
Ekkor ''A'' egyértelmű és az ''f'' leképezés ''u''-bent beli '''differenciál'''jának  nevezzük és d''f''(''u'')-val vagy D''f''(u)-val jelöljük. Ezt a fogalmat néha ''teljes differenciál''nak, ''totális differenciál''nak vagy ''Fréchet-derivált''nak is mondjuk.
+
2 & -3 \\
 +
-3 & 2
 +
\end{pmatrix}</math>
 +
azaz 4 - 9 = -5 < 0 miatt nincs szélsőérték: nyeregpont.
  
'''Megjegyzés.''' A fenti határérték 0 volta egyenértékű a következő kijelentéssel. Létezik ''A''': ''R'''<sup>n</sup> <math>\to</math> '''R'''<sup>m</sup> lineáris leképezés és &epsilon;: Dom(''f'') <math>\to</math> '''R'''<sup>m</sup> függvény, melyre:
+
'''3.''' Negatív A és C-re és kis B-re:
: &epsilon; folytonos u-ban és &epsilon;(u)=0, továbbá
+
:<math>f(x,y)=-x^2+xy-y^2\,</math>
minden ''x'' &isin; Dom(''f'')-re:
+
: <math>f(x)=f(u)+\mathcal{A}(x-u)+\varepsilon(x)||x-u||</math>
+
'''Megjegyzés.''' Azt, hogy ''A'' egyértelmű, a következőkkel bizonyíthatjuk. Legyen ''A'' és ''B'' is a mondott tulajdonságú, azaz létezzenek &epsilon; és &eta; az ''u''-ban eltűnő és ott folytonos Dom(''f'')-en értelmezett függvények, melyekre teljesül, hogy minden ''x'' &isin; Dom(''f'')-re
+
:<math>f(x)=f(u)+\mathcal{A}(x-u)+\varepsilon(x)||x-u||</math>
+
:<math>f(x)=f(u)+\mathcal{B}(x-u)+\eta(x)||x-u||</math>
+
ezeket kivonva egymásból és használva '''minden''' ''x''-re:
+
:<math>(\mathcal{A}-\mathcal{B})(x-u)+(\varepsilon(x)-\eta(x))||x-u||=0</math>
+
így minden x = u + ty értékre is az azonosan nullát kapjuk, ha t pozitív szám, y pedig rögzített nemnulla vektor, azaz minden t-re
+
:<math>(\mathcal{A}-\mathcal{B})ty+(\varepsilon(u+ty)-\eta(u+ty))||ty||=0</math>
+
az azonosan 0 függény határértéke t<math>\to</math> 0 esetén szintén nulla:
+
:<math> 0=\lim\limits_{t\to 0}\frac{(\mathcal{A}-\mathcal{B})(ty)+(\varepsilon(u+ty)-\eta(u+ty))||ty||}{t}=(\mathcal{A}-\mathcal{B})y</math>
+
hiszen t-t kiemelhetünk és egyszerűsíthetünk és t<math>\to</math> 0 esetén
+
&epsilon; és &eta; nullává válik.
+
Ez viszont pont azt jelenti, hogy a két lineéris operátor azonosan egyenlő.
+
  
==Jacobi-mátrix==
+
Ekkor grad ''f'' = ( -2x + 3y , -2y + 3x ) és 
A d''f''(''u'') lineáris leképezés (<math>e_1</math>,<math>e_2</math>,...,<math>e_n</math>) szetenderd bázisbeli mátrixa legyen: [d''f''(''u'')] = '''A'''. Vizsgáljuk mibe viszi a bázisokat d''f''(''u'') leképezés!
+
:<math>\mathrm{H}^{f}(x,y)=\begin{pmatrix}
 +
-2 & 1 \\
 +
1 & -2
 +
\end{pmatrix}</math>
 +
azaz 4 - 1 = 3 > 0 és -2 < 0 miatt maximum.
  
Írjuk fel a definíciót, de az <math>e_1</math> egységvektor mentén tartsunk ''u''-hoz: ''x'' = ''u'' + ''t''<math>e_1</math>. Ekkor
+
'''4.''' Ha A és C előjele ellenkező, akkor rögtön következik, hogy nincs sz.é.
:<math>x-u=te_1\,</math>
+
:<math>f(x,y)=x^2+xy-y^2\,</math>
ami azért hasznos, mert a
+
:<math>\mathcal{A}(x-u)=\mathcal{A}(te_1)\,</math>
+
alakból kiemelhetó t:
+
:<math>0=\lim\limits_{t\to 0}\frac{f(u+te_1)-f(u)-\mathcal{A}(te_1)}{t}=</math>
+
:::<math>=\lim\limits_{t\to 0}\frac{f(u+te_1)-f(u)-t.\mathcal{A}(e_1)}{t}=</math>
+
:::<math>=-\mathcal{A}(e_1)+\lim\limits_{t\to 0}\frac{f(u+te_1)-f(u)}{t}</math>
+
azaz
+
:<math>\mathcal{A}(e_1)=\lim\limits_{t\to 0}\frac{f(u+te_1)-f(u)}{t}=\partial_1 f(u)</math>
+
vagyis ''f'' koordinátafüggvényeinek az első változó szerinti parciális deriváltja az ''u'' pontban. A többi oszlopvektor ugyanígy:
+
 
+
:<math>[\mathrm{d}f(u)]=\mathbf{J}^f(u)=\begin{bmatrix}
+
\partial_1 f_1(u) & \partial_2 f_1(u) & \dots & \partial_n f_1(u)\\
+
\partial_1 f_2(u) & \partial_2 f_2(u) & \dots & \partial_n f_2(u)\\
+
\vdots            &    \vdots        &  \ddots    & \vdots \\
+
\partial_1 f_m(u) & \partial_2 f_m(u) & \dots & \partial_n f_m(u)\\
+
\end{bmatrix}</math>
+
amelyet '''Jacobi-mátrix'''nak nevezünk.
+
  
'''Következmény.''' Tehát. ha f totálisan differenciálható, akkor parciálisan is differenciálható és a differenciál sztenderd bázisbeli mátrixa a Jacobi-mátrix.
+
Ekkor grad ''f'' = ( 2x + y , -2y + x ) és  
 +
:<math>\mathrm{H}^{f}(x,y)=\begin{pmatrix}
 +
2 & 1 \\
 +
1 & -2
 +
\end{pmatrix}</math>
 +
azaz -4 - 1 = -5 < 0 azaz nyeregpont.
  
Azaz:
+
'''5.''' Atipikus eset, ha  AC = B<sup>2</sup>. Ekkor nem jár sikerrel a próba:  
:'''teljes''' differenciálhatóság <math>\Longrightarrow</math> '''parciális''' differenciálhatóság
+
:<math>f(x,y)=x^2+2xy+y^2\,</math>
de ez fordítva már nem igaz:
+
: '''parciális''' differenciálhatóság <math>\not\Rightarrow</math> '''teljes''' differenciálhatóság
+
Erre vonatkozik a két alábbi példa.
+
  
 +
Ekkor grad ''f'' = ( 2x + 2y , 2y + 2x ) és 
 +
:<math>\mathrm{H}^{f}(x,y)=\begin{pmatrix}
 +
2 & 2 \\
 +
2 & 2
 +
\end{pmatrix}</math>
 +
azaz 4 - 4 = 0, azaz határozatlan eset.
 +
De tudjuk, hogy
 +
:<math>f(x,y)=(x+y)^2\,</math>
 +
ami pontosan akkor minimális, ha x = -y, azaz ezeken a helyeken van szélsőérték.
  
 +
'''6.'''
  
 +
:<math>f(x,y)=3x^2-6xy+2y^3\,</math>
  
 +
'''7.'''
  
 +
:<math>f(x,y)=\sqrt{x^2+y^2}\cdot e^{-\frac{x^2+y^2}{2}}\,</math>
  
 
<center>
 
<center>

A lap jelenlegi, 2017. február 27., 11:49-kori változata

Ez az szócikk a Matematika A2a 2008 alszócikke.

Tartalomjegyzék

Teljes differenciálhatóság, gyakorlás

1. Hol deriválható?

f(x,y)=\sqrt[3]{x^4+y^4}

2. Hol deriválható?

\begin{cases}
\frac{x^2y^3}{x^4+y^4}, & (x,y)\neq (0,0)\\
0, & (x,y)=(0,0) 
\end{cases}

Iránymenti deriválhatóság és differenciálhatóság

Ha e tetszőleges egységvektor, akkor

\lim\limits_{t\to 0}\frac{f(u+te)-f(u)}{t}=\partial_{e}f(u)=[\mathrm{grad}\,f(u)]\cdot e=[\nabla f(u)]\cdot e


Példa.

f(x,y)=\left\{\begin{matrix}\frac{xy}{\sqrt{x^2+y^2}}& \mbox{, ha }&(x,y)\ne (0,0)\\
0&\mbox{, ha }&(x,y)=(0,0)\end{matrix}\right.

Ekkor

\mathrm{J}^f(0,0)=[0, 0]\,

Ha tehát differenciálható, akkor az iránymenti deriváltak (Gateau-deriváltak) is léteznek (e egységvektor):

\partial_ef(u)=\lim\limits_{t\to 0}\frac{f(u+te)-f(u)}{t}=\mathrm{J}^f(0,0)\cdot e=e\cdot\mathrm{grad}\,f(u)

Ám, polárkoordinátákra áttérve:

f(x(r,\varphi),y(r,\varphi))=\frac{r^2\cos\varphi\sin\varphi}{r}=r\cos\varphi\sin\varphi=r\cdot \frac{1}{2}\sin 2\varphi

φ = π/4-et és π + π/4-et véve a vetületfüggvény a

t\mapsto\frac{1}{2}|t|,

ami nem differenciálható a 0-ban.

Illetve nézzük meg a (3,4) vektor mentén!

Megjegyzés. Persze abból, hogy az összes iránymenti derivált létezik, abból nem következik, hogy a függvény totálisan deriválható.

Szélsőérték szükséges feltétele

Egyelőre állapodjunk meg abban, hogy gradiensnek nevezzük a következő többváltozós vektorértékű függvényt: ha f: Rn \supset\!\to R parciálisan differenciálható, akkor

\mathrm{grad}\,f(x)=(\partial_1f(x),...,\partial_nf(x))

mely lényegében az f elsőrendű parciális deriváltjaiból képezett vektor.

Később a gradienst egy kissé másképp fogjuk értelmezni és amit most definiáltunk, az a gradiens sztenderd bázisbeli mátrixa lesz (adott pontra vonatkozóan).


Tétel - Fermat-féle szésőértéktétel - Legyen f: Rn \supset\!\to R, u ∈ int Dom(f), f parciálisan differenciálható u-ban.

Ha u-ban f-nek (lokális) szélsőértéke van, akkor
\mathrm{grad}\,f(u)=0_{\mathbf{R}^n}\,

U.is: minden i-re az i-edik parciális függvénynek szélsőértéke van ui-ben, így az egyváltozós Fermat-tétel miatt ezeknek a deriváltja ui-ben 0, így a gradiens értéke 0.

Példa

f(x,y)=x^2y^2\,

Ennek gradiense:

\mathrm{grad}\,f(x,y)=(2xy^2,2yx^2)

Az

\left.
\begin{matrix} 
\mathrm{I.} & 2xy^2 & = & 0\\
\mathrm{II.} & 2yx^2 & = & 0\\
\end{matrix}
\right\}

egyenletrendszer megoldásai: x = 0, y tetszőleges ill. y = 0 és x tetszőleges. A szélsőértékek helyei csak ezek közül kerülhetnek ki és ezek valóban szélsőértékek is, mert ezeken a függvény 0-t vesz fel, ami a lehetséges legkisebb értéke.

Magasabbrendű parciális deriváltak

Ha f parciálisan deriválható, akkor ∂1f és ∂2f szintén kétváltozós függvények (a pontonként a deriváltak, mint függvényértékek értelmezésével) és érdeklődhetünk ezek parciális differenciálhatóságuk iránt. Például:

f(x,y)=x^2y^4+x^5-y^3\,
\partial_xf(x,y)=xy^4+5x^4
\partial_yf(x,y)=x^24y^3-3y^2
\partial_x(\partial_xf)(x,y)=y^4+20x^3
\partial_y(\partial_yf)(x,y)=12x^2y^2-6y^2
\partial_y(\partial_xf)(x,y)=x4y^3
\partial_x(\partial_yf)(x,y)=4xy^3

És valóban:

Tétel. (Young-tétel) Ha a másodrendű parciális deriváltak léteznek az u egy környezetében és folytonosak az u pontban, akkor az u-beli vegyes másodrendű parciláis deriváltak egyenlőek:

\partial_x(\partial_y f)(u)=\partial_y(\partial_x f)(u)

Azaz az alábbi, úgy nevezett Hesse-mátrix szimmetrikus:

H^f(u)=\begin{bmatrix}
\cfrac{\partial^2 f(u)}{\partial x^2} & \cfrac{\partial^2 f(u)}{\partial y\partial x}\\\\
\cfrac{\partial^2 f(u)}{\partial x\partial y} & \cfrac{\partial^2 f(u)}{\partial y^2}
\end{bmatrix}

Feladat. Az a kitétel, hogy az u-ban a másodrenrű parciláis deriváltak folytonosak, nem hagyható el, ugyanis. Legyen

f(x,y)=\left\{\begin{matrix}
0,& \mbox{ ha }(x,y)=(0,0)\\
\frac{xy(x^2-y^2)}{x^2+y^2},& \mbox{ ha }(x,y)\ne(0,0)
\end{matrix}\right.

Ekkor a 0-ban nem egyenlő a két vegyes parciális derivált.

Tekintsük a parciális deriváltakat:

\partial_x(\partial_yf)(0,0)=\lim\limits_{x\to 0}\frac{(\partial_yf)(x,0)-(\partial_yf)(0,0)}{x}
\partial_y(\partial_xf)(0,0)=\lim\limits_{y\to 0}\frac{(\partial_xf)(0,y)-(\partial_xf)(0,0)}{y}
\partial_x(\partial_xf)(0,0)=\lim\limits_{x\to 0}\frac{(\partial_xf)(x,0)-(\partial_xf)(0,0)}{x}
\partial_y(\partial_yf)(0,0)=\lim\limits_{y\to 0}\frac{(\partial_yf)(0,y)-(\partial_yf)(0,0)}{y}

Ehhez tehát elegendő kiszámítani a következő föggvényeket: y \mapsto (∂xf)(0,y), x \mapsto (∂yf)(x,0). Ehhez a parciális deriváltak:

\partial_xf(0,y)=\lim\limits_{t\to 0}\frac{f(t,y)-f(0,0)}{t}=\left\{\begin{matrix}
0,& \mbox{ ha }y=0\\
-y,& \mbox{ ha }y\ne 0
\end{matrix}\right.
\partial_yf(x,0)=\lim\limits_{t\to 0}\frac{f(x,t)-f(0,0)}{t}=\left\{\begin{matrix}
0,& \mbox{ ha }x=0\\
x,& \mbox{ ha }x\ne 0
\end{matrix}\right.
\partial_yf(0,y)=\lim\limits_{t\to 0}\frac{f(0,y+t)-f(0,0)}{t}=0
\partial_xf(x,0)=\lim\limits_{t\to 0}\frac{f(x+t,0)-f(0,0)}{t}=0

Megjegyezzük, hogy a g=(∂xf,∂yf) függvény (0,0)-beli parciális deriváltjai nem lehetnek folytonosak, mert ott a függvény nem totálisan diffható. Ugyanis a g Jacobi-mátrixa:

J^g(0,0)=H^f(0,0)=\begin{bmatrix}
0 & -1\\
1 & 0
\end{bmatrix}

ami a 90˚-os forgatás. Ekkor a g-t a (t,0) vektorral közelítve a 0-ba:

\lim\limits_{t\to 0}\frac{g(t,0)-g(0,0)-J^g(0,0)\cdot (t,0)}{|t|}=\lim\limits_{t\to 0}\frac{(0,-t)}{|t|}\ne (0,0)\,

márpedig ha g minden parciális deriváltja folytonos lenne a (0,0)-ban, akkor g totálisan is deriválható lenne.

Többváltozós függvény szélsőértéke

f(x)=f(u)+\mathrm{J}_u^f(x-u)+(x-y)\mathrm{H}^f_u(x-u)+\varepsilon(x)||x-u||^2

Másodikderivált-próba

Kétszer differenciálható függvényre vonatkozóan megfogalmazhatjuk a lokális maximum és minimum létezésének elégséges feltételét. Csak a kétváltozós függvényekkel foglalkozunk. Tegyük fel, hogy grad f(u) = 0 és Hf(u) az f Hesse-mátrixa

  1. ha det Hf(u) > 0 és ∂11f(u) < 0, akkor f-nek u-ban maximuma van
  2. ha det Hf(u) > 0 és ∂11f(u) > 0, akkor f-nek u-ban minimuma van
  3. ha det Hf(u) < 0, akkor f-nek biztosan nincs szélsőértéke, ún. nyeregpontja van
  4. ha det Hf(u) = 0, akkor a próba nem járt sikerrel, azaz további vizsgálatokat igényel annak eldöntése, hogy u szélsőérték hely-e.

Megjegyzések. Mivel kétváltozós esetben

\mathrm{det}\,\mathrm{H}^f(u)=\partial_{11}f(u)\cdot \partial_{22}f(u)-(\partial_{12}f(u))^2

ezért olyan eset nem létezik, hogy det Hf(u) > 0 és ∂11f(u) = 0.

Világos, hogy a második derivált tipikusan azoknál a függvényeknél jár sikerrel, melyeket egy másodfokú függvény közelít a legjobban (aszimptotikusan másodfokúak). Ha a függvény ennél magasabb fokú, akkor a második deriváltak eltűnnek és a Hesse-mártix elfajul (vagy legalább is tipikusan elfajul).

Ha tehát

\mathrm{H}^{f}(u)=\begin{pmatrix}
 A & B \\
 B & C
\end{pmatrix}, akkor \mathrm{det\,H}^{f}(u)=AC - B^2 ,

és így a tipikus példák a következők.

Példák

1. Ha B kicsi, azaz az AC-hez képest kis abszolútrétékű szám, akkor a szélsőérték irányába mozdul el a feladat.

f(x,y)=x^2+xy+y^2\,

Ekkor grad f = ( 2x + y , 2y + x ) és

\mathrm{H}^{f}(x,y)=\begin{pmatrix}
 2 & 1 \\
 1 & 2
\end{pmatrix}

azaz 4 - 1 = 3 > 0 és 2 > 0 miatt minimum.

2. Ha |B| nagy (azaz AC-hez képest nagy), akkor a bizonyosan nemszélsőérték irányába.

f(x,y)=x^2-3xy+y^2\,

Ekkor grad f = ( 2x + -3y , 2y + -3x ) és

\mathrm{H}^{f}(x,y)=\begin{pmatrix}
 2 & -3 \\
 -3 & 2
\end{pmatrix}

azaz 4 - 9 = -5 < 0 miatt nincs szélsőérték: nyeregpont.

3. Negatív A és C-re és kis B-re:

f(x,y)=-x^2+xy-y^2\,

Ekkor grad f = ( -2x + 3y , -2y + 3x ) és

\mathrm{H}^{f}(x,y)=\begin{pmatrix}
 -2 & 1 \\
 1 & -2
\end{pmatrix}

azaz 4 - 1 = 3 > 0 és -2 < 0 miatt maximum.

4. Ha A és C előjele ellenkező, akkor rögtön következik, hogy nincs sz.é.

f(x,y)=x^2+xy-y^2\,

Ekkor grad f = ( 2x + y , -2y + x ) és

\mathrm{H}^{f}(x,y)=\begin{pmatrix}
 2 & 1 \\
 1 & -2
\end{pmatrix}

azaz -4 - 1 = -5 < 0 azaz nyeregpont.

5. Atipikus eset, ha AC = B2. Ekkor nem jár sikerrel a próba:

f(x,y)=x^2+2xy+y^2\,

Ekkor grad f = ( 2x + 2y , 2y + 2x ) és

\mathrm{H}^{f}(x,y)=\begin{pmatrix}
 2 & 2 \\
 2 & 2
\end{pmatrix}

azaz 4 - 4 = 0, azaz határozatlan eset. De tudjuk, hogy

f(x,y)=(x+y)^2\,

ami pontosan akkor minimális, ha x = -y, azaz ezeken a helyeken van szélsőérték.

6.

f(x,y)=3x^2-6xy+2y^3\,

7.

f(x,y)=\sqrt{x^2+y^2}\cdot e^{-\frac{x^2+y^2}{2}}\,
pótló gyakorlat 5. gyakorlat
Személyes eszközök