Matematika A2a 2008/4. gyakorlat

A MathWikiből
(Változatok közti eltérés)
1. sor: 1. sor:
 
:''Ez az szócikk a [[Matematika A2a 2008]] alszócikke.''
 
:''Ez az szócikk a [[Matematika A2a 2008]] alszócikke.''
==Parciális deriváltak==
 
  
'''Definíció.''' Legyen  ''f'': '''R'''<sup>n</sup> <math>\supset\!\to</math> '''R''', ''u'' &isin; int Dom(''f''). Azt mondjuk, hogy f parciálisan differenciálható az ''u'' pontban a ''x''<sub>i</sub> változó szerint, ha az
+
==Teljes differenciálhatóság, gyakorlás==
:<math>f(u_1,...,.,...,u_n): x_i\mapsto f(u_1,...x_i,...,u_n)\,</math>
+
egyváltozós valós függvény differenciálható az u<sub>i</sub> pontban. Ekkor a fenti függvény <math>u_i</math>-beli deriváltját
+
:<math>\partial_if(u),\quad f'_{x_i}(u),\quad f_{x_i}(u),\quad\left.\frac{\partial f}{\partial x_i}\right|_{x=u}</math>
+
jelöli.
+
  
Példa:
+
'''1.''' Hol deriválható?
:<math>\frac{\partial x^2\cdot\sin(y)}{\partial x}=2x\cdot \sin(y)</math>
+
:<math>f(x,y)=\sqrt[3]{x^4+y^4}</math>
:<math>\frac{\partial x^2\cdot\sin(y)}{\partial y}=x^2\cdot \cos(y)</math>
+
:<math>\frac{\partial x^2\cdot\sin(y)}{\partial z}=0</math>
+
  
:<math>\frac{\partial \sin(\mathrm{sh}(x)y^2)}{\partial x}=\cos(\mathrm{sh}(x)y^2)\cdot \mathrm{ch}(x)y^2</math>
+
'''2.''' Hol deriválható?
 +
:<math>\begin{cases}
 +
\frac{x^2y^3}{x^4+y^4}, & (x,y)\neq (0,0)\\
 +
0, & (x,y)=(0,0)
 +
\end{cases}
 +
</math>
  
'''Feladat.''' Parciálisan deriválható-e az
+
==Iránymenti deriválhatóság és differenciálhatóság==
:<math>f(x,y)=\sqrt{x^2+y^2}</math>
+
Ha e tetszőleges egységvektor, akkor
a (0,0)-ban?
+
:<math>\lim\limits_{t\to 0}\frac{f(u+te)-f(u)}{t}=\partial_{e}f(u)=[\mathrm{grad}\,f(u)]\cdot e=[\nabla f(u)]\cdot e</math>
  
'''Feladat.''' Parciálisan deriválható-e az
 
:<math>f(x,y)=\left\{\begin{matrix}
 
0,& \mbox{ ha }(x,y)=(0,0)\\
 
(x^2+y)\sin\frac{1}{|x|+|y|},& \mbox{ ha }(x,y)\ne(0,0)
 
\end{matrix}\right.</math>
 
a (0,0)-ban?
 
  
 +
'''Példa.'''
 +
:<math>f(x,y)=\left\{\begin{matrix}\frac{xy}{\sqrt{x^2+y^2}}& \mbox{, ha }&(x,y)\ne (0,0)\\
 +
0&\mbox{, ha }&(x,y)=(0,0)\end{matrix}\right.</math>
  
==Lineáris leképezések==
+
Ekkor
A ''V''<sub>1</sub> és ''V''<sub>2</sub>  vektorterek között ható ''A'' leképezést akkor nevezünk lineárisnak, ha teljesül minden &lambda;, &mu; &isin; '''R''' és '''v''', '''u''' &isin; ''V''<sub>1</sub>
+
:<math>\mathrm{J}^f(0,0)=[0, 0]\,</math>
:<math>\mathcal{A}(\lambda.\mathbf{v}+\mu.\mathbf{u})=\lambda.\mathcal{A}\mathbf{v}+\mu.\mathcal{A}\mathbf{u}\,</math>
+
  
A definícióból rögtön következik, hogy a nulla vektor képe nulla:
+
Ha tehát differenciálható, akkor az '''iránymenti derivált'''ak (Gateau-deriváltak) is léteznek (e egységvektor):
  
:<math>\mathcal{A}\mathbf{0}_{V_1}=\mathbf{0}_{V_2}</math>
+
:<math>\partial_ef(u)=\lim\limits_{t\to 0}\frac{f(u+te)-f(u)}{t}=\mathrm{J}^f(0,0)\cdot e=e\cdot\mathrm{grad}\,f(u)</math>
  
viszont más elem a ''V''<sub>2</sub> nem feltétlenül vétetik föl.
+
Ám, polárkoordinátákra áttérve:
 +
:<math>f(x(r,\varphi),y(r,\varphi))=\frac{r^2\cos\varphi\sin\varphi}{r}=r\cos\varphi\sin\varphi=r\cdot \frac{1}{2}\sin 2\varphi</math>
 +
&phi; = &pi;/4-et és &pi; + &pi;/4-et véve a vetületfüggvény a
 +
:<math>t\mapsto\frac{1}{2}|t|</math>,
 +
ami nem differenciálható a 0-ban.
  
Véges dimenziós terek közti lineáris leképezés a bázis választásával egyértelműen jellemezhető az alábbi mátrixszal.
+
'''Megjegyzés.''' Persze abból, hogy az összes iránymenti derivált létezik, abból nem következik, hogy a függvény totálisan deriválható.
  
:<math>[\mathcal{A}]_{B,C} = \begin{bmatrix}
 
\begin{matrix}\vert \\ \vert \\ \mathcal{A}\mathbf{b}_1 \\ \vert \\ \vert \end{matrix}& \begin{matrix}\vert \\ \vert \\ \mathcal{A}\mathbf{b}_2 \\ \vert \\ \vert \end{matrix} & ... & \begin{matrix}\vert \\ \vert \\ \mathcal{A}\mathbf{b}_n \\ \vert \\ \vert \end{matrix}
 
\end{bmatrix} </math>
 
ahol ''B'' = ('''b'''<sub>1</sub>,'''b'''<sub>2</sub>,…,'''b'''<sub>n</sub>) a ''V''<sub>1</sub> egy bázisa, ''C'' az ''V''<sub>2</sub> bázisa, a mátrix oszlopai pedig a ''B'' elemeinek <math>\mbox{ }_\mathcal{A}</math> általi képvektoraiból, mint oszlopvektorokból áll. Ha <math>\mbox{ }_\mathcal{A}</math> ''V'' <math>\rightarrow</math> ''V'' típusú, akkor csak <math>\mbox{ }_{[\mathcal{A}]_B}</math>-t szokás írni, ha pedig pusztán <math>\mbox{ }_{[\mathcal{A}]}</math>-t írnak, akkor az azt jelenti, hogy a  '''R'''<sup>n</sup> ''sztenderd bázis''áról van szó, azaz a
 
:<math>\mbox{ }_{\mbox{ }_{\begin{pmatrix}1\\0\\0\\ \vdots \\0 \end{pmatrix},\;\begin{pmatrix}0\\1\\0\\ \vdots \\0 \end{pmatrix},\;\begin{pmatrix}0\\0\\1\\ \vdots \\0 \end{pmatrix},\;\dots\;,\begin{pmatrix}0\\0\\0\\ \vdots \\1 \end{pmatrix}}}</math>
 
vektorrendszerről.
 
===Példák===
 
'''1.''' Forgatás az origo körül &phi; szöggel:
 
:<math>[\mathcal{F}_\varphi]=\begin{bmatrix}\cos\varphi & -\sin\varphi \\ \sin\varphi & \cos\varphi \end{bmatrix}
 
</math>
 
  
Világos, hogy ez invertálható leképezés és az inverze a -&phi; szögű forgatás.
+
==Szélsőérték szükséges feltétele==
  
'''2.''' Tükrözés a &phi; szőgű egyenesre.
+
Egyelőre állapodjunk meg abban, hogy gradiensnek nevezzük a következő többváltozós vektorértékű függvényt: ha  ''f'': '''R'''<sup>n</sup> <math>\supset\!\to</math> '''R'''  parciálisan differenciálható, akkor
:<math>[\mathcal{T}_\varphi]=\begin{bmatrix}\cos(2\varphi) & \sin(2\varphi) \\ \sin(2\varphi) & -\cos(2\varphi) \end{bmatrix}  
+
:<math>\mathrm{grad}\,f(x)=(\partial_1f(x),...,\partial_nf(x))</math>
</math>
+
mely lényegében az ''f'' elsőrendű parciális deriváltjaiból képezett vektor.
 +
 
 +
Később a gradienst egy kissé másképp fogjuk értelmezni és amit most definiáltunk, az a gradiens sztenderd bázisbeli mátrixa lesz (adott pontra vonatkozóan).
 +
 
 +
 
 +
'''Tétel''' - ''Fermat-féle szésőértéktétel'' - Legyen ''f'': '''R'''<sup>n</sup> <math>\supset\!\to</math> '''R''', ''u'' &isin; int Dom(''f''), ''f''  parciálisan differenciálható ''u''-ban.
 +
:Ha ''u''-ban ''f''-nek (lokális) szélsőértéke van, akkor
 +
::<math>\mathrm{grad}\,f(u)=0_{\mathbf{R}^n}\,</math>
 +
''U.is:'' minden ''i''-re az ''i''-edik parciális függvénynek szélsőértéke van ''u''<sub>i</sub>-ben, így az egyváltozós Fermat-tétel miatt ezeknek a deriváltja ''u''<sub>i</sub>-ben 0, így a gradiens értéke 0.
 +
 
 +
====Példa====
 +
:<math>f(x,y)=x^2y^2\,</math>
 +
Ennek gradiense:
 +
:<math>\mathrm{grad}\,f(x,y)=(2xy^2,2yx^2)</math>
 +
Az
 +
:<math>\left.
 +
\begin{matrix}
 +
\mathrm{I.} & 2xy^2 & = & 0\\
 +
\mathrm{II.} & 2yx^2 & = & 0\\
 +
\end{matrix}
 +
\right\}</math>
 +
egyenletrendszer megoldásai: ''x'' = 0, ''y'' tetszőleges ill. ''y'' = 0 és ''x'' tetszőleges. A szélsőértékek helyei csak ezek közül kerülhetnek ki és ezek valóban szélsőértékek is, mert ezeken a függvény 0-t vesz fel, ami a lehetséges legkisebb értéke.
 +
 
 +
==Magasabbrendű parciális deriváltak==
 +
Ha ''f'' parciálisan deriválható, akkor &part;<sub>1</sub>''f'' és &part;<sub>2</sub>''f'' szintén kétváltozós függvények (a pontonként a deriváltak, mint függvényértékek értelmezésével) és érdeklődhetünk ezek parciális differenciálhatóságuk iránt. Például:
 +
 
 +
:<math>f(x,y)=x^2y^4+x^5-y^3\,</math>
 +
 
 +
:<math>\partial_xf(x,y)=xy^4+5x^4</math>
 +
:<math>\partial_yf(x,y)=x^24y^3-3y^2</math>
 +
 
 +
:<math>\partial_x(\partial_xf)(x,y)=y^4+20x^3</math>
 +
:<math>\partial_y(\partial_yf)(x,y)=12x^2y^2-6y^2</math>
 +
:<math>\partial_y(\partial_xf)(x,y)=x4y^3</math>
 +
:<math>\partial_x(\partial_yf)(x,y)=4xy^3</math>
 +
 
 +
És valóban:
 +
 
 +
'''Tétel.''' (Young-tétel) Ha a másodrendű parciláis deriváltak léteznek az ''u'' egy  környezetében és folytonosak az ''u'' pontban, akkor az ''u''-beli vegyes másodrendű parciláis deriváltak egyenlőek:
 +
:<math>\partial_x(\partial_y f)(u)=\partial_y(\partial_x f)(u)</math>
 +
 
 +
Azaz az alábbi, úgy nevezett Hesse-mátrix szimmetrikus:
 +
:<math>H^f(u)=\begin{bmatrix}
 +
\cfrac{\partial^2 f(u)}{\partial x^2} & \cfrac{\partial^2 f(u)}{\partial y\partial x}\\\\
 +
\cfrac{\partial^2 f(u)}{\partial x\partial y} & \cfrac{\partial^2 f(u)}{\partial y^2}
 +
\end{bmatrix}</math>
 +
 
 +
'''Feladat.''' Az a kitétel, hogy az ''u''-ban a másodrenrű parciláis deriváltak folytonosak, nem hagyható el, ugyanis. Legyen
 +
:<math>f(x,y)=\left\{\begin{matrix}
 +
0,& \mbox{ ha }(x,y)=(0,0)\\
 +
\frac{xy(x^2-y^2)}{x^2+y^2},& \mbox{ ha }(x,y)\ne(0,0)
 +
\end{matrix}\right.</math>
 +
Ekkor a 0-ban nem egyenlő a két vegyes parciális derivált.
 +
 
 +
Tekintsük a parciális deriváltakat:
 +
:<math>\partial_x(\partial_yf)(0,0)=\lim\limits_{x\to 0}\frac{(\partial_yf)(x,0)-(\partial_yf)(0,0)}{x}</math>
 +
:<math>\partial_y(\partial_xf)(0,0)=\lim\limits_{y\to 0}\frac{(\partial_xf)(0,y)-(\partial_xf)(0,0)}{y}</math>
 +
:<math>\partial_x(\partial_xf)(0,0)=\lim\limits_{x\to 0}\frac{(\partial_xf)(x,0)-(\partial_xf)(0,0)}{x}</math>
 +
:<math>\partial_y(\partial_yf)(0,0)=\lim\limits_{y\to 0}\frac{(\partial_yf)(0,y)-(\partial_yf)(0,0)}{y}</math>
 +
Ehhez tehát elegendő kiszámítani a következő föggvényeket: y <math>\mapsto</math> (&part;<sub>x</sub>f)(0,y), x <math>\mapsto</math> (&part;<sub>y</sub>f)(x,0). Ehhez a parciális deriváltak:
 +
:<math>\partial_xf(0,y)=\lim\limits_{t\to 0}\frac{f(t,y)-f(0,0)}{t}=\left\{\begin{matrix}
 +
0,& \mbox{ ha }y=0\\
 +
-y,& \mbox{ ha }y\ne 0
 +
\end{matrix}\right.</math>
 +
:<math>\partial_yf(x,0)=\lim\limits_{t\to 0}\frac{f(x,t)-f(0,0)}{t}=\left\{\begin{matrix}
 +
0,& \mbox{ ha }x=0\\
 +
x,& \mbox{ ha }x\ne 0
 +
\end{matrix}\right.</math>
 +
:<math>\partial_yf(0,y)=\lim\limits_{t\to 0}\frac{f(0,y+t)-f(0,0)}{t}=0</math>
 +
:<math>\partial_xf(x,0)=\lim\limits_{t\to 0}\frac{f(x+t,0)-f(0,0)}{t}=0</math>
 +
 
 +
Megjegyezzük, hogy a g=(&part;<sub>x</sub>f,&part;<sub>y</sub>f) függvény (0,0)-beli parciális deriváltjai nem lehetnek folytonosak, mert ott a függvény nem totálisan diffható. Ugyanis a g Jacobi-mátrixa:
 +
:<math>J^g(0,0)=H^f(0,0)=\begin{bmatrix}
 +
0 & -1\\
 +
1 & 0
 +
\end{bmatrix}</math>
 +
ami a 90˚-os forgatás. Ekkor a g-t a (t,0) vektorral közelítve a 0-ba:
 +
:<math>\lim\limits_{t\to 0}\frac{g(t,0)-g(0,0)-J^g(0,0)\cdot (t,0)}{|t|}=\lim\limits_{t\to 0}\frac{(0,-t)}{|t|}\ne (0,0)\,</math>
 +
márpedig ha g minden parciális deriváltja folytonos lenne a (0,0)-ban, akkor g totálisan is deriválható lenne.
  
Világos, hogy ez is invertálható és inverze saját maga.
+
==Többváltozós függvény szélsőértéke==
  
Ezek ortogonális transzformációk, azaz a transzponáltjuk az inverzük. Speciálisan a tükrözés szimmetrikus leképezés, mert mátrixa szimmetrikus. Sőt, ezek alkotják a síkon az összes ortogonális transzformációt.
 
  
'''3.''' Deriváló operáció. Legyen ''V'' a legfeljebb másodfokú polinomfüggvények tere. Ekkor a
+
===Másodikderivált próba===
:<math>\mathcal{D}:f\mapsto f'\,</math>
+
Kétszer differenciálható függvényre vonatkozóan megfogalmazhatjuk a  lokális maximum és minimum létezésének elégséges feltételét. Csak a kétváltozós függvényekkel foglalkozunk. Tegyük fel, hogy grad ''f''(u) = 0 és H<sup>f</sup>(u) az ''f'' Hesse-mátrixa
lineáris leképezés:
+
# ha det H<sup>f</sup>(u) > 0 és &part;<sub>11</sub>''f''(''u'') < 0, akkor ''f''-nek ''u''-ban '''maximuma''' van
 +
# ha det H<sup>f</sup>(u) > 0 és &part;<sub>11</sub>''f''(''u'') > 0, akkor ''f''-nek ''u''-ban '''minimuma''' van
 +
# ha det H<sup>f</sup>(u) < 0, akkor ''f''-nek biztosan nincs szélsőértéke, ún. '''nyeregpont'''ja van
 +
# ha det H<sup>f</sup>(u) = 0, akkor a próba nem járt sikerrel, azaz további vizsgálatokat igényel annak eldöntése, hogy ''u'' szélsőérték hely-e.
  
Bázis ''V''-ben: {1, x, x<sup>2</sup>}, ezért a mátrixa:
+
''Megjegyzések.'' Mivel kétváltozós esetben
:<math>[\mathcal{D}]=
+
:<math>\mathrm{det}\,\mathrm{H}^f(u)=\partial_{11}f(u)\cdot \partial_{22}f(u)-(\partial_{12}f(u))^2</math>
\begin{bmatrix}  
+
ezért olyan eset nem létezik, hogy det H<sup>f</sup>(u) > 0 és &part;<sub>11</sub>''f''(''u'') = 0.
0 & 1 & 0 \\
+
0 & 0 & 2\\
+
0 & 0 & 0
+
\end{bmatrix} </math>
+
Világos, hogy a leképezés képzere nem a teljes ''V'', hanem annak egy altere (a legfeljebb elsőfokú polinomfüggvények tere) és nem csak a 0 polinom képe 0, hanem minden konstans polinomé.
+
  
==Lineáris leképezések folytonossága==
+
Világos, hogy a második derivált tipikusan azoknál a függvényeknél jár sikerrel, melyeket egy másodfokú függvény közelít a legjobban (aszimptotikusan másodfokúak). Ha a függvény ennél magasabb fokú, akkor a második deriváltak eltűnnek és a Hesse-mártix elfajul (vagy legalább is tipikusan elfajul).
'''Megjegyzés.''' A normált terek között ható ''A'' lineáris leképezés folytonos, ha a 0-ban folytonos.
+
 +
Ha tehát
 +
:<math>\mathrm{H}^{f}(u)=\begin{pmatrix}
 +
A & B \\
 +
B & C
 +
\end{pmatrix}</math>, akkor <math>\mathrm{det\,H}^{f}(u)=AC - B^2 </math>,
 +
és így a tipikus példák a következők.
  
''Ugyanis, '' legyen az ''A'': <math>N_1</math> <math>\to</math> <math>N_2</math> lineáris leképezés és tegyük fel, hogy 0-ban folytonos, azaz minden &epsilon;>0-ra létezik &delta;>0, hogy minden ''x'' &isin; B<sub>&delta;</sub>(0)-ra ''Ax'' &isin; B<sub>&epsilon;</sub>(0).
+
====Példák====
  
Most ha &epsilon; > 0 tetszőleges és <math>x_1</math> és <math>x_2</math> <math>N_1</math>-beliek is tetszőlegesek, akkor  
+
'''1.''' Ha B kicsi, azaz az AC-hez képest kis abszolútrétékű szám, akkor a szélsőérték irányába mozdul el a feladat.
: <math>||\mathcal{A}x_1-\mathcal{A}x_2||=||\mathcal{A}(x_1-x_2)||\leq\varepsilon</math>
+
:<math>f(x,y)=x^2+xy+y^2\,</math>
amennyiben <math>x_1</math>-<math>x_2</math> &isin; B<sub>&delta;</sub>(0), ahol &delta; a 0-beli folytonosság által az &epsilon;-hoz tartozó &delta;.
+
  
'''Tétel.''' ''A'' : '''R'''<sup>n</sup> <math>\to</math> '''R'''<sup>m</sup> lineáris leképzés folytonos, sőt:
+
Ekkor grad ''f'' = ( 2x + y , 2y + x ) és 
:<math>\exists L\geq 0\quad\forall x\in \mathbf{R}^n\quad||\mathcal{A}(x)||\leq L||x||</math>  
+
:<math>\mathrm{H}^{f}(x,y)=\begin{pmatrix}
 +
2 & 1 \\
 +
1 & 2
 +
\end{pmatrix}</math>
 +
azaz 4 - 1 = 3 > 0 és 2 > 0 miatt minimum.
  
'''Megjegyzés.''' Ez azt is jelenti, hogy egy ilyen leképezés Lipschitz-függvény. Az ''f'': '''R'''<sup>n</sup> &sup;<math>\to</math> '''R'''<sup>m</sup> függvényt Lipschitz-függvénynek nevezük, ha létezik L nemnegatív szám, hogy minden  <math>x_1</math> és <math>x_2</math> Dom(''f'')-belire:
+
'''2.''' Ha |B| nagy (azaz AC-hez képest nagy), akkor a bizonyosan nemszélsőérték irányába.
:<math>||f(x_1)-f(x_2)||\leq L||x_1-x_2||</math>
+
:<math>f(x,y)=x^2-3xy+y^2\,</math>
Világos, hogy ez lineáris leképezésre ekvivalens a tételbeli megfogalmazással.
+
  
Ha lipschitzes, akkor pedig folytonos, mert ekkor &delta;=&epsilon;/(L+1)-gyel
+
Ekkor grad ''f'' = ( 2x + -3y , 2y + -3x ) és 
 +
:<math>\mathrm{H}^{f}(x,y)=\begin{pmatrix}
 +
2 & -3 \\
 +
-3 & 2
 +
\end{pmatrix}</math>
 +
azaz 4 - 9 = -5 < 0 miatt nincs szélsőérték: nyeregpont.
  
:<math>|f(x)-f(0)|\leq L|x|<L\delta=L\frac{\varepsilon}{L+1}<\varepsilon.</math>
+
'''3.''' Negatív A és C-re és kis B-re:
 +
:<math>f(x,y)=-x^2+xy-y^2\,</math>
  
 +
Ekkor grad ''f'' = ( -2x + 3y , -2y + 3x ) és 
 +
:<math>\mathrm{H}^{f}(x,y)=\begin{pmatrix}
 +
-2 & 1 \\
 +
1 & -2
 +
\end{pmatrix}</math>
 +
azaz 4 - 1 = 3 > 0 és -2 < 0 miatt maximum.
 +
:<gnuplot>
 +
set pm3d
 +
set size 0.8,0.8
 +
set xrange [-1:1]
 +
set yrange [-1:1]
 +
set zrange [-2:2]
 +
set view 50,30,1,1
 +
unset xtics
 +
unset ytics
 +
unset ztics
 +
unset key
 +
unset colorbox
 +
splot -x*x +x*y-y*y
 +
</gnuplot>
  
''Bizonyítás.'' Vegyük az ''A'' sztenderd bázis beli mátrixát. Ekkor ''A''('''x''')='''A'''<math>\cdot</math>'''x'''. Így '''A''' minden '''A'''<sub>i</sub> sorára
+
'''4.''' Ha A és C előjele ellenkező, akkor rögtön következik, hogy nincs sz.é.
: <math>|\mathbf{A}_i\mathbf{x}|=|\sum\limits_{j=1}^{n}\mathbf{A}_{ij}x_j|\leq\sum\limits_{j=1}^{n}|\mathbf{A}_{ij}x_j| \leq L_i\sum\limits_{j=1}^{n}|x_j|</math>
+
:<math>f(x,y)=x^2+xy-y^2\,</math>
ahol <math>L_i</math> rögzített i mellett a {|'''A'''<sub>i,j</sub>|} <sub>j=1...n</sub> számok maximuma. Ha most vesszük L = max {<math>L_i</math>}-t is, akkor
+
: <math>||\mathcal{A}\mathbf{x}||_\max=\max_{i=1...m}|\mathbf{A}_i\mathbf{x}|\leq L\sum\limits_{j=1}^{n}|x_j|=L\cdot ||\mathbf{x}||_{p=1}</math>
+
is teljesül, azaz a kép maximumnormája felülbecsülhető L-szer a vektor norma-1 szerinti normájával. A normák ekvivalenciája miat pedig alkalmas L-re minden normára igaz.
+
  
===Operátornorma===
+
Ekkor grad ''f'' = ( 2x + y , -2y + x ) és 
 +
:<math>\mathrm{H}^{f}(x,y)=\begin{pmatrix}
 +
2 & 1 \\
 +
1 & -2
 +
\end{pmatrix}</math>
 +
azaz -4 - 1 = -5 < 0 azaz nyeregpont.
  
A lineáris leképezések Lin('''R'''<sup>n</sup>,'''R'''<sup>m</sup>) tere normált tér, ugyanis vegyük a következő számot:
+
'''5.''' Atipikus eset, ha  AC = B<sup>2</sup>. Ekkor nem jár sikerrel a próba:  
:<math>||\mathcal{A}||_{op}=_{\mathrm{def}}\sup_{\mathbf{x}\ne 0}\frac{||\mathcal{A}\mathbf{x}||}{||\mathbf{x}||}=\sup_{||\mathbf{x}||=1}||\mathcal{A}\mathbf{x}||</math>
+
:<math>f(x,y)=x^2+2xy+y^2\,</math>
Ez létezik, mivel x <math>\mapsto</math> ||''A''x|| folytonos a kompakt 0 középpontú, egységsugarú gömbfelületen.
+
  
 +
Ekkor grad ''f'' = ( 2x + 2y , 2y + 2x ) és 
 +
:<math>\mathrm{H}^{f}(x,y)=\begin{pmatrix}
 +
2 & 2 \\
 +
2 & 2
 +
\end{pmatrix}</math>
 +
azaz 4 - 4 = 0, azaz határozatlan eset.
 +
De tudjuk, hogy
 +
:<math>f(x,y)=(x+y)^2\,</math>
 +
ami pontosan akkor minimális, ha x = -y, azaz ezeken a helyeken van szélsőérték.
  
 
==Egyváltozós illetve valós értékű függvény deriváltja==
 
==Egyváltozós illetve valós értékű függvény deriváltja==

A lap 2017. február 27., 11:24-kori változata

Ez az szócikk a Matematika A2a 2008 alszócikke.

Tartalomjegyzék

Teljes differenciálhatóság, gyakorlás

1. Hol deriválható?

f(x,y)=\sqrt[3]{x^4+y^4}

2. Hol deriválható?

\begin{cases}
\frac{x^2y^3}{x^4+y^4}, & (x,y)\neq (0,0)\\
0, & (x,y)=(0,0) 
\end{cases}

Iránymenti deriválhatóság és differenciálhatóság

Ha e tetszőleges egységvektor, akkor

\lim\limits_{t\to 0}\frac{f(u+te)-f(u)}{t}=\partial_{e}f(u)=[\mathrm{grad}\,f(u)]\cdot e=[\nabla f(u)]\cdot e


Példa.

f(x,y)=\left\{\begin{matrix}\frac{xy}{\sqrt{x^2+y^2}}& \mbox{, ha }&(x,y)\ne (0,0)\\
0&\mbox{, ha }&(x,y)=(0,0)\end{matrix}\right.

Ekkor

\mathrm{J}^f(0,0)=[0, 0]\,

Ha tehát differenciálható, akkor az iránymenti deriváltak (Gateau-deriváltak) is léteznek (e egységvektor):

\partial_ef(u)=\lim\limits_{t\to 0}\frac{f(u+te)-f(u)}{t}=\mathrm{J}^f(0,0)\cdot e=e\cdot\mathrm{grad}\,f(u)

Ám, polárkoordinátákra áttérve:

f(x(r,\varphi),y(r,\varphi))=\frac{r^2\cos\varphi\sin\varphi}{r}=r\cos\varphi\sin\varphi=r\cdot \frac{1}{2}\sin 2\varphi

φ = π/4-et és π + π/4-et véve a vetületfüggvény a

t\mapsto\frac{1}{2}|t|,

ami nem differenciálható a 0-ban.

Megjegyzés. Persze abból, hogy az összes iránymenti derivált létezik, abból nem következik, hogy a függvény totálisan deriválható.


Szélsőérték szükséges feltétele

Egyelőre állapodjunk meg abban, hogy gradiensnek nevezzük a következő többváltozós vektorértékű függvényt: ha f: Rn \supset\!\to R parciálisan differenciálható, akkor

\mathrm{grad}\,f(x)=(\partial_1f(x),...,\partial_nf(x))

mely lényegében az f elsőrendű parciális deriváltjaiból képezett vektor.

Később a gradienst egy kissé másképp fogjuk értelmezni és amit most definiáltunk, az a gradiens sztenderd bázisbeli mátrixa lesz (adott pontra vonatkozóan).


Tétel - Fermat-féle szésőértéktétel - Legyen f: Rn \supset\!\to R, u ∈ int Dom(f), f parciálisan differenciálható u-ban.

Ha u-ban f-nek (lokális) szélsőértéke van, akkor
\mathrm{grad}\,f(u)=0_{\mathbf{R}^n}\,

U.is: minden i-re az i-edik parciális függvénynek szélsőértéke van ui-ben, így az egyváltozós Fermat-tétel miatt ezeknek a deriváltja ui-ben 0, így a gradiens értéke 0.

Példa

f(x,y)=x^2y^2\,

Ennek gradiense:

\mathrm{grad}\,f(x,y)=(2xy^2,2yx^2)

Az

\left.
\begin{matrix} 
\mathrm{I.} & 2xy^2 & = & 0\\
\mathrm{II.} & 2yx^2 & = & 0\\
\end{matrix}
\right\}

egyenletrendszer megoldásai: x = 0, y tetszőleges ill. y = 0 és x tetszőleges. A szélsőértékek helyei csak ezek közül kerülhetnek ki és ezek valóban szélsőértékek is, mert ezeken a függvény 0-t vesz fel, ami a lehetséges legkisebb értéke.

Magasabbrendű parciális deriváltak

Ha f parciálisan deriválható, akkor ∂1f és ∂2f szintén kétváltozós függvények (a pontonként a deriváltak, mint függvényértékek értelmezésével) és érdeklődhetünk ezek parciális differenciálhatóságuk iránt. Például:

f(x,y)=x^2y^4+x^5-y^3\,
\partial_xf(x,y)=xy^4+5x^4
\partial_yf(x,y)=x^24y^3-3y^2
\partial_x(\partial_xf)(x,y)=y^4+20x^3
\partial_y(\partial_yf)(x,y)=12x^2y^2-6y^2
\partial_y(\partial_xf)(x,y)=x4y^3
\partial_x(\partial_yf)(x,y)=4xy^3

És valóban:

Tétel. (Young-tétel) Ha a másodrendű parciláis deriváltak léteznek az u egy környezetében és folytonosak az u pontban, akkor az u-beli vegyes másodrendű parciláis deriváltak egyenlőek:

\partial_x(\partial_y f)(u)=\partial_y(\partial_x f)(u)

Azaz az alábbi, úgy nevezett Hesse-mátrix szimmetrikus:

H^f(u)=\begin{bmatrix}
\cfrac{\partial^2 f(u)}{\partial x^2} & \cfrac{\partial^2 f(u)}{\partial y\partial x}\\\\
\cfrac{\partial^2 f(u)}{\partial x\partial y} & \cfrac{\partial^2 f(u)}{\partial y^2}
\end{bmatrix}

Feladat. Az a kitétel, hogy az u-ban a másodrenrű parciláis deriváltak folytonosak, nem hagyható el, ugyanis. Legyen

f(x,y)=\left\{\begin{matrix}
0,& \mbox{ ha }(x,y)=(0,0)\\
\frac{xy(x^2-y^2)}{x^2+y^2},& \mbox{ ha }(x,y)\ne(0,0)
\end{matrix}\right.

Ekkor a 0-ban nem egyenlő a két vegyes parciális derivált.

Tekintsük a parciális deriváltakat:

\partial_x(\partial_yf)(0,0)=\lim\limits_{x\to 0}\frac{(\partial_yf)(x,0)-(\partial_yf)(0,0)}{x}
\partial_y(\partial_xf)(0,0)=\lim\limits_{y\to 0}\frac{(\partial_xf)(0,y)-(\partial_xf)(0,0)}{y}
\partial_x(\partial_xf)(0,0)=\lim\limits_{x\to 0}\frac{(\partial_xf)(x,0)-(\partial_xf)(0,0)}{x}
\partial_y(\partial_yf)(0,0)=\lim\limits_{y\to 0}\frac{(\partial_yf)(0,y)-(\partial_yf)(0,0)}{y}

Ehhez tehát elegendő kiszámítani a következő föggvényeket: y \mapsto (∂xf)(0,y), x \mapsto (∂yf)(x,0). Ehhez a parciális deriváltak:

\partial_xf(0,y)=\lim\limits_{t\to 0}\frac{f(t,y)-f(0,0)}{t}=\left\{\begin{matrix}
0,& \mbox{ ha }y=0\\
-y,& \mbox{ ha }y\ne 0
\end{matrix}\right.
\partial_yf(x,0)=\lim\limits_{t\to 0}\frac{f(x,t)-f(0,0)}{t}=\left\{\begin{matrix}
0,& \mbox{ ha }x=0\\
x,& \mbox{ ha }x\ne 0
\end{matrix}\right.
\partial_yf(0,y)=\lim\limits_{t\to 0}\frac{f(0,y+t)-f(0,0)}{t}=0
\partial_xf(x,0)=\lim\limits_{t\to 0}\frac{f(x+t,0)-f(0,0)}{t}=0

Megjegyezzük, hogy a g=(∂xf,∂yf) függvény (0,0)-beli parciális deriváltjai nem lehetnek folytonosak, mert ott a függvény nem totálisan diffható. Ugyanis a g Jacobi-mátrixa:

J^g(0,0)=H^f(0,0)=\begin{bmatrix}
0 & -1\\
1 & 0
\end{bmatrix}

ami a 90˚-os forgatás. Ekkor a g-t a (t,0) vektorral közelítve a 0-ba:

\lim\limits_{t\to 0}\frac{g(t,0)-g(0,0)-J^g(0,0)\cdot (t,0)}{|t|}=\lim\limits_{t\to 0}\frac{(0,-t)}{|t|}\ne (0,0)\,

márpedig ha g minden parciális deriváltja folytonos lenne a (0,0)-ban, akkor g totálisan is deriválható lenne.

Többváltozós függvény szélsőértéke

Másodikderivált próba

Kétszer differenciálható függvényre vonatkozóan megfogalmazhatjuk a lokális maximum és minimum létezésének elégséges feltételét. Csak a kétváltozós függvényekkel foglalkozunk. Tegyük fel, hogy grad f(u) = 0 és Hf(u) az f Hesse-mátrixa

  1. ha det Hf(u) > 0 és ∂11f(u) < 0, akkor f-nek u-ban maximuma van
  2. ha det Hf(u) > 0 és ∂11f(u) > 0, akkor f-nek u-ban minimuma van
  3. ha det Hf(u) < 0, akkor f-nek biztosan nincs szélsőértéke, ún. nyeregpontja van
  4. ha det Hf(u) = 0, akkor a próba nem járt sikerrel, azaz további vizsgálatokat igényel annak eldöntése, hogy u szélsőérték hely-e.

Megjegyzések. Mivel kétváltozós esetben

\mathrm{det}\,\mathrm{H}^f(u)=\partial_{11}f(u)\cdot \partial_{22}f(u)-(\partial_{12}f(u))^2

ezért olyan eset nem létezik, hogy det Hf(u) > 0 és ∂11f(u) = 0.

Világos, hogy a második derivált tipikusan azoknál a függvényeknél jár sikerrel, melyeket egy másodfokú függvény közelít a legjobban (aszimptotikusan másodfokúak). Ha a függvény ennél magasabb fokú, akkor a második deriváltak eltűnnek és a Hesse-mártix elfajul (vagy legalább is tipikusan elfajul).

Ha tehát

\mathrm{H}^{f}(u)=\begin{pmatrix}
 A & B \\
 B & C
\end{pmatrix}, akkor \mathrm{det\,H}^{f}(u)=AC - B^2 ,

és így a tipikus példák a következők.

Példák

1. Ha B kicsi, azaz az AC-hez képest kis abszolútrétékű szám, akkor a szélsőérték irányába mozdul el a feladat.

f(x,y)=x^2+xy+y^2\,

Ekkor grad f = ( 2x + y , 2y + x ) és

\mathrm{H}^{f}(x,y)=\begin{pmatrix}
 2 & 1 \\
 1 & 2
\end{pmatrix}

azaz 4 - 1 = 3 > 0 és 2 > 0 miatt minimum.

2. Ha |B| nagy (azaz AC-hez képest nagy), akkor a bizonyosan nemszélsőérték irányába.

f(x,y)=x^2-3xy+y^2\,

Ekkor grad f = ( 2x + -3y , 2y + -3x ) és

\mathrm{H}^{f}(x,y)=\begin{pmatrix}
 2 & -3 \\
 -3 & 2
\end{pmatrix}

azaz 4 - 9 = -5 < 0 miatt nincs szélsőérték: nyeregpont.

3. Negatív A és C-re és kis B-re:

f(x,y)=-x^2+xy-y^2\,

Ekkor grad f = ( -2x + 3y , -2y + 3x ) és

\mathrm{H}^{f}(x,y)=\begin{pmatrix}
 -2 & 1 \\
 1 & -2
\end{pmatrix}

azaz 4 - 1 = 3 > 0 és -2 < 0 miatt maximum.

 set pm3d
set size 0.8,0.8
set xrange [-1:1]
set yrange [-1:1]
set zrange [-2:2]
set view 50,30,1,1
unset xtics
unset ytics
unset ztics
unset key
unset colorbox
splot -x*x +x*y-y*y

4. Ha A és C előjele ellenkező, akkor rögtön következik, hogy nincs sz.é.

f(x,y)=x^2+xy-y^2\,

Ekkor grad f = ( 2x + y , -2y + x ) és

\mathrm{H}^{f}(x,y)=\begin{pmatrix}
 2 & 1 \\
 1 & -2
\end{pmatrix}

azaz -4 - 1 = -5 < 0 azaz nyeregpont.

5. Atipikus eset, ha AC = B2. Ekkor nem jár sikerrel a próba:

f(x,y)=x^2+2xy+y^2\,

Ekkor grad f = ( 2x + 2y , 2y + 2x ) és

\mathrm{H}^{f}(x,y)=\begin{pmatrix}
 2 & 2 \\
 2 & 2
\end{pmatrix}

azaz 4 - 4 = 0, azaz határozatlan eset. De tudjuk, hogy

f(x,y)=(x+y)^2\,

ami pontosan akkor minimális, ha x = -y, azaz ezeken a helyeken van szélsőérték.

Egyváltozós illetve valós értékű függvény deriváltja

Ha f:Rn \supset\!\to R, akkor a definíciót még így is ki szokás mondani:

f diffható r0-ban, ha létezik m vektor, hogy

\lim\limits_{r\to r_0}\frac{f(r)-f(r_0)-m\cdot(r-r_0)}{|r-r_0|}=0

Ekkor az m a gradiensvektor, melynek sztenderd bázisbeli koordinátamátrixa a Jacobi mátrix:

\mathrm{grad}\,f(r_0)=[\partial_1f(r_0),...,\partial_nf(r_0)]

Ha f:R \supset\!\to Rn, akkor a definíciót még így is ki szokás mondani:

\exists\,f'(t_0)=\lim\limits_{t\to t_0}\frac{f(t)-f(t_0)}{t-t_0}\,

és ekkor f'(t0) a t0-beli deriváltvektor (ha t az idő és r=f(t) a hely, akkor ez a sebeségvektor).

Ha f:Rn \supset\!\to Rn, akkor a differenciált deriválttenzornak is nevezik.


Példa.

Mi az

f(r)=r^2\,,

skalárfüggvény gradiense?

Válasszuk le a lineáris részét!

r^2-r_0^2=(r-r_0)(r+r_0)=(r-r_0)(2r_0+r-r_0)=2r_0\cdot(r-r_0)+(r-r_0)^2\,

Itt az első tag a lineáris, a második a magasabbfokú. Tehát:

\mathrm{grad}\,r^2=2r\,



pótló gyakorlat 5. gyakorlat
Személyes eszközök