Matematika A2a 2008/6. gyakorlat

A MathWikiből
(Változatok közti eltérés)
(Egyváltozós illetve valós értékű függvény deriváltja)
 
(egy szerkesztő 22 közbeeső változata nincs mutatva)
1. sor: 1. sor:
 
:''Ez az szócikk a [[Matematika A2a 2008]] alszócikke.''
 
:''Ez az szócikk a [[Matematika A2a 2008]] alszócikke.''
 +
==Szélsőérték szükséges feltétele==
  
 +
Egyelőre állapodjunk meg abban, hogy gradiensnek nevezzük a következő többváltozós vektorértékű függvényt: ha  ''f'': '''R'''<sup>n</sup> <math>\supset\!\to</math> '''R'''  parciálisan differenciálható, akkor
 +
:<math>\mathrm{grad}\,f(x)=(\partial_1f(x),...,\partial_nf(x))</math>
 +
mely lényegében az ''f'' elsőrendű parciális deriváltjaiból képezett vektor.
  
 +
Később a gradienst egy kissé másképp fogjuk értelmezni és amit most definiáltunk, az a gradiens sztenderd bázisbeli mátrixa lesz (adott pontra vonatkozóan).
  
==Differenciálhatóság==
 
A többváltozós differenciálhatóságot az egyváltozós alábbi átfogalmazásából általánosítjuk:
 
  
:<math>\lim\limits_{x\to u}\frac{f(x)-f(u)-m(x-u)}{|x-u|}=0</math>
+
'''Tétel''' - ''Fermat-tétel'' - Legyen ''f'': '''R'''<sup>n</sup> <math>\supset\!\to</math> '''R''', ''u'' &isin; int Dom(''f''), ''f''  parciálisan differenciálható ''u''-ban.
:<math>\lim\limits_{x\to u+}\frac{f(x)-f(u)-m(x-u)}{x-u}=0\quad\wedge\quad\lim\limits_{x\to u-}\frac{f(x)-f(u)-m(x-u)}{-(x-u)}=0</math>
+
:Ha ''u''-ban ''f''-nek (lokális) szélsőértéke van, akkor
:<math>\lim\limits_{x\to u+}\left(\frac{f(x)-f(u)}{x-u}-m\right)=0,\quad\wedge\quad\lim\limits_{x\to u-}-\left(\frac{f(x)-f(u)}{x-u}-m\right)=0</math>
+
::<math>\mathrm{grad}\,f(u)=0_{\mathbf{R}^n}\,</math>  
:<math>\lim\limits_{x\to u+}\frac{f(x)-f(u)}{x-u}=m,\quad\wedge\quad\lim\limits_{x\to u-}-\frac{f(x)-f(u)}{x-u}=-m</math>
+
''U.is:'' minden ''i''-re az ''i''-edik parciális függvénynek szélsőértéke van ''u''<sub>i</sub>-ben, így az egyváltozós Fermat-tétel miatt ezeknek a deriváltja ''u''<sub>i</sub>-ben 0, így a gradiens értéke 0.
:<math>\lim\limits_{x\to u}\frac{f(x)-f(u)}{x-u}=m</math>
+
  
 +
====Példa====
 +
:<math>f(x,y)=x^2y^2\,</math>
 +
Ennek gradiense:
 +
:<math>\mathrm{grad}\,f(x,y)=(2xy^2,2yx^2)</math>
 +
Az
 +
:<math>\left.
 +
\begin{matrix}
 +
\mathrm{I.} & 2xy^2 & = & 0\\
 +
\mathrm{II.} & 2yx^2 & = & 0\\
 +
\end{matrix}
 +
\right\}</math>
 +
egyenletrendszer megoldásai: ''x'' = 0, ''y'' tetszőleges ill. ''y'' = 0 és ''x'' tetszőleges. A szélsőértékek helyei csak ezek közül kerülhetnek ki és ezek valóban szélsőértékek is, mert ezeken a függvény 0-t vesz fel, ami a lehetséges legkisebb értéke.
 +
:<gnuplot>
 +
set pm3d
 +
set size 0.8,0.8
 +
set xrange [-1:1]
 +
set yrange [-1:1]
 +
set zrange [-2:2]
 +
set view 50,30,1,1
 +
unset xtics
 +
unset ytics
 +
unset ztics
 +
unset key
 +
unset colorbox
 +
splot 5*x*x*y*y
 +
</gnuplot>
  
'''Definíció.''' Legyen ''f'': '''R'''<sup>n</sup> <math>\supset\!\longrightarrow</math> '''R'''<sup>m</sup> és ''u'' &isin; int Dom(f). Azt mondjuk, hogy ''f'' '''differenciálható''' az ''u'' pontban, ha létezik olyan ''A'': '''R'''<sup>n</sup> <math>\to</math> '''R'''<sup>m</sup> lineáris leképezés, hogy
+
==Magasabbrendű parciális deriváltak==
:<math>\lim\limits_{x\to u}\frac{f(x)-f(u)-\mathcal{A}(x-u)}{||x-u||_{\mathbf{R}^n}}=0_{\mathbf{R}^m}</math>
+
Ha ''f'' parciálisan deriválható, akkor &part;<sub>1</sub>''f'' és &part;<sub>2</sub>''f'' szintén kétváltozós függvények (a pontonként a deriváltak, mint függvényértékek értelmezésével) és érdeklődhetünk ezek parciális differenciálhatóságuk iránt. Például:
Ekkor ''A'' egyértelmű és az ''f'' leképezés ''u''-bent beli '''differenciál'''jának  nevezzük és d''f''(''u'')-val vagy D''f''(u)-val jelöljük. Ezt a fogalmat néha ''teljes differenciál''nak, ''totális differenciál''nak vagy ''Fréchet-derivált''nak is mondjuk.
+
  
'''Megjegyzés.''' A fenti határérték 0 volta egyenértékű a következő kijelentéssel. Létezik ''A''': ''R'''<sup>n</sup> <math>\to</math> '''R'''<sup>m</sup> lineáris leképezés és &epsilon;: Dom(''f'') <math>\to</math> '''R'''<sup>m</sup> függvény, melyre:
+
:<math>f(x,y)=x^2y^4+x^5-y^3\,</math>
: &epsilon; folytonos u-ban és &epsilon;(u)=0, továbbá
+
minden ''x'' &isin; Dom(''f'')-re:
+
: <math>f(x)=f(u)+\mathcal{A}(x-u)+\varepsilon(x)||x-u||</math>
+
'''Megjegyzés.''' Azt, hogy ''A'' egyértelmű, a következőkkel bizonyíthatjuk. Legyen ''A'' és ''B'' is a mondott tulajdonságú, azaz létezzenek &epsilon; és &eta; az ''u''-ban eltűnő és ott folytonos Dom(''f'')-en értelmezett függvények, melyekre teljesül, hogy minden ''x'' &isin; Dom(''f'')-re
+
:<math>f(x)=f(u)+\mathcal{A}(x-u)+\varepsilon(x)||x-u||</math>
+
:<math>f(x)=f(u)+\mathcal{B}(x-u)+\eta(x)||x-u||</math>
+
ezeket kivonva egymásból és használva '''minden''' ''x''-re:
+
:<math>(\mathcal{A}-\mathcal{B})(x-u)+(\varepsilon(x)-\eta(x))||x-u||=0</math>
+
így minden x = u + ty értékre is az azonosan nullát kapjuk, ha t pozitív szám, y pedig rögzített nemnulla vektor, azaz minden t-re
+
:<math>(\mathcal{A}-\mathcal{B})ty+(\varepsilon(u+ty)-\eta(u+ty))||ty||=0</math>
+
az azonosan 0 függény határértéke t<math>\to</math> 0 esetén szintén nulla:
+
:<math> 0=\lim\limits_{t\to 0}\frac{(\mathcal{A}-\mathcal{B})(ty)+(\varepsilon(u+ty)-\eta(u+ty))||ty||}{t}=(\mathcal{A}-\mathcal{B})y</math>
+
hiszen t-t kiemelhetünk és egyszerűsíthetünk és t<math>\to</math> 0 esetén
+
&epsilon; és &eta; nullává válik.
+
Ez viszont pont azt jelenti, hogy a két lineéris operátor azonosan egyenlő.
+
  
==Jacobi-mátrix==
+
:<math>\partial_xf(x,y)=xy^4+5x^4</math>  
A d''f''(''u'') lineáris leképezés (<math>e_1</math>,<math>e_2</math>,...,<math>e_n</math>) szetenderd bázisbeli mátrixa legyen: [d''f''(''u'')] = '''A'''. Vizsgáljuk mibe viszi a bázisokat d''f''(''u'') leképezés!
+
:<math>\partial_yf(x,y)=x^24y^3-3y^2</math>  
  
Írjuk fel a definíciót, de az <math>e_1</math> egységvektor mentén tartsunk ''u''-hoz: ''x'' = ''u'' + ''t''<math>e_1</math>. Ekkor
+
:<math>\partial_x(\partial_xf)(x,y)=y^4+20x^3</math>  
:<math>x-u=te_1\,</math>
+
:<math>\partial_y(\partial_yf)(x,y)=12x^2y^2-6y^2</math>  
ami azért hasznos, mert a
+
:<math>\partial_y(\partial_xf)(x,y)=x4y^3</math>  
:<math>\mathcal{A}(x-u)=\mathcal{A}(te_1)\,</math>
+
:<math>\partial_x(\partial_yf)(x,y)=4xy^3</math>
alakból kiemelhetó t:
+
:<math>0=\lim\limits_{t\to 0}\frac{f(u+te_1)-f(u)-\mathcal{A}(te_1)}{t}=</math>
+
:::<math>=\lim\limits_{t\to 0}\frac{f(u+te_1)-f(u)-t.\mathcal{A}(e_1)}{t}=</math>
+
:::<math>=-\mathcal{A}(e_1)+\lim\limits_{t\to 0}\frac{f(u+te_1)-f(u)}{t}</math>  
+
azaz
+
:<math>\mathcal{A}(e_1)=\lim\limits_{t\to 0}\frac{f(u+te_1)-f(u)}{t}=\partial_1 f(u)</math>
+
vagyis ''f'' koordinátafüggvényeinek az első változó szerinti parciális deriváltja az ''u'' pontban. A többi oszlopvektor ugyanígy:
+
  
:<math>[\mathrm{d}f(u)]=\mathbf{J}^f(u)=\begin{bmatrix}
+
És valóban:
\partial_1 f_1(u) & \partial_2 f_1(u) & \dots & \partial_n f_1(u)\\
+
\partial_1 f_2(u) & \partial_2 f_2(u) & \dots & \partial_n f_2(u)\\
+
\vdots            &    \vdots        &  \ddots    & \vdots \\
+
\partial_1 f_m(u) & \partial_2 f_m(u) & \dots & \partial_n f_m(u)\\
+
\end{bmatrix}</math>
+
amelyet '''Jacobi-mátrix'''nak nevezünk.
+
  
'''Következmény.''' Tehát. ha f totálisan differenciálható, akkor parciálisan is differenciálható és a differenciál sztenderd bázisbeli mátrixa a Jacobi-mátrix.
+
'''Tétel.''' (Young-tétel) Ha a másodrendű parciláis deriváltak léteznek az ''u'' egy  környezetében és folytonosak az ''u'' pontban, akkor az ''u''-beli vegyes másodrendű parciláis deriváltak egyenlőek:
 +
:<math>\partial_x(\partial_y f)(u)=\partial_y(\partial_x f)(u)</math>
  
Azaz:
+
Azaz az alábbi, úgy nevezett Hesse-mátrix szimmetrikus:
:'''teljes''' differenciálhatóság <math>\Longrightarrow</math> '''parciális''' differenciálhatóság
+
:<math>H^f(u)=\begin{bmatrix}
de ez fordítva már nem igaz:
+
\cfrac{\partial^2 f(u)}{\partial x^2} & \cfrac{\partial^2 f(u)}{\partial y\partial x}\\\\
: '''parciális''' differenciálhatóság <math>\not\Rightarrow</math> '''teljes''' differenciálhatóság
+
\cfrac{\partial^2 f(u)}{\partial x\partial y} & \cfrac{\partial^2 f(u)}{\partial y^2}
Erre vonatkozik a két alábbi példa.
+
\end{bmatrix}</math>
  
===Folytonosság és totális differenciálhatóság===
+
'''Feladat.''' Az a kitétel, hogy az ''u''-ban a másodrenrű parciláis deriváltak folytonosak, nem hagyható el, ugyanis. Legyen
Tekintsük az
+
:<math>f(x,y)=\left\{\begin{matrix}
:<math>g(x,y)=\left\{\begin{matrix}\begin{pmatrix}\frac{xy}{x^2+y^2}\\ x+y\end{pmatrix}& \mbox{, ha }&(x,y)\ne (0,0)\\
+
0,& \mbox{ ha }(x,y)=(0,0)\\
\begin{pmatrix}0\\ 0\end{pmatrix}&\mbox{, ha }&(x,y)=(0,0)\end{matrix}\right.</math>  
+
\frac{xy(x^2-y^2)}{x^2+y^2},& \mbox{ ha }(x,y)\ne(0,0)
Ekkor  
+
\end{matrix}\right.</math>
:<math>J^g(0,0)=\begin{pmatrix}0 & 0\\
+
Ekkor a 0-ban nem egyenlő a két vegyes parciális derivált.
1 & 1\end{pmatrix}</math>
+
Viszont g nem totálisan diffható, mert a (t,t) mentén a (0,0)-ba tartva:
+
:<math>\lim\limits_{t\to 0}\frac{g(t,t)-g(0,0)-J^g(0,0)\cdot(t,t)}{\sqrt{2}|t|}=\lim\limits_{t\to 0}\frac{(\frac{1}{2},2t)-(0,t)}{\sqrt{2}|t|}=\lim\limits_{t\to 0}\frac{(\frac{1}{2},t)}{\sqrt{2}|t|}=\lim\limits_{t\to 0}(\frac{1}{\sqrt{2}2|t|},\frac{t}{\sqrt{2}|t|})</math>
+
ami nem létezik.
+
  
'''Megjegyzés.''' Itt persze g nem folytonos, és itt is igaz az, hogy ha totálisan differenciálható egy függvény, akkor folytonos is:
+
Tekintsük a parciális deriváltakat:
 +
:<math>\partial_x(\partial_yf)(0,0)=\lim\limits_{x\to 0}\frac{(\partial_yf)(x,0)-(\partial_yf)(0,0)}{x}</math>
 +
:<math>\partial_y(\partial_xf)(0,0)=\lim\limits_{y\to 0}\frac{(\partial_xf)(0,y)-(\partial_xf)(0,0)}{y}</math>
 +
:<math>\partial_x(\partial_xf)(0,0)=\lim\limits_{x\to 0}\frac{(\partial_xf)(x,0)-(\partial_xf)(0,0)}{x}</math>
 +
:<math>\partial_y(\partial_yf)(0,0)=\lim\limits_{y\to 0}\frac{(\partial_yf)(0,y)-(\partial_yf)(0,0)}{y}</math>
 +
Ehhez tehát elegendő kiszámítani a következő föggvényeket: y <math>\mapsto</math> (&part;<sub>x</sub>f)(0,y), x <math>\mapsto</math> (&part;<sub>y</sub>f)(x,0). Ehhez a parciális deriváltak:
 +
:<math>\partial_xf(0,y)=\lim\limits_{t\to 0}\frac{f(t,y)-f(0,0)}{t}=\left\{\begin{matrix}
 +
0,& \mbox{ ha }y=0\\
 +
-y,& \mbox{ ha }y\ne 0
 +
\end{matrix}\right.</math>
 +
:<math>\partial_yf(x,0)=\lim\limits_{t\to 0}\frac{f(x,t)-f(0,0)}{t}=\left\{\begin{matrix}
 +
0,& \mbox{ ha }x=0\\
 +
x,& \mbox{ ha }x\ne 0
 +
\end{matrix}\right.</math>
 +
:<math>\partial_yf(0,y)=\lim\limits_{t\to 0}\frac{f(0,y+t)-f(0,0)}{t}=0</math>
 +
:<math>\partial_xf(x,0)=\lim\limits_{t\to 0}\frac{f(x+t,0)-f(0,0)}{t}=0</math>
  
'''Tétel.''' Ha ''f'' differenciálható ''u''-ban, akkor ott folytonos is, ugyanis minden ''x''-re:
+
Megjegyezzük, hogy a g=(&part;<sub>x</sub>f,&part;<sub>y</sub>f) függvény (0,0)-beli parciális deriváltjai nem lehetnek folytonosak, mert ott a függvény nem totálisan diffható. Ugyanis a g Jacobi-mátrixa:
:<math>f(x)=f(u)+(\mathrm{d}f(u))(x-u)+\varepsilon(x)||x-u||</math>
+
:<math>J^g(0,0)=H^f(0,0)=\begin{bmatrix}
amely tagjai mind folytonosak ''u''-ban.
+
0 & -1\\
 +
1 & 0
 +
\end{bmatrix}</math>
 +
ami a 90˚-os forgatás. Ekkor a g-t a (t,0) vektorral közelítve a 0-ba:
 +
:<math>\lim\limits_{t\to 0}\frac{g(t,0)-g(0,0)-J^g(0,0)\cdot (t,0)}{|t|}=\lim\limits_{t\to 0}\frac{(0,-t)}{|t|}\ne (0,0)\,</math>
 +
márpedig ha g minden parciális deriváltja folytonos lenne a (0,0)-ban, akkor g totálisan is deriválható lenne.
  
===Iránymenti deriválhatóság és differenciálhatóság===
+
==Többváltozós függvény szélsőértéke==
'''Példa.'''
+
:<math>f(x,y)=\left\{\begin{matrix}\frac{xy}{\sqrt{x^2+y^2}}& \mbox{, ha }&(x,y)\ne (0,0)\\
+
0&\mbox{, ha }&(x,y)=(0,0)\end{matrix}\right.</math>
+
  
Ekkor
 
:<math>\mathrm{J}^f(0,0)=[0, 0]\,</math>
 
  
Ha tehát differenciálható, akkor az '''iránymenti derivált'''ak (Gateau-deriváltak) is léteznek (e egységvektor):
+
===Másodikderivált próba===
 +
Kétszer differenciálható függvényre vonatkozóan megfogalmazhatjuk a  lokális maximum és minimum létezésének elégséges feltételét. Csak a kétváltozós függvényekkel foglalkozunk. Tegyük fel, hogy grad ''f''(u) = 0 és H<sup>f</sup>(u) az ''f'' Hesse-mátrixa
 +
# ha det H<sup>f</sup>(u) > 0 és &part;<sub>11</sub>''f''(''u'') < 0, akkor ''f''-nek ''u''-ban '''maximuma''' van
 +
# ha det H<sup>f</sup>(u) > 0 és &part;<sub>11</sub>''f''(''u'') > 0, akkor ''f''-nek ''u''-ban '''minimuma''' van
 +
# ha det H<sup>f</sup>(u) < 0, akkor ''f''-nek biztosan nincs szélsőértéke, ún. '''nyeregpont'''ja van
 +
# ha det H<sup>f</sup>(u) = 0, akkor a próba nem járt sikerrel, azaz további vizsgálatokat igényel annak eldöntése, hogy ''u'' szélsőérték hely-e.
  
:<math>\partial_ef(u)=\lim\limits_{t\to 0}\frac{f(u+te)-f(u)}{t}=\mathrm{J}^f(0,0)\cdot e=\mathrm{grad}\,f(u)</math>
+
''Megjegyzések.'' Mivel kétváltozós esetben
 +
:<math>\mathrm{det}\,\mathrm{H}^f(u)=\partial_{11}f(u)\cdot \partial_{22}f(u)-(\partial_{12}f(u))^2</math>
 +
ezért olyan eset nem létezik, hogy det H<sup>f</sup>(u) > 0 és &part;<sub>11</sub>''f''(''u'') = 0.
  
Ám, polárkoordinátákra áttérve:
+
Világos, hogy a másodikderivált tipikusan azoknál a függvényeknél jár sikerrel, melyeket egy másodfokú függvény közelít a legjobban (aszimptotikusan másodfokúak). Ha a függvény ennél magasabb fokú, akkor a második deriváltak eltűnnek és a Hesse-mártix elfajul (vagy legalább is tipikusan elfajul).
:<math>f(x(r,\varphi),y(r,\varphi))=\frac{r^2\cos\varphi\sin\varphi}{r}=r\cos\varphi\sin\varphi=r\cdot \frac{1}{2}\sin 2\varphi</math>  
+
&phi; = &pi;/4-et és &pi; + &pi;/4-et véve a vetületfüggvény a
+
Ha tehát
:<math>t\mapsto\frac{1}{2}|t|</math>,  
+
:<math>\mathrm{H}^{f}(u)=\begin{pmatrix}
ami nem differenciálható a 0-ban.
+
A & B \\
 +
B & C
 +
\end{pmatrix}</math>, akkor <math>\mathrm{det\,H}^{f}(u)=AC - B^2 </math>,
 +
és így a tipikus példák a következők.
  
==Egyváltozós illetve valós értékű függvény deriváltja==
+
====Példák====
  
Ha f:'''R'''<sup>n</sup> <math>\supset\!\to</math> '''R''', akkor a definíciót még így is ki szokás mondani:
+
'''1.''' Ha B kicsi, azaz az AC-hez képest kis abszolútrétékű szám, akkor a szélsőérték irányába mozdul el a feladat.
 +
:<math>f(x,y)=x^2+xy+y^2\,</math>
  
f diffható ''r''<sub>0</sub>-ban, ha létezik ''m'' vektor, hogy
+
Ekkor grad ''f'' = ( 2x + y , 2y + x ) és 
:<math>\lim\limits_{r\to r_0}\frac{f(r)-f(r_0)-m\cdot(r-r_0)}{|r-r_0|}=0</math>
+
:<math>\mathrm{H}^{f}(x,y)=\begin{pmatrix}
 +
2 & 1 \\
 +
1 & 2
 +
\end{pmatrix}</math>
 +
azaz 4 - 1 = 3 > 0 és 2 > 0 miatt minimum.
 +
:<gnuplot>
 +
set pm3d
 +
set size 0.8,0.8
 +
set xrange [-1:1]
 +
set yrange [-1:1]
 +
set zrange [-2:2]
 +
set view 50,30,1,1
 +
unset xtics
 +
unset ytics
 +
unset ztics
 +
unset key
 +
unset colorbox
 +
splot x*x+x*y+y*y
 +
</gnuplot>
  
Ekkor az m a '''gradiensvektor''', melynek sztenderd bázisbeli koordinátamátrixa a Jacobi mátrix:
+
'''2.''' Ha |B| nagy (azaz AC-hez képest nagy), akkor a bizonyosan nemszélsőérték irányába.
:<math>\mathrm{grad}\,f(r_0)=[\partial_1f(r_0),...,\partial_nf(r_0)]</math>
+
:<math>f(x,y)=x^2-3xy+y^2\,</math>
  
Ha f:'''R''' <math>\supset\!\to</math> '''R'''<sup>n</sup>, akkor a definíciót még így is ki szokás mondani:
+
Ekkor grad ''f'' = ( 2x + -3y , 2y + -3x ) és 
:<math>\exists\,f'(t_0)=\lim\limits_{t\to t_0}\frac{f(t)-f(t_0)}{t-t_0}\,</math>
+
:<math>\mathrm{H}^{f}(x,y)=\begin{pmatrix}
és ekkor f'(<math>t_0</math>) a <math>t_0</math>-beli '''deriváltvektor''' (ha t az idő és r=f(t) a hely, akkor ez a sebeségvektor).
+
2 & -3 \\
 +
-3 & 2
 +
\end{pmatrix}</math>
 +
azaz 4 - 9 = -5 < 0 miatt nincs szélsőérték: nyeregpont.
 +
:<gnuplot>
 +
set pm3d
 +
set size 0.8,0.8
 +
set xrange [-1:1]
 +
set yrange [-1:1]
 +
set zrange [-2:2]
 +
set view 50,30,1,1
 +
unset xtics
 +
unset ytics
 +
unset ztics
 +
unset key
 +
unset colorbox
 +
splot x*x -3*x*y+y*y
 +
</gnuplot>
  
Ha f:'''R'''<sup>n</sup> <math>\supset\!\to</math> '''R'''<sup>n</sup>, akkor a differenciált '''deriválttenzor'''nak is nevezik.
+
'''3.''' Negatív A és C-re és kis B-re:
 +
:<math>f(x,y)=-x^2+xy-y^2\,</math>
  
==Lineáris és affin függvény deriváltja==
+
Ekkor grad ''f'' = ( -2x + 3y , -2y + 3x ) és  
'''Tétel.''' Az ''A'' : '''R'''<sup>n</sup> <math>\to</math> '''R'''<sup>m</sup> lineáris leképezés differenciálható és differenciálja minden pontban saját maga:
+
:<math>\mathrm{H}^{f}(x,y)=\begin{pmatrix}
:<math>\mathrm{d}\mathcal{A}(u)=\mathcal{A}\,</math>
+
-2 & 1 \\
 +
1 & -2
 +
\end{pmatrix}</math>
 +
azaz 4 - 1 = 3 > 0 és -2 < 0 miatt maximum.
 +
:<gnuplot>
 +
set pm3d
 +
set size 0.8,0.8
 +
set xrange [-1:1]
 +
set yrange [-1:1]
 +
set zrange [-2:2]
 +
set view 50,30,1,1
 +
unset xtics
 +
unset ytics
 +
unset ztics
 +
unset key
 +
unset colorbox
 +
splot -x*x +x*y-y*y
 +
</gnuplot>
  
''Ugyanis, '' legyen ''u'' &isin;  '''R'''<sup>n</sup>. Ekkor
+
'''4.''' Ha A és C előjele ellenkező, akkor rögtön következik, hogy nincs sz.é.
 +
:<math>f(x,y)=x^2+xy-y^2\,</math>
  
:<math>\lim\limits_{x\to u}\frac{\mathcal{A}(x)-\mathcal{A}(u)-\mathcal{A}(x-u)}{||x-u||}=\lim\limits_{x\to u}0=0</math>
+
Ekkor grad ''f'' = ( 2x + y , -2y + x ) és 
 
+
:<math>\mathrm{H}^{f}(x,y)=\begin{pmatrix}
'''Tétel.''' Az azonosan '''c''' konstans függény esetén az d''c''(''u'') <math>\equiv</math> 0 alkalmas differenciálnak, mert
+
2 & 1 \\
:<math>\lim\limits_{x\to u}\frac{c-c-0\cdot(x-u)}{||x-u||}=\lim\limits_{x\to u}0=0</math>
+
1 & -2
 +
\end{pmatrix}</math>
 +
azaz -4 - 1 = -5 < 0 azaz nyeregpont.
 +
:<gnuplot>
 +
set pm3d
 +
set size 0.8,0.8
 +
set xrange [-1:1]
 +
set yrange [-1:1]
 +
set zrange [-2:2]
 +
set view 50,30,1,1
 +
unset xtics
 +
unset ytics
 +
unset ztics
 +
unset key
 +
unset colorbox
 +
splot x*x +x*y-y*y
 +
</gnuplot>
  
 +
'''5.''' Atipikus eset, ha  AC = B<sup>2</sup>. Ekkor nem jár sikerrel a próba:
 +
:<math>f(x,y)=x^2+2xy+y^2\,</math>
  
'''Tétel.''' Ha ''f'' és ''g'' a ''H'' &sube; '''R'''<sup>n</sup> halmazon értelmezett '''R'''<sup>m</sup>-be képező, az ''u'' &isin; ''H''-ban differenciálható függvények, akkor minden &lambda; számra
+
Ekkor grad ''f'' = ( 2x + 2y , 2y + 2x ) és  
:<math>\lambda.f\,</math>  is differenciálható ''u''-ban és <math>\mathrm{d}(\lambda.f)(u)=\lambda.\mathrm{d}f(u)\,</math> és
+
:<math>\mathrm{H}^{f}(x,y)=\begin{pmatrix}
:<math>f+g\,</math> is differenciálható ''u''-ban és <math>\mathrm{d}(f+g)(u)=\mathrm{d}f(u)+\mathrm{d}g(u)\,</math>
+
2 & 2 \\
''Ugyanis,'' a mondott differenciálokkal és a
+
2 & 2
:<math>\varepsilon_{\lambda.f}=\lambda.\varepsilon_{f}\,</math>
+
\end{pmatrix}</math>
:<math>\varepsilon_{f+g}=\varepsilon_{f}+\varepsilon_{g}\,</math>
+
azaz 4 - 4 = 0, azaz határozatlan eset.
választással, ezek az ''u''-ban folytonosak lesznek és a lineáris résszekel együtt ezek előállítják a skalárszoros és összegfüggvények megváltozásait.
+
De tudjuk, hogy
 
+
:<math>f(x,y)=(x+y)^2\,</math>
'''Következmény.''' Tehát minden ''u'' &isin; '''R'''<sup>n</sup>-re az '''affin''' c+''A'' diffható és
+
ami pontosan akkor minimális, ha x = -y, azaz ezeken a helyeken van szélsőérték.
:<math>\mathrm{d}(c+\mathcal{A})(u)=\mathcal{A}</math>
+
:<gnuplot>
 
+
set pm3d
===Példa===
+
set size 0.8,0.8
 
+
set xrange [-1:1]
Az ''A'': '''x''' <math>\mapsto</math> 2<math>x_1</math> + 3<math>x_2</math> - 4<math>x_3</math> lineáris leképezés differenciálja az '''u''' pontban az '''u'''-tól független
+
set yrange [-1:1]
:<math>(\mathrm{d}\mathcal{A}(\mathbf{u}))(x_1,x_2,x_3)=2x_1+3x_2-4x_3\,</math>
+
set zrange [-2:2]
és Jacobi-mátrixa a konstans
+
set view 50,30,1,1
:<math>\mathbf{J}^\mathcal{A}(\mathbf{u})=\begin{bmatrix}2 & 3 & -4\end{bmatrix}</math>
+
unset xtics
mátrix.
+
unset ytics
 
+
unset ztics
Világos, hogy a
+
unset key
:<math>\mathrm{pr}_i:(x_1,x_2,...,x_i,...,x_n)\mapsto x_i</math>
+
unset colorbox
koordináta vagy projekciófüggvény lineáris, differenciálja minden '''u''' pontban saját maga és ennek mátrixa:
+
splot (x+y)*(x+y)
:<math>[\mathrm{grad}\,\mathrm{pr_i}]=\mathbf{J}^{\mathrm{pr}_i}(\mathbf{u})=\begin{bmatrix}0 & 0 & ... & 1 & ...& 0\end{bmatrix}</math>
+
</gnuplot>
ahol az 1 az i-edik helyen áll. Másként
+
:<math>\partial_kx_i=\delta_{ki}</math>
+
ahol
+
:<math>\delta_{ij}=\left\{\begin{matrix}1, \mbox{ ha }i=j\\0, \mbox{ ha }i\ne j \end{matrix}\right.</math>
+
azaz a Kronecker-féle &delta; szimbólum.
+
 
+
 
+
 
+
===Függvénykompozíció differenciálja===
+
'''Tétel. ''' Legyen ''g'': '''R'''<sup>n</sup> &sup;<math>\to</math> '''R'''<sup>m</sup>, az ''u''-ban differenciálható, ''f'': '''R'''<sup>m</sup> &sup;<math>\to</math> '''R'''<sup>k</sup> a ''g''(''u'')-ban differenciálható függvény, ''u'' &isin; int Dom(''f'' <math>\circ</math> ''g''). Ekkor az
+
:<math>f\circ g</math> differenciálható ''u''-ban és
+
:<math> \mathrm{d}(f\circ g)(u)=\mathrm{d}f(g(u))\circ\mathrm{d}g(u)</math>
+
 
+
''Bizonyítás. '' Alkalmas &epsilon;, ''A'' és &eta; ''B'' párral, minden ''x'' &isin; Dom(''f'' <math>\circ</math> ''g'')-re:
+
:<math>f(g(x))=f(g(u))+\mathcal{A}(g(x)-g(u))+\varepsilon(g(x))||g(x)-g(u)||)=</math>
+
::<math>=f(g(u))+\mathcal{A}(\mathcal{B}(x-u)+\eta(x)||x-u||)+\varepsilon(g(x))||g(x)-g(u)||)=</math>  
+
::<math>=f(g(u))+(\mathcal{A}\circ\mathcal{B})(x-u)+\mathcal{A}(\eta(x)||x-u||)+\varepsilon(g(x))||g(x)-g(u)||)=</math>
+
::<math>=f(g(u))+(\mathcal{A}\circ\mathcal{B})(x-u)+(\mathcal{A}(\eta(x))+\varepsilon(g(x))||\mathcal{B}\frac{x-u}{||x-u||}+\eta(x)||)||x-u||</math>
+
Innen leolvasható a differenciál és a másodrendben eltűnő mennyiség vektortényezője, az
+
:<math>\varepsilon_{f\circ g}(x)=\mathcal{A}(\eta(x))+\varepsilon(g(x))||\mathcal{B}\frac{x-u}{||x-u||}+\eta(x)||</math>
+
melyben az első tag a 0-hoz tart, mivel a lineáris leképezés a 0-ban folytonos, és &eta; a 0-hoz tart az ''u''-ban. A második tag nulla szor korlátos alakú, hiszen a lineáris leképezés Lipschitz-tuladonsága folytán ''B'' minden egységvektoron korlátos értéket vesz fel.
+
 
+
Ennek a tételnek a legegyszerűbb, de már vektorokat tartalmazó formáját írja át "fogyasztható" formába az alábbi
+
 
+
'''Következmény.''' Ha ''g'': '''R'''<sup>n</sup> &sup;<math>\to</math> '''R''', az ''u''-ban differenciálható, ''f'': '''R''' &sup;<math>\to</math> '''R''' a ''g''(''u'')-ban differenciálható függvény, ''u'' &isin; int Dom(''f'' <math>\circ</math> ''g''), akkor
+
:<math>f\circ g</math> differenciálható ''u''-ban és
+
:<math> \mathrm{grad}(f\circ g)(u)=f'(g(u)).\mathrm{grad}\,g(u)</math>
+
Ahol . a skalárral való szorzást jelöli.
+
 
+
====1. Példa====
+
:<math>\Phi(\mathbf{r})=|\mathbf{r}|=\sqrt{\mathbf{r}^2}</math>
+
Először a gradienst számítjuk ki. Mivel a gyökfüggvény nem differenciálható a 0-ban, ezért a differenciál csak nemnulla '''r'''-re számítható ki. 0-ban a függvény tényleg nem differenciálható, mert a parciális deriváltak nem léteznek.
+
:<math>\Phi=\sqrt{.}\circ (.)^2\,</math>
+
és
+
:<math>\sqrt{.}\,'=\frac{1}{2\sqrt{.}}</math> illetve <math>\mathrm{grad}\, \mathbf{r}^2=2\mathbf{r}\,</math>
+
Ezért
+
:<math>\mathrm{grad}\,\Phi(\mathbf{r})=\sqrt{.}'(\mathbf{r}^2). \mathrm{grad}\,\mathbf{r}^2=\frac{1}{2\sqrt{\mathbf{r}^2}}\cdot 2\mathbf{r}=\frac{\mathbf{r}}{|\mathbf{r}|}</math>
+
Ha valakinek a differenciál leképezés kell, akkor pedig:
+
:<math>\mathrm{d}\sqrt{v}:y\mapsto \frac{1}{2\sqrt{v}}\cdot y </math>
+
:<math>v=\mathbf{r}^2\,</math>
+
:<math>\mathrm{d}\mathbf{r}^2:\mathbf{x}\mapsto 2\mathbf{r}\cdot \mathbf{x}</math>
+
Ezek kompozíciója:
+
:<math>\mathrm{d}\Phi(\mathbf{r}):\mathbf{x}\mapsto \frac{1}{2\sqrt{\mathbf{r}^2}}.2\mathbf{r}\cdot\mathbf{x}=\frac{\mathbf{r}}{|\mathbf{r}|}\cdot\mathbf{x}</math>
+
Szemléleti okokból lényeges, hogy itt . a skalárral való szorzás, <math>\cdot</math> a skaláris szorzás.
+
 
+
====2. Példa====
+
:<math>\Psi(\mathbf{r})=|\mathbf{r}|^{\alpha}</math>
+
:<math>\mathrm{d}\Psi(\mathbf{r}):\mathbf{x}\mapsto \alpha|\mathbf{r}|^{\alpha-1}.\frac{\mathbf{r}}{|\mathbf{r}|}\cdot\mathbf{x}</math>
+
illetve a gradiens:
+
:<math>\mathrm{grad}\,|\mathbf{r}|^\alpha=\alpha|\mathbf{r}|^{\alpha-1}.\frac{\mathbf{r}}{|\mathbf{r}|}</math>
+
  
  
  
 +
==Kiegészítés==
 
===Skalárfüggvények szorzata===
 
===Skalárfüggvények szorzata===
 
&lambda;, &mu;: ''H'' <math>\to</math> '''R''', ahol ''H'' &sube; '''R'''<sup>n</sup> és az ''u'' &isin; ''H''-ban mindketten differenciálhatók, akkor &lambda;&mu; is és  
 
&lambda;, &mu;: ''H'' <math>\to</math> '''R''', ahol ''H'' &sube; '''R'''<sup>n</sup> és az ''u'' &isin; ''H''-ban mindketten differenciálhatók, akkor &lambda;&mu; is és  
219. sor: 264. sor:
 
minden '''r'''-re fennáll, így grad('''id'''<sup>2</sup>)('''0''') = '''0''' alkalmas az &epsilon;('''r''')=|'''r'''|-rel, tehát '''r'''<sup>2</sup> differenciálható 0-ban is.
 
minden '''r'''-re fennáll, így grad('''id'''<sup>2</sup>)('''0''') = '''0''' alkalmas az &epsilon;('''r''')=|'''r'''|-rel, tehát '''r'''<sup>2</sup> differenciálható 0-ban is.
  
=='''a''' &times; ... operátor==
+
==='''a''' &times; ... operátor===
 
Differenciálható-e és ha igen mi a differenciálja, divergenciája, rotációja a  
 
Differenciálható-e és ha igen mi a differenciálja, divergenciája, rotációja a  
 
:<math>\mathbf{v}:\mathbf{R}^3\to\mathbf{R}^3;\quad \mathbf{v}(\mathbf{r})=\mathbf{a}\times\mathbf{r}</math>
 
:<math>\mathbf{v}:\mathbf{R}^3\to\mathbf{R}^3;\quad \mathbf{v}(\mathbf{r})=\mathbf{a}\times\mathbf{r}</math>
 
leképezésnek, ahol '''a''' előre  megadott konstans vektor.
 
leképezésnek, ahol '''a''' előre  megadott konstans vektor.
===Megoldás===
+
====Megoldás====
 
Az '''a''' &times; ..., azaz az
 
Az '''a''' &times; ..., azaz az
 
:<math>\mathbf{a}\times\mathrm{I}\,</math>
 
:<math>\mathbf{a}\times\mathrm{I}\,</math>
246. sor: 291. sor:
 
ami azt mondja, hogy ha az ijk és klm-ben a nem azonos párok jó sorrendben következnek, akkor az epszolon 1-et, ha rossz sorrendben, akkor -1-et ad.
 
ami azt mondja, hogy ha az ijk és klm-ben a nem azonos párok jó sorrendben következnek, akkor az epszolon 1-et, ha rossz sorrendben, akkor -1-et ad.
  
 
+
==='''a''' <math>\cdot</math> ... operátor===
=='''a''' <math>\cdot</math> ... operátor==
+
 
Differenciálható-e és ha igen mi a differenciálja
 
Differenciálható-e és ha igen mi a differenciálja
 
:<math>\Phi:\mathbf{R}^3\to\mathbf{R};\quad \Phi(\mathbf{r})=\mathbf{a}\cdot\mathbf{r}</math>
 
:<math>\Phi:\mathbf{R}^3\to\mathbf{R};\quad \Phi(\mathbf{r})=\mathbf{a}\cdot\mathbf{r}</math>
 
leképezésnek, ahol '''a''' előre  megadott konstans vektor.
 
leképezésnek, ahol '''a''' előre  megadott konstans vektor.
===Megoldás===
+
====Megoldás====
 
Skalártér lévén &Phi; gradiensét kell kiszámolnunk. Mivel ez is lineáris leképezés, ezért differenciálható és differenciálja saját maga, azaz a gradiens vektor pont '''a''':
 
Skalártér lévén &Phi; gradiensét kell kiszámolnunk. Mivel ez is lineáris leképezés, ezért differenciálható és differenciálja saját maga, azaz a gradiens vektor pont '''a''':
 
:<math>\mathrm{grad}\,(\mathbf{a}\cdot\mathbf{r})=\mathbf{a}</math>
 
:<math>\mathrm{grad}\,(\mathbf{a}\cdot\mathbf{r})=\mathbf{a}</math>
 
Ezt persze indexes deriválással is kiszámítható:
 
Ezt persze indexes deriválással is kiszámítható:
 
:<math>[\mathrm{grad}\,\Phi]_i=\partial_ia_kx_k=a_k\partial_ix_k=a_k\delta_{ik}=a_i\,</math>
 
:<math>[\mathrm{grad}\,\Phi]_i=\partial_ia_kx_k=a_k\partial_ix_k=a_k\delta_{ik}=a_i\,</math>
==További példa skalárfüggvényre==
+
===További példa skalárfüggvényre===
 
Hatérozzuk meg a &Phi;
 
Hatérozzuk meg a &Phi;
 
:<math>\Phi:\mathbf{R}^3\to\mathbf{R};\quad \Phi(\mathbf{r})=|\mathbf{i}\times\mathbf{r}|</math>
 
:<math>\Phi:\mathbf{R}^3\to\mathbf{R};\quad \Phi(\mathbf{r})=|\mathbf{i}\times\mathbf{r}|</math>
 
(ahol '''i''' az ''x'' irányú egységvektor, |.| a vektor hossza) függvény szintvonalait, differenciálhatóságát, gradiensét!
 
(ahol '''i''' az ''x'' irányú egységvektor, |.| a vektor hossza) függvény szintvonalait, differenciálhatóságát, gradiensét!
===Megoldás===
+
====Megoldás====
 
Érdemes koordinátás írásmódra áttérni, hiszen az '''i''' vektor úgy is a koordinátarendszerhez kapcsolódik. A vektoriális szorzás definíciója miatt  
 
Érdemes koordinátás írásmódra áttérni, hiszen az '''i''' vektor úgy is a koordinátarendszerhez kapcsolódik. A vektoriális szorzás definíciója miatt  
 
:<math>\Phi(x,y,z)=\Phi(\mathbf{r})=|\mathbf{r}|\cdot\sin(\mathbf{i},\mathbf{r})_\angle=\sqrt{y^2+z^2}</math>
 
:<math>\Phi(x,y,z)=\Phi(\mathbf{r})=|\mathbf{r}|\cdot\sin(\mathbf{i},\mathbf{r})_\angle=\sqrt{y^2+z^2}</math>
277. sor: 321. sor:
 
:<math>\mathrm{grad}\,\Phi(\mathbf{r})=\mathrm{grad}\sqrt{(\mathbf{i}\times\mathbf{r})^2}=\frac{1}{2\sqrt{(\mathbf{i}\times\mathbf{r})^2}}\cdot 2(\mathbf{i}\times\mathbf{r})\times(-\mathbf{i})</math>
 
:<math>\mathrm{grad}\,\Phi(\mathbf{r})=\mathrm{grad}\sqrt{(\mathbf{i}\times\mathbf{r})^2}=\frac{1}{2\sqrt{(\mathbf{i}\times\mathbf{r})^2}}\cdot 2(\mathbf{i}\times\mathbf{r})\times(-\mathbf{i})</math>
  
==Teljes és parciális differenciálhatóság==
+
===Indexes deriválás===
Ha az ''f'':'''R'''<sup>n</sup> &sup;<math>\to</math> '''R'''<sup>m</sup> függvény differenciálható az ''u'' pontban, akkor ott minden parciális deriváltja létezik és teljesül [(d''f''(''u''))e<sub>''j''</sub>]<sub>''i''</sub> = &part;<sub>j</sub>''f''<sub>i</sub>(''u'').
+
Azaz:
+
:'''teljes''' differenciálhatóság <math>\Longrightarrow</math> '''parciális''' differenciálhatóság
+
de ez fordítva már nem igaz:
+
: '''parciális''' differenciálhatóság <math>\not\Rightarrow</math> '''teljes''' differenciálhatóság
+
Erre vonatkozik a két alábbi példa.
+
 
+
====Nem folytonos függvény létező parciális deriváltakkal====
+
Tekintsük az
+
:<math>f(x,y)=\left\{\begin{matrix}\frac{xy}{x^2+y^2}& \mbox{, ha }&(x,y)\ne (0,0)\\
+
0&\mbox{, ha }&(x,y)=(0,0)\end{matrix}\right.</math>
+
:<gnuplot>
+
set pm3d
+
set size 0.8,0.8
+
set xrange [-1:1]
+
set yrange [-1:1]
+
set zrange [-2:2]
+
set view 50,30,1,1
+
unset xtics
+
unset ytics
+
unset ztics
+
unset key
+
unset colorbox
+
splot x*y/(x*x+y*y)
+
</gnuplot>
+
(0,0)-ban a parciális függvények az azonosan 0 függvény, mely persze deriválható a 0-ban, de a függvény még csak nem is folytonos (0,0)-ban, mely szükséges feltétele a teljes differenciálhatóságnak.
+
 
+
 
+
 
+
====További példa====
+
:<math>f(x,y)=\sqrt[3]{x^3+y^3}</math>
+
 
+
==Folytonos parciális differenciálhatóság==
+
 
+
Megfordításról a következő esetben beszélhetünk.
+
 
+
'''Tétel.''' Ha az ''f'':'''R'''<sup>n</sup> &sup;<math>\to</math> '''R'''<sup>m</sup> függvény minden parciális deriváltfüggvénye létezik az ''u'' egy környezetében és ''u''-ban a parciális deriváltak folytonosak, akkor ''u''-ban ''f'' differenciálható. (Sőt, folytonosan differenciálható.)
+
 
+
''Bizonyítás.'' Elegendő az m = 1 esetet vizsgálni. Továbbá a bizonyítás elve nem változik, ha csak az n = 2 esetet tekintjük. Legyen x az u mondott környezetéből vett pont, és x = (<math>x_1</math>,<math>x_2</math>), v=(<math>u_1</math>,<math>x_2</math>), u=(<math>u_1</math>,<math>u_2</math>) Ekkor az [x,v] szakaszon &#8706;<sub>1</sub>f-hez a Lagrange-féle középértéktétel miatt létezik olyan &xi;(<math>x_1</math>)&isin;[<math>x_1</math>,<math>u_1</math>]  szám, és a [v,u] szakaszon &#8706;<sub>2</sub>f-hez &zeta;(<math>x_2</math>)&isin;[<math>x_2</math>,<math>u_2</math>] szám, hogy
+
:<math>f(x)-f(u)=f(x)-f(v)+f(v)-f(u)=\,</math>
+
:<math>=\partial_1 f(\xi(x_1),x_2)(x_1-u_1)+\partial_2 f(u_1,\zeta(x_2))(x_2-u_2)=</math>
+
:<math>=\partial_1f(u)(x_1-u_1)+\partial_2f(u)(x_2-u_2)+</math>
+
:<math>+(\partial_1 f(\xi(x_1),x_2)-\partial_1f(u))(x_1-u_1)+(\partial_2 f(u_1,\zeta(x_2))-\partial_2f(u))(x_2-u_2)</math>
+
itt az
+
:<math>\varepsilon_1(x)=\partial_1 f(\xi(x_1),x_2)-\partial_1f(u)</math> és <math>\varepsilon_2(x)=\partial_2 f(x_1,\zeta(x_2))-\partial_2f(u)</math>
+
függvények folytonosak ''u''-ban (még ha a &xi;, &zeta; függvények nem is azok), és értékük az ''u''-ban 0. Világos, hogy ez azt jelenti, hogy f differenciálható ''u''-ban.
+
 
+
Világos, hogy a parciális deriváltak folytonossága szükséges a fenti tételben. Az alábbi példában léteznek a parciális deriváltfüggvények az ''u'' egy környzetében, de az ''u''-ban nem folytonosak.
+
====Nem differenciálható, nem folytonosan parciálisan differenciálható függvény====
+
 
+
:<math>f(x,y)=\left\{\begin{matrix}\frac{xy}{\sqrt{x^2+y^2}}& \mbox{, ha }&(x,y)\ne (0,0)\\
+
0&\mbox{, ha }&(x,y)=(0,0)\end{matrix}\right.</math>
+
parciális deriváltfüggvényei léteznek:
+
:<math>\frac{\partial f(x,y)}{\partial x}=\frac{y}{\sqrt{x^2+y^2}}-\frac{x^2y}{\sqrt{(x^2+y^2)^3}}</math>
+
a másik hasonlóan. A 0-ban 0 mindkettő, de az (0,1/n) mentén a 0-ba tartva az 1-hez tart, ami nem 0.
+
 
+
====Differenciálható, de nem folytonosan parciálisan differenciálható====
+
A differenciálhatóság azonban nem elég ahhoz, hogy a parciális deriváltak folytonosak legyenek.
+
 
+
Az
+
:<math>f(x,y)=\left\{\begin{matrix}(x^2+y^2)\sin\cfrac{1}{x^2+y^2}, & \mbox{ha} & (x,y)\ne (0,0)\\\\
+
0, & \mbox{ha} & (x,y) =(0,0)
+
\end{matrix}\right.
+
</math>
+
differenciálható, hiszen ez az
+
:<math>f(\mathbf{r})=\left\{\begin{matrix} \mathbf{r}^2\cdot\sin(|\mathbf{r}|^{-2}) & \mbox{ha} & \mathbf{r}\ne \mathbf{0}\\\\
+
\mathbf{0}, & \mbox{ha} & \mathbf{r}= \mathbf{0}\end{matrix}\right.
+
</math>
+
függvény és '''r''' &ne; '''0'''-ban:
+
:<math>\mathrm{grad}(f)=\sin(|\mathbf{r}|^{-2}).\mathrm{grad}\,\mathbf{r}^2+\mathbf{r}^2.\mathrm{grad}\,\sin(|\mathbf{r}|^{-2})=</math>
+
:<math>=\sin(|\mathbf{r}|^{-2}).2\mathbf{r}+\mathbf{r}^2\cdot\cos(|\mathbf{r}|^{-2})\cdot(-2)|\mathbf{r}|^{-3}.\frac{\mathbf{r}}{|\mathbf{r}|}</math>
+
és grad f nem korlátos. Ez persze a parciális deriváltakon is megátszik: azok sem korlátosak.
+
 
+
==Indexes deriválás==
+
 
Most csak a sokféle szorzat deriváltjának értékét számítjuk ki. Minden esetben igazolható, hogy ha a formulákban szereplő összes derivált létezik, akkor a formula érvényes (sőt, ha a függvények az adott pontban differenciálhatók, akkor a szorzat is differenciálható az adott pontban). Az mátrixelemeket indexesen számítjuk.
 
Most csak a sokféle szorzat deriváltjának értékét számítjuk ki. Minden esetben igazolható, hogy ha a formulákban szereplő összes derivált létezik, akkor a formula érvényes (sőt, ha a függvények az adott pontban differenciálhatók, akkor a szorzat is differenciálható az adott pontban). Az mátrixelemeket indexesen számítjuk.
  
419. sor: 389. sor:
 
ahol <math>[.]^\mathrm{T}</math> az oszlopvektor transzponáltját, <math>(v\cdot)</math> pedig a v vektorral történő skaláris szorzás operátorát jelöli.
 
ahol <math>[.]^\mathrm{T}</math> az oszlopvektor transzponáltját, <math>(v\cdot)</math> pedig a v vektorral történő skaláris szorzás operátorát jelöli.
  
==Házi feladat==
+
 
* <math>f_n(x,y)=\frac{x^ny}{x^2+y^2}\quad f_n(0,0)=0</math> függvényosztály folytonossága parciális és totális deifferenciálhatósága, folytonos parciális és totális differenciálhatósága
+
  
  

A lap jelenlegi, 2017. február 19., 18:26-kori változata

Ez az szócikk a Matematika A2a 2008 alszócikke.

Tartalomjegyzék

Szélsőérték szükséges feltétele

Egyelőre állapodjunk meg abban, hogy gradiensnek nevezzük a következő többváltozós vektorértékű függvényt: ha f: Rn \supset\!\to R parciálisan differenciálható, akkor

\mathrm{grad}\,f(x)=(\partial_1f(x),...,\partial_nf(x))

mely lényegében az f elsőrendű parciális deriváltjaiból képezett vektor.

Később a gradienst egy kissé másképp fogjuk értelmezni és amit most definiáltunk, az a gradiens sztenderd bázisbeli mátrixa lesz (adott pontra vonatkozóan).


Tétel - Fermat-tétel - Legyen f: Rn \supset\!\to R, u ∈ int Dom(f), f parciálisan differenciálható u-ban.

Ha u-ban f-nek (lokális) szélsőértéke van, akkor
\mathrm{grad}\,f(u)=0_{\mathbf{R}^n}\,

U.is: minden i-re az i-edik parciális függvénynek szélsőértéke van ui-ben, így az egyváltozós Fermat-tétel miatt ezeknek a deriváltja ui-ben 0, így a gradiens értéke 0.

Példa

f(x,y)=x^2y^2\,

Ennek gradiense:

\mathrm{grad}\,f(x,y)=(2xy^2,2yx^2)

Az

\left.
\begin{matrix} 
\mathrm{I.} & 2xy^2 & = & 0\\
\mathrm{II.} & 2yx^2 & = & 0\\
\end{matrix}
\right\}

egyenletrendszer megoldásai: x = 0, y tetszőleges ill. y = 0 és x tetszőleges. A szélsőértékek helyei csak ezek közül kerülhetnek ki és ezek valóban szélsőértékek is, mert ezeken a függvény 0-t vesz fel, ami a lehetséges legkisebb értéke.

 set pm3d
set size 0.8,0.8
set xrange [-1:1]
set yrange [-1:1]
set zrange [-2:2]
set view 50,30,1,1
unset xtics
unset ytics
unset ztics
unset key
unset colorbox
splot 5*x*x*y*y

Magasabbrendű parciális deriváltak

Ha f parciálisan deriválható, akkor ∂1f és ∂2f szintén kétváltozós függvények (a pontonként a deriváltak, mint függvényértékek értelmezésével) és érdeklődhetünk ezek parciális differenciálhatóságuk iránt. Például:

f(x,y)=x^2y^4+x^5-y^3\,
\partial_xf(x,y)=xy^4+5x^4
\partial_yf(x,y)=x^24y^3-3y^2
\partial_x(\partial_xf)(x,y)=y^4+20x^3
\partial_y(\partial_yf)(x,y)=12x^2y^2-6y^2
\partial_y(\partial_xf)(x,y)=x4y^3
\partial_x(\partial_yf)(x,y)=4xy^3

És valóban:

Tétel. (Young-tétel) Ha a másodrendű parciláis deriváltak léteznek az u egy környezetében és folytonosak az u pontban, akkor az u-beli vegyes másodrendű parciláis deriváltak egyenlőek:

\partial_x(\partial_y f)(u)=\partial_y(\partial_x f)(u)

Azaz az alábbi, úgy nevezett Hesse-mátrix szimmetrikus:

H^f(u)=\begin{bmatrix}
\cfrac{\partial^2 f(u)}{\partial x^2} & \cfrac{\partial^2 f(u)}{\partial y\partial x}\\\\
\cfrac{\partial^2 f(u)}{\partial x\partial y} & \cfrac{\partial^2 f(u)}{\partial y^2}
\end{bmatrix}

Feladat. Az a kitétel, hogy az u-ban a másodrenrű parciláis deriváltak folytonosak, nem hagyható el, ugyanis. Legyen

f(x,y)=\left\{\begin{matrix}
0,& \mbox{ ha }(x,y)=(0,0)\\
\frac{xy(x^2-y^2)}{x^2+y^2},& \mbox{ ha }(x,y)\ne(0,0)
\end{matrix}\right.

Ekkor a 0-ban nem egyenlő a két vegyes parciális derivált.

Tekintsük a parciális deriváltakat:

\partial_x(\partial_yf)(0,0)=\lim\limits_{x\to 0}\frac{(\partial_yf)(x,0)-(\partial_yf)(0,0)}{x}
\partial_y(\partial_xf)(0,0)=\lim\limits_{y\to 0}\frac{(\partial_xf)(0,y)-(\partial_xf)(0,0)}{y}
\partial_x(\partial_xf)(0,0)=\lim\limits_{x\to 0}\frac{(\partial_xf)(x,0)-(\partial_xf)(0,0)}{x}
\partial_y(\partial_yf)(0,0)=\lim\limits_{y\to 0}\frac{(\partial_yf)(0,y)-(\partial_yf)(0,0)}{y}

Ehhez tehát elegendő kiszámítani a következő föggvényeket: y \mapsto (∂xf)(0,y), x \mapsto (∂yf)(x,0). Ehhez a parciális deriváltak:

\partial_xf(0,y)=\lim\limits_{t\to 0}\frac{f(t,y)-f(0,0)}{t}=\left\{\begin{matrix}
0,& \mbox{ ha }y=0\\
-y,& \mbox{ ha }y\ne 0
\end{matrix}\right.
\partial_yf(x,0)=\lim\limits_{t\to 0}\frac{f(x,t)-f(0,0)}{t}=\left\{\begin{matrix}
0,& \mbox{ ha }x=0\\
x,& \mbox{ ha }x\ne 0
\end{matrix}\right.
\partial_yf(0,y)=\lim\limits_{t\to 0}\frac{f(0,y+t)-f(0,0)}{t}=0
\partial_xf(x,0)=\lim\limits_{t\to 0}\frac{f(x+t,0)-f(0,0)}{t}=0

Megjegyezzük, hogy a g=(∂xf,∂yf) függvény (0,0)-beli parciális deriváltjai nem lehetnek folytonosak, mert ott a függvény nem totálisan diffható. Ugyanis a g Jacobi-mátrixa:

J^g(0,0)=H^f(0,0)=\begin{bmatrix}
0 & -1\\
1 & 0
\end{bmatrix}

ami a 90˚-os forgatás. Ekkor a g-t a (t,0) vektorral közelítve a 0-ba:

\lim\limits_{t\to 0}\frac{g(t,0)-g(0,0)-J^g(0,0)\cdot (t,0)}{|t|}=\lim\limits_{t\to 0}\frac{(0,-t)}{|t|}\ne (0,0)\,

márpedig ha g minden parciális deriváltja folytonos lenne a (0,0)-ban, akkor g totálisan is deriválható lenne.

Többváltozós függvény szélsőértéke

Másodikderivált próba

Kétszer differenciálható függvényre vonatkozóan megfogalmazhatjuk a lokális maximum és minimum létezésének elégséges feltételét. Csak a kétváltozós függvényekkel foglalkozunk. Tegyük fel, hogy grad f(u) = 0 és Hf(u) az f Hesse-mátrixa

  1. ha det Hf(u) > 0 és ∂11f(u) < 0, akkor f-nek u-ban maximuma van
  2. ha det Hf(u) > 0 és ∂11f(u) > 0, akkor f-nek u-ban minimuma van
  3. ha det Hf(u) < 0, akkor f-nek biztosan nincs szélsőértéke, ún. nyeregpontja van
  4. ha det Hf(u) = 0, akkor a próba nem járt sikerrel, azaz további vizsgálatokat igényel annak eldöntése, hogy u szélsőérték hely-e.

Megjegyzések. Mivel kétváltozós esetben

\mathrm{det}\,\mathrm{H}^f(u)=\partial_{11}f(u)\cdot \partial_{22}f(u)-(\partial_{12}f(u))^2

ezért olyan eset nem létezik, hogy det Hf(u) > 0 és ∂11f(u) = 0.

Világos, hogy a másodikderivált tipikusan azoknál a függvényeknél jár sikerrel, melyeket egy másodfokú függvény közelít a legjobban (aszimptotikusan másodfokúak). Ha a függvény ennél magasabb fokú, akkor a második deriváltak eltűnnek és a Hesse-mártix elfajul (vagy legalább is tipikusan elfajul).

Ha tehát

\mathrm{H}^{f}(u)=\begin{pmatrix}
 A & B \\
 B & C
\end{pmatrix}, akkor \mathrm{det\,H}^{f}(u)=AC - B^2 ,

és így a tipikus példák a következők.

Példák

1. Ha B kicsi, azaz az AC-hez képest kis abszolútrétékű szám, akkor a szélsőérték irányába mozdul el a feladat.

f(x,y)=x^2+xy+y^2\,

Ekkor grad f = ( 2x + y , 2y + x ) és

\mathrm{H}^{f}(x,y)=\begin{pmatrix}
 2 & 1 \\
 1 & 2
\end{pmatrix}

azaz 4 - 1 = 3 > 0 és 2 > 0 miatt minimum.

 set pm3d
set size 0.8,0.8
set xrange [-1:1]
set yrange [-1:1]
set zrange [-2:2]
set view 50,30,1,1
unset xtics
unset ytics
unset ztics
unset key
unset colorbox
splot x*x+x*y+y*y

2. Ha |B| nagy (azaz AC-hez képest nagy), akkor a bizonyosan nemszélsőérték irányába.

f(x,y)=x^2-3xy+y^2\,

Ekkor grad f = ( 2x + -3y , 2y + -3x ) és

\mathrm{H}^{f}(x,y)=\begin{pmatrix}
 2 & -3 \\
 -3 & 2
\end{pmatrix}

azaz 4 - 9 = -5 < 0 miatt nincs szélsőérték: nyeregpont.

 set pm3d
set size 0.8,0.8
set xrange [-1:1]
set yrange [-1:1]
set zrange [-2:2]
set view 50,30,1,1
unset xtics
unset ytics
unset ztics
unset key
unset colorbox
splot x*x -3*x*y+y*y

3. Negatív A és C-re és kis B-re:

f(x,y)=-x^2+xy-y^2\,

Ekkor grad f = ( -2x + 3y , -2y + 3x ) és

\mathrm{H}^{f}(x,y)=\begin{pmatrix}
 -2 & 1 \\
 1 & -2
\end{pmatrix}

azaz 4 - 1 = 3 > 0 és -2 < 0 miatt maximum.

 set pm3d
set size 0.8,0.8
set xrange [-1:1]
set yrange [-1:1]
set zrange [-2:2]
set view 50,30,1,1
unset xtics
unset ytics
unset ztics
unset key
unset colorbox
splot -x*x +x*y-y*y

4. Ha A és C előjele ellenkező, akkor rögtön következik, hogy nincs sz.é.

f(x,y)=x^2+xy-y^2\,

Ekkor grad f = ( 2x + y , -2y + x ) és

\mathrm{H}^{f}(x,y)=\begin{pmatrix}
 2 & 1 \\
 1 & -2
\end{pmatrix}

azaz -4 - 1 = -5 < 0 azaz nyeregpont.

 set pm3d
set size 0.8,0.8
set xrange [-1:1]
set yrange [-1:1]
set zrange [-2:2]
set view 50,30,1,1
unset xtics
unset ytics
unset ztics
unset key
unset colorbox
splot x*x +x*y-y*y

5. Atipikus eset, ha AC = B2. Ekkor nem jár sikerrel a próba:

f(x,y)=x^2+2xy+y^2\,

Ekkor grad f = ( 2x + 2y , 2y + 2x ) és

\mathrm{H}^{f}(x,y)=\begin{pmatrix}
 2 & 2 \\
 2 & 2
\end{pmatrix}

azaz 4 - 4 = 0, azaz határozatlan eset. De tudjuk, hogy

f(x,y)=(x+y)^2\,

ami pontosan akkor minimális, ha x = -y, azaz ezeken a helyeken van szélsőérték.

 set pm3d
set size 0.8,0.8
set xrange [-1:1]
set yrange [-1:1]
set zrange [-2:2]
set view 50,30,1,1
unset xtics
unset ytics
unset ztics
unset key
unset colorbox
splot (x+y)*(x+y)


Kiegészítés

Skalárfüggvények szorzata

λ, μ: H \to R, ahol HRn és az uH-ban mindketten differenciálhatók, akkor λμ is és

[\mathrm{d}(\lambda\mu)(u)]_{1j}=\partial_j(\lambda\mu)=\mu\partial_j\lambda+\lambda\partial_j\mu=[\mu(u).\mathrm{grad}\,\lambda(u)+\lambda(u).\mathrm{grad}\,\mu(u)]_{j}

azaz

\mathrm{grad}(\lambda\mu)(u)=\mu(u).\mathrm{grad}\,\lambda(u)+\lambda(u).\mathrm{grad}\,\mu(u)

Példa

Számoljuk ki r2 deriváltját a szorzat szabálya szerint.

Egyrészt, ha r0, akkor

\mathrm{grad}\,\mathbf{r}^2=\mathrm{grad}\,|\mathbf{r}|\cdot|\mathbf{r}|=2|\mathbf{r}|.\mathrm{grad}|\mathbf{r}|=2|\mathbf{r}|.\frac{\mathbf{r}}{|\mathbf{r}| } =2\mathbf{r}\,

Másrészt, ha r = 0, akkor

 \mathbf{r}^2=0+\mathbf{0}\cdot\mathbf{r}+|\mathbf{r}|\cdot |\mathbf{r}|\,

minden r-re fennáll, így grad(id2)(0) = 0 alkalmas az ε(r)=|r|-rel, tehát r2 differenciálható 0-ban is.

a × ... operátor

Differenciálható-e és ha igen mi a differenciálja, divergenciája, rotációja a

\mathbf{v}:\mathbf{R}^3\to\mathbf{R}^3;\quad \mathbf{v}(\mathbf{r})=\mathbf{a}\times\mathbf{r}

leképezésnek, ahol a előre megadott konstans vektor.

Megoldás

Az a × ..., azaz az

\mathbf{a}\times\mathrm{I}\,

(itt I az identitás leképezés) leképezés lineáris, minthogy a vektoriális szorzás mindkét változójában lineáris (vLin(R3;R3)), így differenciálható és differenciálja saját maga:

\mathrm{d}(\mathbf{a}\times\mathrm{I})(\mathbf{r})=\mathbf{a}\times\mathrm{I}

azaz

(\mathrm{d}(\mathbf{a}\times\mathrm{I})(\mathbf{r}))\mathbf{h}=\mathbf{a}\times\mathbf{h}

minden h és rR3 vektorra.

Jacobi-mátrixa (a sztenderd bázisbeli mátrixa) tetszőleges (x,y,z) pontban:

\mathrm{J}^{\mathbf{a}\times\mathrm{I}}(x,y,z)=
\begin{bmatrix}
\;\,0 & -a_3& \;\;\,a_2\\
\;\;\,a_3 & \;\,0 & -a_1\\
-a_2 & \;\;\,a_1& \;\,0\\
\end{bmatrix}

Mivel a főátlóbeli elemek mind nullák, ezért ebből rögtön következik, hogy div(a × I)(r) = 0.

[\mathrm{rot}\,\mathbf{v}]_i=\varepsilon_{ijk}\partial_j\varepsilon_{klm}a_lx_m=\varepsilon_{ijk}\varepsilon_{klm}a_l\partial_j x_m=\varepsilon_{ijk}\varepsilon_{klm}a_l\delta_{jm}=\varepsilon_{ijk}\varepsilon_{klj}a_l=
=\delta_{kk}\delta_{il}a_l-\delta_{ki}\delta_{lk}a_l=3a_i-a_i=2a_i\,

azaz rot v (r) = 2a. Az előbb felhasználtuk a kettős vektoriális szorzatra vonatkozó kifejtési tétel indexes alakját, a

\varepsilon_{ijk}\varepsilon_{klm}=\delta_{jm}\delta_{li}-\delta_{jl}\delta_{im}\,

ami azt mondja, hogy ha az ijk és klm-ben a nem azonos párok jó sorrendben következnek, akkor az epszolon 1-et, ha rossz sorrendben, akkor -1-et ad.

a \cdot ... operátor

Differenciálható-e és ha igen mi a differenciálja

\Phi:\mathbf{R}^3\to\mathbf{R};\quad \Phi(\mathbf{r})=\mathbf{a}\cdot\mathbf{r}

leképezésnek, ahol a előre megadott konstans vektor.

Megoldás

Skalártér lévén Φ gradiensét kell kiszámolnunk. Mivel ez is lineáris leképezés, ezért differenciálható és differenciálja saját maga, azaz a gradiens vektor pont a:

\mathrm{grad}\,(\mathbf{a}\cdot\mathbf{r})=\mathbf{a}

Ezt persze indexes deriválással is kiszámítható:

[\mathrm{grad}\,\Phi]_i=\partial_ia_kx_k=a_k\partial_ix_k=a_k\delta_{ik}=a_i\,

További példa skalárfüggvényre

Hatérozzuk meg a Φ

\Phi:\mathbf{R}^3\to\mathbf{R};\quad \Phi(\mathbf{r})=|\mathbf{i}\times\mathbf{r}|

(ahol i az x irányú egységvektor, |.| a vektor hossza) függvény szintvonalait, differenciálhatóságát, gradiensét!

Megoldás

Érdemes koordinátás írásmódra áttérni, hiszen az i vektor úgy is a koordinátarendszerhez kapcsolódik. A vektoriális szorzás definíciója miatt

\Phi(x,y,z)=\Phi(\mathbf{r})=|\mathbf{r}|\cdot\sin(\mathbf{i},\mathbf{r})_\angle=\sqrt{y^2+z^2}

Tehát azok a pontok vannak azonos szintfelületen, melyeknek az [yz] síkra vett vetületük azonos hosszúságú (i × r hossza az i-re merőleges komponense r-nek). Az

y2 + z2 = 0

egyenlettel megadott pontokban (másként: y = 0 & z = 0 & x tetszőleges) a függvény nem differenciálható, ugyanis a Φ=0 szintfelület elfajúlt módon csak egy egyenes, az x tengely, így a gradiens vektor iránya nem egyértelmű. Ezt azzal is igazolhatjuk, ha vesszük ezekben a pontokban például az y irányú parciális függvényt:

\Phi(x_0,0+t,0)=\sqrt{t^2}=|t|

azaz az (x0,0,0) pontokhoz tartozó Φ(x0, . ,0) parciális függvény nem differenciálható a 0-ban.

Máshol a gradiensvektor, a parciális deriváltakat kiszámítva

\mathrm{grad}\,\Phi(x,y,z)=\left(0,\frac{y}{\sqrt{y^2+z^2}}, \frac{z}{\sqrt{y^2+z^2}}\right)

vagy másként:

\mathrm{grad}\,\Phi(\mathbf{r})=\mathbf{i}\times \frac{\mathbf{i}\times \mathbf{r}}{|\mathbf{i}\times \mathbf{r}|}

Megjegyezzük, hogy ehhez még a függvénykompozíció deriválási szabályával is lejuthattunk volna:

\mathrm{grad}\,\Phi(\mathbf{r})=\mathrm{grad}\sqrt{(\mathbf{i}\times\mathbf{r})^2}=\frac{1}{2\sqrt{(\mathbf{i}\times\mathbf{r})^2}}\cdot 2(\mathbf{i}\times\mathbf{r})\times(-\mathbf{i})

Indexes deriválás

Most csak a sokféle szorzat deriváltjának értékét számítjuk ki. Minden esetben igazolható, hogy ha a formulákban szereplő összes derivált létezik, akkor a formula érvényes (sőt, ha a függvények az adott pontban differenciálhatók, akkor a szorzat is differenciálható az adott pontban). Az mátrixelemeket indexesen számítjuk.

Feltéve például, hogy az f többváltozós skalárfüggvény parciálisan differenciálható, a gradiens elemeit így nyerjük:

[\mathrm{grad}\,f]_i=\partial_if\,

1. Példa

Ha f(r) = r2, akkor

\mathbf{r}^2=\sum\limits_{k=1}^3 [\mathbf{r}]_k[\mathbf{r}]_k=\sum\limits_{k=1}^3 x_kx_k=[\mathrm{Einstein\;konv.}]\;x_kx_k
[\mathrm{grad}\,f]_i=\partial_ix_kx_k\,=x_k\partial_ix_k+x_k\partial_ix_k\,

de a koordinátafüggvények deriváltjairól tudjuk, hogy azoknak az értékét a Kronecker-delta adja:

 \partial_ix_k=\delta_{ik}=\left\{\begin{matrix}1,& \mathrm{ha} & i=k\\ 0,& \mathrm{ha} & i\ne k\end{matrix}\right.

azaz

[\mathrm{grad}\,f]_i=2x_k\delta_{ik}=2x_i=[2\mathbf{r}]_i\,

tehát parciálisan differenciálható minden pontban és a Jacobi-mártix elemei a fentiek.

2. Példa

Ha f(r) = ar, akkor

[\mathrm{grad}\,f]_i=\partial_ia_kx_k\,=a_k\partial_ix_k=a_k\delta_{ik}\,=a_i=[\mathbf{a}]_i

3. Példa

Ha f(r) = |r|α, akkor

[\mathrm{grad}\,f]_i=\partial_i(x_kx_k)^{\alpha/2}\,=\partial_i(x_k)^{\alpha}=\frac{\alpha}{2}(x_kx_k)^{\frac{\alpha}{2}-1}2\delta_{ik}x_k\,

itt ne feledjük, hogy k-ra szummázunk és hogy az összetett tényezőben a skaláris szorzat szerepel:

[\mathrm{grad}\,f]_i=\alpha(x_kx_k)^{\frac{\alpha}{2}-1}x_i\,=\left[\alpha|\mathbf{r}|^\alpha\frac{\mathbf{r}}{\mathbf{r}^2}\right]_i=\left[\alpha|\mathbf{r}|^{\alpha-1}\frac{\mathbf{r}}{|\mathbf{r}|}\right]_i

tehát parciálisan differenciálható minden pontban és a Jacobi-mártix elemei a fentiek.

Deriválttenzor és invariánsai

Ha A az f:Rn\to Rn leképezés differenciálja az u pontban, akkor A-t deriválttenzornak nevezzük. Minden tenzor egyértelműen előáll egy szimmetrikus és egy antiszimmetrikus tenzor összegeként:

\mathbf{A}=\mathbf{A}_{s}+\mathbf{A}_a\,

Ebből a szimmetrikus rész főátlbeli elemeinek összege minden bázisban ugyanaz a skaláris érték, melyet a tenzor nyomának, illetve a függvény divergenciájának nevezzük:

\mathrm{div}(f)(u)=\mathrm{trace}(\mathbf{A}) illetve \mathrm{div}(f)=\sum\limits_{i=1}^n\partial_i f_i=*\partial_i f_i*

Az utóbbi írásmód a koordinátás alakban az úgy nevezett Einstein-féle jelölési konvenció, amelynek elve, hogy a kétszer stereplő indexekre automatikusan szumma értendő.

Példa

\mathrm{div}\,\mathbf{r}=\partial_kx_k=\delta_{kk}=\mathrm{dim}(\mathbf{R}^n)=n\,

f:R3\to R3 esetben a tenzor antiszimmetrikus részéhez egyértelműen létezik egy olyan a vektor, hogy minden r-re:

\mathbf{A}_a\mathbf{r}=\mathbf{a}\times\mathbf{r}

mely vektort az f rotációjának nevezzük:

\mathrm{rot}f(u)\, és [\mathrm{rot}f(u)]_i=\sum\limits_{j,k=1}^3\varepsilon_{ijk}\partial_j f_k=*\varepsilon_{ijk}\partial_j f_k*

ahol

\varepsilon_{ijk}=\left\{\begin{matrix}
1, & \mbox{ha} & (ijk)\in\{(123),(231),(312)\} \\
-1, & \mbox{ha} & (ijk)\in\{(321),(213),(132)\} \\
0, & \mbox{egyebkent}
\end{matrix}\right.

a Levi-Civita-szimbólum.

Skalárfüggvénnyel való szorzás

λ: H \to R, f:H \to Rm, ahol HRn és az uH-ban mindketten differenciálhatók, akkor λ.f is és

[\mathrm{d}(\lambda.f)(u)]_{ij}=\partial_j(\lambda.f)=\partial_j\lambda f_i=f_i\partial_j\lambda+\lambda \partial_jf_i

azaz

\mathrm{d}(\lambda.f)(u)=f(u)\scriptstyle{\otimes}\mathrm{grad}\lambda(u)+\lambda(u).\mathrm{d}f(u)\,

ahol \scriptstyle{\otimes} a diadikus szorzat, melynek koordinátamátrixa egy oszlopvektor (balról) és egy sorvektor (jobbról) mátrixszorzatából adódik. Ez ritkán kell teljes egészében, a két invariáns (rot-nál csak 3×3-as esetben) a gyakoribb.

\mathrm{div}(\lambda.f)(u)=f(u)\cdot \mathrm{grad}\lambda(u)+\lambda(u)\cdot \mathrm{div}f(u)
[\mathrm{rot}(\lambda.f)(u)]_i=\varepsilon_{ijk}\partial_j\lambda f_k=\varepsilon_{ijk}(\partial_j\lambda)f_k+\lambda\varepsilon_{ijk}\partial_jf_k=
=[\mathrm{grad}\lambda(u)\times f(u)+\lambda(u).\mathrm{rot}f(u)]_i

Vektorfüggvények skaláris szorzata

f,g:H \to Rm, ahol HRn és az uH-ban mindketten differenciálhatók, akkor f\cdotg is és

[\mathrm{d}(f\cdot g)(u)]_{1j}=\partial_j(f\cdot g)=\partial_j f_kg_k=f_k\partial_j g_k+g_k \partial_j f_k

azaz

\mathrm{d}(f\cdot g)(u)=(f(u)\cdot)\circ \mathrm{d}g(u)+(g(u)\cdot)\circ \mathrm{d}f(u)

illetve a Jacobi-mátrixszal:

\mathbf{J}^{f\cdot g}(u)=[f(u)]^\mathrm{T}\cdot \mathbf{J}^g(u) +
[g(u)]^\mathrm{T}\cdot \mathbf{J}^f(u)

ahol [.]T az oszlopvektor transzponáltját, (v\cdot) pedig a v vektorral történő skaláris szorzás operátorát jelöli.



5. gyakorlat 7. gyakorlat
Személyes eszközök