Matematika A2a 2008/5. gyakorlat
Mozo (vitalap | szerkesztései) |
Mozo (vitalap | szerkesztései) |
||
1. sor: | 1. sor: | ||
+ | ==Differenciálhatóság== | ||
+ | A többváltozós differenciálhatóságot az egyváltozós alábbi átfogalmazásából általánosítjuk: | ||
+ | |||
+ | :<math>\lim\limits_{x\to u}\frac{f(x)-f(u)-m(x-u)}{|x-u|}=0</math> | ||
+ | :<math>\lim\limits_{x\to u+}\frac{f(x)-f(u)-m(x-u)}{x-u}=0\quad\wedge\quad\lim\limits_{x\to u-}\frac{f(x)-f(u)-m(x-u)}{-(x-u)}=0</math> | ||
+ | :<math>\lim\limits_{x\to u+}\left(\frac{f(x)-f(u)}{x-u}-m\right)=0,\quad\wedge\quad\lim\limits_{x\to u-}-\left(\frac{f(x)-f(u)}{x-u}-m\right)=0</math> | ||
+ | :<math>\lim\limits_{x\to u+}\frac{f(x)-f(u)}{x-u}=m,\quad\wedge\quad\lim\limits_{x\to u-}-\frac{f(x)-f(u)}{x-u}=-m</math> | ||
+ | :<math>\lim\limits_{x\to u}\frac{f(x)-f(u)}{x-u}=m</math> | ||
+ | |||
+ | |||
+ | '''Definíció.''' Legyen ''f'': '''R'''<sup>n</sup> <math>\supset\!\longrightarrow</math> '''R'''<sup>m</sup> és ''u'' ∈ int Dom(f). Azt mondjuk, hogy ''f'' '''differenciálható''' az ''u'' pontban, ha létezik olyan ''A'': '''R'''<sup>n</sup> <math>\to</math> '''R'''<sup>m</sup> lineáris leképezés, hogy | ||
+ | :<math>\lim\limits_{x\to u}\frac{f(x)-f(u)-\mathcal{A}(x-u)}{||x-u||_{\mathbf{R}^n}}=0_{\mathbf{R}^m}</math> | ||
+ | Ekkor ''A'' egyértelmű és az ''f'' leképezés ''u''-bent beli '''differenciál'''jának nevezzük és d''f''(''u'')-val vagy D''f''(u)-val jelöljük. Ezt a fogalmat néha ''teljes differenciál''nak, ''totális differenciál''nak vagy ''Fréchet-derivált''nak is mondjuk. | ||
+ | |||
+ | '''Megjegyzés.''' A fenti határérték 0 volta egyenértékű a következő kijelentéssel. Létezik ''A''': ''R'''<sup>n</sup> <math>\to</math> '''R'''<sup>m</sup> lineáris leképezés és ε: Dom(''f'') <math>\to</math> '''R'''<sup>m</sup> függvény, melyre: | ||
+ | : ε folytonos u-ban és ε(u)=0, továbbá | ||
+ | minden ''x'' ∈ Dom(''f'')-re: | ||
+ | : <math>f(x)=f(u)+\mathcal{A}(x-u)+\varepsilon(x)||x-u||</math> | ||
+ | '''Megjegyzés.''' Azt, hogy ''A'' egyértelmű, a következőkkel bizonyíthatjuk. Legyen ''A'' és ''B'' is a mondott tulajdonságú, azaz létezzenek ε és η az ''u''-ban eltűnő és ott folytonos Dom(''f'')-en értelmezett függvények, melyekre teljesül, hogy minden ''x'' ∈ Dom(''f'')-re | ||
+ | :<math>f(x)=f(u)+\mathcal{A}(x-u)+\varepsilon(x)||x-u||</math> | ||
+ | :<math>f(x)=f(u)+\mathcal{B}(x-u)+\eta(x)||x-u||</math> | ||
+ | ezeket kivonva egymásból és használva '''minden''' ''x''-re: | ||
+ | :<math>(\mathcal{A}-\mathcal{B})(x-u)+(\varepsilon(x)-\eta(x))||x-u||=0</math> | ||
+ | így minden x = u + ty értékre is az azonosan nullát kapjuk, ha t pozitív szám, y pedig rögzített nemnulla vektor, azaz minden t-re | ||
+ | :<math>(\mathcal{A}-\mathcal{B})ty+(\varepsilon(u+ty)-\eta(u+ty))||ty||=0</math> | ||
+ | az azonosan 0 függény határértéke t<math>\to</math> 0 esetén szintén nulla: | ||
+ | :<math> 0=\lim\limits_{t\to 0}\frac{(\mathcal{A}-\mathcal{B})(ty)+(\varepsilon(u+ty)-\eta(u+ty))||ty||}{t}=(\mathcal{A}-\mathcal{B})y</math> | ||
+ | hiszen t-t kiemelhetünk és egyszerűsíthetünk és t<math>\to</math> 0 esetén | ||
+ | ε és η nullává válik. | ||
+ | Ez viszont pont azt jelenti, hogy a két lineéris operátor azonosan egyenlő. | ||
+ | |||
+ | ==Jacobi-mátrix== | ||
+ | A d''f''(''u'') lineáris leképezés (<math>e_1</math>,<math>e_2</math>,...,<math>e_n</math>) szetenderd bázisbeli mátrixa legyen: [d''f''(''u'')] = '''A'''. Vizsgáljuk mibe viszi a bázisokat d''f''(''u'') leképezés! | ||
+ | |||
+ | Írjuk fel a definíciót, de az <math>e_1</math> egységvektor mentén tartsunk ''u''-hoz: ''x'' = ''u'' + ''t''<math>e_1</math>. Ekkor | ||
+ | :<math>x-u=te_1\,</math> | ||
+ | ami azért hasznos, mert a | ||
+ | :<math>\mathcal{A}(x-u)=\mathcal{A}(te_1)\,</math> | ||
+ | alakból kiemelhetó t: | ||
+ | :<math>0=\lim\limits_{t\to 0}\frac{f(u+te_1)-f(u)-\mathcal{A}(te_1)}{t}=</math> | ||
+ | :::<math>=\lim\limits_{t\to 0}\frac{f(u+te_1)-f(u)-t.\mathcal{A}(e_1)}{t}=</math> | ||
+ | :::<math>=-\mathcal{A}(e_1)+\lim\limits_{t\to 0}\frac{f(u+te_1)-f(u)}{t}</math> | ||
+ | azaz | ||
+ | :<math>\mathcal{A}(e_1)=\lim\limits_{t\to 0}\frac{f(u+te_1)-f(u)}{t}=\partial_1 f(u)</math> | ||
+ | vagyis ''f'' koordinátafüggvényeinek az első változó szerinti parciális deriváltja az ''u'' pontban. A többi oszlopvektor ugyanígy: | ||
+ | |||
+ | :<math>[\mathrm{d}f(u)]=\mathbf{J}^f(u)=\begin{bmatrix} | ||
+ | \partial_1 f_1(u) & \partial_2 f_1(u) & \dots & \partial_n f_1(u)\\ | ||
+ | \partial_1 f_2(u) & \partial_2 f_2(u) & \dots & \partial_n f_2(u)\\ | ||
+ | \vdots & \vdots & \ddots & \vdots \\ | ||
+ | \partial_1 f_m(u) & \partial_2 f_m(u) & \dots & \partial_n f_m(u)\\ | ||
+ | \end{bmatrix}</math> | ||
+ | amelyet '''Jacobi-mátrix'''nak nevezünk. | ||
+ | |||
+ | '''Következmény.''' Tehát. ha f totálisan differenciálható, akkor parciálisan is differenciálható és a differenciál sztenderd bázisbeli mátrixa a Jacobi-mátrix. | ||
+ | |||
+ | Azaz: | ||
+ | :'''teljes''' differenciálhatóság <math>\Longrightarrow</math> '''parciális''' differenciálhatóság | ||
+ | de ez fordítva már nem igaz: | ||
+ | : '''parciális''' differenciálhatóság <math>\not\Rightarrow</math> '''teljes''' differenciálhatóság | ||
+ | Erre vonatkozik a két alábbi példa. | ||
+ | |||
==Folytonosság és totális differenciálhatóság== | ==Folytonosság és totális differenciálhatóság== |
A lap 2013. október 7., 20:52-kori változata
Differenciálhatóság
A többváltozós differenciálhatóságot az egyváltozós alábbi átfogalmazásából általánosítjuk:
Definíció. Legyen f: Rn Rm és u ∈ int Dom(f). Azt mondjuk, hogy f differenciálható az u pontban, ha létezik olyan A: Rn Rm lineáris leképezés, hogy
Ekkor A egyértelmű és az f leképezés u-bent beli differenciáljának nevezzük és df(u)-val vagy Df(u)-val jelöljük. Ezt a fogalmat néha teljes differenciálnak, totális differenciálnak vagy Fréchet-deriváltnak is mondjuk.
Megjegyzés. A fenti határérték 0 volta egyenértékű a következő kijelentéssel. Létezik A: Rn Rm lineáris leképezés és ε: Dom(f) Rm függvény, melyre:
- ε folytonos u-ban és ε(u)=0, továbbá
minden x ∈ Dom(f)-re:
Megjegyzés. Azt, hogy A egyértelmű, a következőkkel bizonyíthatjuk. Legyen A és B is a mondott tulajdonságú, azaz létezzenek ε és η az u-ban eltűnő és ott folytonos Dom(f)-en értelmezett függvények, melyekre teljesül, hogy minden x ∈ Dom(f)-re
ezeket kivonva egymásból és használva minden x-re:
így minden x = u + ty értékre is az azonosan nullát kapjuk, ha t pozitív szám, y pedig rögzített nemnulla vektor, azaz minden t-re
az azonosan 0 függény határértéke t 0 esetén szintén nulla:
hiszen t-t kiemelhetünk és egyszerűsíthetünk és t 0 esetén ε és η nullává válik. Ez viszont pont azt jelenti, hogy a két lineéris operátor azonosan egyenlő.
Jacobi-mátrix
A df(u) lineáris leképezés (e1,e2,...,en) szetenderd bázisbeli mátrixa legyen: [df(u)] = A. Vizsgáljuk mibe viszi a bázisokat df(u) leképezés!
Írjuk fel a definíciót, de az e1 egységvektor mentén tartsunk u-hoz: x = u + te1. Ekkor
ami azért hasznos, mert a
alakból kiemelhetó t:
azaz
vagyis f koordinátafüggvényeinek az első változó szerinti parciális deriváltja az u pontban. A többi oszlopvektor ugyanígy:
amelyet Jacobi-mátrixnak nevezünk.
Következmény. Tehát. ha f totálisan differenciálható, akkor parciálisan is differenciálható és a differenciál sztenderd bázisbeli mátrixa a Jacobi-mátrix.
Azaz:
- teljes differenciálhatóság parciális differenciálhatóság
de ez fordítva már nem igaz:
- parciális differenciálhatóság teljes differenciálhatóság
Erre vonatkozik a két alábbi példa.
Folytonosság és totális differenciálhatóság
Tekintsük az
Ekkor
Viszont g nem totálisan diffható, mert a (t,t) mentén a (0,0)-ba tartva:
ami nem létezik.
Megjegyzés. Itt persze g nem folytonos, és itt is igaz az, hogy ha totálisan differenciálható egy függvény, akkor folytonos is:
Tétel. Ha f differenciálható u-ban, akkor ott folytonos is, ugyanis minden x-re:
amely tagjai mind folytonosak u-ban.
Iránymenti deriválhatóság és differenciálhatóság
Példa.
Ekkor
Ha tehát differenciálható, akkor az iránymenti deriváltak (Gateau-deriváltak) is léteznek (e egységvektor):
Ám, polárkoordinátákra áttérve:
φ = π/4-et és π + π/4-et véve a vetületfüggvény a
- ,
ami nem differenciálható a 0-ban.
Megjegyzés. Persze abból, hogy az összes iránymenti derivált létezik, abból nem következik, hogy a függvény totálisan deriválható:
Egyváltozós illetve valós értékű függvény deriváltja
Ha f:Rn R, akkor a definíciót még így is ki szokás mondani:
f diffható r0-ban, ha létezik m vektor, hogy
Ekkor az m a gradiensvektor, melynek sztenderd bázisbeli koordinátamátrixa a Jacobi mátrix:
Ha f:R Rn, akkor a definíciót még így is ki szokás mondani:
és ekkor f'(t0) a t0-beli deriváltvektor (ha t az idő és r=f(t) a hely, akkor ez a sebeségvektor).
Ha f:Rn Rn, akkor a differenciált deriválttenzornak is nevezik.
Példa.
Mi az
- ,
skalárfüggvény gradiense?
Válasszuk le a lineáris részét!
Itt az első tag a lineáris, a második a magasabbfokú. Tehát:
Lineáris és affin függvény deriváltja
Tétel. Az A : Rn Rm lineáris leképezés differenciálható és differenciálja minden pontban saját maga:
Ugyanis, legyen u ∈ Rn. Ekkor
Tétel. Az azonosan c konstans függény esetén az dc(u) 0 alkalmas differenciálnak, mert
Tétel. Ha f és g a H ⊆ Rn halmazon értelmezett Rm-be képező, az u ∈ H-ban differenciálható függvények, akkor minden λ számra
- is differenciálható u-ban és és
- is differenciálható u-ban és
Ugyanis, a mondott differenciálokkal és a
választással, ezek az u-ban folytonosak lesznek és a lineáris résszekel együtt ezek előállítják a skalárszoros és összegfüggvények megváltozásait.
Következmény. Tehát minden u ∈ Rn-re az affin c+A diffható és
Példa
Az A: x 2x1 + 3x2 - 4x3 lineáris leképezés differenciálja az u pontban az u-tól független
és Jacobi-mátrixa a konstans
mátrix.
Világos, hogy a
koordináta vagy projekciófüggvény lineáris, differenciálja minden u pontban saját maga és ennek mátrixa:
ahol az 1 az i-edik helyen áll. Másként
ahol
azaz a Kronecker-féle δ szimbólum.
Szélsőérték szükséges feltétele
Egyelőre állapodjunk meg abban, hogy gradiensnek nevezzük a következő többváltozós vektorértékű függvényt: ha f: Rn R parciálisan differenciálható, akkor
mely lényegében az f elsőrendű parciális deriváltjaiból képezett vektor.
Később a gradienst egy kissé másképp fogjuk értelmezni és amit most definiáltunk, az a gradiens sztenderd bázisbeli mátrixa lesz (adott pontra vonatkozóan).
Tétel - Fermat-tétel - Legyen f: Rn R, u ∈ int Dom(f), f parciálisan differenciálható u-ban.
- Ha u-ban f-nek (lokális) szélsőértéke van, akkor
U.is: minden i-re az i-edik parciális függvénynek szélsőértéke van ui-ben, így az egyváltozós Fermat-tétel miatt ezeknek a deriváltja ui-ben 0, így a gradiens értéke 0.
Példa
Ennek gradiense:
Az
egyenletrendszer megoldásai: x = 0, y tetszőleges ill. y = 0 és x tetszőleges. A szélsőértékek helyei csak ezek közül kerülhetnek ki és ezek valóban szélsőértékek is, mert ezeken a függvény 0-t vesz fel, ami a lehetséges legkisebb értéke.
set pm3d
set size 0.8,0.8 set xrange [-1:1] set yrange [-1:1] set zrange [-2:2] set view 50,30,1,1 unset xtics unset ytics unset ztics unset key unset colorboxsplot 5*x*x*y*y
Magasabbrendű parciális deriváltak
Ha f parciálisan deriválható, akkor ∂1f és ∂2f szintén kétváltozós függvények (a pontonként a deriváltak, mint függvényértékek értelmezésével) és érdeklődhetünk ezek parciális differenciálhatóságuk iránt. Például:
És valóban:
Tétel. (Young-tétel) Ha a másodrendű parciláis deriváltak léteznek az u egy környezetében és folytonosak az u pontban, akkor az u-beli vegyes másodrendű parciláis deriváltak egyenlőek:
Azaz az alábbi, úgy nevezett Hesse-mátrix szimmetrikus:
Feladat. Az a kitétel, hogy az u-ban a másodrenrű parciláis deriváltak folytonosak, nem hagyható el, ugyanis. Legyen
Ekkor a 0-ban nem egyenlő a két vegyes parciális derivált.
Tekintsük a parciális deriváltakat:
Ehhez tehát elegendő kiszámítani a következő föggvényeket: y (∂xf)(0,y), x (∂yf)(x,0). Ehhez a parciális deriváltak:
Megjegyezzük, hogy a g=(∂xf,∂yf) függvény (0,0)-beli parciális deriváltjai nem lehetnek folytonosak, mert ott a függvény nem totálisan diffható. Ugyanis a g Jacobi-mátrixa:
ami a 90˚-os forgatás. Ekkor a g-t a (t,0) vektorral közelítve a 0-ba:
márpedig ha g minden parciális deriváltja folytonos lenne a (0,0)-ban, akkor g totálisan is deriválható lenne.
Többváltozós függvény szélsőértéke
Másodikderivált próba
Kétszer differenciálható függvényre vonatkozóan megfogalmazhatjuk a lokális maximum és minimum létezésének elégséges feltételét. Csak a kétváltozós függvényekkel foglalkozunk. Tegyük fel, hogy grad f(u) = 0 és Hf(u) az f Hesse-mátrixa
- ha det Hf(u) > 0 és ∂11f(u) < 0, akkor f-nek u-ban maximuma van
- ha det Hf(u) > 0 és ∂11f(u) > 0, akkor f-nek u-ban minimuma van
- ha det Hf(u) < 0, akkor f-nek biztosan nincs szélsőértéke, ún. nyeregpontja van
- ha det Hf(u) = 0, akkor a próba nem járt sikerrel, azaz további vizsgálatokat igényel annak eldöntése, hogy u szélsőérték hely-e.
Megjegyzések. Mivel kétváltozós esetben
ezért olyan eset nem létezik, hogy det Hf(u) > 0 és ∂11f(u) = 0.
Világos, hogy a másodikderivált tipikusan azoknál a függvényeknél jár sikerrel, melyeket egy másodfokú függvény közelít a legjobban (aszimptotikusan másodfokúak). Ha a függvény ennél magasabb fokú, akkor a második deriváltak eltűnnek és a Hesse-mártix elfajul (vagy legalább is tipikusan elfajul).
Ha tehát
- , akkor ,
és így a tipikus példák a következők.
Példák
1. Ha B kicsi, azaz az AC-hez képest kis abszolútrétékű szám, akkor a szélsőérték irányába mozdul el a feladat.
Ekkor grad f = ( 2x + y , 2y + x ) és
azaz 4 - 1 = 3 > 0 és 2 > 0 miatt minimum.
set pm3d
set size 0.8,0.8 set xrange [-1:1] set yrange [-1:1] set zrange [-2:2] set view 50,30,1,1 unset xtics unset ytics unset ztics unset key unset colorboxsplot x*x+x*y+y*y
2. Ha |B| nagy (azaz AC-hez képest nagy), akkor a bizonyosan nemszélsőérték irányába.
Ekkor grad f = ( 2x + -3y , 2y + -3x ) és
azaz 4 - 9 = -5 < 0 miatt nincs szélsőérték: nyeregpont.
set pm3d
set size 0.8,0.8 set xrange [-1:1] set yrange [-1:1] set zrange [-2:2] set view 50,30,1,1 unset xtics unset ytics unset ztics unset key unset colorboxsplot x*x -3*x*y+y*y
3. Negatív A és C-re és kis B-re:
Ekkor grad f = ( -2x + 3y , -2y + 3x ) és
azaz 4 - 1 = 3 > 0 és -2 < 0 miatt maximum.
set pm3d
set size 0.8,0.8 set xrange [-1:1] set yrange [-1:1] set zrange [-2:2] set view 50,30,1,1 unset xtics unset ytics unset ztics unset key unset colorboxsplot -x*x +x*y-y*y
4. Ha A és C előjele ellenkező, akkor rögtön következik, hogy nincs sz.é.
Ekkor grad f = ( 2x + y , -2y + x ) és
azaz -4 - 1 = -5 < 0 azaz nyeregpont.
set pm3d
set size 0.8,0.8 set xrange [-1:1] set yrange [-1:1] set zrange [-2:2] set view 50,30,1,1 unset xtics unset ytics unset ztics unset key unset colorboxsplot x*x +x*y-y*y
5. Atipikus eset, ha AC = B2. Ekkor nem jár sikerrel a próba:
Ekkor grad f = ( 2x + 2y , 2y + 2x ) és
azaz 4 - 4 = 0, azaz határozatlan eset. De tudjuk, hogy
ami pontosan akkor minimális, ha x = -y, azaz ezeken a helyeken van szélsőérték.
set pm3d
set size 0.8,0.8 set xrange [-1:1] set yrange [-1:1] set zrange [-2:2] set view 50,30,1,1 unset xtics unset ytics unset ztics unset key unset colorboxsplot (x+y)*(x+y)
4. gyakorlat | 6. gyakorlat |