Matematika A2a 2008/6. gyakorlat
- Ez az szócikk a Matematika A2a 2008 alszócikke.
Tartalomjegyzék
|
Differenciálhatóság
A többváltozós differenciálhatóságot az egyváltozós alábbi átfogalmazásából általánosítjuk:
Definíció. Legyen f: Rn Rm és u ∈ int Dom(f). Azt mondjuk, hogy f differenciálható az u pontban, ha létezik olyan A: Rn Rm lineáris leképezés, hogy
Ekkor A egyértelmű és az f leképezés u-bent beli differenciáljának nevezzük és df(u)-val vagy Df(u)-val jelöljük. Ezt a fogalmat néha teljes differenciálnak, totális differenciálnak vagy Fréchet-deriváltnak is mondjuk.
Megjegyzés. A fenti határérték 0 volta egyenértékű a következő kijelentéssel. Létezik A: Rn Rm lineáris leképezés és ε: Dom(f) Rm függvény, melyre:
- ε folytonos u-ban és ε(u)=0, továbbá
minden x ∈ Dom(f)-re:
Megjegyzés. Azt, hogy A egyértelmű, a következőkkel bizonyíthatjuk. Legyen A és B is a mondott tulajdonságú, azaz létezzenek ε és η az u-ban eltűnő és ott folytonos Dom(f)-en értelmezett függvények, melyekre teljesül, hogy minden x ∈ Dom(f)-re
ezeket kivonva egymásból és használva minden x-re:
így minden x = u + ty értékre is az azonosan nullát kapjuk, ha t pozitív szám, y pedig rögzített nemnulla vektor, azaz minden t-re
az azonosan 0 függény határértéke t 0 esetén szintén nulla:
hiszen t-t kiemelhetünk és egyszerűsíthetünk és t 0 esetén ε és η nullává válik. Ez viszont pont azt jelenti, hogy a két lineéris operátor azonosan egyenlő.
Jacobi-mátrix
A df(u) lineáris leképezés (e1,e2,...,en) szetenderd bázisbeli mátrixa legyen: [df(u)] = A. Vizsgáljuk mibe viszi a bázisokat df(u) leképezés!
Írjuk fel a definíciót, de az e1 egységvektor mentén tartsunk u-hoz: x = u + te1. Ekkor
ami azért hasznos, mert a
alakból kiemelhetó t:
azaz
vagyis f koordinátafüggvényeinek az első változó szerinti parciális deriváltja az u pontban. A többi oszlopvektor ugyanígy:
amelyet Jacobi-mátrixnak nevezünk.
Következmény. Tehát. ha f totálisan differenciálható, akkor parciálisan is differenciálható és a differenciál sztenderd bázisbeli mátrixa a Jacobi-mátrix.
Azaz:
- teljes differenciálhatóság parciális differenciálhatóság
de ez fordítva már nem igaz:
- parciális differenciálhatóság teljes differenciálhatóság
Erre vonatkozik a két alábbi példa.
Folytonosság és totális differenciálhatóság
Tekintsük az
Ekkor
Viszont g nem totálisan diffható, mert a (t,t) mentén a (0,0)-ba tartva:
ami nem létezik.
Megjegyzés. Itt persze g nem folytonos, és itt is igaz az, hogy ha totálisan differenciálható egy függvény, akkor folytonos is:
Tétel. Ha f differenciálható u-ban, akkor ott folytonos is, ugyanis minden x-re:
amely tagjai mind folytonosak u-ban.
Iránymenti deriválhatóság és differenciálhatóság
Példa.
Ekkor
Ha tehát differenciálható, akkor az iránymenti deriváltak (Gateau-deriváltak) is léteznek (e egységvektor):
Ám, polárkoordinátákra áttérve:
φ = π/4-et és π + π/4-et véve a vetületfüggvény a
- ,
ami nem differenciálható a 0-ban.
Megjegyzés. Persze abból, hogy az összes iránymenti derivált létezik, abból nem következik, hogy a függvény totálisan deriválható:
Egyváltozós illetve valós értékű függvény deriváltja
Ha f:Rn R, akkor a definíciót még így is ki szokás mondani:
f diffható r0-ban, ha létezik m vektor, hogy
Ekkor az m a gradiensvektor, melynek sztenderd bázisbeli koordinátamátrixa a Jacobi mátrix:
Ha f:R Rn, akkor a definíciót még így is ki szokás mondani:
és ekkor f'(t0) a t0-beli deriváltvektor (ha t az idő és r=f(t) a hely, akkor ez a sebeségvektor).
Ha f:Rn Rn, akkor a differenciált deriválttenzornak is nevezik.
Példa.
Mi az
- ,
skalárfüggvény gradiense?
Válasszuk le a lineáris részét!
Itt az első tag a lineáris, a második a magasabbfokú. Tehát:
Lineáris és affin függvény deriváltja
Tétel. Az A : Rn Rm lineáris leképezés differenciálható és differenciálja minden pontban saját maga:
Ugyanis, legyen u ∈ Rn. Ekkor
Tétel. Az azonosan c konstans függény esetén az dc(u) 0 alkalmas differenciálnak, mert
Tétel. Ha f és g a H ⊆ Rn halmazon értelmezett Rm-be képező, az u ∈ H-ban differenciálható függvények, akkor minden λ számra
- is differenciálható u-ban és és
- is differenciálható u-ban és
Ugyanis, a mondott differenciálokkal és a
választással, ezek az u-ban folytonosak lesznek és a lineáris résszekel együtt ezek előállítják a skalárszoros és összegfüggvények megváltozásait.
Következmény. Tehát minden u ∈ Rn-re az affin c+A diffható és
Példa
Az A: x 2x1 + 3x2 - 4x3 lineáris leképezés differenciálja az u pontban az u-tól független
és Jacobi-mátrixa a konstans
mátrix.
Világos, hogy a
koordináta vagy projekciófüggvény lineáris, differenciálja minden u pontban saját maga és ennek mátrixa:
ahol az 1 az i-edik helyen áll. Másként
ahol
azaz a Kronecker-féle δ szimbólum.
Kiegészítés
Skalárfüggvények szorzata
λ, μ: H R, ahol H ⊆ Rn és az u ∈ H-ban mindketten differenciálhatók, akkor λμ is és
azaz
Példa
Számoljuk ki r2 deriváltját a szorzat szabálya szerint.
Egyrészt, ha r ≠ 0, akkor
Másrészt, ha r = 0, akkor
minden r-re fennáll, így grad(id2)(0) = 0 alkalmas az ε(r)=|r|-rel, tehát r2 differenciálható 0-ban is.
a × ... operátor
Differenciálható-e és ha igen mi a differenciálja, divergenciája, rotációja a
leképezésnek, ahol a előre megadott konstans vektor.
Megoldás
Az a × ..., azaz az
(itt I az identitás leképezés) leképezés lineáris, minthogy a vektoriális szorzás mindkét változójában lineáris (v ∈ Lin(R3;R3)), így differenciálható és differenciálja saját maga:
azaz
minden h és r ∈ R3 vektorra.
Jacobi-mátrixa (a sztenderd bázisbeli mátrixa) tetszőleges (x,y,z) pontban:
Mivel a főátlóbeli elemek mind nullák, ezért ebből rögtön következik, hogy div(a × I)(r) = 0.
azaz rot v (r) = 2a. Az előbb felhasználtuk a kettős vektoriális szorzatra vonatkozó kifejtési tétel indexes alakját, a
ami azt mondja, hogy ha az ijk és klm-ben a nem azonos párok jó sorrendben következnek, akkor az epszolon 1-et, ha rossz sorrendben, akkor -1-et ad.
a ... operátor
Differenciálható-e és ha igen mi a differenciálja
leképezésnek, ahol a előre megadott konstans vektor.
Megoldás
Skalártér lévén Φ gradiensét kell kiszámolnunk. Mivel ez is lineáris leképezés, ezért differenciálható és differenciálja saját maga, azaz a gradiens vektor pont a:
Ezt persze indexes deriválással is kiszámítható:
További példa skalárfüggvényre
Hatérozzuk meg a Φ
(ahol i az x irányú egységvektor, |.| a vektor hossza) függvény szintvonalait, differenciálhatóságát, gradiensét!
Megoldás
Érdemes koordinátás írásmódra áttérni, hiszen az i vektor úgy is a koordinátarendszerhez kapcsolódik. A vektoriális szorzás definíciója miatt
Tehát azok a pontok vannak azonos szintfelületen, melyeknek az [yz] síkra vett vetületük azonos hosszúságú (i × r hossza az i-re merőleges komponense r-nek). Az
- y2 + z2 = 0
egyenlettel megadott pontokban (másként: y = 0 & z = 0 & x tetszőleges) a függvény nem differenciálható, ugyanis a Φ=0 szintfelület elfajúlt módon csak egy egyenes, az x tengely, így a gradiens vektor iránya nem egyértelmű. Ezt azzal is igazolhatjuk, ha vesszük ezekben a pontokban például az y irányú parciális függvényt:
azaz az (x0,0,0) pontokhoz tartozó Φ(x0, . ,0) parciális függvény nem differenciálható a 0-ban.
Máshol a gradiensvektor, a parciális deriváltakat kiszámítva
vagy másként:
Megjegyezzük, hogy ehhez még a függvénykompozíció deriválási szabályával is lejuthattunk volna:
Indexes deriválás
Most csak a sokféle szorzat deriváltjának értékét számítjuk ki. Minden esetben igazolható, hogy ha a formulákban szereplő összes derivált létezik, akkor a formula érvényes (sőt, ha a függvények az adott pontban differenciálhatók, akkor a szorzat is differenciálható az adott pontban). Az mátrixelemeket indexesen számítjuk.
Feltéve például, hogy az f többváltozós skalárfüggvény parciálisan differenciálható, a gradiens elemeit így nyerjük:
1. Példa
Ha f(r) = r2, akkor
de a koordinátafüggvények deriváltjairól tudjuk, hogy azoknak az értékét a Kronecker-delta adja:
azaz
tehát parciálisan differenciálható minden pontban és a Jacobi-mártix elemei a fentiek.
2. Példa
Ha f(r) = ar, akkor
3. Példa
Ha f(r) = |r|α, akkor
itt ne feledjük, hogy k-ra szummázunk és hogy az összetett tényezőben a skaláris szorzat szerepel:
tehát parciálisan differenciálható minden pontban és a Jacobi-mártix elemei a fentiek.
Deriválttenzor és invariánsai
Ha A az f:Rn ⊃ Rn leképezés differenciálja az u pontban, akkor A-t deriválttenzornak nevezzük. Minden tenzor egyértelműen előáll egy szimmetrikus és egy antiszimmetrikus tenzor összegeként:
Ebből a szimmetrikus rész főátlbeli elemeinek összege minden bázisban ugyanaz a skaláris érték, melyet a tenzor nyomának, illetve a függvény divergenciájának nevezzük:
- illetve
Az utóbbi írásmód a koordinátás alakban az úgy nevezett Einstein-féle jelölési konvenció, amelynek elve, hogy a kétszer stereplő indexekre automatikusan szumma értendő.
Példa
f:R3 ⊃ R3 esetben a tenzor antiszimmetrikus részéhez egyértelműen létezik egy olyan a vektor, hogy minden r-re:
mely vektort az f rotációjának nevezzük:
- és
ahol
a Levi-Civita-szimbólum.
Skalárfüggvénnyel való szorzás
λ: H R, f:H Rm, ahol H ⊆ Rn és az u ∈ H-ban mindketten differenciálhatók, akkor λ.f is és
azaz
ahol a diadikus szorzat, melynek koordinátamátrixa egy oszlopvektor (balról) és egy sorvektor (jobbról) mátrixszorzatából adódik. Ez ritkán kell teljes egészében, a két invariáns (rot-nál csak 3×3-as esetben) a gyakoribb.
Vektorfüggvények skaláris szorzata
f,g:H Rm, ahol H ⊆ Rn és az u ∈ H-ban mindketten differenciálhatók, akkor fg is és
azaz
illetve a Jacobi-mátrixszal:
ahol [.]T az oszlopvektor transzponáltját, pedig a v vektorral történő skaláris szorzás operátorát jelöli.
5. gyakorlat | 7. gyakorlat |