Matematika A2a 2008/7. gyakorlat

A MathWikiből
A lap korábbi változatát látod, amilyen Mozo (vitalap | szerkesztései) 2009. március 5., 16:02-kor történt szerkesztése után volt.
Ez az szócikk a Matematika A2a 2008 alszócikke.

Tartalomjegyzék

Másodrendű parciális deriváltak

Ha f a HR2 halmazon értelmezett R-be képező, az uH-ban differenciálható függvény és a

\mathrm{grad}\,f

gradiensfüggvény szintén differenciálható u-ban, akkor f-et u-ban kétszer differenciálhatónak nevezzük és az f függény u-beli másodrendű differenciálja:

\mathrm{d}^2f(u):=\mathrm{d}(\mathrm{grad}\,f)(u)

Ennek Jacobi-mátrixa akkor is létezik, ha csak azt feltételezzük, hogy a parciális deriváltak léteznek az u egykörnyezetében, és ott differenciálhatóak. Ekkor a szóban forgó Jacobi-mátrix kvadratikus és

H^f(u)=\begin{bmatrix}
\cfrac{\partial^2 f(u)}{\partial x^2} & \cfrac{\partial^2 f(u)}{\partial y\partial x}\\\\
\cfrac{\partial^2 f(u)}{\partial x\partial y} & \cfrac{\partial^2 f(u)}{\partial y^2}
\end{bmatrix}

alakú, amit Hesse-féle mátrixnak nevezünk.

A vegyes másodrendű parciális deriváltakra vonatkozik a Young-tétel:

Tétel (Young) Kétszer differenciálható függvény vegyes másodrendű parciális deriváltjai egyenlők.

(A tétel egy gyenge verziójának könnyen átlátható szemléletes bizonyítása megtalálható itt: User:Mozo/egyéb#Young-tétel.)

A Young-tétel értelmében a Hesse-mátrix szimmetrikus illetve a d2f(u) szimmetrikus tenzor

H^f(u)=(H^f(u))^{\mathrm{T}}=\begin{bmatrix}
\partial_{11} f(u) & \partial_{12} f(u)\\\\
\partial_{12} f(u) & \partial_{22} f(u)\\
\end{bmatrix}

Általában a deriváltmátrixok nem szimmetrikusak, ez egy különleges tulajdonsága a második differenciálnak. Sőt, általában az a kérdés, hogy mi a deriválttenzor szimmetrikus és antiszimmetrikus része.

Megjegyzés. Elvileg a

\{x\in \mathbf{R}^2\mid f\in\mathrm{Diff}(x)\}\rightarrow\mathrm{Lin}(\mathbf{R}^2;\mathbf{R});\quad x\mapsto \mathrm{d}f(x)

leképezésnek kellett volna a differenciálját venni az u pontban, és ezt tekinteni a differenciálnak. Ám ez nem Rm-be, hanem egy általánosabb normált térbe, a R2 \to R lináris leképezések terébe képez (az ún. kétváltozós lineáris funkcionálok terébe). Ebben a norma az operátornorma (az operátor minimális Lipschitz-konstansa), és a tér véges dimenziós. A differenciálhatóság pontosan ugyanúgy értelmezhető, mint a többváltozs esetben. Ekkor az f függvény u-beli másodrendű differenciálja az

\mathrm{d}(\mathrm{d}f(.))(u)=\mathcal{A}:\mathbf{R}^2\rightarrow\mathrm{Lin(\mathbf{R}^2;\mathbf{R})}

lineáris leképezés, melyre teljesül a

\lim\limits_{x\to u}\frac{\mathrm{d}f(x)-\mathrm{d}f(u)-\mathcal{A}(x-u)}{||x-u||}=0_{\mathrm{Lin(\mathbf{R}^2;\mathbf{R})}}

A bázisvektorokon A a következőt veszi fel:

\lim\limits_{t\to 0}\frac{\mathrm{d}f(u+te_1)-\mathrm{d}f(u)}{t}=\mathcal{A}(e_1)

ennek a mátrixa a sztenderd bázisban

\lim\limits_{t\to 0}\frac{[\partial_1 f(u+te_1)\quad\partial_2 f(u+te_1)]-[\partial_1 f(u)\quad\partial_2 f(u)]}{t}=[\mathcal{A}(e_1)]

ami a kivonás és az osztást komponensenként elvégezve az parciális deriváltak első változó szerinti parciális deriváltjait adja:

[\mathcal{A}(e_1)]=[\partial_1(\partial_1 f)(u)\quad \partial_1(\partial_2 f)(u)]=[\partial_{11} f(u)\quad \partial_{12}f(u)]

Az 1 bázisvektoron felvett érték tehát az a lineáris operártor, melyet a fenti sorvektorral való szorzás határoz meg. A másik bázisvektoron szintén felríható ez a mátrix, így világos, hogy d(df(.))(u) jellemezhető a d2f(u) mátrixával, így azonosítható vele.

Többváltozós függvény szélsőértéke

Szélsőérték szükséges feltétele

Tétel - Fermat-tétel - Legyen f: Rn \supset\!\to R, u ∈ int Dom(f), f differenciálható u-ban.

Ha u-ban f-nek (lokális) szélsőértéke van, akkor
\mathrm{grad}\,f(u)=0_{\mathbf{R}^n}\,

U.is: minden i-re az i-edik parciális függvénynek szélsőértéke van ui-ben, így az egyváltozós Fermat-tétel miatt ezeknek a deriváltja ui-ben 0, így a gradiens értéke 0.

Példa

f(x,y)=x^2y^2\,

Ennek gradiense:

\mathrm{grad}\,f(x,y)=(2xy^2,2yx^2)

Az

\left.
\begin{matrix} 
\mathrm{I.} & 2xy^2 & = & 0\\
\mathrm{II.} & 2yx^2 & = & 0\\
\end{matrix}
\right\}

egyenletrendszer megoldásai: x = 0, y tetszőleges ill. y = 0 és x tetszőleges. A szélsőértékek helyei csak ezek közül kerülhetnek ki és ezek valóban szélsőértékek is, mert ezeken a függvény 0-t vesz fel, ami a lehetséges legkisebb értéke.

 set pm3d
set size 0.8,0.8
set xrange [-1:1]
set yrange [-1:1]
set zrange [-2:2]
set view 50,30,1,1
unset xtics
unset ytics
unset ztics
unset key
unset colorbox
splot 5*x*x*y*y

Másodikderivált próba

Kétszer differenciálható függvényre vonatkozóan megfogalmazhatjuk a lokális maximum és minimum létezésének elégséges feltételét. Csak a kétváltozós függvényekkel foglalkozunk. Tegyük fel, hogy grad f(u) = 0 és Hf(u) az f Hesse-mátrixa

  1. ha det Hf(u) > 0 és ∂11f(u) < 0, akkor f-nek u-ban maximuma van
  2. ha det Hf(u) > 0 és ∂11f(u) > 0, akkor f-nek u-ban minimuma van
  3. ha det Hf(u) < 0, akkor f-nek biztosan nincs szélsőértéke, ún. nyeregpontja van
  4. ha det Hf(u) = 0, akkor a próba nem járt sikerrel, azaz további vizsgálatokat igényel annak eldöntése, hogy u szélsőérték hely-e.

Megjegyzések. Mivel kétváltozós esetben

\mathrm{det}\,\mathrm{H}^f(u)=\partial_{11}f(u)\cdot \partial_{22}f(u)-(\partial_{12}f(u))^2

ezért olyan eset nem létezik, hogy det Hf(u) > 0 és ∂11f(u) = 0.

Világos, hogy a másodikderivált tipikusan azoknál a függvényeknél jár sikerrel, melyeket egy másodfokú függvény közelít a legjobban (aszimptotikusan másodfokúak). Ha a függvény ennél magasabb fokú, akkor a második deriváltak eltűnnek és a Hesse-mártix elfajul (vagy legalább is tipikusan elfajul).

Ha tehát

\mathrm{H}^{f}(u)=\begin{pmatrix}
 A & B \\
 B & C
\end{pmatrix}, akkor \mathrm{det\,H}^{f}(u)=AC - B^2 ,

és így a tipikus példák a következők.

Példák

1. Ha B kicsi, azaz az AC-hez képest kis abszolútrétékű szám, akkor a szélsőérték irányába mozdul el a feladat.

f(x,y)=x^2+xy+y^2\,

Ekkor grad f = ( 2x + y , 2y + x ) és

\mathrm{H}^{f}(x,y)=\begin{pmatrix}
 2 & 1 \\
 1 & 2
\end{pmatrix}

azaz 4 - 1 = 3 > 0 és 2 > 0 miatt minimum.

 set pm3d
set size 0.8,0.8
set xrange [-1:1]
set yrange [-1:1]
set zrange [-2:2]
set view 50,30,1,1
unset xtics
unset ytics
unset ztics
unset key
unset colorbox
splot x*x+x*y+y*y

2. Ha |B| nagy (azaz AC-hez képest nagy), akkor a bizonyosan nemszélsőérték irányába.

f(x,y)=x^2-3xy+y^2\,

Ekkor grad f = ( 2x + -3y , 2y + -3x ) és

\mathrm{H}^{f}(x,y)=\begin{pmatrix}
 2 & -3 \\
 -3 & 2
\end{pmatrix}

azaz 4 - 9 = -5 < 0 miatt nincs szélsőérték: nyeregpont.

 set pm3d
set size 0.8,0.8
set xrange [-1:1]
set yrange [-1:1]
set zrange [-2:2]
set view 50,30,1,1
unset xtics
unset ytics
unset ztics
unset key
unset colorbox
splot x*x -3*x*y+y*y

3. Negatív A és C-re és kis B-re:

f(x,y)=-x^2+xy-y^2\,

Ekkor grad f = ( -2x + 3y , -2y + 3x ) és

\mathrm{H}^{f}(x,y)=\begin{pmatrix}
 -2 & 1 \\
 1 & -2
\end{pmatrix}

azaz 4 - 1 = 3 > 0 és -2 < 0 miatt maximum.

 set pm3d
set size 0.8,0.8
set xrange [-1:1]
set yrange [-1:1]
set zrange [-2:2]
set view 50,30,1,1
unset xtics
unset ytics
unset ztics
unset key
unset colorbox
splot -x*x +x*y-y*y

4. Ha A és C előjele ellenkező, akkor rögtön következik, hogy nincs sz.é.

f(x,y)=x^2+xy-y^2\,

Ekkor grad f = ( 2x + y , -2y + x ) és

\mathrm{H}^{f}(x,y)=\begin{pmatrix}
 2 & 1 \\
 1 & -2
\end{pmatrix}

azaz -4 - 1 = -5 < 0 azaz nyeregpont.

 set pm3d
set size 0.8,0.8
set xrange [-1:1]
set yrange [-1:1]
set zrange [-2:2]
set view 50,30,1,1
unset xtics
unset ytics
unset ztics
unset key
unset colorbox
splot x*x +x*y-y*y

5. Atipikus eset, ha AC = B2. Ekkor nem jár sikerrel a próba:

f(x,y)=x^2+2xy+y^2\,

Ekkor grad f = ( 2x + 2y , 2y + 2x ) és

\mathrm{H}^{f}(x,y)=\begin{pmatrix}
 2 & 2 \\
 2 & 2
\end{pmatrix}

azaz 4 - 4 = 0, azaz határozatlan eset. De tudjuk, hogy

f(x,y)=(x+y)^2\,

ami pontosan akkor minimális, ha x = -y, azaz ezeken a helyeken van szélsőérték.

 set pm3d
set size 0.8,0.8
set xrange [-1:1]
set yrange [-1:1]
set zrange [-2:2]
set view 50,30,1,1
unset xtics
unset ytics
unset ztics
unset key
unset colorbox
splot (x+y)*(x+y)


6. gyakorlat 8. gyakorlat
Személyes eszközök