Matematika A2a 2008/4. gyakorlat

A MathWikiből
(Változatok közti eltérés)
(Jacobi-mátrix)
(Jacobi-mátrix)
125. sor: 125. sor:
 
\end{bmatrix}</math>
 
\end{bmatrix}</math>
 
amelyet '''Jacobi-mátrix'''nak nevezünk.
 
amelyet '''Jacobi-mátrix'''nak nevezünk.
 +
 +
===Példák===
 +
====Egyváltozós vektorértékű függvény====
 +
A
 +
:<math>\mathbf{r}:[0,4\pi]\longrightarrow\mathbf{R}^3;\quad \mathbf{r}(t)=\begin{pmatrix}\cos(t)\\\sin(t)\\t\end{pmatrix}</math>
 +
leképezés Jacobi-mátrixa pont a deriváltvektor koordinátamátrixa. Egyetlen változó van így csak a fenti mátrix első oszlopa látszódik, a koordinátafüggvények t-szerinti deriváltjával:
 +
:<math>\mathbf{J}(t)=\begin{bmatrix}-\sin(t)\\\cos(t)\\1\end{bmatrix}</math>
 +
====Skalárértékű függvény====
 +
A mindenhol értelmezett
 +
:<math> f(x,y)= \sin(x) + xy^2 + y^3\,</math>
 +
leképezés Jacobi-mátrixa a parciális deriváltakból álló sorvektor:
 +
:<math>\mathbf{J}^f(x,y)=\begin{bmatrix}\cos(x)+y^2, & 2xy + 3y^2\end{bmatrix}</math>
 +
====Vektor-vektor függvény====
 +
Vegyük a polártranszformációt:
 +
:<math>G:[0,+\infty)\times[0,2\pi)\longrightarrow\mathbf{R}^2;\begin{pmatrix}r\\ \varphi\end{pmatrix}\mapsto\begin{pmatrix}r\cdot \cos(\varphi)\\r\cdot \sin(\varphi)\end{pmatrix} </math>
 +
Ekkor komponensfüggvényenként kell kiszámítani a parciális deriváltakat:
 +
:<math>\mathbf{J}^G(r,\varphi)=\begin{bmatrix}\cos(\varphi) & - r\cdot\sin(\varphi)\\ \sin(\varphi) & r\cdot\cos(\varphi)\end{bmatrix}</math>
 +
Megjegyezzük, hogy ekkor a Jacobi-determináns értéke ''r'' (illetve a "területelem" nagysága: ''r''<math>\cdot</math>d''r''<math>\cdot</math>d&phi;).
  
 
<center>
 
<center>

A lap 2008. március 15., 09:40-kori változata

Ez az szócikk a Matematika A2a 2008 alszócikke.

Tartalomjegyzék

Lineáris leképezések folytonossága

Megjegyzés. A normált terek között ható A lineáris leképezés folytonos, ha a 0-ban folytonos.

Ugyanis, legyen az A: N1 \to N2 lineáris leképezés és tegyük fel, hogy 0-ban folytonos, azaz minden ε>0-ra létezik δ>0, hogy minden x ∈ Bδ(0)-ra Ax ∈ Bε(0).

Most ha ε > 0 tetszőleges és x1 és x2 N1-beliek is tetszőlegesek, akkor

||\mathcal{A}x_1-\mathcal{A}x_2||=||\mathcal{A}(x_1-x_2)||\leq\varepsilon

amennyiben x1-x2 ∈ Bδ(0), ahol δ a 0-beli folytonosság által az ε-hoz tartozó δ.

Tétel. A : Rn \to Rm lineáris leképzés folytonos, sőt:

\exists L\geq 0\quad\forall x\in \mathbf{R}^n\quad||\mathcal{A}(x)||\leq L||x||

Megjegyzés. Ez azt is jelenti, hogy egy ilyen leképezés Lipschitz-függvény. Az f: Rn\to Rm függvényt Lipschitz-függvénynek nevezük, ha létezik L nemnegatív szám, hogy minden x1 és x2 Dom(f)-belire:

||f(x_1)-f(x_2)||\leq L||x_1-x_2||

Világos, hogy ez lineáris leképezésre ekvivalens a tételbeli megfogalmazással.

Bizonyítás. Vegyük az A szetenderd bázis beli mátrixát. Ekkor A(x)=A\cdotx. Így A minden Ai sorára

|\mathbf{A}_i\mathbf{x}|=|\sum\limits_{j=1}^{n}\mathbf{A}_{ij}x_j|\leq\sum\limits_{j=1}^{n}|\mathbf{A}_{ij}x_j| \leq L_i\sum\limits_{j=1}^{n}|x_j|

ahol Li rögzített i mellett a {|Ai,j|} j=1...n számok maximuma. Ha most vesszük L = max {Li}-t is, akkor

||\mathcal{A}\mathbf{x}||_\max=\max_{i=1...m}|\mathbf{A}_i\mathbf{x}|\leq L\sum\limits_{j=1}^{n}|x_j|=L\cdot ||\mathbf{x}||_{p=1}

is teljesül, azaz a kép maximumnormája felülbecsülhető L-szer a vektor norma-1 szerinti normájával. A normák ekvivalenciája miat pedig alkalmas L-re minden normára igaz.

Deriváltfogalmak Rn-ben

A többdimenziós terekben több természetes általánosítására lelhetünk az egyváltozós függvények deriváltfogalmának. A következőkben konkrét esetekt nézünk.

Sebességvektor

A görbék lényegében egyváltozós vektorértékű függvények: r: I\to R3; t  \mapsto r(t). Ezekre a deriváltat definiáló határérték válzatlan alakban írható:

\lim\limits_{\tau\to 0}\frac{\mathbf{r}(t+\tau)-\mathbf{r}(t)}{\tau}=\mathbf{r}'(t)

feltéve, hogy ez a határérték egyáltalán létezik az R3 normájában. A geometriai jelentésből az is következik, hogy a fenti határérték ugyanúgy a szelők határértékét, azaz az érintőt adják, mint az egyváltozós függvények esetén. Ekkor t jelentése: idő. A komponensenkénti határértékképzés miatt világos, hogy

\mathbf{r}'(t)=\begin{pmatrix}x'(t)\\y'(t)\\z'(t)\end{pmatrix}

Ezt még a görbe idő szerinti paraméterezésének is nevezzük, melynek fenti deriváltja a sebességet adja és vessző helyett ponttal is jelöljük a deriváltat:

\mathbf{v}(t)=\frac{\mathrm{d}\,\mathbf{r}}{\mathrm{d}\,t}(t)=\dot{\mathbf{r}}(t)

Példa.

\mathbf{r}:[0,4\pi]\longrightarrow\mathbf{R}^3;\quad \mathbf{r}(t)=\begin{pmatrix}\cos(t)\\\sin(t)\\t\end{pmatrix}
set size 0.5,0.5

set parametric set urange [0:4*pi] unset colorbox unset key unset xtics unset ytics unset ztics

splot cos(u),sin(u),u

egy spirál paraméterezése. A deriváltja:

\dot{\mathbf{r}}(t)=\begin{pmatrix}-\sin(t)\\\cos(t)\\1\end{pmatrix}

amiből látszik, hogy az [xy] síkra vett vetülete egy egyenletes körmozgás, a z tengelyre eső vetülete pedig egy egyenesvonalú egyenletes mozgás.

Parciális derivált

Ha adott az

f:\mathbf{R}^2\supset\!\longrightarrow\mathbf{R}

kétváltozós függvény, akkor adott (x0,y0) ∈ Dom(f) pont körül ebből származtathatunk két egyváltozós függvényt:

f(\;.\;,y_0):\{x\in \mathbf{R}\mid (x,y_0)\in\mathrm{Dom}(f)\}\longrightarrow \mathbf{R};\quad\quad x\mapsto f(x,y_0)
f(x_0,\;.\;):\{y\in \mathbf{R}\mid (x_0,y)\in\mathrm{Dom}(f)\}\longrightarrow \mathbf{R};\quad\quad y\mapsto f(x_0,y)

Ezeket parciális függvényeknek nevezzük, és ha differenciálhatóak rendre az x0 és az y0 pontokban, akkor a deriváltjuk a parciális deriváltak:

\partial_1f(x_0,y_0):=\frac{\partial f}{\partial x}(x_0,y_0):=\lim\limits_{t\to 0}\frac{f(x_0+t,y_0)-f(x_0,y_0)}{t}
\partial_2f(x_0,y_0):=\frac{\partial f}{\partial y}(x_0,y_0):=\lim\limits_{t\to 0}\frac{f(x_0,y_0+t)-f(x_0,y_0)}{t}

Geometriailag ezek a (x0,y0) pontban állított [x,z] síkkal illetve az [yz] síkkal vett metszetgörbék, mint egyváltozós függvények deriváltjai. A parciális deriváltfüggvényeket már mint kétváltozós függvényekként definiáljuk:

\partial_1 f:\quad(x_0,y_0)\mapsto \frac{\partial f}{\partial x}(x_0,y_0)
\partial_2 f:\quad(x_0,y_0)\mapsto \frac{\partial f}{\partial y}(x_0,y_0)

Példa.

 f(x,y)= \sin(x) + xy^2 + y^3\,, akkor \begin{matrix}\frac{\partial f(x,y)}{\partial x}=\cos(x)+y^2\\ \\\frac{\partial f(x,y)}{\partial y}=2xy + 3y^2\end{matrix}

Gradiens

Ha adott az

\Phi:\mathbf{R}^3\supset\!\longrightarrow\mathbf{R}

vektorváltozós skalárfüggvény, akkor ezt általában szintfelületekkel ábrázolhatjuk. Egy (x0,y0,z0)elég kis környezetében a függvény -- ha a későbbi értelmeben differenciálható -- akkor jól közelíthető lineáris vektorváltozós skalárfüggvény, tehát valamely

L(x,y,z)=Ax+By+Cz=\mathbf{n}\cdot\mathbf{r}

függvény (x0,y0,z0) pontba való eltoltjával -- hiszen ennek az ábrázolása síkoksorokkal történik, amik a pont elég kis környzetében már a hibahatáron belül térnek el Φ-től. Ez akkor van, ha a leképezés csak elsőnél magasabbrendű tagokban különbözik a lineáristól, azaz létezik ε(r):Dom(Φ) \to R az r0 = (x0,y0,z0)-ban folytonos és ott 0 értéket felvevő függvény, hogy

\Phi(\mathbf{r})-\Phi(\mathbf{r}_0)=\mathbf{n}\cdot (\mathbf{r}-\mathbf{r_0})+\varepsilon(\mathbf{r}).||\mathbf{r}-\mathbf{r_0}||

Mindezek miatt értelmes a fenti n vektort mint a lokális viselkedés jellemzőjét, egyfajta diváltat tekinteni. n-et ekkor a Φ leképezés (x0,y0,z0) ponthoz tartozó gradiensének nevezzük és tömör definíciója a következő:

\lim\limits_{\mathbf{r}\to\mathbf{r}_0}\frac{\Phi(\mathbf{r})-\Phi(\mathbf{r}_0)-\mathrm{grad}\,\Phi(\mathbf{r}_0)\cdot(\mathbf{r}-\mathbf{r}_0)}{||\mathbf{r}-\mathbf{r}_0||}=0

Példa

\Phi:\mathbf{R}^3\rightarrow\mathbf{R};\mathbf{r}\mapsto\mathbf{r}^2

függvényt.

Ekkor a gradiensét a következőkből számítjuk ki:

\Phi(\mathbf{r}) -\Phi(\mathbf{r}_0)=\mathbf{r}^2-\mathbf{r}_0^2=(\mathbf{r}-\mathbf{r}_0)(\mathbf{r}+\mathbf{r}_0)=(\mathbf{r}-\mathbf{r}_0)(\mathbf{r}-\mathbf{r}_0+\mathbf{r}_0+\mathbf{r}_0)=
=2\mathbf{r}_0\cdot(\mathbf{r}-\mathbf{r}_0)+(\mathbf{r}-\mathbf{r}_0)^2=2\mathbf{r}_0\cdot(\mathbf{r}-\mathbf{r}_0)+||\mathbf{r}-\mathbf{r}_0||^2

ahonnan leolvasva:

\mathrm{grad}\,\Phi(\mathbf{r}_0)=2\mathbf{r}_0
\varepsilon(\mathbf{r})=||\mathbf{r}-\mathbf{r}_0||

mely utóbbi valóban folytonos r0-ban és értéke itt 0.

Differenciálhatóság

Legyen f: Rn \supset\!\longrightarrow Rm és u ∈ int Dom(f). Azt mondjuk, hogy f differenciálható az u pontban, ha létezik olyan A: Rn \to Rm lineáris leképezés, hogy

\lim\limits_{x\to u}\frac{f(x)-f(u)-\mathcal{A}(x-u)}{||x-u||_{\mathbf{R}^n}}=0_{\mathbf{R}^m}

Ekkor A egyértelmű és az f leképezés u-bent beli deriválttenzorának vagy differenciáljának nevezzük és df(u)-val vagy Df(u)-val jelöljük. Ezt a fogalmat néha teljes differenciálnak, totális differenciálnak vagy Fréchet-deriváltnak is mondjuk.

Megjegyzés. A fenti határérték 0 volta egyenértékű a következő kijelentéssel. Létezik A: Rn \to Rm lineáris leképezés és ε: Dom(f) \to Rm függvény, melyre:

ε folytonos u-ban és ε(u)=0, továbbá

minden x ∈ Dom(f)-re:

f(x)=f(u)+\mathcal{A}(x-u)+\varepsilon(x)||x-u||

Megjegyzés. Azt, hogy A egyértelmű, a következőkkel bizonyíthatjuk. Legyen A és B is a mondott tuljadonságú, azaz létezzenek ε és η az u-ban eltűnő és ott folytonos Dom(f)-en értelmezett függvények, melyekre teljesül, hogy minden x ∈ Dom(f)-re

f(x)=f(u)+\mathcal{A}(x-u)+\varepsilon(x)||x-u||
f(x)=f(u)+\mathcal{B}(x-u)+\eta(x)||x-u||

ezeket kivonva egymásból és használva minden x-re:

(\mathcal{A}-\mathcal{B})(x-u)+(\varepsilon(x)-\eta(x))||x-u||=0

így minden x = u + ty értékre is az azonosan nullát kapjuk, ha t pozitív szám, y pedig rögzített nemnulla vektor, azaz minden t-re

(\mathcal{A}-\mathcal{B})ty+(\varepsilon(u+ty)-\eta(u+ty))||ty||=0

az azonosan 0 függény határértéke t\to 0 esetén szintén nulla:

 0=\lim\limits_{t\to 0}\frac{(\mathcal{A}-\mathcal{B})(ty)+(\varepsilon(u+ty)-\eta(u+ty))||ty||}{t}=(\mathcal{A}-\mathcal{B})y

hiszen t-t kiemelhetünk és egyszerűsíthatünk és t\to 0 esetén ε és η nullává válik. Ez viszont pont azt jelenti, hogy a két lineéris operátor a 0 egy környezetében azonosan egyenlő, így ilyen kicsi bázisokon egyenlő, azaz mindenhol egyenlő.

Jacobi-mátrix

Vizsgáljuk mibe viszi a bázisokat df(u) komponensleképezésenként. A df(u) lineáris leképezés (e1,e2,...,en) szetenderd bázisbeli mátrixa legyen: [df(u)] = A. Világos, hogy (df(u))(x)=A x. Először vegyük az A első sorvektorát, A1-et és az e1 egységvektor mentén tartunk u-hoz: x = u + te1. A df(u)-t definiáló határértékegyenlőség ekkor a következő alakot ölti:

0=\lim\limits_{t\to 0}\frac{f_1(u+te_1)-f_1(u)-\mathbf{A}_1\cdot(te_1)}{t}=
=\lim\limits_{t\to 0}\frac{f_1(u+te_1)-f_1(u)-t\mathbf{A}_1\cdot(e_1)}{t}=
=-\mathbf{A}_1\cdot e_1+\lim\limits_{t\to 0}\frac{f_1(u+te_1)-f_1(u)}{t}

azaz

\mathbf{A}_1\cdot e_1=\lim\limits_{t\to 0}\frac{f_1(u+te_1)-f_1(u)}{t}=\partial_1 f_1(u)

vagyis f első koordinátafüggvényének f1-nek az első változó szerinti parciális deriváltja az u pontban. A többi mátrixelemet ugyanígy:

[\mathrm{d}f(u)]=\mathbf{J}^f(u)=\begin{bmatrix}
\partial_1 f_1(u) & \partial_2 f_1(u) & \dots & \partial_n f_1(u)\\
\partial_1 f_2(u) & \partial_2 f_2(u) & \dots & \partial_n f_2(u)\\
\vdots            &     \vdots        &   \ddots    & \vdots \\
\partial_1 f_m(u) & \partial_2 f_m(u) & \dots & \partial_n f_m(u)\\
\end{bmatrix}

amelyet Jacobi-mátrixnak nevezünk.

Példák

Egyváltozós vektorértékű függvény

A

\mathbf{r}:[0,4\pi]\longrightarrow\mathbf{R}^3;\quad \mathbf{r}(t)=\begin{pmatrix}\cos(t)\\\sin(t)\\t\end{pmatrix}

leképezés Jacobi-mátrixa pont a deriváltvektor koordinátamátrixa. Egyetlen változó van így csak a fenti mátrix első oszlopa látszódik, a koordinátafüggvények t-szerinti deriváltjával:

\mathbf{J}(t)=\begin{bmatrix}-\sin(t)\\\cos(t)\\1\end{bmatrix}

Skalárértékű függvény

A mindenhol értelmezett

 f(x,y)= \sin(x) + xy^2 + y^3\,

leképezés Jacobi-mátrixa a parciális deriváltakból álló sorvektor:

\mathbf{J}^f(x,y)=\begin{bmatrix}\cos(x)+y^2, & 2xy + 3y^2\end{bmatrix}

Vektor-vektor függvény

Vegyük a polártranszformációt:

G:[0,+\infty)\times[0,2\pi)\longrightarrow\mathbf{R}^2;\begin{pmatrix}r\\ \varphi\end{pmatrix}\mapsto\begin{pmatrix}r\cdot \cos(\varphi)\\r\cdot \sin(\varphi)\end{pmatrix}

Ekkor komponensfüggvényenként kell kiszámítani a parciális deriváltakat:

\mathbf{J}^G(r,\varphi)=\begin{bmatrix}\cos(\varphi) & - r\cdot\sin(\varphi)\\ \sin(\varphi) & r\cdot\cos(\varphi)\end{bmatrix}

Megjegyezzük, hogy ekkor a Jacobi-determináns értéke r (illetve a "területelem" nagysága: r\cdotdr\cdotdφ).

pótló gyakorlat 5. gyakorlat
Személyes eszközök