gradinet, tecna rovina, parcialni derivace

This commit is contained in:
2026-03-08 21:57:46 +01:00
parent c592135bca
commit 0aa8869c1f
5 changed files with 106 additions and 2 deletions

View File

@@ -22,8 +22,37 @@ Pokud chceme najít tečnou rovinu k bodu na funkci, můžeme jí vyjádřit pom
$$
z = f(a) + \frac{\delta f}{\delta x}(h) + \frac{\delta f}{\delta y}(k)
$$
Z rovnic $x = x_{0} + h$ a $y = y_{0} + k$ u diferenciálu můžme vyjádřit $h = (x-x_{0})$ a $k = (y -y_{0})$.
Myšlenka je taková, že pokud se pohybujeme z bodu po součtu násobků dvou nezávislých vektorů, pohybujeme se po rovině. Pokud složíme naší rovinu z tečných přímek, dostaneme naší tečnou rovinu.
Z rovnic $x = x_{0} + h$ a $y = y_{0} + k$ u diferenciálu můžeme vyjádřit $h = (x-x_{0})$ a $k = (y -y_{0})$.
Tedy:
$$
\tau :f(a) + \frac{\delta f}{\delta x}(x-x_{0}) + \frac{\delta f}{\delta y}(y-y_{0}) - z
$$
Alternativní zápis pomocí gradientu je:
$$
\tau:g(x) = f(a) = \nabla f(a)(x-a)
$$
kde $\nabla f(a)$ je gradient, to platí protože: (je tam skalární součin)
$$
\nabla f(a)(x-a) = (f_{x},f_{y})\cdot(x_{0}-x,y_{0}-y) = f_{x}(x-x_{0}) + f_{y}(y-y_{0})
$$, kde $f_{x} = \frac{\delta f}{\delta x}, f_{y} = \frac{\delta f}{\delta y}$, protože to je pouze jiný způsob zápisu.
## Normála
Víme, že pro rovinu platí, že její normálový vektor jsou koeficienty před jejími členy (x,y,z).
Její normálový vektor $\vec{n}$ pro rovinu $\tau :f(a) + \frac{\delta f}{\delta x}(x-x_{0}) + \frac{\delta f}{\delta y}(y-y_{0}) - z$
je:
$$
\vec{n} = \left( \frac{\delta f}{\delta x}, \frac{\delta f}{\delta y}, -1 \right)
$$
Rovnice normálové přímky parametricky pak je: (pro parametr $t \in R$)
$$
x = x_{0} + \frac{\delta f}{\delta x}(t)
$$
$$
y = y_{0} + \frac{\delta f}{\delta y}(t)
$$
$$
z = f(x_{0},y_{0}) - t
$$