Skip to content

Commit

Permalink
refactor: fix formatting of page
Browse files Browse the repository at this point in the history
  • Loading branch information
diogotcorreia committed Jul 7, 2024
1 parent 3e70513 commit 03526f0
Showing 1 changed file with 113 additions and 62 deletions.
175 changes: 113 additions & 62 deletions content/al/0600-produto-interno-ortogonalidade.md
Original file line number Diff line number Diff line change
Expand Up @@ -15,72 +15,80 @@ type: content

# Produto Interno e Ortogonalidade

Apesar da introdução a álgebra linear ter sido realizada até agora através de sistemas lineares, existe uma diversidade enorme de aplicações geométricas desta área.
Podemos por isso, generalizar muitas noções geométricas a qualquer espaço linear, não só a $$ \R^n$$ mas a qualquer espaço linear.
Apesar da introdução a álgebra linear ter sido realizada até agora
através de sistemas lineares, existe uma diversidade enorme de
aplicações geométricas desta área.
Podemos por isso, generalizar muitas noções geométricas a qualquer
espaço linear, não só a $\R^n$ mas a qualquer espaço linear.

## Produto interno usual em $ \R^n$
```toc
```

O produto interno usual em $ \R^n$ pode ser definido simplesmente por
## Produto interno usual em $\R^n$

:::info[Definição]
Sejam $x$, $y$ vetores de $ \R^n$

Tal que $ x=(x_1,x_2,x_3,... , x_n) $
O produto interno usual em $\R^n$ pode ser definido simplesmente por

:::info[Definição]
Sejam $x$, $y$ vetores de $\R^n$, tal que $x=(x_1,x_2,x_3,... , x_n)$
e $y=(y_1,y_2,y_3,..., y_n)$

$ \langle x,y \rang =x_1y_1 +x_2y_2+...+x_ny_n$
$$
\langle x,y \rang =x_1y_1 +x_2y_2+...+x_ny_n
$$

ou seja,

$ \langle x,y \rang = $ $$\begin{bmatrix}
$$
\langle x,y \rang = \begin{bmatrix}
x_1 & x_2 & ... & x_n
\end{bmatrix}\begin{bmatrix}
y_1 \\
y_2 \\
... \\
y_n
\end{bmatrix}$$
$= x^Ty$
\end{bmatrix}
= x^Ty
$$
:::

## Produto interno em $ \C^n $
## Produto interno em $\C^n$

O produto interno usual em $\C^n$ é em muito similar ao produto em $\R^n$, mas com algumas diferenças.
Segue-se a fórmula deste:

:::info[Definição]
Sejam x, y vetores de $ \C^n$

Tal que $ x=(x_1,x_2,x_3,... , x_n) $

e $y=(y_1,y_2,y_3,..., y_n)$$
Sejam $x$, $y$ vetores de $\C^n$, tal que $x=(x_1,x_2,x_3,... , x_n)$
e $y=(y_1,y_2,y_3,..., y_n)$

$ \langle x,y \rang =\bar{x}\_1y_1 +\bar{x}\_2y_2+...+\bar{x}\_ny_n$
$$
\langle x,y \rang =\bar{x}_1y_1 +\bar{x}_2y_2+...+\bar{x}_ny_n
$$

ou seja,

$ \langle x,y \rang = $ $$\begin{bmatrix}
$$
\langle x,y \rang = \begin{bmatrix}
\bar{x}_1 & \bar{x}_2 & ... & \bar{x}_n
\end{bmatrix} \begin{bmatrix}
y_1 \\
y_2 \\
... \\
y_n
\end{bmatrix}$$
$= \bar{x}^Ty$
\end{bmatrix}
= \bar{x}^Ty
$$
:::

#### Nota:

Verifica-se que se a fórmula do produto interno usual fôr aplicada aos números reais, que se obtém a fórmula do produto interno usual dos números reais pois $\bar{x}=x, \forall x \in \R$
**Nota:** Verifica-se que se a fórmula do produto interno usual for aplicada
aos números reais, que se obtém a fórmula do produto interno usual dos números
reais pois $\bar{x}=x, \forall x \in \R$.

## Propriedades do Produto Interno

Qualquer que seja o produto interno, este seguirá sempre as seguintes propriedades:

:::info[Simetria]
$ \langle x,y \rang = \langle y,x \rang $ (em $\R$) ou $\langle x,y \rang = \overline{\langle y,x \rang}$ (em $\C$)
$\langle x,y \rang = \langle y,x \rang$ (em $\R$) ou $\langle x,y \rang = \overline{\langle y,x \rang}$ (em $\C$)
:::
:::info[Linearidade]
$ \langle x,\alpha y + \beta z \rang = \alpha \langle x,y\rang + \beta \langle x,z\rang$
Expand All @@ -89,100 +97,129 @@ $ \langle x,\alpha y + \beta z \rang = \alpha \langle x,y\rang + \beta \langle x
$ \langle x,x \rang \geqslant 0 $ e $ \langle x,x \rang = 0 $ apenas quando $ x=0$
:::

A partir destas características fundamentais podese definir o conceito de espaço Euclidiano.
A partir destas características fundamentais pode-se definir o conceito de espaço Euclidiano.

:::info[Espaço Euclidiano]
Espaço linear munido de munido de produto interno
:::

Num espaço euclidiano definem-se os seguintes conceitos:

:::info[Norma]
$ \parallel x\parallel = \langle x,x \rang $
$$
\parallel x\parallel = \langle x,x \rang
$$
:::
:::info[Distância]
dist$(u,v) = \parallel u-v\parallel $
$$
\op{dist}(u,v) = \parallel u-v\parallel
$$
:::

### Matriz de Gram

:::info[Matriz de Gram]
Seja $W$ um espaço linear real (resp. complexo) munido de um produto interno e $ B=(v*1,v_2,...,v_n)$ uma base ordenada de $W$. A matriz $$G={[\langle v_i,v_j\rang]}*{(i,j=1,...,n)}$$ dos produtos internos dos vetores da base $B$ é dsignada por _matriz de Gram_ ou _matriz da métrica_, relativa a essa mesma base. A matriz $G$ verifica:
Seja $W$ um espaço linear real (resp. complexo) munido de um produto interno
e $ B=(v_1,v_2,...,v_n)$ uma base ordenada de $W$.
A matriz $G={[\langle v_i,v_j\rang]}_{(i,j=1,...,n)}$ dos produtos internos
dos vetores da base $B$ é designada por _matriz de Gram_ ou _matriz da métrica_,
relativa a essa mesma base.
A matriz $G$ verifica:

1. $G$ é simétrica (respetivamente Hermitiana);
2. $G$ é definida positiva, isto é, $x^T_BGx_b>0$ para todo $x \not = 0$ (resp. $ x^H_BGy_B>0$, para todo $x \not = 0$), ou seja, os valores próprios da matriz $G$ têm de ser todos positivos.
2. $G$ é definida positiva, isto é, $x^T_BGx_b>0$ para todo $x \not = 0$
(resp. $ x^H_BGy_B>0$, para todo $x \not = 0$), ou seja, os valores próprios
da matriz $G$ têm de ser todos positivos.

Em relação à base $B$, o produto interno em $W$ escreve-se na forma

$ \langle x,y \rang = x^T_BGy_B$
onde $x_B$ e $y_B$ são respetivamente, os vetores de coodenadas de $x$ e $y$ na base $B$.
$$
\langle x,y \rang = x^T_BGy_B
$$

onde $x_B$ e $y_B$ são respetivamente, os vetores de coordenadas de $x$ e $y$ na base $B$.
:::

### Desigualdade de Cauchy-Schwarz

Num espaço euclidiano qualquer verifica-se que

$ \large{\dfrac{| \langle u,v\rang |}{\| u \| \|v \|}} \leqslant 1$
$$
\large{\dfrac{| \langle u,v\rang |}{\| u \| \|v \|}} \leqslant 1
$$

Esta desigualdade permite diretamente chegar à noção de ângulo entre vetores.

:::info[Ângulo entre vetores]
$\large{\dfrac{ \langle u,v\rang }{\| u \| \|v \|}} =cos \theta, \theta \in [0, \pi] $
$$
\large{\dfrac{ \langle u,v\rang }{\| u \| \|v \|}} =\cos \theta, \quad \theta \in [0, \pi]
$$
:::

## Ortogonalidade

Com todas as noções previamente discutidas, torna-se possível discutir ortogonalidade entre dois vetores.

:::info[Definição]
$ u \perp v<=> \langle u,v\rang=0 $
$$
u \perp v \Leftrightarrow \langle u,v\rang=0
$$
:::

Com a definição de ortogonalidade, pode-se concluir que o **Teorema de Pitágoras** é válido, tal que:

Se $ u \perp v$ então

$ \|u-v\|^2=\|u\|^2+\|v\|^2$Definição
Com a definição de ortogonalidade, pode-se concluir que o **Teorema de Pitágoras**
é válido, tal que, se $u \perp v$ então $\|u-v\|^2=\|u\|^2+\|v\|^2$.

Com a ortogonalidade entre vetores definida sai a definição de conjunto ortogonal.

:::info[Conjunto Ortogonal]
$ S=\{v_1,v_2,...,v_n\}$ é ortogonal se os vetores de $S$ são ortogonais 2 a 2, isto é:

$\langle v_i, v_j \rang= 0 $ para $i \not= j$
$\langle v_i, v_j \rang= 0$ para $i \not= j$

:::

De forma muito similar,
:::info[Conjunto Ortonormado]
$ S=\{v_1,v_2,...,v_n\}$ é ortonormado se os vetores de $S$ são ortogonais 2 a 2 e se a norma de todos os vetores fôr 1, isto é:
$S=\{v_1,v_2,...,v_n\}$ é ortonormado se os vetores de $S$ são ortogonais 2 a 2
e se a norma de todos os vetores for 1, isto é:

$\langle v_i, v_j \rang=$ $$ \begin{cases}
$$
\langle v_i, v_j \rang= \begin{cases}
0 &\text{se } i \not = j \\
1 &\text{se } i = j
\end{cases} $$
\end{cases}
$$
:::

:::info[Proposição]
Um conjunto ortogonal $ S=\{v_1,v_2,...,v_n\}$ que não contenha o vetor nulo é linearmente independente
Um conjunto ortogonal $S=\{v_1,v_2,...,v_n\}$ que não contenha o vetor nulo é linearmente independente.
:::

:::info[Projeção ortogonal]
Num espaço lonear $W$ munido de um produto interno, a _projeção ortogonal_ do vetor $u \isin W$ sobre o vetor não nulo $v \isin W$. é definida por
Num espaço linear $W$ munido de um produto interno, a _projeção ortogonal_ do vetor
$u \isin W$ sobre o vetor não nulo $v \isin W$ é definida por

$ proj_u v =\dfrac{ \langle u,v\rang }{\| u \|^2} $
$$
\op{proj}_u v =\dfrac{ \langle u,v\rang }{\| u \|^2}
$$
:::

:::info[Desigualdade Triangular]
$ \|u+v\|\le \|u\|+\|v\| $
$$
\|u+v\|\le \|u\|+\|v\|
$$
:::

### Complemento ortogonal

Dois subespaços $U$ e $V$ dizem-se _subespaços complementares_ se qualquer vetor de $W$ se escreve na forma $w=u+v$ e se a interseção dos subespaços é nula ($U\cap V=\{\empty \}$).
Dois subespaços $U$ e $V$ dizem-se _subespaços complementares_ se qualquer vetor
de $W$ se escreve na forma $w=u+v$ e se a interseção dos subespaços é nula ($U\cap V=\{\empty \}$).

Tendo em conta esta definição,

$dim W= dim U+ dim V$
$$
\dim W= \dim U+ \dim V
$$

Pode-se expandir esta noção, criando a noção de **complemento ortogonal**.

Expand All @@ -198,17 +235,22 @@ O complemento ortogonal $S^\perp$ do subespaço $S$ é um subespaço.
:::info[Proposição]
Seja $S$ um subespaço e $S^\perp$ o seu complemento ortogonal. Verifica-se que:

$S \cap S^\perp=\{\empty\}$
$$
S \cap S^\perp=\{\empty\}
$$
:::

Tendo em conta que a interseção de um subespaço com o seu complemento ortogonal é o vazio, e tendo em conta que a sua união é o espaço, fica a questão de se qualquer vetor do espaço pode ser decomposto em vetores dos dois espaços. (Sim, e faz-se da seguinte forma)
Tendo em conta que a interseção de um subespaço com o seu complemento ortogonal
é o vazio, e tendo em conta que a sua união é o espaço, fica a questão de se
qualquer vetor do espaço pode ser decomposto em vetores dos dois espaços. (Sim, e faz-se da seguinte forma)

:::info[Teorema da decomposição ortogonal]
Seja $W$ um espaço euclidiano e $S$ um subespaço de $W$. Qualquer vector $x\in W$ escreve-se de forma única como a soma de um vetor $x_S$ de $S$ com um vetor $x_{S^\perp}$ do complemento ortogonal de $S$. Isto é,
Seja $W$ um espaço euclidiano e $S$ um subespaço de $W$.
Qualquer vector $x\in W$ escreve-se de forma única como a soma de
um vetor $x_S$ de $S$ com um vetor $x_{S^\perp}$ do complemento ortogonal de $S$.
Isto é, $x=x_S+x_{S^\perp}$ com $x_S \in S$ e $x_{S^\perp}$.

$x=x_S+x_{S^\perp}$ com $x_S \in S$ e $x_{S^\perp}$

Define-se a projeção ortognal de $x$ sobre o subespaço $S^\perp$ como $proj_{S^\perp}x=x_{S^\perp}$
Define-se a projeção ortogonal de $x$ sobre o subespaço $S^\perp$ como $\op{proj}_{S^\perp}x=x_{S^\perp}$
:::

:::info[Hiperplano]
Expand All @@ -228,19 +270,28 @@ para qualquer $u \in S$
:::info[Distância a um subespaço]
Seja $W$ um espaço linear, $S$ um subespaço de $W$ e $x$ um vetor de $W$. A distância de $x$ a $S$ é:

$dist(x,S)= \|proj_{S^\perp}x\|$
$$
dist(x,S)= \|\op{proj}_{S^\perp}x\|
$$
:::

:::info[Ortogonalidade dos subespaços fundamentais de uma Matriz]
$(EL(A))^\perp=N(A)$ e $(EC(A))^\perp=N(A^T)$
$$
(EL(A))^\perp=N(A) \quad \text{e} \quad (EC(A))^\perp=N(A^T)
$$
:::

### Ortogonalização de Gram-Schmidt

Expressar vetores numa base ortornormada é relativamente simples, mas fica a questão de como obter uma tal base, a partir de um conjunto já existente de vetores. Para tal pode-se usar o método de ortogonalização de Gram Schmidt.
Expressar vetores numa base ortonormada é relativamente simples,
mas fica a questão de como obter uma tal base, a partir de um
conjunto já existente de vetores.
Para tal pode-se usar o método de ortogonalização de Gram Schmidt.

:::info[Ortogonalização de Gram Schmidt]
Seja $V=\{v_1,v_2,...,v_k\}$, com $k>1$, um conjunto linearmente independente de um espaço euclidiano. O conjutno $U=\{u_1,u_2,...,u_k\}$ formado pelos vetores
Seja $V=\{v_1,v_2,...,v_k\}$, com $k>1$, um conjunto linearmente independente
de um espaço euclidiano.
O conjunto $U=\{u_1,u_2,...,u_k\}$ formado pelos vetores

$$
\begin{aligned}
Expand All @@ -253,5 +304,5 @@ $$

é ortogonal.

Os conjuntos U e V geram o mesmo espaço.
Os conjuntos $U$ e $V$ geram o mesmo espaço.
:::

0 comments on commit 03526f0

Please sign in to comment.