Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

[AL] Add Produto Interno e Ortogonalidade #1004

Merged
merged 14 commits into from
Jul 11, 2024
Merged
Changes from all commits
Commits
File filter

Filter by extension

Filter by extension

Conversations
Failed to load comments.
Loading
Jump to
Jump to file
Failed to load files.
Loading
Diff view
Diff view
327 changes: 327 additions & 0 deletions content/al/0600-produto-interno-ortogonalidade.md
Original file line number Diff line number Diff line change
@@ -0,0 +1,327 @@
---
title: Produto Interno e Ortogonalidade
description: >-
Produto interno usual (real e complexo)
Propriedades do produto interno
Conceitos associados ao produto interno
Vetores ortogonais
Conjuntos Ortogonais
Ortogonalização de Gram-Schmidt
Projeção ortogonal

path: /al/produto-interno-ortogonalidade
type: content
---

# Produto Interno e Ortogonalidade

Apesar da introdução a álgebra linear ter sido realizada até agora
através de sistemas lineares, existe uma diversidade enorme de
aplicações geométricas desta área.
Podemos por isso, generalizar muitas noções geométricas a qualquer
espaço linear, não só a $\R^n$ mas a qualquer espaço linear.

```toc

```

## Produto interno usual em $\R^n$

O produto interno usual em $\R^n$ pode ser definido simplesmente por

:::info[Definição]
Sejam $x$, $y$ vetores de $\R^n$, tal que $x=(x_1,x_2,x_3,... , x_n)$
e $y=(y_1,y_2,y_3,..., y_n)$

$$
\langle x,y \rang =x_1y_1 +x_2y_2+...+x_ny_n
$$

ou seja,

$$
\langle x,y \rang = \begin{bmatrix}
x_1 & x_2 & ... & x_n
\end{bmatrix}\begin{bmatrix}
y_1 \\
y_2 \\
... \\
y_n
\end{bmatrix}
= x^Ty
$$

:::

## Produto interno em $\C^n$

O produto interno usual em $\C^n$ é em muito similar ao produto em $\R^n$, mas com algumas diferenças.
Segue-se a fórmula deste:

:::info[Definição]
Sejam $x$, $y$ vetores de $\C^n$, tal que $x=(x_1,x_2,x_3,... , x_n)$
e $y=(y_1,y_2,y_3,..., y_n)$

$$
\langle x,y \rang =\bar{x}_1y_1 +\bar{x}_2y_2+...+\bar{x}_ny_n
$$

ou seja,

$$
\langle x,y \rang = \begin{bmatrix}
\bar{x}_1 & \bar{x}_2 & ... & \bar{x}_n
\end{bmatrix} \begin{bmatrix}
y_1 \\
y_2 \\
... \\
y_n
\end{bmatrix}
= \bar{x}^Ty
$$

:::

**Nota:** Verifica-se que se a fórmula do produto interno usual for aplicada
aos números reais, que se obtém a fórmula do produto interno usual dos números
reais pois $\bar{x}=x, \forall x \in \R$.

## Propriedades do Produto Interno

Qualquer que seja o produto interno, este seguirá sempre as seguintes propriedades:

:::info[Simetria]
$\langle x,y \rang = \langle y,x \rang$ (em $\R$) ou $\langle x,y \rang = \overline{\langle y,x \rang}$ (em $\C$)
:::
:::info[Linearidade]
$ \langle x,\alpha y + \beta z \rang = \alpha \langle x,y\rang + \beta \langle x,z\rang$
:::
:::info[Positividade]
$ \langle x,x \rang \geqslant 0 $ e $ \langle x,x \rang = 0 $ apenas quando $ x=0$
:::

A partir destas características fundamentais pode-se definir o conceito de espaço Euclidiano.

:::info[Espaço Euclidiano]
Espaço linear munido de munido de produto interno
:::

Num espaço euclidiano definem-se os seguintes conceitos:

:::info[Norma]

$$
\parallel x\parallel = \langle x,x \rang
$$

:::
:::info[Distância]

$$
\op{dist}(u,v) = \parallel u-v\parallel
$$

:::

### Matriz de Gram

:::info[Matriz de Gram]
Seja $W$ um espaço linear real (resp. complexo) munido de um produto interno
e $B=(v_1,v_2,...,v_n)$ uma base ordenada de $W$.
A matriz $G={[\langle v_i,v_j\rang]}_{(i,j=1,...,n)}$ dos produtos internos
dos vetores da base $B$ é designada por _matriz de Gram_ ou _matriz da métrica_,
relativa a essa mesma base.
A matriz $G$ verifica:

1. $G$ é simétrica (respetivamente Hermitiana);
2. $G$ é definida positiva, isto é, $x^T_BGx_b>0$ para todo $x \not = 0$
(resp. $ x^H_BGy_B>0$, para todo $x \not = 0$), ou seja, os valores próprios
da matriz $G$ têm de ser todos positivos.

Em relação à base $B$, o produto interno em $W$ escreve-se na forma

$$
\langle x,y \rang = x^T_BGy_B
$$

onde $x_B$ e $y_B$ são respetivamente, os vetores de coordenadas de $x$ e $y$ na base $B$.
:::

### Desigualdade de Cauchy-Schwarz

Num espaço euclidiano qualquer verifica-se que

$$
\large{\dfrac{| \langle u,v\rang |}{\| u \| \|v \|}} \leqslant 1
$$

Esta desigualdade permite diretamente chegar à noção de ângulo entre vetores.

:::info[Ângulo entre vetores]

$$
\large{\dfrac{ \langle u,v\rang }{\| u \| \|v \|}} =\cos \theta, \quad \theta \in [0, \pi]
$$

:::

## Ortogonalidade

Com todas as noções previamente discutidas, torna-se possível discutir ortogonalidade entre dois vetores.

:::info[Definição]

$$
u \perp v \Leftrightarrow \langle u,v\rang=0
$$

:::

Com a definição de ortogonalidade, pode-se concluir que o **Teorema de Pitágoras**
é válido, tal que, se $u \perp v$ então $\|u-v\|^2=\|u\|^2+\|v\|^2$.

Com a ortogonalidade entre vetores definida sai a definição de conjunto ortogonal.

:::info[Conjunto Ortogonal]
$ S=\{v_1,v_2,...,v_n\}$ é ortogonal se os vetores de $S$ são ortogonais 2 a 2, isto é:

$\langle v_i, v_j \rang= 0$ para $i \not= j$

:::

De forma muito similar,
:::info[Conjunto Ortonormado]
$S=\{v_1,v_2,...,v_n\}$ é ortonormado se os vetores de $S$ são ortogonais 2 a 2
e se a norma de todos os vetores for 1, isto é:

$$
\langle v_i, v_j \rang= \begin{cases}
0 &\text{se } i \not = j \\
1 &\text{se } i = j
\end{cases}
$$

:::

:::info[Proposição]
Um conjunto ortogonal $S=\{v_1,v_2,...,v_n\}$ que não contenha o vetor nulo é linearmente independente.
:::

:::info[Projeção ortogonal]
Num espaço linear $W$ munido de um produto interno, a _projeção ortogonal_ do vetor
$u \isin W$ sobre o vetor não nulo $v \isin W$ é definida por

$$
\op{proj}_u v =\dfrac{ \langle u,v\rang }{\| u \|^2}
$$

:::

:::info[Desigualdade Triangular]

$$
\|u+v\|\le \|u\|+\|v\|
$$

:::

### Complemento ortogonal

Dois subespaços $U$ e $V$ dizem-se _subespaços complementares_ se qualquer vetor
de $W$ se escreve na forma $w=u+v$ e se a interseção dos subespaços é nula ($U\cap V=\{\empty \}$).

Tendo em conta esta definição,

$$
\dim W= \dim U+ \dim V
$$

Pode-se expandir esta noção, criando a noção de **complemento ortogonal**.

:::info[Complemento Ortogonal]
Seja $W$ um espaço linear munido de um produto interno e $S$ um subespaço de $W$
O _complemento ortogonal_ de $S$ é o conjunto de todos os vetores de $W$ que são ortogonais a qualquer vetor de $S$. Designamos o complemento ortogonal do subespaço $S$ por $S^\perp$.
:::

:::info[Proposição]
O complemento ortogonal $S^\perp$ do subespaço $S$ é um subespaço.
:::

:::info[Proposição]
Seja $S$ um subespaço e $S^\perp$ o seu complemento ortogonal. Verifica-se que:

$$
S \cap S^\perp=\{\empty\}
$$

:::

Tendo em conta que a interseção de um subespaço com o seu complemento ortogonal
é o vazio, e tendo em conta que a sua união é o espaço, fica a questão de se
qualquer vetor do espaço pode ser decomposto em vetores dos dois espaços. (Sim, e faz-se da seguinte forma)

:::info[Teorema da decomposição ortogonal]
Seja $W$ um espaço euclidiano e $S$ um subespaço de $W$.
Qualquer vector $x\in W$ escreve-se de forma única como a soma de
um vetor $x_S$ de $S$ com um vetor $x_{S^\perp}$ do complemento ortogonal de $S$.
Isto é, $x=x_S+x_{S^\perp}$ com $x_S \in S$ e $x_{S^\perp}$.

Define-se a projeção ortogonal de $x$ sobre o subespaço $S^\perp$ como $\op{proj}_{S^\perp}x=x_{S^\perp}$
:::

:::info[Hiperplano]
Num espaço linear de dimensão $n$, chama-se _hiperplano_ a um subespaço de dimensão $(n-1)$
:::

:::info[Teorema da melhor aproximação]
Sendo $W$ um espaço euclidiano e $S$ um subespaço de $W$ e $v$ um vetor de $W$, então

$$
\| x-\op{proj}_Sx\|\le \|x-u\|
$$

para qualquer $u \in S$
:::

:::info[Distância a um subespaço]
Seja $W$ um espaço linear, $S$ um subespaço de $W$ e $x$ um vetor de $W$. A distância de $x$ a $S$ é:

$$
dist(x,S)= \|\op{proj}_{S^\perp}x\|
$$

:::

:::info[Ortogonalidade dos subespaços fundamentais de uma Matriz]

$$
(EL(A))^\perp=N(A) \quad \text{e} \quad (EC(A))^\perp=N(A^T)
$$

:::

### Ortogonalização de Gram-Schmidt

Expressar vetores numa base ortonormada é relativamente simples,
mas fica a questão de como obter uma tal base, a partir de um
conjunto já existente de vetores.
Para tal pode-se usar o método de ortogonalização de Gram Schmidt.

:::info[Ortogonalização de Gram Schmidt]
Seja $V=\{v_1,v_2,...,v_k\}$, com $k>1$, um conjunto linearmente independente
de um espaço euclidiano.
O conjunto $U=\{u_1,u_2,...,u_k\}$ formado pelos vetores

$$
\begin{aligned}
u_1 &= v_1 \\
u_2 &= v_2-\frac{\langle u_1,v_2\rang}{\|u_1\|^2} \\
&= \dots \\
u_k &= v_k-\op{proj}_{u_1}v_k-\op{proj}_{u_2}v_k-\dots-\op{proj}_{u_{k-1}}v_k
\end{aligned}
$$

é ortogonal.

Os conjuntos $U$ e $V$ geram o mesmo espaço.
:::
Loading