Upgrade to Pro — share decks privately, control downloads, hide ads and more …

Álgebra Linear Computacional II

Álgebra Linear Computacional II

Veja esta apresentação em www.bordoni.info.

Paulo Bordoni

October 15, 2016
Tweet

More Decks by Paulo Bordoni

Other Decks in Education

Transcript

  1. A ação da matriz M sobre um feixe de vetores

    de tamanho unitário é clarificada pela imagem abaixo: A ação é dilatar a componente vertical dos vetores do feixe por um fator de escala = 2 e manter a componente horizontal inalterada.
  2. A ação desta outra matriz M é dilatar de =

    2.5 a componente dos vetores do feixe mas manter a componente inalterada. Ela é proporcional ao tamanho das componentes e dos vetores do feixe, que varia com a inclinação.
  3. Já a ação desta outra matriz M sobre os vetores

    unitários do feixe é mais complexa: Uma rotação e uma dilatação.
  4. Esta 4ª matriz M, além da rotação e dilatação também

    realiza uma inversão do sentido dos vetores. Notem, pelas cores, que o sentido dos vetores na imagem foi invertido.
  5. Agora sim temos uma descrição mais completa do efeito de

    uma matriz sobre um feixe de vetores.
  6. Percebemos claramente que a matriz A leva a circunferência unitária

    numa elípse. Sim Mestra, é só olhar para as pontas dos vetores.
  7. Então se eu usar apenas a circunferência unitária obterei o

    mesmo resultado - uma elipse. Exatamente Surfista. Veja o programa que confirma tua fala na próxima transparência.
  8. Resumindo: A transformação linear : ℝ2 → ℝ2 leva a

    circunferência unitária numa elipse. Sim, e as medidas 1 , 2 dos semi-eixos da elipse são chamados de valores singulares da matriz . 1 2
  9. Loirinha, esta é uma das questões mais importantes da Álgebra

    linear computacional. A resposta é a decomposição em valores singulares da matriz .
  10. Voltando ao livro do Trefethen, logo no início está a

    decomposição em valores singulares
  11. O teorema da Decomposição em Valores Singulares (SVD): Seja ∈

    ℳ× uma matriz com elementos ∈ ℂ. Então existem matrizes unitárias ∈ ℳ× e ∈ ℳ× tais que = Σ = (1 , 2 , ⋯ , ), com = { , } e 1 ≥ 2 ≥ ⋯ ≥ ≥ 0. Os ′ são chamados de valores singulares. As colunas de U e V são os vetores singulares da esquerda e direita, respectivamente.
  12. Para = 3 e = 2: 11 12 21 22

    31 32 = 11 12 13 21 22 23 31 32 33 1 0 0 2 0 0 11 12 21 22 Para = 2 e = 3: 11 12 13 21 22 23 = 11 12 21 22 1 0 0 0 2 0 11 12 13 21 22 23 31 32 33 Quando = , todas as matrizes serão quadradas. Abaixo mostrei dois exemplos em que ≠ .
  13. Seja ∈ ℳ× uma matriz com elementos reais. Então existem

    matrizes ortogonais ∈ ℳ× e ∈ ℳ× tais que = Σ = (1 , 2 , ⋯ , ), com = { , } e 1 ≥ 2 ≥ ⋯ ≥ ≥ 0. Vamos nos restringir à matrizes reais ∈ ℝ. Nesse caso o teorema fica:
  14. Nesse caso a hiper-esfera unitária foi deformada num hiper-elipsoide com

    semi-eixos 1 = 6.678 … , 2 = 4.049… , 3 = 2.288 … , 4 = 1.322 … . Perfeitamente, Loirinha!
  15. Notem que os vetores 1 , 2 , 3 ,

    4 , que constituem as colunas da matriz e os vetores 1 , 2 , 3 , 4 que constituem as linhas da matriz são ortonormais. Sim Galileu, uma vez que: • ∙ = , • ∙ = .
  16. Exatamente Surfista! E, se eu entendi, as direções desses semi-

    eixos são dadas pelos vetores ortonormais 1 , 2 , 3 , 4 , que constituem as colunas da matriz : = 1 2 3 4
  17. Só não consegui entender o papel dos vetores ortonormais 1

    , 2 , 3 , 4 , que constituem as linhas da matriz : = 1 2 3 4 . É aí que entra a interpretação geométrica da fatoração SVD.
  18. O teorema informa que = ∙ Σ ∙ , com

    ∈ ℳ× , ∈ ℳ× , ∈ ℳ× e Σ ∈ ℳ× . Isto significa que, como transformação linear, : ℝ → ℝ é a composta de três transformações lineares: : ℝ → ℝ, Σ: ℝ → ℝ e : ℝ → ℝ, como mostro na próxima transparência.
  19. Veja no gráfico, Loirinha: ℝ ℝ ℝ ℝ Σ Rotação

    ou inversão Rotação ou inversão Dilatação ou contração
  20. O Mestre cortou um gomo da laranja para melhorar a

    visualização. Na realidade uma casca esférica, cortada para olharmos seu interior. A matriz A é diagonal. Note as escalas nos 3 eixos da imagem.
  21. Fiz um programa para calcular a decomposição em valores singulares,

    SVD, de uma matriz A. Depois apliquei-o à matriz do gráfico anterior.
  22. Esta outra matriz A é simétrica. Além de deformar a

    esfera num elipsoide, ela também gira-o entorno da origem!
  23. Na fórmula acima, fórmula, é qualquer sub matriz de ordem

    obtida de eliminando-se − linhas e − colunas de . O posto de , anotado () é definido por: = 1 ≤ ≤ min , ≠ 0 } . A definição de posto de uma matriz ∈ ℳ× é a seguinte:
  24. O () é o número máximo de vetores coluna de

    linearmente independentes ou seja é a dimensão da imagem de : = ∈ ℝ y = Ax, x ∈ ℝ } O núcleo de uma matriz ∈ ℳ× é o subespaço ú = ∈ ℝ = 0 }. A dimensão de ú é denominada nulidade de , e anotada .
  25. Valem as seguintes igualdades: 1. = posto(), 2. + =

    . Além disso, as seguintes propriedades são equivalentes: 1. é não-singular, 2. det ≠ 0, 3. ú = 0 , 4. =
  26. Para esta matriz A, a esfera vira um disco! Perdemos

    uma dimensão na imagem. Fiz duas fotos para vocês conferirem. Uma de perfil e, a outra, quase de frente.
  27. Também calculei a SVD da minha matriz. Marquei o valor

    do determinante e o tamanho dos semieixos do elipsoide. Vejam que tanto o determinante como o valor de um semieixo é zero. O posto da matriz é 2 e seu espaço nulo é unidimensional
  28. Loirinha, repeti seus cálculos para esta última matriz A. Agora

    o det() e dois dos valores singulares de A são nulos. Neste caso = 1 e = 2.
  29. Uma norma matricial é uma função ∙ ∶ ℳ× →

    ℝ satisfazendo: Para , ∈ ℳ× e ∈ ℝ, 1. ≥ 0, 2. = 0 se e somente se = 0, 3. = , 4. + ≤ + .
  30. Uma norma matricial ∙ é compatível com uma norma vetorial

    ∙ quando ≤ , ∀ ∈ ℝ. Uma norma matricial ∙ é dita sub multiplicativa quando ≤ , ∀, ∈ ℳ× .
  31. A norma de Frobenius é definida por: = ෍ ,=1

    2 = () Surfista, prove que é uma norma matricial.
  32. Prova-se que se ∙ é uma norma vetorial, então a

    função definida por = sup ≠0 É uma norma matricial. Essa norma é denominada norma matricial induzida (pela norma vetorial ∙ ) ou ainda norma matricial natural.
  33. A norma é definida por: = max ≠0 Quando =

    2, temos a norma euclidiana.
  34. As normas ∙ 1 , e ∙ ∞ são facilmente

    calculáveis a partir de: 1 = max =1,⋯, ෍ =1 ∞ = max =1,⋯, ෍ =1 Prove essas duas afirmações, Surfista.
  35. Agora entendi, Galileu, porque este conjunto de transparências começou mostrando

    a ação de uma matriz A sobre a bola unitária. Prova-se que 2 = 1 , onde 1 é o maior valor singular de A.
  36. Especificamente, vamos calcular as normas ∙ , ∙ 2 ,

    ∙ 1 , ∙ ∞ de uma matriz e conferir a igualdade 2 = 1 .
  37. Uma fatoração pouco divulgada nos cursos de Cálculo Numérico é

    a fatoração = . Nela, a matriz é ortogonal e a matriz é triangular superior. Sabendo que = , para resolver um sistema linear = , basta resolver o sistema triangular superior = .
  38. Eis o algoritmo e o programa feito pelo Mestre: 1.

    Receber uma matriz e um termo independente , 2. Calcular a fatoração = , 3. Conferir que é ortogonal, 4. Resolver o sistema linear = , 5. Calcular = e conferir que = via ( ).
  39. A fatoração QR é extremamente importante em Álgebra Linear Computacional.

    Loirinhas, Surfistas e Cabelos de Fogo, procurem informações sobre ela em livros (o do Trefethen é uma boa dica) ou na Internet e façam a tarefa que o Tio vai mandar.
  40. Após encontrar a informações sobre a fatoração QR discutam sobre

    sua importância e descubram as conexões entre ela: 1. E o processo de ortogonalização de Gram- Schmidt. 2. E a triangularização de Householder. 3. Qual dos processos é mais estável?
  41. Mestres, quando deveremos apresentar a tarefa ordenada pelo Tio? Apresente

    tua resposta impreterivelmente na próxima semana, senão mandarei o Tribunal da Inquisição te condenar como bruxa!
  42. Torquinho, como deveremos entregar esses exercícios? Como antes, em papel

    almaço pautado, com nome, DRE e turma. Manuscrito!
  43. Outro tópico fundamental em Álgebra linear computacional e nas Ciências

    e Engenharias são os autovalores e autovetores.
  44. Vou recordar as definições de autovalores e autovetores: Seja ∈

    ℳ× uma matriz de ordem n. de números reais ou complexos. Um vetor não-nulo ∈ ℂ é um autovetor de A e ∈ ℂ o autovalor correspondente quando = . O conjunto de todos os autovalores de A é chamado de espectro de A e anotado ().
  45. Mestres, = ⟺ − = 0. Você é show, Loirinha!

    E, a única chance de termos ≠ 0 é quando det − = 0
  46. é um autovalor de A ⟺ é uma raiz do

    polinômio característico de A, isto é, = 0 Da definição de autovalores e autovetores, é imediato que (prove Loirinha): O polinômio característico de uma matriz A é definido por = det( − ). Ele é um polinômio mônico.
  47. Uma consequência importante desse resultado é que autovalores de uma

    matriz A podem ser complexos, mesmo que a matriz A seja real.
  48. Uma outra consequência é que: • Uma matriz ∈ ℳ

    × possui no máximo n autovalores, contadas as multiplicidades algébricas. • Se todas as raízes do polinômio característico forem raízes simples, então A possuirá n autovalores distintos.
  49. Uma dica: Assuma que 1 ≠ 2 são autovalores correspondentes

    aos autovetores 1 e 2 . Suponha, por absurdo, que 1 e 2 são LD, isto é 1 = 2 , ≠ 0. Conclua! Autovalores distintos garantem que os autovetores correspondentes são linearmente independentes. Prove isto como exercício, Surfista!
  50. A ideia subjacente aos conceitos de autovalores e autovetores é

    que: A ação de A em determinados subespaços S de ℝ imita a multiplicação por fator de escala, = . Na figura abaixo os subespaços são os eixos e já que a matriz A é diagonal!
  51. Concordo Mestra, no eixo- (um dos subespaços) temos uma dilatação

    de = 1.5 e no outro (o eixo-) uma contração de = 0.5.
  52. É, aplicando essa matriz a vetores sobre o eixo-, o

    resultado é claro. Idem para vetores sobre o eixo-. Vejam: Vetores sobre o eixo- continuam no eixo- 1.5 0 0 0.5 0 = 1.5 0 , só aumentam em 50%. E, vetores sobre o eixo- continuam sobre o eixo- 1.5 0 0 0.5 0 = 0.5 0 , só diminuem à metade.
  53. Uma matriz ∈ ℳ × é diagonalizável, quando existirem matrizes

    , ∈ ℳ × , sendo V inversível e D diagonal, tais que = −1. Quando é diagonalizável, os elementos 1 , 2 , … , da diagonal de D são os autovalores de e as colunas 1 , 2 , … , de V de são os autovetores correspondentes. Um definição semelhante ao teorema da decomposição SVD:
  54. Prova-se que é diagonalizável se, e somente se, seus autovetores

    1 , 2 , … , são linearmente independentes. Sim Mestra, pois vetores 1 , 2 , … , são linearmente independentes se, e somente se a matriz = 1 2 … é inversível.
  55. Este é um dos resultados mais importantes da Álgebra Linear.

    A Mestra vai mostrar, como ele aparece na scipy.linalg Em particular, se A é simétrica, então seus autovalores são reais e seus autovetores são ortogonais: =
  56. É claro, quando é simétrica, temos uma interpretação geométrica semelhante

    à da SVD: ℝ ℝ ℝ ℝ Rotação ou inversão Rotação ou inversão contrária Dilatação ou contração
  57. Sim Loirinha, e se os autovetores correspondentes forem LI (linearmente

    independentes) o subespaço gerado por eles possuirá dimensão maior que 1. A dimensão desse subespaço é conhecida como multiplicidade geométrica de . Mestres, existe a possibilidade de alguns dos autovalores 1 , 2 , ⋯ , em serem iguais?
  58. Equações polinomiais podem possuir raízes com multiplicidade maior que 1.

    É a mesma coisa que a multiplicidade geométrica do autovalor? Não Loirinha, trata-se da multiplicidade algébrica do autovalor .
  59. Podemos provar que: A multiplicidade algébrica de um autovalor é

    maior ou, quando muito, igual à sua multiplicidade geométrica. No caso da multiplicidade algébrica de um autovalor ser maior que sua multiplicidade geométrica, ele é dito defectivo.
  60. Surfista, as matrizes A e B abaixo possuem o mesmo

    polinômio característico, = ( − 2)3. Portanto ambas possuem apenas um autovalor = 2, com multiplicidade algébrica 3. = 2 2 2 = 2 1 2 1 2
  61. Claramente, no caso da matriz A, 1 = 1 0

    0 , 2 = 0 1 0 , 3 = 0 0 1 são autovetores associados a = 2. Assim a dimensão geométrica do autoespaço associado a = 2 é 3. = 2 2 2
  62. = 2 1 2 1 2 É, mas para a

    matriz B só conseguimos um autovetor = 1 0 0 linearmente independente. Assim, a dimensão do autoespaço associado ao autovalor = 2 é 1 e ele é um autovalor defectivo.
  63. Para sacramentar esse papo: Uma matriz A é diagonalizável se,e

    somente se, ela é não defectiva. Em outras palavras: existem matrizes V e , com V inversível e diagonal, tais que = −1 quando, e apenas quando, A é não defectiva.
  64. Estupidamente fácil de usar Mestres, vejam o programinha que fiz.

    Entrei com uma matriz 3x3, e obtive três autovalores distintos e reais.
  65. O mesmo programa. Tornei a entrar com uma matriz real,

    agora 4x4, mas obtive um par de autovalores complexos e dois autovalores reais.