Upgrade to Pro — share decks privately, control downloads, hide ads and more …

Álgebra Linear Computacional II

Álgebra Linear Computacional II

Veja esta apresentação em www.bordoni.info.

Avatar for Paulo Bordoni

Paulo Bordoni

October 15, 2016
Tweet

More Decks by Paulo Bordoni

Other Decks in Education

Transcript

  1. A ação da matriz M sobre um feixe de vetores

    de tamanho unitário é clarificada pela imagem abaixo: A ação é dilatar a componente vertical dos vetores do feixe por um fator de escala = 2 e manter a componente horizontal inalterada.
  2. A ação desta outra matriz M é dilatar de =

    2.5 a componente dos vetores do feixe mas manter a componente inalterada. Ela é proporcional ao tamanho das componentes e dos vetores do feixe, que varia com a inclinação.
  3. Já a ação desta outra matriz M sobre os vetores

    unitários do feixe é mais complexa: Uma rotação e uma dilatação.
  4. Esta 4ª matriz M, além da rotação e dilatação também

    realiza uma inversão do sentido dos vetores. Notem, pelas cores, que o sentido dos vetores na imagem foi invertido.
  5. Agora sim temos uma descrição mais completa do efeito de

    uma matriz sobre um feixe de vetores.
  6. Percebemos claramente que a matriz A leva a circunferência unitária

    numa elípse. Sim Mestra, é só olhar para as pontas dos vetores.
  7. Então se eu usar apenas a circunferência unitária obterei o

    mesmo resultado - uma elipse. Exatamente Surfista. Veja o programa que confirma tua fala na próxima transparência.
  8. Resumindo: A transformação linear : ℝ2 → ℝ2 leva a

    circunferência unitária numa elipse. Sim, e as medidas 1 , 2 dos semi-eixos da elipse são chamados de valores singulares da matriz . 1 2
  9. Loirinha, esta é uma das questões mais importantes da Álgebra

    linear computacional. A resposta é a decomposição em valores singulares da matriz .
  10. Voltando ao livro do Trefethen, logo no início está a

    decomposição em valores singulares
  11. O teorema da Decomposição em Valores Singulares (SVD): Seja ∈

    ℳ× uma matriz com elementos ∈ ℂ. Então existem matrizes unitárias ∈ ℳ× e ∈ ℳ× tais que = Σ = (1 , 2 , ⋯ , ), com = { , } e 1 ≥ 2 ≥ ⋯ ≥ ≥ 0. Os ′ são chamados de valores singulares. As colunas de U e V são os vetores singulares da esquerda e direita, respectivamente.
  12. Para = 3 e = 2: 11 12 21 22

    31 32 = 11 12 13 21 22 23 31 32 33 1 0 0 2 0 0 11 12 21 22 Para = 2 e = 3: 11 12 13 21 22 23 = 11 12 21 22 1 0 0 0 2 0 11 12 13 21 22 23 31 32 33 Quando = , todas as matrizes serão quadradas. Abaixo mostrei dois exemplos em que ≠ .
  13. Seja ∈ ℳ× uma matriz com elementos reais. Então existem

    matrizes ortogonais ∈ ℳ× e ∈ ℳ× tais que = Σ = (1 , 2 , ⋯ , ), com = { , } e 1 ≥ 2 ≥ ⋯ ≥ ≥ 0. Vamos nos restringir à matrizes reais ∈ ℝ. Nesse caso o teorema fica:
  14. Nesse caso a hiper-esfera unitária foi deformada num hiper-elipsoide com

    semi-eixos 1 = 6.678 … , 2 = 4.049… , 3 = 2.288 … , 4 = 1.322 … . Perfeitamente, Loirinha!
  15. Notem que os vetores 1 , 2 , 3 ,

    4 , que constituem as colunas da matriz e os vetores 1 , 2 , 3 , 4 que constituem as linhas da matriz são ortonormais. Sim Galileu, uma vez que: • ∙ = , • ∙ = .
  16. Exatamente Surfista! E, se eu entendi, as direções desses semi-

    eixos são dadas pelos vetores ortonormais 1 , 2 , 3 , 4 , que constituem as colunas da matriz : = 1 2 3 4
  17. Só não consegui entender o papel dos vetores ortonormais 1

    , 2 , 3 , 4 , que constituem as linhas da matriz : = 1 2 3 4 . É aí que entra a interpretação geométrica da fatoração SVD.
  18. O teorema informa que = ∙ Σ ∙ , com

    ∈ ℳ× , ∈ ℳ× , ∈ ℳ× e Σ ∈ ℳ× . Isto significa que, como transformação linear, : ℝ → ℝ é a composta de três transformações lineares: : ℝ → ℝ, Σ: ℝ → ℝ e : ℝ → ℝ, como mostro na próxima transparência.
  19. Veja no gráfico, Loirinha: ℝ ℝ ℝ ℝ Σ Rotação

    ou inversão Rotação ou inversão Dilatação ou contração
  20. O Mestre cortou um gomo da laranja para melhorar a

    visualização. Na realidade uma casca esférica, cortada para olharmos seu interior. A matriz A é diagonal. Note as escalas nos 3 eixos da imagem.
  21. Fiz um programa para calcular a decomposição em valores singulares,

    SVD, de uma matriz A. Depois apliquei-o à matriz do gráfico anterior.
  22. Esta outra matriz A é simétrica. Além de deformar a

    esfera num elipsoide, ela também gira-o entorno da origem!
  23. Na fórmula acima, fórmula, é qualquer sub matriz de ordem

    obtida de eliminando-se − linhas e − colunas de . O posto de , anotado () é definido por: = 1 ≤ ≤ min , ≠ 0 } . A definição de posto de uma matriz ∈ ℳ× é a seguinte:
  24. O () é o número máximo de vetores coluna de

    linearmente independentes ou seja é a dimensão da imagem de : = ∈ ℝ y = Ax, x ∈ ℝ } O núcleo de uma matriz ∈ ℳ× é o subespaço ú = ∈ ℝ = 0 }. A dimensão de ú é denominada nulidade de , e anotada .
  25. Valem as seguintes igualdades: 1. = posto(), 2. + =

    . Além disso, as seguintes propriedades são equivalentes: 1. é não-singular, 2. det ≠ 0, 3. ú = 0 , 4. =
  26. Para esta matriz A, a esfera vira um disco! Perdemos

    uma dimensão na imagem. Fiz duas fotos para vocês conferirem. Uma de perfil e, a outra, quase de frente.
  27. Também calculei a SVD da minha matriz. Marquei o valor

    do determinante e o tamanho dos semieixos do elipsoide. Vejam que tanto o determinante como o valor de um semieixo é zero. O posto da matriz é 2 e seu espaço nulo é unidimensional
  28. Loirinha, repeti seus cálculos para esta última matriz A. Agora

    o det() e dois dos valores singulares de A são nulos. Neste caso = 1 e = 2.
  29. Uma norma matricial é uma função ∙ ∶ ℳ× →

    ℝ satisfazendo: Para , ∈ ℳ× e ∈ ℝ, 1. ≥ 0, 2. = 0 se e somente se = 0, 3. = , 4. + ≤ + .
  30. Uma norma matricial ∙ é compatível com uma norma vetorial

    ∙ quando ≤ , ∀ ∈ ℝ. Uma norma matricial ∙ é dita sub multiplicativa quando ≤ , ∀, ∈ ℳ× .
  31. A norma de Frobenius é definida por: = ෍ ,=1

    2 = () Surfista, prove que é uma norma matricial.
  32. Prova-se que se ∙ é uma norma vetorial, então a

    função definida por = sup ≠0 É uma norma matricial. Essa norma é denominada norma matricial induzida (pela norma vetorial ∙ ) ou ainda norma matricial natural.
  33. A norma é definida por: = max ≠0 Quando =

    2, temos a norma euclidiana.
  34. As normas ∙ 1 , e ∙ ∞ são facilmente

    calculáveis a partir de: 1 = max =1,⋯, ෍ =1 ∞ = max =1,⋯, ෍ =1 Prove essas duas afirmações, Surfista.
  35. Agora entendi, Galileu, porque este conjunto de transparências começou mostrando

    a ação de uma matriz A sobre a bola unitária. Prova-se que 2 = 1 , onde 1 é o maior valor singular de A.
  36. Especificamente, vamos calcular as normas ∙ , ∙ 2 ,

    ∙ 1 , ∙ ∞ de uma matriz e conferir a igualdade 2 = 1 .
  37. Uma fatoração pouco divulgada nos cursos de Cálculo Numérico é

    a fatoração = . Nela, a matriz é ortogonal e a matriz é triangular superior. Sabendo que = , para resolver um sistema linear = , basta resolver o sistema triangular superior = .
  38. Eis o algoritmo e o programa feito pelo Mestre: 1.

    Receber uma matriz e um termo independente , 2. Calcular a fatoração = , 3. Conferir que é ortogonal, 4. Resolver o sistema linear = , 5. Calcular = e conferir que = via ( ).
  39. A fatoração QR é extremamente importante em Álgebra Linear Computacional.

    Loirinhas, Surfistas e Cabelos de Fogo, procurem informações sobre ela em livros (o do Trefethen é uma boa dica) ou na Internet e façam a tarefa que o Tio vai mandar.
  40. Após encontrar a informações sobre a fatoração QR discutam sobre

    sua importância e descubram as conexões entre ela: 1. E o processo de ortogonalização de Gram- Schmidt. 2. E a triangularização de Householder. 3. Qual dos processos é mais estável?
  41. Mestres, quando deveremos apresentar a tarefa ordenada pelo Tio? Apresente

    tua resposta impreterivelmente na próxima semana, senão mandarei o Tribunal da Inquisição te condenar como bruxa!
  42. Torquinho, como deveremos entregar esses exercícios? Como antes, em papel

    almaço pautado, com nome, DRE e turma. Manuscrito!
  43. Outro tópico fundamental em Álgebra linear computacional e nas Ciências

    e Engenharias são os autovalores e autovetores.
  44. Vou recordar as definições de autovalores e autovetores: Seja ∈

    ℳ× uma matriz de ordem n. de números reais ou complexos. Um vetor não-nulo ∈ ℂ é um autovetor de A e ∈ ℂ o autovalor correspondente quando = . O conjunto de todos os autovalores de A é chamado de espectro de A e anotado ().
  45. Mestres, = ⟺ − = 0. Você é show, Loirinha!

    E, a única chance de termos ≠ 0 é quando det − = 0
  46. é um autovalor de A ⟺ é uma raiz do

    polinômio característico de A, isto é, = 0 Da definição de autovalores e autovetores, é imediato que (prove Loirinha): O polinômio característico de uma matriz A é definido por = det( − ). Ele é um polinômio mônico.
  47. Uma consequência importante desse resultado é que autovalores de uma

    matriz A podem ser complexos, mesmo que a matriz A seja real.
  48. Uma outra consequência é que: • Uma matriz ∈ ℳ

    × possui no máximo n autovalores, contadas as multiplicidades algébricas. • Se todas as raízes do polinômio característico forem raízes simples, então A possuirá n autovalores distintos.
  49. Uma dica: Assuma que 1 ≠ 2 são autovalores correspondentes

    aos autovetores 1 e 2 . Suponha, por absurdo, que 1 e 2 são LD, isto é 1 = 2 , ≠ 0. Conclua! Autovalores distintos garantem que os autovetores correspondentes são linearmente independentes. Prove isto como exercício, Surfista!
  50. A ideia subjacente aos conceitos de autovalores e autovetores é

    que: A ação de A em determinados subespaços S de ℝ imita a multiplicação por fator de escala, = . Na figura abaixo os subespaços são os eixos e já que a matriz A é diagonal!
  51. Concordo Mestra, no eixo- (um dos subespaços) temos uma dilatação

    de = 1.5 e no outro (o eixo-) uma contração de = 0.5.
  52. É, aplicando essa matriz a vetores sobre o eixo-, o

    resultado é claro. Idem para vetores sobre o eixo-. Vejam: Vetores sobre o eixo- continuam no eixo- 1.5 0 0 0.5 0 = 1.5 0 , só aumentam em 50%. E, vetores sobre o eixo- continuam sobre o eixo- 1.5 0 0 0.5 0 = 0.5 0 , só diminuem à metade.
  53. Uma matriz ∈ ℳ × é diagonalizável, quando existirem matrizes

    , ∈ ℳ × , sendo V inversível e D diagonal, tais que = −1. Quando é diagonalizável, os elementos 1 , 2 , … , da diagonal de D são os autovalores de e as colunas 1 , 2 , … , de V de são os autovetores correspondentes. Um definição semelhante ao teorema da decomposição SVD:
  54. Prova-se que é diagonalizável se, e somente se, seus autovetores

    1 , 2 , … , são linearmente independentes. Sim Mestra, pois vetores 1 , 2 , … , são linearmente independentes se, e somente se a matriz = 1 2 … é inversível.
  55. Este é um dos resultados mais importantes da Álgebra Linear.

    A Mestra vai mostrar, como ele aparece na scipy.linalg Em particular, se A é simétrica, então seus autovalores são reais e seus autovetores são ortogonais: =
  56. É claro, quando é simétrica, temos uma interpretação geométrica semelhante

    à da SVD: ℝ ℝ ℝ ℝ Rotação ou inversão Rotação ou inversão contrária Dilatação ou contração
  57. Sim Loirinha, e se os autovetores correspondentes forem LI (linearmente

    independentes) o subespaço gerado por eles possuirá dimensão maior que 1. A dimensão desse subespaço é conhecida como multiplicidade geométrica de . Mestres, existe a possibilidade de alguns dos autovalores 1 , 2 , ⋯ , em serem iguais?
  58. Equações polinomiais podem possuir raízes com multiplicidade maior que 1.

    É a mesma coisa que a multiplicidade geométrica do autovalor? Não Loirinha, trata-se da multiplicidade algébrica do autovalor .
  59. Podemos provar que: A multiplicidade algébrica de um autovalor é

    maior ou, quando muito, igual à sua multiplicidade geométrica. No caso da multiplicidade algébrica de um autovalor ser maior que sua multiplicidade geométrica, ele é dito defectivo.
  60. Surfista, as matrizes A e B abaixo possuem o mesmo

    polinômio característico, = ( − 2)3. Portanto ambas possuem apenas um autovalor = 2, com multiplicidade algébrica 3. = 2 2 2 = 2 1 2 1 2
  61. Claramente, no caso da matriz A, 1 = 1 0

    0 , 2 = 0 1 0 , 3 = 0 0 1 são autovetores associados a = 2. Assim a dimensão geométrica do autoespaço associado a = 2 é 3. = 2 2 2
  62. = 2 1 2 1 2 É, mas para a

    matriz B só conseguimos um autovetor = 1 0 0 linearmente independente. Assim, a dimensão do autoespaço associado ao autovalor = 2 é 1 e ele é um autovalor defectivo.
  63. Para sacramentar esse papo: Uma matriz A é diagonalizável se,e

    somente se, ela é não defectiva. Em outras palavras: existem matrizes V e , com V inversível e diagonal, tais que = −1 quando, e apenas quando, A é não defectiva.
  64. Estupidamente fácil de usar Mestres, vejam o programinha que fiz.

    Entrei com uma matriz 3x3, e obtive três autovalores distintos e reais.
  65. O mesmo programa. Tornei a entrar com uma matriz real,

    agora 4x4, mas obtive um par de autovalores complexos e dois autovalores reais.