Monografias.com > Matemáticas
Descargar Imprimir Comentar Ver trabajos relacionados

Valores y vectores propios




Enviado por viscocho_slum



    1. Polinomio
      característico
    2. Diagonalización de una
      matriz n x n
    3. Teorema de Caley –
      Hamilton

    Sea (1)
    una transformación lineal (1)

    . Un escalar (1) es un valor propio si
    existe un vector no nulo (1) tal que(1). Cualquier vector no nulo
    (1) que
    satisfaga

    (1)

    (A.24)

    es un vector propio asociado con el valor
    propio.

    La definición implica que para un vector
    propio (1) el
    efecto de aplicarle la transformación lineal
    (1) que amplificarlo
    por el escalar(1). Esto implica que un vector y el
    vector transformado son colineales o paralelos y por lo tanto
    linealmente dependientes.

    La definición
    E.30
    se refiere estrictamente a valores
    y vectores propios por derecha
    , para distinguirlos de los
    valores y vectores propios por izquierda, que deben
    satisfacer(1).
    En este texto
    sólo se consideran los primeros, y por tanto se hace
    referencia a ellos simplemente como valores y vectores
    propios
    .

    Teorema A.15
      (1) es un
    valor propio de (1)
    s y sólo si satisface la ecuación

    (1)

    (A.25)

    donde (1)
    es la matriz
    identidad de
    igual orden que (1)

     Demostración A.15
    Si(1) es
    un valor propio de(1)
    entonces existe un vector(1) tal que

    (1)

    El término (1) puede escribirse como
    (1) para facilitar la
    factorización de

    (1)

    De acuerdo con el teorema
    E.13
    esta ecuación tiene
    solución no trivial (existe un vector
    propio(1))
    sí y sólo si

    (1)

    Como el determinante de una matriz no se afecta al
    multiplicar ésta por un escalar no nulo, podemos
    escribir

    (1)

    El teorema
    E.15
    brinda una posibilidad para calcular
    los valores
    propios de(1):
    podemos construir el polinomio
    característico
    (1) y encontrar sus raíces.
    Cada raíz de (1) será un valor propio
    de(1). Los
    vectores propios pueden obtenerse directamente de
    (E.24)

    Debido a que los valores
    propios resultan ser las raíces del polinomio
    característico, éstos pueden ser reales o
    complejos, diferentes o repetidos.

    Definición A.31 Multiplicidad
    La multiplicidad(1)
    de un valor propio (1) es el número de veces que
    éste se repite como raíz del polinomio
    característico.

    Ejemplo
    A.30
      Obtener los valores y vectores propios de la
    matriz (1)

    Se crea entonces un sistema de
    ecuaciones con
    infinitas soluciones: (1)

    Se crea entonces un segundo sistema de ecuaciones con
    infinitas soluciones: (1)

    Ejemplo
    A.31
      Obtener los valores y vectores
    propios de la matriz

    (1) Para ver las fórmulas seleccione la
    opción "Descargar" del menú superior

    POLINOMIO CARACTERÍSTICO

    Consideremos una matriz n-cuadrada
    arbitraria:

    Para ver las
    fórmulas seleccione la opción "Descargar" del
    menú superior

      La matriz (A – l·In),
    donde In es la matriz identidad n-cuadrada y
    l un escalar indeterminado, se denomina matriz
    característica de A:

    Para ver las
    fórmulas seleccione la opción "Descargar" del
    menú superior

    Su determinante, det (A
    l·In) , que es un polinomio en l, recibe el
    nombre de polinomio característico de A.
    Asimismo, llamamos a

    det (A – l·In) = 0

      ecuación característica de
    A.

     Ejemplo 1:

     Hallar la matriz característica y el
    polinomio característico de la matriz
    A:

    Para ver las
    fórmulas seleccione la opción "Descargar" del
    menú superior

      La matriz característica será
    (A – l·In). Luego:

    Para ver las
    fórmulas seleccione la opción "Descargar" del
    menú superior

      y el polinomio característico,
     

    Para ver las
    fórmulas seleccione la opción "Descargar" del
    menú superior

    Así pues, el polinomio característico
    es: l 2 – l + 4.

    http://www.sectormatematica.cl/contenidos/policar.htm

     

    a b a b λ 0 a –
    λ

     

    Ejemplo 2 : Si A = c d , entonces A
    – λI = c d – 0
    λ = c d –
    λ y
    p(λ) = det

    ( A – λ ) = (a –λ) (d –
    λ) – bc = λ2 – (a + d) + (ad –
    bc).

    Según el teorema fundamental del álgebra,
    cualquier polinomio de grado n con coeficientes reales o
    complejos tiene exactamente n raíces (contando
    multiplicidades). Esto significa, por ejemplo, que el polinomio
    (λ – 1)5 tiene 5
    raíces, todas iguales al numero 1. como cualquier valor
    característico de A es una raíz de la
    ecuación característica de A, concluye
    que

    Contando multiplicidades, toda matriz de n x n tiene
    exactamente n valores característicos.

    TEOREMA 2: Sea λ una
    valor propio de la matriz A de n x n y sea
    Eλ = { v: Av =
    λv }. Entonces
    Eλ es un subespacio de
    Cn.

    Demostración: Si Av =
    λv, entonces ( A –
    λI )v = 0. Así
    Eλ es el espacio nulo de la
    matriz A – λI. que es un
    subespacio de Cn.

    Algebra lineal 5ta
    edición Stanley I. Grossman McGraw Hill

    DIAGONALIZACION DE UNA MATRIZ N X N

    Matriz diagonalizable: Una matriz n x n es
    diagonolazible si existe una matriz diagonal D tal que
    A es semejante a D.

    Observación: Si D es una matriz
    diagonal, entonces los valores propios son sus componentes en la
    diagonal. Si A es semejante a D, entonces Ay
    D tiene los mismos valores propios. Uniendo estos dos
    hechos se observa que si A es diagonaliizable, entonces
    A es semejante a una matriz diagonal cuyas componentes en
    la diagonal son los valores propios de A.

    El siguiente teorema establece cuando una
    matriz es diagonazable.

    TEOREMA 2: Una matriz A de n x n es
    diagonalizable si y solo si tiene n vectores propios linealmente
    independientes. En tal caso, la matriz diagonal D
    semejante a A esta dada por

    Para ver la fórmula seleccione la
    opción "Descargar" del menú superior

    donde λ1,
    λ2, …..
    ,λn son los valore
    propios de A. Si C es una matriz cuyas columnas son
    vectores propios linealmente independientes de A,
    entonces

    D = C-1AC

    (3)

    Demostración Primero se supone que
    A tiene n vectores propios linealmente independientes
    V1, V2, …, Vn que
    corresponden a los valores no propios (no necesariamente
    diferentes)
    λ1,
    λ2, …,
    λn.

    Sea

    C11 C12 C1n

    C21 C22 C2n

    V1 = , V2 = ,
    …Vn =

    Cn1 Cn2 Cnn

    Y sea

    C11 C12 …
    C1n

    C21 C22 …
    C2n

    C =

    Cn1 Cn2 …
    Cnm

    Entonces C es invertible ya que sus columnas son
    linealmente independientes. Ahora bien

    A11 A12 …
    A1n C11 C12 …
    C1n

    A21 A22 …
    A2n C21 C22 …
    C2n

    AC =

    An1 An2 … Ann
    Cn1 Cn2 … Cnn

    C1

    Y se ve que la columna AC es A = C2i =
    Av1 =
    λivi. Así, AC es la
    matriz cuya

    Cni

     

    columna i es
    λivi
    y

    λ1c11
    λ2c12

    λnc1n

    λ2c21
    λ2c22

    λnc2n

    AC =

     

    λ1cn1
    λ2cn2

    λncnn

     

    pero

    C11 C12 …
    C1n
    λ1 0
    … 0

    C21 C22 …
    C2n 0
    λ2
    … 0

    CD =

    Cn1 Cn2 …
    Cnn 0 0 …
    λn

     

    λ1c11
    λ2c12

    λnc1n

    λ2c21
    λ2c22

    λnc2n

    =

     

     

    λ1cn1
    λ2cn2

    λncnn

    Entonces

    AC = CD (4)

    Y como C es invertible, se pueden multiplicar
    ambos lados de (4) por la izquierda por C-1 para
    obtener

    D = C-1 AC (5)

    Esto prueba si A tiene n vectores propios
    linealmente independientes, entonces A es diagonalizable.
    Inversamente suponga que A es diagonalizable; esto es,
    suponga que (5) se cumple para alguna matriz invertible C.
    Sean v1, v2, … vn las
    columnas de C. entonces AC = CD, e invirtiendo los
    argumentos anteriores, se ve de inmediato que
    Avi =
    λivi
    para i = 1, 2,…, n. Entonces v1, v2,
    …, vn son los vectores propios de A y
    son linealmente independientes porque C es
    invertible.

    Notación: para indicar que D
    es la matriz diagonal con componentes diagonales
    λ1,
    λ2, …,
    λn, se
    escribirá D = diag (λ1,
    λ2, …,
    λn).

    Corolario: Si la matriz A de n x n tiene n
    valores propios diferentes, entonces A es
    diagonalizable.

    Observación: Si se selecciona al azar los
    coeficientes reales de un polinomio de grado n entonces, con
    probabilidad
    1, el polinomio tendrá n raíces diferentes. No es
    difícil ver, intuitivamente, por que se cumple esto. Si n
    = 2, por ejemplo, entonces la ecuación
    λ2 + aλ + b = 0 tiene
    raνces reales si y solo si a2 = 4b —
    un evento muy improbable se a y b se eligen aleatoria mente. Por
    supuesto, se pueden escribir polinomios que tienen raíces
    de multiplicidad algebraica mayor que 1, pero son excepcionales.
    Por lo tanto, sin pretender precisión matemática, es posible decir que la
    mayoría de los polinomios tienen raíces distintas.
    Así, la mayoría de las matrices
    tienen valores propios diferentes y como se estableció al
    principio, la mayor parte de las matrices son
    diagonalizables.

    4 3

    EJEMPLO 1: Diagonalización de una matriz 2 x
    2
    sea A = 3 3 .En el ejemplo 6.1.3, se

    2 1

    encontraron dos vectores propios linealmente
    independientes v =- 3 y v2 = 1 .

    2 1

    Después, haciendo C = -3 1 , se encontró
    que

    Para ver la fórmula seleccione la
    opción "Descargar" del menú superior

    que es la matriz cuyas componentes en la diagonal son
    los vectores propios de A.

    EJEMPLO 2: Una matriz de 2 x2 con solo un vector
    propio linealmente independiente

    4 1

    que no se puede diagonalizar Sea A = 0 4 .
    En el ejemplo 6.1.9, se vio que A no tiene

     

    dos vectores propios linealmente independientes. Suponga
    que A fuera diagonalizable ( lo que

    4 0

    contradice el teorema 2 ). Entonces D = 0 4 y
    existiría una matriz invertible C tal que
    C-1

     

    AC = D. Multiplicando esta ecuación por la
    izquierda por C y por la derecha por C-1,
    se

    4 0 4 0 encuentra que A = CDC-1 = C 0
    4 C-1 = C(4I)C-1 = 4CIC-1 =
    4CC-1 = 4I = 0 4 = D.

    pero A desigual a D y por lo tanto no existe tal
    C.

    TEOREMA DE CALEY – HAMILTON

    Toda matriz cuadrada satisface su propia ecuación
    característica. Es decir, si p(λ) = 0
    es la ecuaciσn característica de A,
    entonces p(λ) = 0 .

    Demostración: Se tiene

    a11 – λ
    a12 … a1n

    a21 a22 –
    λ … a2n

    p(λ) = det ( A –
    λ I ) =

    an1 an2 … amn
    – λ

     

    Es claro cualquier cofactor de ( A – λI )
    es un polinomio en λ. Asν, la adjunta de A –
    λI es una matriz de n x n en la que cada componente es un
    polinomio de λ. Es decir,

    p11(λ)
    p12(λ) ….
    p1n(λ)

    p21(λ)
    p22(λ) ….
    p2n(λ)

    adj ( A – λI ) =

     

    pn1(λ)
    pn2(λ) ….
    Pnn(λ)

    Esto significa que se puede expresar en adj
    ( A – λI ) como en un polinomio, Q(λ), en
    λ cuyos coeficientes son matrices n x n. Para entender
    esto, se ve lo siguiente:

    -λ2 –
    2λ + 1 2 λ2 –
    7 λ – 4 = -1 2 λ2 +
    -2 -7 λ + 1 -4

    4λ2 +
    5λ – 2 -3 λ2 –
    λ + 3 4 -3 5 -1 -2 3

    1 -1 4

     

    Ejemplo 1: Ilustración del teorema de Caley –
    Hamilton
    Sea A = 3 2 -1 . En el ejemplo 6.1.4, 2 1
    -1

    se calculo la ecuación
    característica
    λ3 –
    2λ2 –
    5λ + 6 = 0. Ahora se
    calcula

    6 1 1 11 -3 22

    A2 = 7 0 11 , A3 = 29 4
    17

    3 -1 8 16 3 5

    y

    11 -3 22 -12 -2 -2

    A3 – 2A3 + 5A + 6I = 29 4 17 + -14
    0 -22

    16 3 5 -6 2 -16

     

    -5 5 -20 6 0 0 0 0 0

    + -15 -10 5 + 0 6 0 = 0 0 0

    -10 -5 5 0 0 6 0 0 0

    En algunas situaciones el teorema de Caley –
    Hamilton es útil para calcular la inversa de una matriz.
    Si existe A-1 y p(A) = 0, entonces A-1 p(A)
    = 0.para ilustrar esto, si p(λ)
    = λn +
    an-1
    λn-1 + …
    + a1λ +
    a0, entonces

    p(A) = An + an-1
    An-1 + …+ a1A + a0I =
    0

    y

    A-1p(A) = An-1 +
    an-1An-2 + … + a2A
    + a1I + a0A-1 =
    0

    Asi

    A-1 = 1/a0
    (-An-1 -an-1An-2 – … –
    a2A – a1I )

     

    Observe que a0 es diferente de 0 porque
    a0 = det A (¿Por qué?) y se supuso que A
    era invertible.

    1 -1 4

    Ejemplo 2: Aplicación del teorema de Caley
    – Hamilton para calcular A-1
    Sea A = 3 2
    -1

    1. 1 -1

    Entonces p(λ) =
    λ3 –
    2λ2 –
    5λ + 6. Aquí n = 3,
    a2 = -2,a1 = -5, a0 = 6 y
    A-1 = 1/6 (-A2 + 2A + 5I)

    -6 -1 -1 2 -2 8 5 0 0

    = 1/6 -7 0 -11 + 6 4 -2 + 0 5 0

    -3 1 -8 4 2 -2 0 0 5

     

    1 -3 7

    = 1/6 -1 9 -13

    1 3 -5

    Observe que se calculo A-1 haciendo solo una
    división y calculando solo una determinante
    (al encontrar p(λ) = det ( A
    – λI)). Este método en
    ocasiones es muy eficiente en una computadora.

    Algebra lineal 5ta
    edición Stanley I. Grossman McGraw Hill

     

    Alejandro Hernandez Manzanarez

    Nota al lector: es posible que esta página no contenga todos los componentes del trabajo original (pies de página, avanzadas formulas matemáticas, esquemas o tablas complejas, etc.). Recuerde que para ver el trabajo en su versión original completa, puede descargarlo desde el menú superior.

    Todos los documentos disponibles en este sitio expresan los puntos de vista de sus respectivos autores y no de Monografias.com. El objetivo de Monografias.com es poner el conocimiento a disposición de toda su comunidad. Queda bajo la responsabilidad de cada lector el eventual uso que se le de a esta información. Asimismo, es obligatoria la cita del autor del contenido y de Monografias.com como fuentes de información.

    Categorias
    Newsletter