Teorema fundamental del álgebra



Descargar 62,17 Kb.
Fecha de conversión25.07.2017
Tamaño62,17 Kb.


Teorema fundamental del álgebra


El teorema fundamental del álgebra es un resultado clásico en matemática, que establece que todo polinomio (no constante) en una variable con coeficientes en el cuerpo de los números complejos tiene una raíz.

Corolario: Todo polinomio (no constante) en una variable con coeficientes en el cuerpo de los números complejos se factoriza como producto de factores lineales (es decir, de grado uno).

Introducción


Cualquier ecuación de cualquier grado siempre tiene por lo menos una solución ya sea un número real o un número complejo.

Posiblemente extrañe un poco que exista preocupación en este sentido pero ocurre que hay ecuaciones no algebraicas que no tienen ninguna solución.

El teorema que dice que toda ecuación algebraica tiene por lo menos una solución, a pesar de ser uno de los más importantes postulados de la matemática permaneció mucho tiempo sin demostración.

En vista de su importancia se le conoce con el nombre de Teorema Fundamental del Álgebra.



Jean Le Rond d'Alembert fue el primero en demostrarlo.

Sin embargo, había un punto defectuoso en su demostración, y era que d'Alembert asumía como verdadero un resultado de Cálculo diferencial que no había sido demostrado y que no tuvo demostración hasta un siglo después de escribir d'Alembert la suya.

Los exigentes y rigurosos matemáticos no permiten que sucedan cosas como éstas, así que se considera como el primer "demostrador" de este teorema a Carl Friedrich Gauss (1777-1855) quien asombraba a sus colegas; escribió no una, sino cuatro demostraciones diferentes de este teorema, ninguna de las cuales es elemental.

Desarrollo


El teorema fundamental del álgebra establece lo siguiente:

Todo polinomio de grado n, con coeficientes complejos , tiene exactamente n raíces no forzosamente distintas, es decir, contadas con su orden de multiplicidad.

Por ejemplo, el polinomio real (y por lo tanto también complejo) X³ - 2X² - 4X + 8 = (X-2)²(X+2) tiene 2 como raíz doble, y -2 como raíz simple, lo que da en total tres raíces.

En otras palabras, todo polinomio complejo no nulo puede escribirse como producto de factores lineales. Es decir sea un polinomio de grado n entonces se cumple:



con

puede factorizarse completamente, así:



, siendo (i variando entre 1 y n) las raíces del polinomio.

Los números complejos fueron inventados justamente para encontrar raíces de polinomios reales:i es por construcción una raíz de X²+1.

Lo extraordinario del teorema es que no hace falta inventar un número para cada polinomio real que se quiera factorizar, porque con todas las combinaciones lineales entre i e 1 (es decir con los a + bi) se puede factorizar todos los polinomios reales, y también complejos.

Esa propiedad significa que el cuerpo de los complejos es algebraicamente cerrado: no se puede salir de él buscando raíces de polinomios, que es la operación algebraica por excelencia.

Se tardaron dos siglos para completar la prueba de este teorema, del diecisiete al diecinueve.

Figuras destacadas en está labor fueron d'Alembert y Gauss, este último encontró distintas pruebas.

En algunos países el teorema lleva el nombre de teorema de d'Alembert – Gauss (o en el orden inverso, o con un solo apellido).

Hoy en día la prueba más elegante está basada en la inducción, y su primer paso es demostrar que un polinomio no constante (es decir de grado superior o igual a uno) debe tener una raíz, gra

Demostración: Por reducción al absurdo: Supongamos que P(Z)≠0 para todo z∈C.

Entonces, f(z)=1/P(z)=1/(a0+a1*z+a2*z^2+...+an*z^n) es una función compleja entera.

Por tanto, lim z->∞ de f(z)= lim z->∞ de 1/(z^n*(a0/z^n+a1/z^(n-1)+...+an)=0 dado que ε>0 ∃R/|f(z)|<ε si |z|>R.

Si se considera el círculo |z|≤R entonces f(z) es analítica en él y, además, acabamos de ver que está acotada en él.

Por el Teorema de Liouville, f(z)=cte, lo cual es absurdo porque P(z) es un polinomio de grado mayor o igual que 1.

 

Álgebra


El Álgebra es la rama de la matemática que tiene por objeto de estudio la generalización del cálculo aritmético mediante expresiones compuestas de constantes (números) y variables (letras).

Etimológicamente, proviene del árabe (también nombrado por los árabes Amucabala)جبر (yebr) (al-dejaber), con el significado de reducción, operación de cirugía por la cual se reducen los huesos luxados o fraccionados (algebrista era el médico reparador de huesos).

Historia del álgebra


El álgebra tuvo sus primeros avances en las civilizaciones de Babilonia y Egipto, entre el cuarto y tercer milenio antes de Cristo.

Estas civilizaciones usaban primordialmente el álgebra para resolver ecuaciones de primer y segundo grado.

El álgebra continuó su constante progreso en la antigua Grecia.

Los griegos usaban el álgebra para expresar ecuaciones y teoremas, un ejemplo es el teorema de Pitágoras.

Los matemáticos más destacados en este tiempo fueron Arquímedes, Herón y Diofante. Arquímedes se basó en la matemática para componer su tratados de física y geometría del espacio.

Herón fue otro que se basó en ellas para hacer algunos de sus inventos, como la primera máquina de vapor.

Diofante fue el griego que más contribuyó a esta área del conocimiento; como principales trabajos tenemos al análisis diofántico y la obra Las Aritméticas, que recopila todo el conocimiento del álgebra existente hasta ese entonces.

Como consecuencia, el álgebra cambió de rumbo y amplió su dominio a todas las teorías que se habían inventado alrededor del tema inicial, incorporando las teorías de los grupos matemáticos y sus extensiones,y parte de la geometría, la rama relacionada con los polinomios de segundo grado de dos variables, es decir las cónicas:



  • elipse,

  • parábola,

  • hipérbola,

  • círculo,

ahora incluidas en el álgebra bilineal.

El álgebra se fundió con éxito con otras ramas de la matemática como:



  • la lógica (álgebra de Boole),

  • l análisis matemático

  • y la topología (álgebra topológica).

 

Álgebra lineal


El álgebra lineal es la rama de la matemática que concierne al estudio de:

  • vectores,

  • espacios vectoriales,

  • transformaciones lineales,

  • sistemas de ecuaciones lineales.

Los espacios vectoriales son un tema central en la matemática moderna; por lo que el álgebra lineal es usada ampliamente en:

El álgebra lineal tiene una representación concreta en la geometría analítica, y tiene aplicaciones en el campo de:

  • las ciencias naturales

  • y en las ciencias sociales.

Historia


La historia del álgebra lineal moderna se remonta a los años 1843 y 1844.

En 1843, William Rowan Hamilton (de quien proviene el uso del término vector) creó los cuaterniones.

En 1844, Hermann Grassmann publicó su libro Die lineare Ausdehnungslehre.

Introducción Elemental


El álgebra lineal tiene sus orígenes en el estudio de los vectores en el plano y en el espacio tridimensional cartesiano.

Aquí, un vector es un segmento, caracterizado por su longitud (o magnitud) y dirección.

Los vectores pueden entonces utilizarse para representar ciertas magnitudes físicas, como las fuerzas, pueden sumarse y ser multiplicados por escalares, formando entonces el primer ejemplo de espacio vectorial real.

Hoy día, el álgebra lineal se ha extendido para considerar espacios de dimensión arbitraria o incluso de dimensión infinita.

Un espacio vectorial de dimensión n se dice que es n-dimensional.

La mayoría de los resultados encontrados en 2 y 3 dimensiones pueden extenderse al caso n-dimensional.

A mucha gente le resulta imposible la visualización mental de los vectores de más de tres dimensiones (o incluso los tridimensionales).

Pero los vectores de un espacio n-dimensional pueden ser útiles para representar información: considerados como n-tuplas, es decir, listas ordenadas de n componentes, pueden utilizarse para resumir y manipular información eficientemente.

Por ejemplo, en economía, se pueden crear y usar vectores octo-dimensionales u 8-tuplas para representar el Producto Interno Bruto de 8 países diferentes.

Se puede simplemente mostrar el PIB en un año en particular, en donde se especifica el orden que se desea, por ejemplo, (Estados Unidos, Reino Unido, Francia, Alemania, España, India, Japón, Australia), utilizando un vector (v1, v2, v3, v4, v5, v6, v7, v8) en donde el PIB de cada país está en su respectiva posición.

Un espacio vectorial (o espacio lineal), como concepto puramente abstracto en el que podemos probar teoremas, es parte del álgebra abstracta, y está bien integrado en ella.

Por ejemplo, con la operación de composición, el conjunto de aplicaciones lineales de un espacio vectorial en sí mismo (endomorfismos) tiene estructura de anillo, y el subconjunto de las aplicaciones lineales que son invertibles (los automorfismos) tiene estructura de grupo.

El Álgebra Lineal también tiene un papel importante en el cálculo, sobre todo en la descripción de derivadas de orden superior en el análisis vectorial y en el estudio del producto tensorial (en física, buscar momentos de torsión) y de las aplicaciones antisimétricas.

Un espacio vectorial se define sobre un cuerpo, tal como el de los números reales o en el de los números complejos.

Una aplicación (u operador) lineal hace corresponder los vectores de un espacio vectorial con los de otro (o de él mismo), de forma compatible con la suma o adición y la multiplicación por un escalar definidos en ellos.

Elegida una base de un espacio vectorial, cada aplicación lineal puede ser representada por una tabla de números llamada matriz.

El estudio detallado de las propiedades de las matrices y los algoritmos aplicados a las mismas, incluyendo los determinantes y autovectores, se consideran parte del álgebra lineal.

En matemática los problemas lineales, aquellos que exhiben linealidad en su comportamiento, por lo general pueden resolverse.

Por ejemplo, en el cálculo diferencial se trabaja con una aproximación lineal a funciones.

La distinción entre problemas lineales y no lineales es muy importante en la práctica.


Algunos Teoremas Útiles


  • Todo espacio lineal tiene una base (Esta afirmación es lógicamente equivalente al Axioma de elección)

  • Una matriz A no nula con n filas y n columnas es no singular (invertible) si existe una matriz B que satisface AB = BA = I donde I es la matriz identidad.

  • Una matriz es invertible si y solo si su determinante es distinto de cero.

  • Una matriz es invertible si y solo si la transformación lineal representada por la matriz es un isomorfismo (vea también matriz invertible para otras afirmaciones equivalentes)

  • Una matriz es positiva semidefinida si y solo si cada uno de sus valores propios son mayores o iguales a cero

  • Una matriz es positiva definida si y solo si cada uno de sus valores propios son mayores a cero.

Generalización y temas relacionados


Puesto que el álgebra lineal es una teoría exitosa, sus métodos se han desarrollado por otras áreas de la matemática: en la teoría de módulos, que remplaza al cuerpo en los escalares por un anillo; en el álgebra multilineal, uno lidia con 'múltiples variables' en un problema de mapeo lineal, en el que cada número de las diferentes variables se dirige al concepto de tensor; en la teoría del espectro de los operadores de control de matrices infi-dimensionales, aplicando el análisis matemático en una teoría que no es puramente algebraica.

En todos estos casos las dificultades técnicas son mucho más grandes.


Álgebra abstracta


El álgebra abstracta es el campo de la matemática que estudia las estructuras algebraicas como las de grupo, anillo, cuerpo o espacio vectorial.

Muchas de estas estructuras fueron definidas formalmente en el siglo XIX, y, de hecho, el estudio del álgebra abstracta fue motivado por la necesidad de más exactitud en las definiciones matemáticas.

El estudio del álgebra abstracta ha permitido observar con claridad lo intrínseco de las afirmaciones lógicas en las que se basan todas la matemática y las ciencias naturales, y se usa hoy en día prácticamente en todas las ramas de la matemática.

Además, a lo largo de la historia, los algebristas descubrieron que estructuras lógicas aparentemente diferentes muy a menudo pueden caracterizarse de la misma forma con un pequeño conjunto de axiomas.

El término álgebra abstracta se usa para distinguir este campo del álgebra elemental o del álgebra de la escuela secundaria que muestra las reglas correctas para manipular fórmulas y expresiones algebraicas que conciernen a los números reales y números complejos.

El álgebra abstracta fue conocida durante la primera mitad del siglo XX como álgebra moderna.


Historia y Ejemplos


Históricamente, las estructuras algebraicas surgen en algún otro campo distinto a la propia álgebra.

Posteriormente, han sido axiomatizadas y luego estudiadas de propio derecho en dicho marco. Por eso, esta materia tiene numerosas y fructíferas conexiones con todas las demás ramas de la matemática.

Algunos ejemplos de estructuras algebraicas con una sola operación binaria son los:


  • Magmas

  • Cuasigrupos

  • Semigrupos

  • Monoides

  • Grupos

Otros ejemplos más complejos son:

  • Anillos y cuerpos

  • Módulos y Espacios vectoriales

  • Álgebras asociativas y Álgebras de Lie

  • Retículos y álgebras de Boole

En álgebra universal, todas esas definiciones y hechos se coleccionan y aplican a todas las estructuras algebraicas por igual.

Las clases mencionadas de objetos, junto con la noción apropiada de homomorfismo, forman categorías, y ésta frecuentemente nos provee del formalismo para comparar las diferentes estructuras algebraicas.


Un ejemplo


El estudio sistemático del álgebra ha permitido a los matemáticos llevar bajo una descripción lógica común conceptos aparentemente distintos.

Por ejemplo, podemos considerar dos operaciones bastante distintas: la composición de aplicaciones, f(g(x)), y el producto de matrices, AB.

Estas dos operaciones son, de hecho, la misma.

Podemos ver esto, informalmente, de la siguiente forma: multiplicar dos matrices cuadradas (AB) por un vector de una columna, x.

Esto, de hecho, define una función que es equivalente a componer Ay con Bx: Ay = A(Bx) = (AB)x.

Las funciones bajo composición y las matrices bajo multiplicación forman estructuras llamados monoides.



Un monoide bajo operación es asociativo para todos sus elementos ((ab)c = a(bc)) y contiene un elemento e tal que, para cualquier valor de a, ae = ea = a.

Enlaces externos


  • John Beachy: Abstract Algebra On Line, Lista de definiciones y teoremas, en inglés.

  • Joseph Mileti: Mathematics Museum: Abstract Algebra, una buena introducción a la materia en términos sencillos, en inglés.

Obtenido de "http://es.wikipedia.org/wiki/%C3%81lgebra_abstracta"


La base de datos está protegida por derechos de autor ©absta.info 2016
enviar mensaje

    Página principal