lunes, 27 de enero de 2020

Bibliografia

https://www.profesorenlinea.cl/matematica/Cifras_significativas.html

https://www.youtube.com/watch?v=Ina-E8NEF6U

https://sites.google.com/site/ittgknd/home/1-1-importancia-de-los-metodos-numer

https://sites.google.com/site/ittgknd/home/1-2-conceptos-basicos-cifra-significativa-

https://sites.google.com/site/metnum00/home/unidad-i/1-2-tipos-de-errores

https://sites.google.com/site/ittgknd/home/1-4-software-de-computo-numerico

https://sites.google.com/site/ittgknd/home/1-5-metodos-iterativos-

Metodos Iteraivos

METODOS ITERATIVOS

En matemática computacional, un método iterativo trata de resolver un problema (como una ecuación o un sistema de ecuaciones) mediante aproximaciones sucesivas a la solución, empezando desde una estimación inicial. Esta aproximación contrasta con los métodos directos, que tratan de resolver el problema de una sola vez (como resolver un sistema de ecuaciones Ax=b encontrando la inversa de la matriz A). Los métodos iterativos son útiles para resolver problemas que involucran un número grande de variables (a veces del orden de millones), donde los métodos directos tendrían un coste prohibitivo incluso con el la potencia del mejor computador disponible.
Un método iterativo obtiene una solución aproximada de Ax = b construyendo una sucesión de vectores:

x1, x2, . . . , xk

desde un vector inicial arbitrario x0.

TEOREMA DE CONVERGENCIA.
Un método iterativo se dice convergente si
lim xk = x .

k->infinito

VENTAJA DE FRENTE A LOS MÉTODOS  DIRECTOS.
Son menos sensibles a los errores de redondeo y esto se aprecia en sistemas de orden elevado donde los errores de redondeo de los métodos directos son considerables.

TIPOS DE MÉTODOS ITERATIVOS
Puntos fijos atractivos
Si una ecuación puede ponerse en la forma f(x) = x, y una solución x es un punto fijo atractivo de la función f, entonces puede empezar con un punto x1 en la base de atracción de x, y sea xn+1 = f(xn) para n ≥ 1, y la secuencia {xn}n ≥ 1 convergerá a la solución x.

Sistemas lineales

En el caso de un sistema lineal de ecuaciones, las dos clases principales de métodos iterativos son los métodos iterativos estacionarios y los más generales métodos del subespacio de Krylov

Métodos iterativos estacionarios

Los métodos iterativos estacionarios resuelven un sistema lineal con un operador que se aproxima al original; y basándose en la medida de error (el residuo), desde una ecuación de corrección para la que se repite este proceso. Mientras que estos métodos son sencillos de derivar, implementar y analizar, la convergencia normalmente sólo está garantizada para una clase limitada de matrices.

Software de computo Numérico

Muchos problemas de cómputo en ingeniería pueden ser divididos en pedazos de cálculos bien conocidos los cuales son mucho mas fáciles de procesar, Por consecuencia, frecuentemente el programador sólo tiene que escribir una rutina pequeña (driver) para el problema particular que tenga, porque el software para resolver las subtareas se encuentra ya disponible. De esta forma la gente no tiene que realizar el problema una y otra vez.


NETLIB

Netlib (NET LIBrary) es una colección grande de software, documentos, bases de datos gratis que son de interés para las comunidades científicas y de métodos numéricos. El depósito es mantenido por los Laboratorios Bell de AT&T, la Universidad de Tennessee y el Laboratorio Nacional Oak Ridge, y replicado en varios sitios alrededor del mundo.                                                 

Netlib contiene software de alta calidad que ha sido probado en forma intensiva, pero todo el software libre no tiene garantía y tiene poco soporte. Para poder usar el software, primero se tiene que descargar en su computadora y entonces compilarlo.


PAQUETES DE SOFTWARE COMERCIAL PARA CÓMPUTO NUMÉRICO GENERAL:

NAG

El Grupo de Algoritmos numéricos (Numerical Algorithms Group) (NAG) ha desarrollado una biblioteca de Fortran conteniendo alrededor de 1000 subrutinas accesibles al usuario para resolver problemas generales de matemáticas aplicadas, incluyendo: ecuaciones diferenciales ordinarias y parciales, transformada rápida de Fourier, cuadratura, álgebra lineal, ecuaciones no lineales, ecuaciones integrales, y más.                                                                                         


IMSL

La biblioteca numérica de Fortran IMSL hecha por Visual Numerics, Inc. cubre muchas de las áreas contenidas en la biblioteca NAG. También tiene soporte para analizar y presentar datos estadísticos en aplicaciones científicas y de negocios.

                                                                                         

NUMERICAL RECIPES

Los libros de Numerical Recipes in C/Fortran son muy populares entre los ingenieros porque pueden ser usados como libro de cocina donde se puede encontrar una "receta (recipe)" para resolver algún problema a mano. Sin embargo, el software correspondiente de Numerical Recipes no es comparable en alcance o calidad al dado por NAG o IMSL. Es un software muy usado en universidades, centros de investigación y por ingenieros. En los últimos años ha incluido muchas más capacidades, como la de programar directamente procesadores digitales de señal, crear código VHDL y otras.

                                                                                       

MATLAB

Es un programa de cálculo numérico, orientado a matrices y vectores. Por tanto desde el principio hay que pensar que todo lo que se pretenda hacer con él, será mucho más rápido y efectivo si se piensa en términos de matrices y vectores.

                                                                                         

GNU OCTAVE

Es un programa libre para realizar cálculos numéricos. Como indica su nombre es parte de proyecto GNU. MATLAB es considerado su equivalente comercial. Entre varias características que comparten se puede destacar que ambos ofrecen un intérprete permitiendo ejecutar órdenes en modo interactivo. Nótese que Octave no es un sistema de álgebra computacional como podría ser GNU Máxima, sino que usa un lenguaje que está orientado al análisis numérico.

viernes, 24 de enero de 2020

Tipos de Errores en Métodos Numéricos

Los errores numéricos se generan con el uso de aproximaciones para representar las operaciones y cantidades matemáticas. El error numérico es una medida del ajuste o cálculo de una magnitud con respecto al valor real o teórico que dicha magnitud tiene. Un aspecto importante de los errores numéricos es su estabilidad numérica. Dicha estabilidad se refiere a como dentro de un algoritmo de análisis numérico el error de aproximación es propagado dentro del propio algoritmo.

El concepto de error es consustancial con el cálculo numérico. En todos los problemas es fundamental hacer un seguimiento de los errores cometidos a fin de poder estimar el grado de aproximación de la solución que se obtiene.

Entre los Errores mas comunes se tienen

1.- Error absoluto.

Es la diferencia entre el valor de la medida y el valor tomado como exacto. Puede ser positivo o negativo, según si la medida es superior al valor real o inferior (la resta sale positiva o negativa). Tiene unidades, las mismas que las de la medida.

El error absoluto de una medida no nos informa por sí solo de la bondad de la misma. Es evidente, que no es igual de grave tener un error absoluto de 1 cm al medir la longitud de una carretera que al medir la longitud de un folio.


El error absoluto es el valor absoluto de la diferencia entre el valor exacto y el valor aproximado. Hay autores que definen el error absoluto como la diferencia entre el valor aproximado y el valor exacto, donde la diferencia únicamente está en el signo ya que no se toma como valor absoluto. Sin embargo, podríamos tomar como fórmula general la siguiente expresión:

Cuando el valor exacto no es conocido, por ejemplo, en cualquier medida física, se habla de cota del error absoluto, que será un valor superior al error absoluto que asegure que el error cometido nunca excederá a ese valor. Si llamamos c a la cota del error absoluto de un número, se cumplirá:



2.- Error relativo.

El error relativo es el cometido en la estimación del valor de un número, es el valor absoluto del cociente entre su error absoluto y el valor exacto. El error relativo da idea de la precisión de una medida, y se suele manejar en forma de porcentaje (%).

Muchas veces conocemos el error absoluto (Ea), pero es imposible conocer el valor exacto (A), en cuyo caso, para hallar el error relativo (Er) dividimos el error absoluto entre el valor aproximado o considerado como exacto.

También puede hablarse de cota del error relativo, que si la representamos como β, se cumplirá:

A – A´) / A  ≤  β


3.- Error porcentual.

El error porcentual es fácil de definir, es el resultado de multiplicar el error relativo por 100.

ERP = ER X 100


4.- Error de redondeo.

Como no es posible guardar un numero binario de longitud infinita o un numero de mas dígitos de los que posee la mantisa de la computadora que se esta empleando, se almacena sólo un numero finito de estos dígitos; como consecuencia, se comete automáticamente un pequeño error, conocido como error de redondeo, que al repetirse muchas veces puede llegar a ser considerable.

Ya que la mayor parte de las computadoras tienen entre 7 y 14 cifras significativas, los errores de redondeo parecerían no ser muy importantes. Sin embargo, hay dos razones del porqué pueden resultar críticos en algunos métodos numéricos:

Ciertos métodos requieren cantidades extremadamente grandes para obtener una respuesta. Además, estos cálculos a menudo dependen entre si. Esto es, los cálculos posteriores son dependientes de los anteriores. En consecuencia, aunque un error de redondeo individual puede ser muy pequeño, el efecto de acumulación en el transcurso de la gran cantidad de cálculos puede ser significativo.

El efecto del redondeo puede ser exagerado cuando se llevan a cabo operaciones algebraicas que emplean números muy pequeños y muy grandes al mismo tiempo. Ya que en este caso se presenta en muchos métodos numéricos, el error de redondeo puede resultar de mucha importancia.



5.- Error de truncamiento.

Cuando una expresión matemática se remplaza por una fórmula más simple, se introduce un error, conocido como error de truncamiento.

Los errores de truncamiento son aquellos que resultan al usar una aproximación en lugar de un procedimiento matemático exacto.

miércoles, 22 de enero de 2020

Conceptos utilizados en materia de Métodos Numéricos

¿Que significa cifra significativa, Precisión, Exactitud, Incertidumbre y sesgo?

Cifra Significativa
En matemáticas, el concepto de cifra significativa es uno de los más confusos ya que implica consideraciones tanto de tipo matemático como de tipo físico.

Usado en operaciones matemáticas, podríamos definirlo como las cifras que son consideradas relevantes para el cálculo en una operación.

Las cifras no significativas aparecen formando parte en el resultado de los cálculos y no se las considera, son nulas.

Se dice que las cifras significativas de un número son determinadas por su margen de error . ¿Qué significa esto?

Veamos un ejemplo:

Tenemos el número Pi = 3,141516….., una cifra con infinitos decimales en la cual siempre el último dígito señala un error, ya que es imposible determinar su valor en forma exacta.

Entonces que hacemos generalmente, tomamos solo 3 cifras significativas y usamos siempre 3,14 como valor de Pi, dejando todo el resto como cifras no significativas.

El margen de error en los cálculos con Pi será menor si usamos más cifras significativas; o sea, si usamos más decimales. Por ejemplo, si usamos 3,141516 como valor para Pi.


















--------------------------------------------------------------------------------------------------------------------------

Otro concepto utilizado en Metodos Numericos seria el de "Precisión"

Precisión se refiere a la dispersión del conjunto de valores obtenidos de mediciones repetidas de una magnitud. Cuanto menor es la dispersión mayor la precisión. Es decir la precisión se refiere a qué tan cercano está un valor individual medido o calculado respecto a los otros. En pocas palabras esto es lo cerca que los valores medidos están unos de otros.

Se puede decir entonces que la precisión en Métodos Numéricos se refiere:

1) Al número de cifras significativas que representan una cantidad

2) la extensión en las lecturas repetidas de un instrumento que mide alguna propiedad física.

Es importante mencionar que los datos precisos  pueden ser inexactos.
Obtener datos altamente precisos puede ser verdaderamente difícil y costoso.

--------------------------------------------------------------------------------------------------------------------------

Exactitud.

La exactitud se refiere a que tan cercano está el valor calculado del valor verdadero. Es decir es la aproximación de un número al valor numérico que se supone representa.

Se puede decir entonces que la exactitud es el grado de concordancia entre el valor verdadero y el obtenido.

Por tanto, la exactitud se expresa como suma de dos términos: la precisión

 Y la veracidad

--------------------------------------------------------------------------------------------------------------------------

Incertidumbre.

Incertidumbre es la expresión del grado de desconocimiento de un resultado.

Esto es que incertidumbre refleja, por tanto, duda acerca de la veracidad del

resultado obtenido una vez que se han evaluado todas las posibles fuentes de error y que se han aplicado las correcciones oportunas. Se refiere al grado de alejamiento entre sí, a las diversas aproximaciones a un valor verdadero



Entonces la incertidumbre nos da una idea de la calidad del resultado ya que nos muestra un intervalo alrededor del valor estimado dentro del cual se encuentra el valor considerado verdadero.


La incertidumbre puede derivarse de una falta de información Puede tener varios tipos de origen, por ejemplo errores cuantificables en los datos..

--------------------------------------------------------------------------------------------------------------------------

Sesgo.

La inexactitud es conocida como sesgo se refiere a que tan cercano está el valor calculado del valor verdadero.

Es decir sesgo es un error que aparece en los resultados.es entonces  un alejamiento sistemático del valor verdadero a calcular.

Un sesgo es un error sistemático que hace que todas las medidas estén desviadas en una cierta cantidad. También se dice que es una característica de una medición o de una estimación estadística tal que los resultados obtenidos al repetir la medición o la estimación están afectados por errores sistemáticos en relación con el valor convencionalmente verdadero.










¿Cual es la importancia de los métodos numéricos en la vida de las personas?

''Los métodos numéricos constituyen técnicas mediante las cuales es posible formular problemas matemáticos, de tal forma que pueden resolverse utilizando operaciones aritméticas.''

STEVEN C.CHAPRA, RAYMOND P. CANALE, Métodos Numéricos para Ingenieros con Aplicaciones en Computadoras Personales, Edit. McGraw Hill, México, S.A de C.V., 1987. PAG. 3.

En la mayoría de los casos, Los métodos numéricos se aplican en áreas como:

Ingeniería Industrial, Ingeniería Química, Ingeniería Civil, Ingeniería Mecánica, Ingeniería eléctrica, etc.


Los métodos numéricos son muy importantes en los estudios a nivel ingeniería. Para el ingeniero moderno, en el desarrollo de su profesión implica inevitablemente el uso de las computadoras. Muy pocas disciplinas o actividades cotidianas que de alguna manera no tienen contacto con estas maquinas tan poderosas y rápidas. Ciertamente las computadoras han sido por años un aliado tanto de las personas comunes como de la ingeniería al desempeñar millares de tareas, tanto analíticas como practicas, en el desarrollo de proyectos y la solución de problemas en forma más eficiente en el transcurso de su carrera profesional, es posible que el estudiante tenga la necesidad de utilizar un software disponible comercialmente que contenga métodos numéricos. El uso inteligente de estos programas depende del conocimiento de la teoría básica en lo que se basan estos métodos.

La resolución de dichos métodos fue el responsable de muchos de los logros que la humanidad ha tenido a lo largo de toda su historia, como los cálculos que se necesitaron para llevar al hombre a la luna, como toda la experimentación para que hoy en día sean capaces de crear poderosas computadoras cuánticas capaces de procesar millares de Gigas de información en tan solo uno segundos... como la super-computadora usada para  poder procesar las imágenes captadas de un Agujero Negro, siendo este uno de los mayores logros de la humanidad hasta la fecha, eso sin mencionar las capacidades y la complejidad de los aquellos procesos usados para secuenciar los genomas de todo ser vivo que así se deseare.