sábado, 7 de abril de 2018


ÍNDICE
1.-Introducción.
2.-Definición de métodos numéricos.
     2.1.- Aproximación y errores.
     2.2.- Exactitud.
     2.3.-Precisión.
     2.4.- Incertidumbre.
      2.4.1.- Sesgo.
    2.5.-Errores humanos.
    2.6.- Serie de Taylor.
3-. Conceptos básicos.
    3.1.- Algoritmos.
    3.2.- Aproximaciones.
4.- Tipos de errores.
    4.1.- Error absoluto.
    4.2.- Error relativo.
    4.3.- Error porcentual.
    4.4.- Errores de redondeo.
    4.5.- Error de truncamiento.
5.- Convergencia.
6.- Programas computacionales.
7.- Conclusión.
8.- Bibliografía.

1.-Introducción.
En esta primer bloque de la unidad de aprendizaje de métodos numéricos podremos entender los conceptos básicos que rigen y nos ayudaran a comprender mejor todos los cálculos con mayor dificultad que vamos  efectuar.
Los métodos numéricos son técnicas que su objetivo principal es encontrar soluciones “aproximadas” a problemas complejos utilizando sólo las operaciones más simples de la aritmética. Se requiere de una secuencia de operaciones algebraicas y lógicas que producen la aproximación al problema matemático.
Los métodos numéricos pueden ser aplicados para resolver procedimientos matemáticos en:
Cálculo de derivadas, Integrales, Ecuaciones diferenciales, Operaciones con matrices, Interpolaciones, Ajuste de curvas, Polinomios
2.-Definición de métodos numéricos.
Un método numérico es un procedimiento mediante el cual se obtiene, casi siempre de manera aproximada, la solución de ciertos problemas realizando cálculos puramente aritméticos y lógicos (operaciones aritméticas elementales, cálculo de funciones, consulta de una tabla de valores, cálculo preposicional, etc.). Un tal procedimiento consiste de una lista finita de instrucciones precisas que especifican una secuencia de operaciones algebraicas y lógicas (algoritmo), que producen o bien una aproximación de la solución del problema (solución numérica) o bien un mensaje. La eficiencia en el cálculo de dicha aproximación depende, en parte, de la facilidad de implementación del algoritmo y de las características especiales y limitaciones de los instrumentos de cálculo (los computadores). En general, al emplear estos instrumentos de cálculo se introducen errores llamados de redondeo.
 2.1.- Aproximación y errores.
Aproximaciones:
En ocasiones, ciertos números tales como   π, √2, dificultan el trabajo para estos casos usamos valores próximos a dichos números para simplificar los cálculos. Es por ello que surgen los siguientes conceptos:
  • Aproximación por defecto o truncamiento: Consiste en eliminar las cifras a partir del orden considerado.
  • Aproximación por exceso: Se eliminan las cifras a partir del orden considerado, pero se aumenta en una unidad la última cifra que dejamos.
  • Redondeo: Es la mejor de las aproximaciones de las dos anteriores.
Errores:
Los errores numéricos se generan con el uso de aproximaciones para representar las operaciones y cantidades matemáticas.
2.2.- Exactitud.
Se refiere a cuán cerca del valor real se encuentra el valor medido. En términos estadísticos, la exactitud está relacionada con el sesgo de una estimación. Cuanto menor es el sesgo más exacto es una estimación.
Imagen relacionada
2.3.-Precisión.
Se refiere a la dispersión del conjunto de valores obtenidos de mediciones repetidas de una magnitud. Cuanto menor es la dispersión mayor la precisión. Una medida común de la variabilidad es la desviación estándar de las mediciones y la precisión se puede estimar como una función de ella.

2.4.- Incertidumbre.
Incertidumbre también se le conoce como Imprecisión. Se refiere al grado de alejamiento entre sí, a las diversas aproximaciones a un valor verdadero.
Situación bajo la cual se desconocen las probabilidades de ocurrencia asociados a los diferentes resultados de un determinado evento.
2.4.1.- Sesgo.
Existe sesgo cuando la ocurrencia de un error no aparece como un hecho aleatorio (al azar) advirtiéndose que este ocurre en forma sistemática
Es un alejamiento sistemático del valor verdadero a calcular.

2.5.-Errores humanos.
  • Lectura: La mala comprensión del texto del problema.
  • Transmisión: Es por la mala comprensión  del mensaje comunicado.
  • Transcripción: Se debe a errores a la hora de transcribir un texto.

2.6.- Serie de Taylor.

En matemáticas, una serie de Taylor es una aproximación de funciones mediante una serie de potencias o suma de potencias enteras de polinomios como (x-a)n llamados términos de la serie, dicha suma se calcula a partir de las derivadas de la función para un determinado valor o punto a suficientemente derivable sobre la función y un entorno sobre el cual converja la serie. A la serie centrada sobre el punto cero, a=0, se le denomina también serie de McLaurin.
La serie de Taylor de una función f real o compleja ƒ(x) infinitamente diferenciable en el entorno de un número real o complejo a es la siguiente serie de potencias:
f(a)+ ((a)/1!)(x-a)+ (f´´(a)/2!)(x-a)2+ (f´´´(a)/3!)(x-a)3+…

3-. Conceptos básicos.
3.1.- Algoritmos.
Un algoritmo es un conjunto secuencial de operaciones algebraicas y lógicas para obtener la solución de un problema. Generalmente, se dispone de varios algoritmos para resolver un problema particular, mediante una serie de datos precisos, definidos y finitos.

3.2.- Aproximaciones.
La mayor parte de las técnicas tiene la característica de poseer errores. Aunque la perfección es una meta digna de alabarse, es difícil, si no imposible, alcanzarla. Sin embargo, sus distribuciones aleatorias se agrupan muy próxima alrededor de la predicción.

En algunos conceptos básicos de los Métodos Numéricos podemos encontrar los siguientes: Cifra Significativa, Precisión, Exactitud, Incertidumbre Y Sesgo. Que forman parte a las aproximaciones y predicciones numéricas adecuadas.

Cifras significativas: Cuando se emplea un número en un cálculo, debe haber seguridad de que pueda usarse con confianza. El concepto de cifras significativas tiene dos implicaciones importantes en el estudio de los métodos numéricos.

1.- Los métodos numéricos obtienen resultados aproximados. Por lo tanto, se debe desarrollar criterios para especificar qué tan precisos son los resultados obtenidos.

2.- Aunque ciertos números representan número específicos, no se pueden expresar exactamente con un número finito de cifras.

4.- Tipos de errores.
4.1.- Error absoluto.
Es la diferencia entre el valor de la medida y el valor tomado como exacto. Puede ser positivo o negativo, según si la medida es superior al valor real o inferior (la resta sale positiva o negativa). Tiene unidades, las mismas que las de la medida.
Sin embargo, para facilitar el manejo y el análisis se emplea el error absoluto definido como:

EA= |P*-P|

4.2.- Error relativo.
El valor absoluto del cociente entere su error absoluto y el valor exacto.
ER= (|P*-P|)/P

4.3.- Error porcentual.
El resultado de multiplicar el error relativo por 100
ER= (100)((|P*-P|)/P)

4.4.- Errores de redondeo.
Debido a la computadora puede guardar un número fijo de cifras significativas durante el cálculo.

4.5.- Error de truncamiento.
Representar aproximadamente un procedimiento matemático exacto.

5.- Convergencia.
Se entiende por convergencia de un método numérico la garantía de que, al realizar un buen número de repeticiones (iteraciones), las aproximaciones obtenidas terminan por acercarse cada vez más al verdadero valor buscado.

En la medida en la que un método numérico requiera de un menor número de iteraciones que otro, para acercarse al valor numérico deseado, se dice que tiene una mayor rapidez de convergencia.

Se entiende por estabilidad de un método numérico el nivel de garantía de convergencia, y es que algunos métodos numéricos no siempre convergen y, por el contrario divergen; es decir, se alejan cada vez más y más del resultado deseado.

6.- Programas computacionales.
Microsoft Excel:
Es una aplicación de hojas de cálculo que forma parte de la suite de oficina Microsoft Office. Es una aplicación utilizada en tareas financieras y contables, con fórmulas, gráficos y un lenguaje de programación

Máxima:
El sistema de álgebra computacional Máxima es un motor de cálculo simbólico escrito en lenguaje Lisp.

Cuenta con un amplio conjunto de funciones para hacer manipulación simbólica de polinomios, matrices, funciones racionales, integración, derivación, manejo de gráficos en 2D y 3D, manejo de números de coma flotante muy grandes, expansión en series de potencias y de Fourier, entre otras funcionalidades. Además tiene un depurador a nivel de fuente para el código de Máxima.

7.- Conclusión.
Los métodos numéricos nos ayudan a poder resolver problemas con una dificultad alta dándonos resultados más exactos para que tengamos un error mínimo, sus utilidades son variables y podemos hacer usos de ellas en todos tipos de ámbitos pero en especial en ingeniería es una herramienta de gran ayuda porque nos simplifica los problemas.
8.- Bibliografía.

ÍNDICE 1 .-Introducción. 2 .-Definición de métodos numéricos.      2.1 .- Aproximación y errores.       2.2 .- Exactitu...