Mostrar el registro sencillo del ítem
dc.contributor.author | Martín Barreiro, Carlos Manuel | |
dc.date.accessioned | 2014-01-06 | |
dc.date.available | 2014-01-06 | |
dc.date.issued | 2013 | |
dc.identifier.uri | http://www.dspace.espol.edu.ec/handle/123456789/25000 | |
dc.description | Los sistemas no lineales de ecuaciones se presentan con mucha frecuencia en diversas áreas de las ciencias básicas y aplicadas. Resolver un sistema de ecuaciones no lineales no es una tarea trivial, es decir, no es una tarea en general sencilla. Se trata de un problema que ha cautivado a muchos matemáticos durante siglos [6]. Aún en la actualidad se discuten nuevos métodos para resolver sistemas no lineales [1] [2] [3] [9]. Normalmente no es posible, a través de algún método analítico, conocer la solución exacta de un sistema no lineal. Necesitamos entonces métodos numéricos que nos permitan aproximar, tanto como se desee, las soluciones reales de sistemas no lineales. Existen muchos métodos numéricos iterativos convencionales para resolver sistemas de ecuaciones no lineales, entre los que destacan los métodos de punto fijo en general y los métodos de Newton y sus variantes [6] [10] [11] [12] [13]. Usualmente los métodos iterativos clásicos utilizan fórmulas recursivas que producen una sucesión vectorial que, dadas ciertas condiciones, converge a una solución del sistema no lineal. Para garantizar la convergencia de la sucesión construida, normalmente se necesita, entre otras cosas, que el dato inicial (es decir el primer elemento de la sucesión vectorial) se encuentre “cerca” de una solución del sistema no lineal, además de que las funciones de varias variables que componen el sistema cumplan ciertas condiciones de continuidad y diferenciabilidad. Por esta razón es que estos métodos clásicos se conocen como métodos de convergencia local. Si el dato inicial no se encuentra dentro de la región de convergencia (usualmente una bola abierta centrada en una solución del sistema no lineal), entonces la sucesión será divergente y por lo tanto no va a converger a una solución del sistema no lineal. Dependiendo del problema a resolver, puede ocurrir que el radio de la región de convergencia tenga una medida muy pequeña. Es muy importante tener presente entonces que los métodos clásicos pueden fallar principalmente cuando se tiene poca o ninguna información sobre en qué parte de la región de búsqueda el sistema tiene sus soluciones. Otra técnica consiste en trabajar sobre un problema equivalente de optimización. Sobre este nuevo problema se pueden aplicar métodos de optimización numérica conocidos, como el método del gradiente o el método BFGS, sin embargo, desde hace menos de una década, se están usando algoritmos metaheurísticos que hacen uso de la computación evolutiva, como los “algoritmos genéticos” y la “búsqueda dispersa”, para resolver el problema equivalente de optimización, con bastante éxito en cuanto al consumo de recursos computacionales y a los resultados obtenidos [4] [5]. En esta tesis se muestran dos métodos numéricos que permiten encontrar soluciones reales a sistemas no lineales de ecuaciones. El primer método consiste en plantear como problema equivalente al sistema no lineal un problema de minimización. Se enuncia y se demuestra formalmente una proposición que nos dice que efectivamente todo sistema no lineal tiene un problema equivalente de optimización. Pero para resolver el problema de minimización no se utilizarán métodos de optimización numérica, por el contrario se usará la heurística. Como métodos de búsqueda local se emplearán los algoritmos heurísticos del “gradiente” y de “Nelder-Mead”. Detrás de ellos y orquestando todo el funcionamiento de búsqueda de soluciones de un sistema no lineal se tendrá la metaheurística conocida como “búsqueda dispersa”. Es decir, el primer método que se presenta consiste básicamente en un solo algoritmo general evolutivo para resolver sistemas no lineales. Al final se muestran los experimentos computacionales realizados. Existen muchas metaheurísticas, entre ellas: el algoritmo genético, la búsqueda tabú, el recocido simulado, GRASP, que pueden utilizarse, junto con heurísticas, para resolver problemas de optimización [4] [5]. “Búsqueda dispersa” es también un método metaheurístico que se puede emplear para resolver problemas de optimización y forma parte de la familia de los algoritmos evolutivos [4] [5]. Tiene sus orígenes en los años setenta, pero es en la última década cuando ha sido rediseñado y probado en muchos problemas con un alto grado de dificultad y con excelentes resultados [4] [5]. Esta es la principal razón por la cual se escogió el método de búsqueda dispersa para resolver el problema de minimización del primer método que se propone para resolver sistemas no lineales de ecuaciones. El segundo método que se presenta trata sobre plantear otro tipo de problema equivalente al sistema no lineal: un problema de valor inicial de primer orden. Esta idea la propuso D. F. Davidenko alrededor de 1960 y actualmente tiene muchas aplicaciones [6] [7]. Para esta forma diferente de resolver un sistema no lineal hacemos uso del concepto de homotopía y de la continuación numérica [6] [7]. Se demostrará de manera rigurosa más adelante que resolver el sistema de ecuaciones diferenciales de primer orden con el dato inicial es equivalente a resolver el sistema no lineal de ecuaciones. Se hará uso del método de cuarto orden de Runge-Kutta clásico para resolver numéricamente el problema de valor inicial. Por lo tanto, se tomará como una solución del sistema no lineal la solución obtenida en el problema de valor inicial. Finalmente se comparten algunos experimentos computacionales. Cabe indicar que lo que se persigue con estos dos métodos numéricos que se presentan es intentar trabajar con métodos que proporcionen un radio de convergencia de mayor medida que lo que ocurre en los métodos iterativos convencionales donde la medida del radio de convergencia puede ser muy pequeña [6] [7]. Debido a lo mencionado anteriormente es que a estos métodos que se muestran en esta tesis se los conoce como métodos de convergencia global. Con estos métodos es más probable tener convergencia a una solución del sistema no lineal cuando se ingresa un dato inicial. Por un lado estos métodos pueden trabajar de forma cooperativa con los métodos clásicos. Por ejemplo, si no se tiene ninguna sospecha de dónde podría encontrarse una solución del sistema se puede utilizar un método de convergencia global para acercarnos lo más posible a una solución y, luego, podríamos tomar esa salida proporcionada por el método de convergencia global como el dato inicial que necesita el método de convergencia local para iterar el número de veces que sea necesario y obtener así una aproximación que se encuentre tan cerca como se desee de una solución del sistema no lineal. Por otro lado, se pueden usar independientemente para que por sí mismos estos métodos de convergencia global carguen con todo el peso de encontrar las soluciones. Como autor de este documento de tesis, deseo terminar esta introducción indicando que mi contribución se encuentra principalmente en el “método heurístico” para resolver sistemas no lineales de ecuaciones. La metodología de “búsqueda dispersa” proporciona sugerencias y lineamientos generales cuando se pretende resolver un problema de optimización, mi aporte estuvo en el diseño y en el detalle de la implementación para resolver puntualmente el problema de minimización de una función no lineal de varias variables sobre un conjunto compacto (una región hiperrectangular cerrada en n R ). La búsqueda local, el método de combinación, entre otros aspectos internos de diseño e implementación que utiliza el “método heurístico” de este documento de tesis, son de mi autoría. Quiero también indicar que tuve la fortuna de ser alumno del Doctor Rafa Martí, profesor de la Universidad de Valencia en España, él es uno de los creadores de la metaheurística de “búsqueda dispersa”. Sus enseñanzas, sus consejos, fueron una guía fundamental para que yo pudiera terminar con éxito la implementación total del “método heurístico” que resuelve sistemas no lineales de ecuaciones. En la maestría de investigación matemática el Doctor Martí me dictó las materias “Optimización” y “Algoritmos Heurísticos”. El Doctor Joseph Páez, profesor de ESPOL, me sugirió que realizara la investigación del “método homotópico”, el segundo método de esta tesis para resolver sistemas de ecuaciones no lineales. En este segundo método mi aporte es mínimo, es más un trabajo de mucha investigación en lo teórico. Mi contribución en este segundo método apunta a la implementación y ciertas cuestiones de la convergencia que se discuten en la sección 3.4 de este documento. También fui alumno del Doctor Páez, con él tuve la oportunidad de estudiar el concepto de homotopía y algunos métodos de continuación numérica. En la maestría de investigación matemática el Doctor Páez me dictó las materias “Análisis Numérico” y “Sistemas Dinámicos”. Reitero mi agradecimiento inmenso a los Doctores Martí y Páez. | es |
dc.description.abstract | En este documento de tesis se presentan dos métodos numéricos no clásicos, y por ende poco conocidos, para resolver sistemas de ecuaciones no lineales. Cabe indicar que son de interés únicamente las soluciones reales de dichos sistemas. Por un lado este par de métodos son independientes en el sentido que no dependen de otros métodos para encontrar las soluciones de un sistema, pero por otro lado pueden también trabajar de forma colaborativa con los métodos tradicionales como los métodos de punto fijo en general y los métodos de Newton y sus variantes. Estos métodos que se presentarán son conocidos como métodos de convergencia global, mientras que los métodos iterativos usuales son métodos de convergencia local. Entonces, para cada método de convergencia global que mostraremos, se va a plantear un problema equivalente. Para el primero el problema equivalente es un problema de optimización, mientras que para el segundo el problema equivalente es un sistema de ecuaciones diferenciales ordinarias de primer orden junto con un dato inicial. Se usarán algoritmos heurísticos y metaheurísticos para el problema de optimización y el método numérico de Runge-Kutta clásico de cuarto orden para el problema de valor inicial. Se va a demostrar formalmente que resolver un sistema no lineal de ecuaciones es equivalente a resolver un problema de optimización, particularmente un problema de minimización. Se utiliza la metaheurística “scatter search” y las heurísticas del “gradiente” y de “Nelder-Mead” para el problema de optimización. Se demuestra también que resolver un sistema no lineal de ecuaciones es equivalente a resolver un problema de valor inicial de primer orden. Para el segundo método que mostraremos los conceptos de homotopía y continuación numérica son muy importantes. Finalmente, se realizaron experimentos computacionales y se incluyen resultados sobre la ejecución de estos dos métodos numéricos sobre algunos sistemas no lineales de ecuaciones. | es |
dc.language.iso | spa | es |
dc.publisher | ESPOL | es |
dc.rights | openAccess | |
dc.subject | DOS | es |
dc.subject | DOS | es |
dc.subject | NO TRADICIONALES | es |
dc.subject | SISTEMAS | es |
dc.subject | NO LINEALES | es |
dc.title | Análisis e implementación de dos métodos no tradicionales para resolver sistemas no lineales | es |
dc.type | bachelorThesis | es |