865 resultados para Modelos matemáticos determinísticos
Resumo:
Pós-graduação em Matemática Universitária - IGCE
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
La evaluación de la seguridad de estructuras antiguas de fábrica es un problema abierto.El material es heterogéneo y anisótropo, el estado previo de tensiones difícil de conocer y las condiciones de contorno inciertas. A comienzos de los años 50 se demostró que el análisis límite era aplicable a este tipo de estructuras, considerándose desde entonces como una herramienta adecuada. En los casos en los que no se produce deslizamiento la aplicación de los teoremas del análisis límite estándar constituye una herramienta formidable por su simplicidad y robustez. No es necesario conocer el estado real de tensiones. Basta con encontrar cualquier solución de equilibrio, y que satisfaga las condiciones de límite del material, en la seguridad de que su carga será igual o inferior a la carga real de inicio de colapso. Además esta carga de inicio de colapso es única (teorema de la unicidad) y se puede obtener como el óptimo de uno cualquiera entre un par de programas matemáticos convexos duales. Sin embargo, cuando puedan existir mecanismos de inicio de colapso que impliquen deslizamientos, cualquier solución debe satisfacer tanto las restricciones estáticas como las cinemáticas, así como un tipo especial de restricciones disyuntivas que ligan las anteriores y que pueden plantearse como de complementariedad. En este último caso no está asegurada la existencia de una solución única, por lo que es necesaria la búsqueda de otros métodos para tratar la incertidumbre asociada a su multiplicidad. En los últimos años, la investigación se ha centrado en la búsqueda de un mínimo absoluto por debajo del cual el colapso sea imposible. Este método es fácil de plantear desde el punto de vista matemático, pero intratable computacionalmente, debido a las restricciones de complementariedad 0 y z 0 que no son ni convexas ni suaves. El problema de decisión resultante es de complejidad computacional No determinista Polinomial (NP)- completo y el problema de optimización global NP-difícil. A pesar de ello, obtener una solución (sin garantía de exito) es un problema asequible. La presente tesis propone resolver el problema mediante Programación Lineal Secuencial, aprovechando las especiales características de las restricciones de complementariedad, que escritas en forma bilineal son del tipo y z = 0; y 0; z 0 , y aprovechando que el error de complementariedad (en forma bilineal) es una función de penalización exacta. Pero cuando se trata de encontrar la peor solución, el problema de optimización global equivalente es intratable (NP-difícil). Además, en tanto no se demuestre la existencia de un principio de máximo o mínimo, existe la duda de que el esfuerzo empleado en aproximar este mínimo esté justificado. En el capítulo 5, se propone hallar la distribución de frecuencias del factor de carga, para todas las soluciones de inicio de colapso posibles, sobre un sencillo ejemplo. Para ello, se realiza un muestreo de soluciones mediante el método de Monte Carlo, utilizando como contraste un método exacto de computación de politopos. El objetivo final es plantear hasta que punto está justificada la busqueda del mínimo absoluto y proponer un método alternativo de evaluación de la seguridad basado en probabilidades. Las distribuciones de frecuencias, de los factores de carga correspondientes a las soluciones de inicio de colapso obtenidas para el caso estudiado, muestran que tanto el valor máximo como el mínimo de los factores de carga son muy infrecuentes, y tanto más, cuanto más perfecto y contínuo es el contacto. Los resultados obtenidos confirman el interés de desarrollar nuevos métodos probabilistas. En el capítulo 6, se propone un método de este tipo basado en la obtención de múltiples soluciones, desde puntos de partida aleatorios y calificando los resultados mediante la Estadística de Orden. El propósito es determinar la probabilidad de inicio de colapso para cada solución.El método se aplica (de acuerdo a la reducción de expectativas propuesta por la Optimización Ordinal) para obtener una solución que se encuentre en un porcentaje determinado de las peores. Finalmente, en el capítulo 7, se proponen métodos híbridos, incorporando metaheurísticas, para los casos en que la búsqueda del mínimo global esté justificada. Abstract Safety assessment of the historic masonry structures is an open problem. The material is heterogeneous and anisotropic, the previous state of stress is hard to know and the boundary conditions are uncertain. In the early 50's it was proven that limit analysis was applicable to this kind of structures, being considered a suitable tool since then. In cases where no slip occurs, the application of the standard limit analysis theorems constitutes an excellent tool due to its simplicity and robustness. It is enough find any equilibrium solution which satisfy the limit constraints of the material. As we are certain that this load will be equal to or less than the actual load of the onset of collapse, it is not necessary to know the actual stresses state. Furthermore this load for the onset of collapse is unique (uniqueness theorem), and it can be obtained as the optimal from any of two mathematical convex duals programs However, if the mechanisms of the onset of collapse involve sliding, any solution must satisfy both static and kinematic constraints, and also a special kind of disjunctive constraints linking the previous ones, which can be formulated as complementarity constraints. In the latter case, it is not guaranted the existence of a single solution, so it is necessary to look for other ways to treat the uncertainty associated with its multiplicity. In recent years, research has been focused on finding an absolute minimum below which collapse is impossible. This method is easy to set from a mathematical point of view, but computationally intractable. This is due to the complementarity constraints 0 y z 0 , which are neither convex nor smooth. The computational complexity of the resulting decision problem is "Not-deterministic Polynomialcomplete" (NP-complete), and the corresponding global optimization problem is NP-hard. However, obtaining a solution (success is not guaranteed) is an affordable problem. This thesis proposes solve that problem through Successive Linear Programming: taking advantage of the special characteristics of complementarity constraints, which written in bilinear form are y z = 0; y 0; z 0 ; and taking advantage of the fact that the complementarity error (bilinear form) is an exact penalty function. But when it comes to finding the worst solution, the (equivalent) global optimization problem is intractable (NP-hard). Furthermore, until a minimum or maximum principle is not demonstrated, it is questionable that the effort expended in approximating this minimum is justified. XIV In chapter 5, it is proposed find the frequency distribution of the load factor, for all possible solutions of the onset of collapse, on a simple example. For this purpose, a Monte Carlo sampling of solutions is performed using a contrast method "exact computation of polytopes". The ultimate goal is to determine to which extent the search of the global minimum is justified, and to propose an alternative approach to safety assessment based on probabilities. The frequency distributions for the case study show that both the maximum and the minimum load factors are very infrequent, especially when the contact gets more perfect and more continuous. The results indicates the interest of developing new probabilistic methods. In Chapter 6, is proposed a method based on multiple solutions obtained from random starting points, and qualifying the results through Order Statistics. The purpose is to determine the probability for each solution of the onset of collapse. The method is applied (according to expectations reduction given by the Ordinal Optimization) to obtain a solution that is in a certain percentage of the worst. Finally, in Chapter 7, hybrid methods incorporating metaheuristics are proposed for cases in which the search for the global minimum is justified.
Resumo:
La teledetección o percepción remota (remote sensing) es la ciencia que abarca la obtención de información (espectral, espacial, temporal) sobre un objeto, área o fenómeno a través del análisis de datos adquiridos por un dispositivo que no está en contacto con el elemento estudiado. Los datos obtenidos a partir de la teledetección para la observación de la superficie terrestre comúnmente son imágenes, que se caracterizan por contar con un sinnúmero de aplicaciones que están en continua evolución, por lo cual para solventar los constantes requerimientos de nuevas aplicaciones a menudo se proponen nuevos algoritmos que mejoran o facilitan algún proceso en particular. Para el desarrollo de dichos algoritmos, es preciso hacer uso de métodos matemáticos que permitan la manipulación de la información con algún fin específico. Dentro de estos métodos, el análisis multi-resolución se caracteriza por permitir analizar una señal en diferentes escalas, lo que facilita trabajar con datos que puedan tener resoluciones diferentes, tal es el caso de las imágenes obtenidas mediante teledetección. Una de las alternativas para la implementación de análisis multi-resolución es la Transformada Wavelet Compleja de Doble Árbol (DT-CWT). Esta transformada se implementa a partir de dos filtros reales y se caracteriza por presentar invariancia a traslaciones, precio a pagar por su característica de no ser críticamente muestreada. A partir de las características de la DT-CWT se propone su uso en el diseño de algoritmos de procesamiento de imagen, particularmente imágenes de teledetección. Estos nuevos algoritmos de procesamiento digital de imágenes de teledetección corresponden particularmente a fusión y detección de cambios. En este contexto esta tesis presenta tres algoritmos principales aplicados a fusión, evaluación de fusión y detección de cambios en imágenes. Para el caso de fusión de imágenes, se presenta un esquema general que puede ser utilizado con cualquier algoritmo de análisis multi-resolución; este algoritmo parte de la implementación mediante DT-CWT para luego extenderlo a un método alternativo, el filtro bilateral. En cualquiera de los dos casos la metodología implica que la inyección de componentes pueda realizarse mediante diferentes alternativas. En el caso del algoritmo de evaluación de fusión se presenta un nuevo esquema que hace uso de procesos de clasificación, lo que permite evaluar los resultados del proceso de fusión de forma individual para cada tipo de cobertura de uso de suelo que se defina en el proceso de evaluación. Esta metodología permite complementar los procesos de evaluación tradicionales y puede facilitar el análisis del impacto de la fusión sobre determinadas clases de suelo. Finalmente, los algoritmos de detección de cambios propuestos abarcan dos enfoques. El primero está orientado a la obtención de mapas de sequía en datos multi-temporales a partir de índices espectrales. El segundo enfoque propone la utilización de un índice global de calidad espectral como filtro espacial. La utilización de dicho filtro facilita la comparación espectral global entre dos imágenes, esto unido a la utilización de umbrales, conlleva a la obtención de imágenes diferencia que contienen la información de cambio. ABSTRACT Remote sensing is a science relates to information gathering (spectral, spatial, temporal) about an object, area or phenomenon, through the analysis of data acquired by a device that is not in contact with the studied item. In general, data obtained from remote sensing to observe the earth’s surface are images, which are characterized by having a number of applications that are constantly evolving. Therefore, to solve the constant requirements of applications, new algorithms are proposed to improve or facilitate a particular process. With the purpose of developing these algorithms, each application needs mathematical methods, such as the multiresolution analysis which allows to analyze a signal at different scales. One of the options is the Dual Tree Complex Wavelet Transform (DT-CWT) which is implemented from two real filters and is characterized by invariance to translations. Among the advantages of this transform is its successful application in image fusion and change detection areas. In this regard, this thesis presents three algorithms applied to image fusion, assessment for image fusion and change detection in multitemporal images. For image fusion, it is presented a general outline that can be used with any multiresolution analysis technique; this algorithm is proposed at first with DT-CWT and then extends to an alternative method, the bilateral filter. In either case the method involves injection of components by various means. For fusion assessment, the proposal is focused on a scheme that uses classification processes, which allows evaluating merger results individually for each type of land use coverage that is defined in evaluation process. This methodology allows complementing traditional assessment processes and can facilitate impact analysis of the merger on certain kinds of soil. Finally, two approaches of change detection algorithms are included. The first is aimed at obtaining drought maps in multitemporal data from spectral indices. The second one takes a global index of spectral quality as a spatial filter. The use of this filter facilitates global spectral comparison between two images and by means of thresholding, allows imaging containing change information.
Resumo:
En este estudio, englobado dentro del campo de la investigación operacional en aeropuertos, se considera el problema de la optimización de la secuencia de descontaminación de nieve de los tramos que componen el área de maniobras de un aeropuerto, denominado RM-AM. Este problema se enfrenta a la optimización de recursos limitados para retirar la nieve de las calles de rodadura y pistas, dejándolas en un estado aceptable para la operación de aeronaves. El campo de vuelos se divide en subconjuntos de tramos significativos para la operación y se establecen tiempos objetivo de apertura al tráfico de aeronaves. Se desarrollan varios algoritmos matemáticos en los que se proponen distintas funciones objetivo, como son la hora de finalización del proceso, la suma de las horas de finalización de cada tramo, o el retraso entre la hora estimada y la hora de finalización. Durante este proceso, se van introduciendo restricciones operativas relativas al cumplimiento de objetivos operativos parciales aplicados a las zonas de especial interés, o relativas a la operación de los equipos de descontaminación. El problema se resuelve mediante optimización basada en programación lineal. Los resultados de las pruebas computacionales se hacen sobre cinco modelos de área de maniobras en los que va creciendo la complejidad y el tamaño. Se comparan las prestaciones de los distintos algoritmos. Una vez definido el modelo matemático para la optiamización, se propone una metodología estructurada para abordar dicho problema para cualquier área de manobras. Se define una estrategia en la operación. Se acomete el área de maniobras por zonas, con la condición de que los subconjuntos de tramos significativos queden englobados dentro de una sola de estas zonas. El problema se resuelve mediante un proceso iterativo de optimización aplicado sucesivamente a las zonas que componen el área de maniobras durante cada iteración. Se analiza la repercusión de los resultados en los procesos DMAN, AMAN y TP, para la integración de los resultados en el cálculo de TSAT y EBIT. El método se particulariza para el caso del área de maniobras del Aeropuerto Adolfo Suárez Madrid Barajas. ABSTRACT This study, which lies within the field of operations research in airports, considers the optimisation of the sequence for clearing snow from stretches of the manoeuvring area of an airport, known as RM-AM. This issue involves the optimisation of limited resources to remove snow from taxiways and runways thereby leaving them in an acceptable condition for operating aircraft. The airfield is divided into subsets of significant stretches for the purpose of operations and target times are established during which these are open to aircraft traffic. The study contains several mathematical models each with different functions, such as the end time of the process, the sum of the end times of each stretch, and gap between the estimated and the real end times. During this process, we introduce different operating restrictions on partial fulfilment of the operational targets as applied to zones of special interest, or relating to the operation of the snow-clearing machines. The problem is solved by optimisation based on linear programming. Computational tests are carried out on five distinct models of the manoeuvring area, which cover increasingly complex situations and larger areas. The different algorithms are then compared to one other. Having defined the mathematical model for the optimisation, we then set out a structured methodology to deal with any type of manoeuvring area. In other words, we define an operational strategy. The airfield is divided into subsets of significant stretches for the purpose of operations and target times are set at which these are to be open to aircraft traffic. The manoeuvring area is also divided into zones, with the condition that the subsets of significant stretches lie within just one of these zones. The problem is solved by an iterative optimisation process based on linear programming applied successively to the zones that make up the manoeuvring area during each iteration. The impact of the results on DMAN, AMAN and TP processes is analysed for their integration into the calculation of TSAT and EBIT. The method is particularized for the case of the manoeuvring area of Adolfo Suarez Madrid - Barajas Airport.
Resumo:
O Teste Baseado em Modelos (TBM) emergiu como uma estratégia promissora para minimizar problemas relacionados à falta de tempo e recursos em teste de software e visa verificar se a implementação sob teste está em conformidade com sua especificação. Casos de teste são gerados automaticamente a partir de modelos comportamentais produzidos durante o ciclo de desenvolvimento de software. Entre as técnicas de modelagem existentes, Sistemas de Transição com Entrada/Saída (do inglês, Input/Output Transition Systems - IOTSs), são modelos amplamente utilizados no TBM por serem mais expressivos do que Máquinas de Estado Finito (MEFs). Apesar dos métodos existentes para geração de testes a partir de IOTSs, o problema da seleção de casos de testes é um tópico difícil e importante. Os métodos existentes para IOTS são não-determinísticos, ao contrário da teoria existente para MEFs, que fornece garantia de cobertura completa com base em um modelo de defeitos. Esta tese investiga a aplicação de modelos de defeitos em métodos determinísticos de geração de testes a partir de IOTSs. Foi proposto um método para geração de conjuntos de teste com base no método W para MEFs. O método gera conjuntos de teste de forma determinística além de satisfazer condições de suficiência de cobertura da especificação e de todos os defeitos do domínio de defeitos definido. Estudos empíricos avaliaram a aplicabilidade e eficácia do método proposto: resultados experimentais para analisar o custo de geração de conjuntos de teste utilizando IOTSs gerados aleatoriamente e um estudo de caso com especificações da indústria mostram a efetividade dos conjuntos gerados em relação ao método tradicional de Tretmans.
Resumo:
Part of the work of an insurance company is to keep claims reserves, which is known as the technical reserves, in order to mitigate the risk inherent in their activities and comply with the legal obligations. There are several methods for estimate the claims reserves, deterministics and stochastics methods. One of the most used method is the deterministic method Chain Ladder, of simple application. However, the deterministics methods produce only point estimates, for which the stochastics methods have become increasingly popular because they are capable of producing interval estimates, measuring the variability inherent in the technical reserves. In this study the deterministics methods (Grossing Up, Link Ratio and Chain Ladder) and stochastics (Thomas Mack and Bootstrap associated with Overdispersed Poisson model) will be applied to estimate the claims reserves derived from automobile material damage occurred until December 2012. The data used in this research is based on a real database provided by AXA Portugal. The comparison of results obtained by different methods is hereby presented.
Resumo:
La colección de textos , iniciativa del Departamento de Ciencias Básicas de la Universidad de Medellín y su grupo de investigación SUMMA, incluye en cada número la exposición detallada de un tema matemático en particular, tratado con el rigor que muchas veces no es posible lograr en un curso regular de la disciplina. Las temáticas incluyen diferentes áreas del saber matemático como: álgebra, trigonometría, cálculo, estadística y probabilidades, álgebra lineal, métodos lineales y numéricos, historia de las matemáticas, geometría, matemáticas puras y aplicadas, ecuaciones diferenciales y empleo de softwares matemáticos. Todas las carátulas de la colección vienen ilustradas, a manera de identificación, con diseño de la geometría fractal cuya fuente y origen se encuentra referenciada en las páginas interiores de los textos. La finalidad de esta lección de matemáticas número 9 Modelos Arima-ARCH es proporcionarle al estudiante y lector interesado las herramientas que le permitan tomar decisiones a través de la construcción de los modelos Arima-ARCH para ser aplicados en Ingeniería Financiera, métodos cuantitativos y mercados de capitales, entre otros
Modelos estocásticos de crescimento individual e desenvolvimento de software de estimação e previsão
Resumo:
Os modelos de crescimento individual são geralmente adaptações de modelos de crescimento de populações. Inicialmente estes modelos eram apenas determinísticos, isto é, não incorporavam as flutuações aleatórias do ambiente. Com o desenvolvimento da teoria do cálculo estocástico podemos adicionar um termo estocástico, que representa a aleatoriedade ambiental que influencia o processo em estudo. Actualmente, o estudo do crescimento individual em ambiente aleatório é cada vez mais importante, não apenas pela vertente financeira, mas também devido às suas aplicações nas áreas da saúde e da pecuária, entre outras. Problemas como o ajustamento de modelos de crescimento individual, estimação de parâmetros e previsão de tamanhos futuros são tratados neste trabalho. São apresentadas novas aplicações do modelo estocástico monomolecular generalizado e um novo software de aplicação deste e de outros modelos. ABSTRACT: Individual growth models are usually adaptations of growth population models. Initially these models were only deterministic, that is, they did not incorporate the random fluctuations of the environment. With the development of the theory of stochastic calculus, we can add a stochastic term that represents the random environmental influences in the process under study. Currently, the study of individual growth in a random environment is increasingly important, not only by the financial scope but also because of its applications in health care and livestock production, among others. Problems such as adjustment of an individual growth model, estimation of parameters and prediction of future sizes are treated in this work. New applications of the generalized stochastic monomolecular model and a new software applied to this and other models are presented.
Resumo:
Estudiar los medios de comunicación significa estudiar al hombre, la sociedad en la que vive, su evolución y las perspectivas de desarrollo futuro. Después de haber puntualizado brevemente los avances tecnológicos salientes en la historia del hombre y de haber identificado las características más relevantes de las diversas redefiniciones antropológicas que siguieron a la introducción de algunos nuevos medios, nos detendremos principalmente en el estudio de las peculiaridades de los instrumentos de comunicación de masa más modernos, de la fotografía al cine, de la televisión a Internet. El objetivo principal de este aporte, lejos de querer proveer sistemas teóricos definitivos, es trazar un conjunto coherente de temáticas capaces de suscitar nuevas y proficuas cuestiones y de promover un debate abierto a los más diversos aportes, con particular atención a los avances de las comunicaciones telemáticas.
Resumo:
Resumen: Luego de la crisis financiera global de 2008, el blindaje conceptual del paradigma neoclásico, edificado sobre un atractivo formalismo matemático, ha dejado entrever sus falencias. En ese contexto, este artículo plantea la necesidad de revisar sus fundamentos, en especial la concepción antropológica y la metodología que subyace detrás del modelo. El autor analiza al mainstream como un modelo reduccionista de la naturaleza humana, y postula la necesidad de modificar el rumbo de la ciencia económica hacia una dirección personalista, enfocada en el bienestar social de las personas, que considere la importancia de la moral en la toma de decisiones. Asimismo, el economista debería desarrollar su trabajo desde una perspectiva reflexiva y de diálogo con el resto de las ciencias sociales.
Resumo:
El área experimental está ubicada en el departamento de Boaco, municipio de San José de los Remate, finca La Primavera cuya ubicación es latitud norte 12°36'43" y longitud oeste 85° 44'07". El objetivo del presente estudio es determinar los factores de la RUSLE Y USLE durante la estación lluviosa del 2008, bajo diferentes sistemas de cubierta vegetal (Grama natural y Bosque nativo). Se estableció un experimento en bloques, con tres repeticiones y dos tratamientos. Cada parcela tiene una dimensión de 50 metros de largo y 15 metros de ancho para un área útil de 750 m2 con un área total por tratamiento de 2,250 m2. El estudio demuestra que las mayores pérdidas de suelo se dieron en las parcelas de Grama natural con un valor promedio de 0.229 t/ha y en las parcelas de Bosque nativo resultaron con pérdidas menores con 0.033t/ha. Además las pérdidas de suelos en todos los eventos fueron relativamente bajas en comparación a los niveles de tolerancia propuestos por Wischmeier y Smith, 1965-1978. Se utilizo la Ecuación Universal de Pérdida de Suelo (E.U.P.S) el cual está compuesta por un total de 6 parámetro como R = 516.48. MJmm/ha h, K = 0.34-0.63 t.ha.h/ha MJ mm, S = 1.6, L = 4.27 (USLE), L*S (0.34–0.39) (RUSLE), C = Grama natural 0.01 y Bosque nativo 0.001, P = no se asumió por no existir práctica.Para el análisis de la información; se utilizó como método estadístico T student con un grado de significancia del 95 % los efectos de las diferentes variables relacionada a los procesos de erosión del suelo y del escurrimiento superficial resultando no significativos entre modelos.
Resumo:
Resumen: En el marco de un proyecto de la Vicerrectoría de Investigaciones de la Universidad de Caldas denominado “Resignificación músico-pictórica del mito de la Salamanca” surgió la conveniencia de aplicar y diseñar programas de fundamentación matemática que permitieran definir la estructura y el tratamiento acústico de la obra especialmente escrita para este proyecto. Principalmente nos basamos en la implementación de la Transformada Rápida de Fourier (Fast Fourier Transform) para el análisis de espectros armónicos y su modificación en vivo y en la utilización de un entorno de programación para procesamiento de sonido en tiempo real. El marco general de la investigación parte del enfoque de Regionalismo Crítico procedente de las propuestas de Kenneth Frampton referentes originalmente a la crítica de la arquitectura. El planteamiento como investigación mutidisciplinaria implica (1) una visión crítica de la substancia mítica y social subyacente, (2) una resignificación pictórica por medio de fotografía, animación y pintura, basada en la sustancia visual que contiene el mito, (3) un enfoque musical electroacústico, a partir del material que surge del folklor local, utilizando la intervención de instrumentos en vivo y procesamiento en tiempo real.