867 resultados para Administração de crédito - Modelos matemáticos
Resumo:
Esta tese apresentada uma proposta de desenvolvimento de uma ferramenta computacional para metrologia com microtomografia computadorizada que possa ser implantada em sistemas de microtomógrafos convencionais. O estudo concentra-se nas diferentes técnicas de detecção de borda utilizadas em processamento de imagens digitais.Para compreender a viabilidade do desenvolvimento da ferramenta optou-se por utilizar o Matlab 2010a. A ferramenta computacional proposta é capaz de medir objetos circulares e retangulares. As medidas podem ser horizontais ou circulares, podendo ser realizada várias medidas de uma mesma imagem, uma medida de várias imagens ou várias medidas de várias imagens. As técnicas processamento de imagens digitais implementadas são a limiarização global com escolha do threshold manualmente baseado no histograma da imagem ou automaticamente pelo método de Otsu, os filtros de passa-alta no domínio do espaço Sobel, Prewitt, Roberts, LoG e Canny e medida entre os picos mais externos da 1 e 2 derivada da imagem. Os resultados foram validados através de comparação com os resultados de teste realizados pelo Laboratório de Ensaios Mecânicos e Metrologia (LEMec) do Intstituto Politécnico do Rio de Janeiro (IPRJ), Universidade do Estado do Rio de Janeiro (UERJ), Nova Friburdo- RJ e pelo Serviço Nacional da Indústria Nova Friburgo (SENAI/NF). Os resultados obtidos pela ferramenta computacional foram equivalentes aos obtidos com os instrumentos de medição utilizados, demonstrando à viabilidade de utilização da ferramenta computacional a metrologia.
Resumo:
No presente trabalho foram desenvolvidos modelos de classificação aplicados à mineração de dados climáticos para a previsão de eventos extremos de precipitação com uma hora de antecedência. Mais especificamente, foram utilizados dados observacionais registrados pela estação meteorológica de superfície localizada no Instituto Politécnico da Universidade do Estado do Rio de Janeiro em Nova Friburgo RJ, durante o período de 2008 a 2012. A partir desses dados foi aplicado o processo de Descoberta de Conhecimento em Banco de Dados (KDD Knowledge Discovery in Databases), composto das etapas de preparação, mineração e pós processamento dos dados. Com base no uso de algoritmos de Redes Neurais Artificiais e Árvores de Decisão para a extração de padrões que indicassem um acúmulo de precipitação maior que 10 mm na hora posterior à medição das variáveis climáticas, pôde-se notar que a utilização da observação meteorológica de micro escala para previsões de curto prazo é suscetível a altas taxas de alarmes falsos (falsos positivos). Para contornar este problema, foram utilizados dados históricos de previsões realizadas pelo Modelo Eta com resolução de 15 km, disponibilizados pelo Centro de Previsão de Tempo e Estudos Climáticos do Instituto Nacional de Pesquisas Espaciais CPTEC/INPE. De posse desses dados, foi possível calcular os índices de instabilidade relacionados à formação de situação convectiva severa na região de Nova Friburgo e então armazená-los de maneira estruturada em um banco de dados, realizando a união entre os registros de micro e meso escala. Os resultados demonstraram que a união entre as bases de dados foi de extrema importância para a redução dos índices de falsos positivos, sendo essa uma importante contribuição aos estudos meteorológicos realizados em estações meteorológicas de superfície. Por fim, o modelo com maior precisão foi utilizado para o desenvolvimento de um sistema de alertas em tempo real, que verifica, para a região estudada, a possibilidade de chuva maior que 10 mm na próxima hora.
Resumo:
Modelos de evolução populacional são há muito tempo assunto de grande relevância, principalmente quando a população de estudo é composta por vetores de doenças. Tal importância se deve ao fato de existirem milhares de doenças que são propagadas por espécies específicas e conhecer como tais populações se comportam é vital quando pretende-se criar políticas públicas para controlar a sua proliferação. Este trabalho descreve um problema de evolução populacional difusivo com armadilhas locais e tempo de reprodução atrasado, o problema direto descreve a densidade de uma população uma vez conhecidos os parâmetros do modelo onde sua solução é obtida por meio da técnica de transformada integral generalizada, uma técnica numérico-analítica. Porém a solução do problema direto, por si só, não permite a simulação computacional de uma população em uma aplicação prática, uma vez que os parâmetros do modelo variam de população para população e precisam, portanto, ter seus valores conhecidos. Com o objetivo de possibilitar esta caracterização, o presente trabalho propõe a formulação e solução do problema inverso, estimando os parâmetros do modelo a partir de dados da população utilizando para tal tarefa dois métodos Bayesianos.
Resumo:
Vários processos, como sorção, fotólise, hidrólise, oxidação-redução, degradação biológica, deriva, volatilização, lixiviação, carreamento superficial, determinam o comportamento e destino de um agrotóxico no ambiente. Como resultado da modelagem, modelos matemáticos são representações desses processos e podem ser apresentados como ferramentas computacionais (simuladores). Modelos de simulação do comportamento e destino ambiental de agrotóxicos podem ser mais efetivos quando acompanhados da visualização e da análise espacial proporcionada pela tecnologia de um sistema de informação geográfica ? SIG. As bases científicas e os avanços tecnológicos na modelagem ambiental de agrotóxicos são aqui sucintamente apresentados.
Resumo:
São apresentados dois modelos de regressão linear múltipla. O primeiro foi obtido para estimar a superfície específica (SE) de solos brasileiros tendo como variáveis independentes os conteúdos volumétricos de argila, areia, silte e carbono orgânico. Tomou-se o cuidado para que o modelo proposto respeitasse restrições físicas de positividade dos valores da superfície específica, impondo-se restrições na determinação dos coeficientes dos atributos do modelo. Posteriormente, determinou-se uma relação linear múltipla para estimar o logaritmo decimal do coeficiente de sorção de pesticidas (LogKd) por meio da superfície específica do solo, do coeficiente de partição entre o octanol e a água, da solubilidade aquosa do pesticida e do pH do solo. Os modelos ajustados explicam 82% e 78% da variabilidade das variáveis dependentes SE e LogKd, respectivamente. Foram utilizados dados de 307 perfis de solos para a determinação da relação entre a superfície específica e os atributos do solo e 118 valores de coeficientes de sorção medidos experimentalmente para 20 pesticidas em 46 dados de solos representativos do ambiente agrícola brasileiro. Todos os dados deste estudo foram coletados em trabalhos científicos publicados. Os modelos apresentados podem facilitar o trabalho da previsão da superfície específica de solos (SE) e do coeficiente de sorção de pesticidas (Kd), contribuindo na estimativa da concentração ambiental de pesticidas por modelos matemáticos ou por índices que usem esses parâmetros em seus cálculos.
Resumo:
O programa AGROSCRE foi elaborado para conferir agilidade da avaliação de modelos matemáticos screening, que auxiliam a análise do potencial de contaminação de agrotóxicos em água. Este trabalho apresenta o manual do usuário deste programa, possibilitando uma maior divulgação do uso dos modelos ?screening? e fomentando avaliações, cada vez mais fidedignas, da realidade local do ambiente de produção agrícola nacional, na medida em que os dados de entrada forem refinados. Foi desenvolvido em linguagem Quick Basic 4.5 e necessita de 11K de memória para ser utilizado em modo executável.
Resumo:
O manejo de ocmposto de lixo (CL) oferece um fertilizante alternativo na cana-de-açúcar (possui alto teor de matéria orgânica e nutrientes) e traz ainda uma solução social e ambiental. O objetivo deste estudo é o acompanhamento dos processos de crescimento, maturação e transferência de metais na cana-de-açúcar, afetados pela adição de CL, através de modelos matemáticos como ferramenta de apoio à decisão. Este estudo busca uma alternativa masi econômica ao produtor e uma solução governamental para disposição final sustentável do lixo urbano. O Modelo de Crescimento adaptado a esse estudo foi descrito por Teruel (1996), o qual demonstrou maior vigor vegetativo em cana adubada com CL suplementada com PK e nas dosagens 0 e 60 t.ha-1, e o Índice de área foliar (IAF) máximo atingido foi mais tardio na cana que recebeu tratamento com CL sem suplementação mineral. Para estudo da curva de maturação da cana-de-açúcar foi ajustado o modelo de Mitscherlich (Udo, 1983). Concluiu-se que houve uma influência da dose de CL no tempo em que a cana atinge o ter mínimo para industrialização (correlação negativa) e a resposta ótima da cultura em acumulação de açúcar ocorreu na combinação do CL com fertilizante P ou K. O modelo de transferência de metais pesados no sistema solo-cana, foi construído com base nos modelos compartimentais (solo, raiz e parte aérea). A translocação de metais foi grande para o cádmio, e a passagem de metais pesados para o caldo da cana foi baixa, não trazendo problemas à sua industrialização ou mesmo seu consumo in natura, quando adubada com as dosagens de CL testadas. Os três modelos utilizados nesse estudo mostraram ótimo ajuste e podem servir como base à formulação de normas de uso do CL, podendo estimar quantidades de cada metal em cada parte da planta nos diversos cenários estudados e predizer a resposta em crescimento e desenvolvimento da cana-de-açúcar.
Resumo:
Para muitos usuários, a programação visual é uma alternativa atrativa às linguagens de programação textuais. Uma das razões para esta atração é que a representação visual de um problema está muito mais próxima com a forma pela qual a solução é obtida ou entendida se comparada à representação textual. Este trabalho apresenta um modelo para a programação visual de matrizes baseado nos paradigmas de fluxo de dados e planilhas eletrônicas. O fluxo de dados e a planilha forma a base semântica da linguagem, enquanto as representações gráficas do grafo direcionado e de uma planilha fundamentam sua base sintática. Este modelo consiste em um conjunto de diagramas bidimensionais e de regras de transformação. Os processos são implementados como redes de fluxo de dados e os dados são representados por planilhas. As planilhas podem ser vistas como variáveis do tipo matriz que armazenam dados bidimensionais, ou como funções, que recebem e produzem valores utilizados por outros processos. Neste caso, as planilhas são programadas seguindo o paradigma de programação por demonstrações que incorporam um poderoso construtor de interação, reduzindo significativamente a utilização de recursos e repetições. O modelo proposto pode ser utilizado em diversos domínios de aplicação, principalmente para simplificar a construção de modelos matemáticos de simulação e análise estatística.
Resumo:
La matemática en el contexto de las ciencias es una línea de investigación que reflexiona acerca de la vinculación que debe existir entre la matemática y las ciencias que la requieren, está constituida por cuatro fases: la curricular, la didáctica, la epistemológica y la cognitiva. En este artículo se presenta la fase didáctica. Esta fase incluye una estrategia didáctica (denominada matemática en contexto)que presenta conocimientos integrados a los alumnos a partir de una situación problémica de otras disciplinas, que al tratar de resolverla el estudiante se encuentra con la necesidad de tener nuevos conocimientos, lo cual da apertura a que el estudiante esté interesado en otros tópicos matemáticos. Para lograr la vinculación de la matemática con otras ciencias se describe un proceso metodológico a través de seis de las etapas de la matemática en contexto. Con esta estrategia el modelar matemáticamente está presente todo el tiempo, por lo que se presentan los resultados de una investigación que caracteriza y clasifica a los modelos matemáticos. Asimismo, los modelos son un elemento común a la matemática en contexto y a la resolución de problemas, por lo que se muestran las diferencias sustancias entre ambas estrategias.
Resumo:
Este trabajo tiene como objetivo principal mostrar, a los estudiantes de los niveles superiores, los procedimientos principales de construcción de modelos matemáticos para resolver situaciones problemáticas que se manifiestan en la realidad cotidiana en el desarrollo de una determinada actividad profesional y como objetivo específico establecer alternativas de tarifas sociales con destino a núcleos de clientes perfectamente identificados en cuanto a su calidad, por su escasa capacidad de pago, y aproximadamente delimitados en cuanto a la cantidad. Bajo la denominación de tarifa social de cualquier servicio público se entiende a aquellas tarifas que, siguiendo distintos mecanismos, se subsidian implícita o explícitamente, parcial o totalmente, para beneficiar a ciertos sectores de usuarios con un determinado fin. Para tener una herramienta de análisis que permita simular distintas escenarios con el fin de fijar los subsidios a la tarifa de los clientes residenciales y tomar decisiones al respecto, se elaboró un modelo matemático que describe esta situación. Después del análisis de validación del modelo, mediante el trazado de superficies y curvas de nivel con la ayuda del medio lógico Derive, se realizó una simulación numérica a fin de acotar los resultados posibles que satisfagan los requerimientos impuestos por la situación problemática a resolver. Finalmente se concluye el trabajo con la especificación de la tarifa social buscada.
Resumo:
Aún si su trabajo parece no estar vinculado con la matemática, Mathematica puede ser de su interés. Con este recurso el arduo trabajo del cálculo -numérico o simbólico- resulta cosa del pasado, el desarrollo de materiales didácticos tiene nuevas y revolucionarias herramientas, las aplicaciones de modelos matemáticos pueden producir resultados sin ocuparse de la implementación computacional de complicados algoritmos matemáticos, en suma, con las computadoras y Mathematica se multiplican las capacidades para entender, desarrollar y aplicar las matemáticas y ciencias afines.
Resumo:
A presente tese resulta de um trabalho de investigação cujo objectivo se centrou no problema de localização-distribuição (PLD) que pretende abordar, de forma integrada, duas actividades logísticas intimamente relacionadas: a localização de equipamentos e a distribuição de produtos. O PLD, nomeadamente a sua modelação matemática, tem sido estudado na literatura, dando origem a diversas aproximações que resultam de diferentes cenários reais. Importa portanto agrupar as diferentes variantes por forma a facilitar e potenciar a sua investigação. Após fazer uma revisão e propor uma taxonomia dos modelos de localização-distribuição, este trabalho foca-se na resolução de alguns modelos considerados como mais representativos. É feita assim a análise de dois dos PLDs mais básicos (os problema capacitados com procura nos nós e nos arcos), sendo apresentadas, para ambos, propostas de resolução. Posteriormente, é abordada a localização-distribuição de serviços semiobnóxios. Este tipo de serviços, ainda que seja necessário e indispensável para o público em geral, dada a sua natureza, exerce um efeito desagradável sobre as comunidades contíguas. Assim, aos critérios tipicamente utilizados na tomada de decisão sobre a localização destes serviços (habitualmente a minimização de custo) é necessário adicionar preocupações que reflectem a manutenção da qualidade de vida das regiões que sofrem o impacto do resultado da referida decisão. A abordagem da localização-distribuição de serviços semiobnóxios requer portanto uma análise multi-objectivo. Esta análise pode ser feita com recurso a dois métodos distintos: não interactivos e interactivos. Ambos são abordados nesta tese, com novas propostas, sendo o método interactivo proposto aplicável a outros problemas de programação inteira mista multi-objectivo. Por último, é desenvolvida uma ferramenta de apoio à decisão para os problemas abordados nesta tese, sendo apresentada a metodologia adoptada e as suas principais funcionalidades. A ferramenta desenvolvida tem grandes preocupações com a interface de utilizador, visto ser direccionada para decisores que tipicamente não têm conhecimentos sobre os modelos matemáticos subjacentes a este tipo de problemas.
Resumo:
A relação entre a epidemiologia, a modelação matemática e as ferramentas computacionais permite construir e testar teorias sobre o desenvolvimento e combate de uma doença. Esta tese tem como motivação o estudo de modelos epidemiológicos aplicados a doenças infeciosas numa perspetiva de Controlo Ótimo, dando particular relevância ao Dengue. Sendo uma doença tropical e subtropical transmitida por mosquitos, afecta cerca de 100 milhões de pessoas por ano, e é considerada pela Organização Mundial de Saúde como uma grande preocupação para a saúde pública. Os modelos matemáticos desenvolvidos e testados neste trabalho, baseiam-se em equações diferenciais ordinárias que descrevem a dinâmica subjacente à doença nomeadamente a interação entre humanos e mosquitos. É feito um estudo analítico dos mesmos relativamente aos pontos de equilíbrio, sua estabilidade e número básico de reprodução. A propagação do Dengue pode ser atenuada através de medidas de controlo do vetor transmissor, tais como o uso de inseticidas específicos e campanhas educacionais. Como o desenvolvimento de uma potencial vacina tem sido uma aposta mundial recente, são propostos modelos baseados na simulação de um hipotético processo de vacinação numa população. Tendo por base a teoria de Controlo Ótimo, são analisadas as estratégias ótimas para o uso destes controlos e respetivas repercussões na redução/erradicação da doença aquando de um surto na população, considerando uma abordagem bioeconómica. Os problemas formulados são resolvidos numericamente usando métodos diretos e indiretos. Os primeiros discretizam o problema reformulando-o num problema de optimização não linear. Os métodos indiretos usam o Princípio do Máximo de Pontryagin como condição necessária para encontrar a curva ótima para o respetivo controlo. Nestas duas estratégias utilizam-se vários pacotes de software numérico. Ao longo deste trabalho, houve sempre um compromisso entre o realismo dos modelos epidemiológicos e a sua tratabilidade em termos matemáticos.
Resumo:
The exponential growth of the world population has led to an increase of settlements often located in areas prone to natural disasters, including earthquakes. Consequently, despite the important advances in the field of natural catastrophes modelling and risk mitigation actions, the overall human losses have continued to increase and unprecedented economic losses have been registered. In the research work presented herein, various areas of earthquake engineering and seismology are thoroughly investigated, and a case study application for mainland Portugal is performed. Seismic risk assessment is a critical link in the reduction of casualties and damages due to earthquakes. Recognition of this relation has led to a rapid rise in demand for accurate, reliable and flexible numerical tools and software. In the present work, an open-source platform for seismic hazard and risk assessment is developed. This software is capable of computing the distribution of losses or damage for an earthquake scenario (deterministic event-based) or earthquake losses due to all the possible seismic events that might occur within a region for a given interval of time (probabilistic event-based). This effort has been developed following an open and transparent philosophy and therefore, it is available to any individual or institution. The estimation of the seismic risk depends mainly on three components: seismic hazard, exposure and vulnerability. The latter component assumes special importance, as by intervening with appropriate retrofitting solutions, it may be possible to decrease directly the seismic risk. The employment of analytical methodologies is fundamental in the assessment of structural vulnerability, particularly in regions where post-earthquake building damage might not be available. Several common methodologies are investigated, and conclusions are yielded regarding the method that can provide an optimal balance between accuracy and computational effort. In addition, a simplified approach based on the displacement-based earthquake loss assessment (DBELA) is proposed, which allows for the rapid estimation of fragility curves, considering a wide spectrum of uncertainties. A novel vulnerability model for the reinforced concrete building stock in Portugal is proposed in this work, using statistical information collected from hundreds of real buildings. An analytical approach based on nonlinear time history analysis is adopted and the impact of a set of key parameters investigated, including the damage state criteria and the chosen intensity measure type. A comprehensive review of previous studies that contributed to the understanding of the seismic hazard and risk for Portugal is presented. An existing seismic source model was employed with recently proposed attenuation models to calculate probabilistic seismic hazard throughout the territory. The latter results are combined with information from the 2011 Building Census and the aforementioned vulnerability model to estimate economic loss maps for a return period of 475 years. These losses are disaggregated across the different building typologies and conclusions are yielded regarding the type of construction more vulnerable to seismic activity.
Resumo:
O transporte marítimo e o principal meio de transporte de mercadorias em todo o mundo. Combustíveis e produtos petrolíferos representam grande parte das mercadorias transportadas por via marítima. Sendo Cabo Verde um arquipelago o transporte por mar desempenha um papel de grande relevância na economia do país. Consideramos o problema da distribuicao de combustíveis em Cabo Verde, onde uma companhia e responsavel por coordenar a distribuicao de produtos petrolíferos com a gestão dos respetivos níveis armazenados em cada porto, de modo a satisfazer a procura dos varios produtos. O objetivo consiste em determinar políticas de distribuicão de combustíveis que minimizam o custo total de distribuiçao (transporte e operacões) enquanto os n íveis de armazenamento sao mantidos nos n íveis desejados. Por conveniencia, de acordo com o planeamento temporal, o prob¬lema e divido em dois sub-problemas interligados. Um de curto prazo e outro de medio prazo. Para o problema de curto prazo sao discutidos modelos matemáticos de programacao inteira mista, que consideram simultaneamente uma medicao temporal cont ínua e uma discreta de modo a modelar multiplas janelas temporais e taxas de consumo que variam diariamente. Os modelos sao fortalecidos com a inclusão de desigualdades validas. O problema e então resolvido usando um "software" comercial. Para o problema de medio prazo sao inicialmente discutidos e comparados varios modelos de programacao inteira mista para um horizonte temporal curto assumindo agora uma taxa de consumo constante, e sao introduzidas novas desigualdades validas. Com base no modelo escolhido sao compara¬das estrategias heurísticas que combinam três heur ísticas bem conhecidas: "Rolling Horizon", "Feasibility Pump" e "Local Branching", de modo a gerar boas soluçoes admissíveis para planeamentos com horizontes temporais de varios meses. Finalmente, de modo a lidar com situaçoes imprevistas, mas impor¬tantes no transporte marítimo, como as mas condicões meteorológicas e congestionamento dos portos, apresentamos um modelo estocastico para um problema de curto prazo, onde os tempos de viagens e os tempos de espera nos portos sao aleatórios. O problema e formulado como um modelo em duas etapas, onde na primeira etapa sao tomadas as decisões relativas as rotas do navio e quantidades a carregar e descarregar e na segunda etapa (designada por sub-problema) sao consideradas as decisoes (com recurso) relativas ao escalonamento das operacões. O problema e resolvido por um metodo de decomposto que usa um algoritmo eficiente para separar as desigualdades violadas no sub-problema.