1000 resultados para Modelagem matemática.


Relevância:

40.00% 40.00%

Publicador:

Resumo:

Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)

Relevância:

40.00% 40.00%

Publicador:

Resumo:

In this article we present a theoretical study on possible intersections between MathematicalModeling and Projects regarding mathematics classes. Thus, we report a brief historical perspectiveon the use of Projects within the educational context. We also present a variety of conceptionsand meanings of the words Projects and Modeling. We found that, regarding the conception ofModeling assumed, there are intersections with the elements that form the idea of Projects. Theliterature then shows that essential aspects for the development of a Project are present when oneworks with Modeling. At this intersection, Modeling Projects can be elaborated.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Dissertação (mestrado)—Universidade de Brasília, Faculdade UnB Gama, Faculdade de Tecnologia, Programa de Pós-graduação em Integridade de Materiais da Engenharia, 2016.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Um algoritmo numérico foi criado para apresentar a solução da conversão termoquímica de um combustível sólido. O mesmo foi criado de forma a ser flexível e dependente do mecanismo de reação a ser representado. Para tanto, um sistema das equações características desse tipo de problema foi resolvido através de um método iterativo unido a matemática simbólica. Em função de não linearidades nas equações e por se tratar de pequenas partículas, será aplicado o método de Newton para reduzir o sistema de equações diferenciais parciais (EDP’s) para um sistema de equações diferenciais ordinárias (EDO’s). Tal processo redução é baseado na união desse método iterativo à diferenciação numérica, pois consegue incorporar nas EDO’s resultantes funções analíticas. O modelo reduzido será solucionado numericamente usando-se a técnica do gradiente bi-conjugado (BCG). Tal modelo promete ter taxa de convergência alta, se utilizando de um número baixo de iterações, além de apresentar alta velocidade na apresentação das soluções do novo sistema linear gerado. Além disso, o algoritmo se mostra independente do tamanho da malha constituidora. Para a validação, a massa normalizada será calculada e comparada com valores experimentais de termogravimetria encontrados na literatura, , e um teste com um mecanismo simplificado de reação será realizado.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A criação de unidades de conservação tem sido a principal estratégia para preservar a biodiversidade. O recente emprego de técnicas como o sensoriamento remoto e a otimização matemática, aliados a dados biológicos, ajudam a definir as áreas prioritárias para conservação, indicando a representação máxima da biodiversidade com base em medidas de complementaridade. O presente trabalho objetivou selecionar áreas de interesse ecológico, com base na heterogeneidade de hábitats, através da integração de imagens de satélite com dados biológicos, em Cocalinho, MT. As 66 parcelas quadradas estabelecidas foram comparadas com base na heterogeneidade e na representatividade mínima (ha) dos ambientes em cada parcela, através do programa SITES. O parque de cerrado é a fitofisionomia predominante em Cocalinho (38,44%). A região central do município concentrou o maior agrupamento de parcelas, indicando a maior heterogeneidade de hábitats do local. Oficialmente, 6% da área total do município estão protegidos em duas unidades de conservação na categoria de Refúgios de Vida Silvestre. Esses refúgios foram demarcados em locais com cobertura vegetal homogênea e sem considerar a composição faunística e florística. O modelo usado neste estudo pode ser uma boa abordagem a ser empregada no processo de indicação de novas unidades de conservação no bioma Cerrado ou em outros biomas do Brasil.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A modelagem baseada no indivíduo tem sido crescentemente empregada para analisar processos ecológicos, desenvolver e avaliar teorias, bem como para fins de manejo da vida silvestre e conservação. Os modelos baseados no indivíduo (MBI) são bastante flexíveis, permitem o uso detalhado de parâmetros com maior significado biológico, sendo portanto mais realistas do que modelos populacionais clássicos, mais presos dentro de um rígido formalismo matemático. O presente artigo apresenta e discute sete razões para a adoção dos MBI em estudos de simulação na Ecologia: (1) a inerente complexidade de sistemas ecológicos, impassíveis de uma análise matemática formal; (2) processos populacionais são fenômenos emergentes, resultando das interações entre seus elementos constituintes (indivíduos) e destes com o meio; (3) poder de predição; (4) a adoção definitiva, por parte da Ecologia, de uma visão evolutiva; (5) indivíduos são entidades discretas; (6) interações são localizadas no espaço e (7) indivíduos diferem entre si.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Um dos modos de avaliar a confiabilidade de um produto é verificando o comportamento das falhas em testes de uso contínuo. Contudo, essa informação não permite saber em que data a falha ocorrerá. Para resolver esse impasse abordamos na presente dissertação a modelagem dos tempos de falha ao longo do calendário. A modelagem desses tempos permite uma melhor administração do sistema de garantia e assistência técnica, além de possibilitar a empresa estimar e monitorar a confiabilidade do produto. Para proceder com a modelagem, é preciso, inicialmente, conhecer a distribuição de três variáveis: o tempo de vida do produto, em horas de uso contínuo; o tempo de uso do produto, em horas por dia; e o intervalo de tempo entre a manufatura e a venda, em dias. Conhecendo o comportamento dessa variáveis duas alternativas de solução são apresentadas: (a) Modelagem via simulação de Monte Carlo e (b) Modelagem através de solução matemática fechada. São discutidos os casos em que há um ou vários grupos de clientes que utilizam o produto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Há aproximadamente meio século, as praias situadas a sotamar do Porto do Mucuripe, em Fortaleza, vem sofrendo intensos processos erosivos, creditados em grande parte à construção e ampliação deste porto. O fato é que o acentuado crescimento urbano da capital cearense ocasionou a fixação de dunas e a quebra do fluxo longitudinal de sedimentos em seu litoral, resultando no recuo da linha de costa e na necessidade de intervenção antrópica por meio de obras rígidas que viessem a garantir a preservação da infra-estrutura existente nos trechos mais afetados. Como conseqüência da fixação das praias, o suprimento de material sedimentar passou a ficar retido, enquanto que o potencial de transporte das ondas se preservou. A quebra deste equilíbrio dinâmico acarretou a transferência dos processos erosivos para as praias adjacentes, o que tornou-se um problema cada vez maior, pois as soluções adotadas nestas praias eram idênticas às anteriores. As conseqüências deste processo para uma cidade como Fortaleza, onde o turismo é uma das principais fontes de renda, são graves, dado que como resultado final, encontramos longos trechos de praias com a balneabilidade comprometida e perda de qualidade visual. O litoral situado a oeste da capital é limitado à direita pela foz do Rio Ceará e à esquerda por um promontório rochoso, onde situa-se a Ponta do Pecém. Este trecho compreende aproximadamente 30 km de praias arenosas, com granulometria média e fina, e com ondas incidindo sobre a costa de forma obliqua, o que as torna o principal mecanismo de transporte de sedimentos. A ocupação urbana concentra-se principalmente nas praias mais próximas a Fortaleza, onde observa-se ainda, o afloramento de rochas de praia e grande perda de material sedimentar, fornecendo indícios da transferência dos processos erosivos da orla marítima da capital para estas praias. Com a conclusão das obras do Porto do Pecém e de um pólo industrial que visa desfrutar da localização estratégica deste porto, é natural que ocorra uma intensificação nos processos de ocupação urbana das praias próximas à área. Tal constatação motivou um trabalho de modelagem da dinâmica desta zona com o objetivo de nortear um plano de uso e ocupação das áreas localizadas próximas à praia, de forma que se possa prever o comportamento da linha de costa e evitar que sejam repetidos certos equívocos como a construção em zonas de forte dinâmica e a fixação das fontes primárias de fornecimento de sedimentos, que são as dunas frontais. Dada a disponibilidade de dados, bons processadores e aos custos significativamente reduzidos da modelagem numérica, adotou-se o pacote GENESIS – RCPWAVE, que além de ser de domínio público, é a base do sistema de modelagem de linha de costa adotado pelo CERC (Coastal Engineering Research Center), U.S.A., para aplicações em costa aberta, em regiões sujeitas às intervenções humanas. A calibração do modelo se fez considerando as linhas de praia medidas em 1974 pela DHN e em 2001 com o uso de GPS. Os dados de onda utilizados foram obtidos por um ondógrafo direcional do tipo Waverider, instalado a uma profundidade de 18 metros nas proximidades da Ponta do Pecém. Os dados relativos ao modelo conceitual dos processos predominantes na região, como: contribuições externas, variação granulométrica e variações sazonais de perfis foram obtidos de levantamentos bibliográficos de trabalhos anteriores. Por último, informações relativas às estruturas existentes e seu comportamento, ao afloramento de formações rochosas e o último levantamento da linha de praia, foram obtidas através de trabalhos de campo. De uma forma geral, o comportamento previsto pelo modelo mostrou-se semelhante ao observado nos diferentes levantamentos. Considerando-se as limitações dos processos envolvidos no levantamento de dados, onde tanto a carta da DHN quanto o mapeamento por satélite estão sujeitos a imprecisões e ainda, que a série de dados confiáveis de ondas para a região possuía apenas dois anos, é importante notar que, em linhas gerais, a formulação matemática do modelo representou satisfatoriamente os processos envolvidos. Os resultados fornecidos possibilitam a extrapolação da evolução da linha de costa e indicam pontos de provável recuo ou avanço da praia, norteando a sua ocupação. A ferramenta gerada proporciona ainda a avaliação do impacto de intervenções por meio de estruturas rígidas ou engordamento de praia ao longo do tempo e gera uma estimativa dos valores de deriva litorânea para os diferentes trechos de praia, possibilitando avaliar os efeitos das intervenções nas praias adjacentes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo desta dissertação é o estudo da utilização da modelagem quantitativa para apoio às decisões na gestão de operações. Através da apresentação de casos práticos (Sadia, AMO e Philips), conclui-se que a aplicação dos conceitos de Pesquisa Operacional, além de auxiliar significativamente nas tomadas de decisões na produção, pode levar a excelentes resultados financeiros para uma empresa.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste trabalho é proposto um modelo de construção de superfície de volatilidade de opções pouco líquidas de ações listadas em bolsa. O modelo é uma função matemática que transforma a superfície de volatilidade de uma opção líquida de ação em uma superfície de volatilidade de opção pouco líquida de ação. O modelo apresenta alta sensibilidade em relação aos parâmetros da função matemática utilizada. Logo, podem ser obtidos resultados bem distintos, caso se utilize, por exemplo, a superfície de opção de Ibovespa ou de Vale como possíveis parâmetros da função. Neste caso, também é proposta uma metodologia para a decisão sobre a escolha do parâmetro de volatilidade mais adequado, tomando-se por base um backtest das diferenças observadas entre volatilidade realizada e proposta. A principal hipótese assumida no modelo é que a diferença calculada entre a volatilidade implícita da opção e a volatilidade histórica de seu ativo-objeto é uma medida que possui proporção entre mesmas medidas de todos os ativos-objetos. Assim, se conhecidas essa medida e a volatilidade histórica de um determinado ativo-objeto, calcula-se a volatilidade “implícita” da opção desse mesmo ativo-objeto. Assim como a incerteza relacionada à hipótese descrita acima, existem outras relacionadas à seleção de parâmetros no modelo e à própria iliquidez da opção e de seu ativo-objeto. O impacto dessas incertezas reflete-se no resultado financeiro da opção. Assim, propõe-se um modelo de gestão financeira conservadora baseada em reserva de resultado financeiro como provisão dessas incertezas. Neste trabalho, apresentam-se testes para algumas opções, mostrando as provisões hipoteticamente necessárias em termos de vegas das opções para cada subjacente.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A teoria do custo padrão ressente-se de um tratamento matemático, como o que aqui é proposto. Conforme foi salientado no início, este tratamento matemático, embora substancialmente simples, é todavia absolutamente rigoroso e também é completo quando visto do prisma que se adotou. Modelamos a distinção necessariamente explícita entre a produção contínua e a produção descreta, através do uso dos modelos algébricos a dois e três fatores, respectivamente. Unificamos de uma maneira sitemática a abordagem dos três elementos básicos do custo, simplificando de um lado e generalizando do outro. Esta unificação levou aos elementos diretos também, como deve ser, todo o rigorismo analítico do elemento indireto. Ampliou-see a estreita visão das variações de preço e quantidade com a consideração da variação de unidades, qua acarretou automaticamente a substituição do conceito de variação total pelo de variação total orçamentária. A modelagem algébrica não tem a vantagem da visualidade que a modelagem gráfica oferece, mas tem, por outro lado, a superioridade que a generalização apresente. Com efeito, foi a generalização das definições das variações que permitiu os resultados obtidos, aqui resumidos. Mas as razões do método gráfico são também apreciáveis.Assim, o desdobramento da variação total em variação de preço e variação de quantidade é ainda mais ressaltada pelo método gráfico, no qual se vê a variação de quantidade como o resultado de um deslocamento horizontal do ponto cuja abcissa é a quantidade e cuja ordenada é o custo total. Também a variação de preço lá aparece como o resultado da variação do coeficiente angular da reta do custo. Implicando em um deslocamento do ponto representativo da produção. Graficamente também se vê a análise das variações de preço e quantidade nas suas componentes pura e mista.Finalmente os modelos tabulares para os sistemas de produção discreto e contínuo apresentam da maneira mais simples possível todas as variações e seus respectivos custos analisadores. A forma tabular é a mais apreciada pelo administrador prático, pouco efeito à algebra e a geometria. Já o mesmo não se pode dizer do desdobramento, feito por muitos autores, da variação de preço em variação de capacidade e variação de orçamento. Da variação de capacidade já se evidenciou a inadequação do nome, dado que ela não é função da variação de preço. Isto não é mera questão teminológica. A terminologia apenas traz à luz a essência da dificuldade. E nossa proposição que este desdobramento seja descartado por ser totalmente sem significação, mesmo para o elemento indireto, para o qual foi proposto. Esta consideração é importante para a consideração da variação das unidades. Assim, introduzido o orçamento na análise das variaçãoes, a variação de orçamento que verdadeiramente merece este nome é a variação total orçamentária, ou seja, a diferença entre o custo efetivo e o custo orçado, a qual inclui como suas componentes a variação de unidades, a variação da quantidade e a variação de preço. O que é importante na análise da variação de preço é a consideração de variação mista de preço e de quantidade. Foi dado bastante destaque a este desdobramento com a apresentação de mais de um método para o tratamento analítico do desdobramento. Também foi devidamente ressaltada a questão das responsabilidades administrativas derivadas da variação mista

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this Thesis, the development of the dynamic model of multirotor unmanned aerial vehicle with vertical takeoff and landing characteristics, considering input nonlinearities and a full state robust backstepping controller are presented. The dynamic model is expressed using the Newton-Euler laws, aiming to obtain a better mathematical representation of the mechanical system for system analysis and control design, not only when it is hovering, but also when it is taking-off, or landing, or flying to perform a task. The input nonlinearities are the deadzone and saturation, where the gravitational effect and the inherent physical constrains of the rotors are related and addressed. The experimental multirotor aerial vehicle is equipped with an inertial measurement unit and a sonar sensor, which appropriately provides measurements of attitude and altitude. A real-time attitude estimation scheme based on the extended Kalman filter using quaternions was developed. Then, for robustness analysis, sensors were modeled as the ideal value with addition of an unknown bias and unknown white noise. The bounded robust attitude/altitude controller were derived based on globally uniformly practically asymptotically stable for real systems, that remains globally uniformly asymptotically stable if and only if their solutions are globally uniformly bounded, dealing with convergence and stability into a ball of the state space with non-null radius, under some assumptions. The Lyapunov analysis technique was used to prove the stability of the closed-loop system, compute bounds on control gains and guaranteeing desired bounds on attitude dynamics tracking errors in the presence of measurement disturbances. The controller laws were tested in numerical simulations and in an experimental hexarotor, developed at the UFRN Robotics Laboratory

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Digital Elevation Models (DEM) are numerical representations of a portion of the earth surface. Among several factors which affect the quality of a DEM, it should be emphasized the attention on the input data and the choice of the interpolating algorithm. On the other hand, several numerical models are used nowadays to characterize nearshore hydrodynamics and morphological changes in coastal areas, whose validation is based on field data collection. Independent on the complexity of the physical processes which are modeled, little attention has been given to the intrinsic bathymetric interpolation built within the numerical models of the specific application. Therefore, this study aims to investigate and to quantify the influence of the bathymetry, as obtained by a DEM, on the hydrodynamic circulation model at a coastal stretch, off the coast of the State of Rio Grande do Norte, Northeast Brazil. This coastal region is characterized by strong hydrodynamic and littoral processes, resulting in a very dynamic morphology with shallow coastal bathymetry. Important economic activities, such as oil exploitation and production, fisheries, salt ponds, shrimp farms and tourism, also bring impacts upon the local ecosystems and influence themselves the local hydrodynamics. This fact makes the region one of the most important for the development of the State, but also enhances the possibility of serious environmental accidents. As a hydrodynamic model, SisBaHiA® - Environmental Hydrodynamics System ( Sistema Básico de Hidrodinâmica Ambiental ) was chosen, for it has been successfully employed at several locations along the Brazilian coast. This model was developed at the Coastal and Oceanographical Engineering Group of the Ocean Engineering Program at the Federal University of Rio de Janeiro. Several interpolating methods were tested for the construction of the DEM, namely Natural Neighbor, Kriging, Triangulation with Linear Interpolation, Inverse Distance to a Power, Nearest Neighbor, and Minimum Curvature, all implemented within the software Surfer®. The bathymetry which was used as reference for the DEM was obtained from nautical charts provided by the Brazilian Hydrographic Service of the Brazilian Navy and from a field survey conducted in 2005. Changes in flow velocity and free surface elevation were evaluated under three aspects: a spatial vision along three profiles perpendicular to the coast and one profile longitudinal to the coast as shown; a temporal vision from three central nodes of the grid during 30 days; a hodograph analysis of components of speed in U and V, by different tidal cycles. Small, but negligible, variations in sea surface elevation were identified. However, the differences in flow and direction of velocities were significant, depending on the DEM

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In order to learn/teach chemistry some themes are relevant, like the stoichiometry, which consists in the study of the weight ratios in the combination of elements and compounds between themselves. This is an underlying subject in the understanding/representation/forethought of chemical reactions. Considering these aspects, our study presents a modeling-based proposal to develop the content of stoichiometry with prospective chemistry teachers. With this aim, we have made a review of literature, which we considered when tried to identify the learning difficulties using both quizzes and pedagogical tests, and then, from those difficulties we could propose a teaching unit for this concept and, consequently the evaluation of our proposal. The participants were chemistry undergraduates at the Universidade Federal do Rio Grande do Norte (UFRN) from assorted levels. As a methodological framework, we rely on the discursive textual analysis to characterize the speech of participants. As main results we observed ideas of appearance or disappearance of matter during chemical transformations, disregard of stoichiometric proportions when using drawings to represent the microscopic level of a reaction and confusion between the magnitude amount of matter and other magnitudes such as mass and volume. The final product is a sequence of instruction, based on the modeling previous research literature , with the goal of improving students ability to articulate the macroscopic and submicroscopic levels of representation of the matter