959 resultados para Ajuste de modelos não lineares


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este artigo usa modelos lineares e não lineares de Índice de Difusão para prever, um período à frente, a taxa de crescimento trimestral do PIB agrícola brasileiro. Esses modelos são compostos de fatores comuns que permitem redução significativa do número de variáveis explicativas originais. Os resultados de eficiência preditiva apontam para uma superioridade das previsões geradas pelos modelos de Índice de Difusão sobre os modelos ARMA. Entre os modelos de Índice de Difusão, o modelo não linear com efeito threshold superou os resultados do modelo linear e do modelo AR.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As medidas de amplitude, polarização e vagarosidade contem informações sobre o meio onde a propagação de onda ocorre. Esta tese investiga esses dados com objetivo de estimar as propriedades elásticas deste meio. Coeficientes de reflexão podem ser estimados das amplitudes dos dados e dependem de forma não linear dos contrastes dos parâmetros elásticos e do contraste de densidade entre os meios separados por uma interface. Quando o contraste de impedância é fraco, as aproximações lineares para a refletividade qP são mais convenientes para inversão da densidade e dos parâmetros elásticos usando as análises de amplitude versus ângulo de incidência (AVO) e amplitude versus a direção do plano de incidência (AVD). Escrevendo as equações de Zoepprittz de forma separada nos permite escrever uma solução destas equações em termos das matrizes de impedância e polarização. Usando esta solução são determinadas aproximações lineares para a refletividade da onda qP considerando fraco contraste de impedância, fraca anisotropia mas com classe de simetria de arbitrária. As linearizações são avaliadas para diferentes geometrias de aquisição e várias escolhas do meio de referência. Estas aproximações apresentam bom desempenho comparado com o valor exato do coeficiente de reflexão da onda qP e de suas ondas convertidas para incidências de até 30° e meios que obedecem à hipótese de fraca anisotropia. Um conjunto de fraturas orientado é representado efetivamente por um meio transversalmente isotrópico (TI), as aproximações lineares da refletividade da onda qP podem ser usadas para estimar a orientação de fratura. Partindo deste pressuposto este problema consiste em estimar a orientação do eixo de simetria a partir de dados de refletividade de onda qP. Este trabalho mostra que são necessários múltiplos azimutes e múltiplas incidências para se obter uma estimativa estável. Também é mostrado que apenas os coeficientes das ondas qS e qT são sensíveis ao mergulho da fratura. Foi investigada a estimativa da anisotropia local através de dados de VSP multiazimutal dos vetores de polarização e vagarosidade. Foram usadas medidas da componente vertical do vetor de vagarosidade e o vetor de polarização de ondas qP diretas e refletidas. O esquema de inversão é validado através de exemplos sintéticos considerando diferentes escolhas do vetor normal à frente de onda no meio de referência, meios de referências e geometria de aquisição. Esta análise mostra que somente um subgrupo dos parâmetros elástico pode ser estimado. Uma importante aplicação desta metodologia é o seu potencial para a determinação de classes de anisotropia. A aplicação desta metodologia aos dados do mar de Java mostra que os modelos isotrópicos e TIV são inadequados para o ajuste desses dados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O uso da técnica da camada equivalente na interpolação de dados de campo potencial permite levar em consideração que a anomalia, gravimétrica ou magnética, a ser interpolada é uma função harmônica. Entretanto, esta técnica tem aplicação computacional restrita aos levantamentos com pequeno número de dados, uma vez que ela exige a solução de um problema de mínimos quadrados com ordem igual a este número. Para viabilizar a aplicação da técnica da camada equivalente aos levantamentos com grande número de dados, nós desenvolvemos o conceito de observações equivalentes e o método EGTG, que, respectivamente, diminui a demanda em memória do computador e otimiza as avaliações dos produtos internos inerentes à solução dos problemas de mínimos quadrados. Basicamente, o conceito de observações equivalentes consiste em selecionar algumas observações, entre todas as observações originais, tais que o ajuste por mínimos quadrados, que ajusta as observações selecionadas, ajusta automaticamente (dentro de um critério de tolerância pré-estabelecido) todas as demais que não foram escolhidas. As observações selecionadas são denominadas observações equivalentes e as restantes são denominadas observações redundantes. Isto corresponde a partir o sistema linear original em dois sistemas lineares com ordens menores. O primeiro com apenas as observações equivalentes e o segundo apenas com as observações redundantes, de tal forma que a solução de mínimos quadrados, obtida a partir do primeiro sistema linear, é também a solução do segundo sistema. Este procedimento possibilita ajustar todos os dados amostrados usando apenas as observações equivalentes (e não todas as observações originais) o que reduz a quantidade de operações e a utilização de memória pelo computador. O método EGTG consiste, primeiramente, em identificar o produto interno como sendo uma integração discreta de uma integral analítica conhecida e, em seguida, em substituir a integração discreta pela avaliação do resultado da integral analítica. Este método deve ser aplicado quando a avaliação da integral analítica exigir menor quantidade de cálculos do que a exigida para computar a avaliação da integral discreta. Para determinar as observações equivalentes, nós desenvolvemos dois algoritmos iterativos denominados DOE e DOEg. O primeiro algoritmo identifica as observações equivalentes do sistema linear como um todo, enquanto que o segundo as identifica em subsistemas disjuntos do sistema linear original. Cada iteração do algoritmo DOEg consiste de uma aplicação do algoritmo DOE em uma partição do sistema linear original. Na interpolação, o algoritmo DOE fornece uma superfície interpoladora que ajusta todos os dados permitindo a interpolação na forma global. O algoritmo DOEg, por outro lado, otimiza a interpolação na forma local uma vez que ele emprega somente as observações equivalentes, em contraste com os algoritmos existentes para a interpolação local que empregam todas as observações. Os métodos de interpolação utilizando a técnica da camada equivalente e o método da mínima curvatura foram comparados quanto às suas capacidades de recuperar os valores verdadeiros da anomalia durante o processo de interpolação. Os testes utilizaram dados sintéticos (produzidos por modelos de fontes prismáticas) a partir dos quais os valores interpolados sobre a malha regular foram obtidos. Estes valores interpolados foram comparados com os valores teóricos, calculados a partir do modelo de fontes sobre a mesma malha, permitindo avaliar a eficiência do método de interpolação em recuperar os verdadeiros valores da anomalia. Em todos os testes realizados o método da camada equivalente recuperou mais fielmente o valor verdadeiro da anomalia do que o método da mínima curvatura. Particularmente em situações de sub-amostragem, o método da mínima curvatura se mostrou incapaz de recuperar o valor verdadeiro da anomalia nos lugares em que ela apresentou curvaturas mais pronunciadas. Para dados adquiridos em níveis diferentes o método da mínima curvatura apresentou o seu pior desempenho, ao contrário do método da camada equivalente que realizou, simultaneamente, a interpolação e o nivelamento. Utilizando o algoritmo DOE foi possível aplicar a técnica da camada equivalente na interpolação (na forma global) dos 3137 dados de anomalia ar-livre de parte do levantamento marinho Equant-2 e 4941 dados de anomalia magnética de campo total de parte do levantamento aeromagnético Carauari-Norte. Os números de observações equivalentes identificados em cada caso foram, respectivamente, iguais a 294 e 299. Utilizando o algoritmo DOEg nós otimizamos a interpolação (na forma local) da totalidade dos dados de ambos os levantamentos citados. Todas as interpolações realizadas não seriam possíveis sem a aplicação do conceito de observações equivalentes. A proporção entre o tempo de CPU (rodando os programas no mesmo espaço de memória) gasto pelo método da mínima curvatura e pela camada equivalente (interpolação global) foi de 1:31. Esta razão para a interpolação local foi praticamente de 1:1.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste trabalho, foi realizado um estudo de mapeamento de áreas de incidência e previsões para os casos de dengue na área urbana de Belém. Para as previsões foi utilizada à incidência de dengue com a precipitação pluviométrica a partir de modelos estatísticos, baseados na metodologia de Box e Jenkins de series temporais. O período do estudo foi de 05 anos (2007-2011). Na pesquisa temos métodos multivariados de series temporais, com uso de função de transferência e modelos espaciais, em que se analisou a existência de autocorrelações espaciais na variável em estudo. Os resultados das análises dos dados de incidência de casos de dengue e precipitação mostraram que, o aumento no número de casos de dengue acompanha o aumento na precipitação, demonstrando a relação direta entre o número de casos de dengue e a precipitação nos anos em estudo. O modelo de previsão construído para a incidência de casos de dengue apresentou um bom ajuste com resultados satisfatórios podendo, neste caso, ser utilizado na previsão da dengue. Em relação à análise espacial, foi possível uma visualização da incidência de casos na área urbana de Belém, com as respectivas áreas de incidência, mostrando os níveis de significância em porcentagem. Para o período estudado observou-se o comportamento e as variações dos casos de dengue, com destaque para quatro bairros: Marco, Guamá, Pedreira e Tapanã, com possíveis influências destes bairros nas áreas (bairros) vizinhas. Portanto, o presente estudo evidencia a contribuição para o planejamento das ações de controle da dengue, ao servir de instrumento no apoio às decisões na área de saúde pública.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O G.fast é um novo padrão da União Internacional de Telecomunicações que almeja atingir 1 Gb/s sobre enlaces de cobre curtos, utilizando freqüências de até 212 MHz. Essa nova tecnologia requer modelos paramétricos precisos de cabo para fins de projeto, simulação e testes de avaliação de desempenho. A maioria dos modelos de cabo de cobre foram desenvolvidos focando o espectro VDSL - isto é, freqüências de até 30 MHz - e adotam suposições que são violadas quando a faixa de freqüência é estendida para freqüências G.fast. Esta tese apresenta novos modelos de cabo simples e causais capazes de caracterizar com precisão enlaces de cobre compostos por segmentos individuais ou múltiplos, tanto no domínio do tempo quanto no domínio da freqüência. Resultados utilizando as topologias de referência do padrão G.fast mostram que, além de serem precisos, os novos modelos são atrativos devido ao baixo custo computacional e fórmulas fechadas para ajuste de seus parâmetros junto a dados medidos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The study of mathematical modeling assists in evaluation of the capacity of production and measurement of generation time of biogas in landfills, enabling the implantation of projects of energy generation from methane. Thus, the work aims, by simulating scenarios of potential methane generation in the landfill in Rio Claro, the use of field data from methane flow and waste grounded parameters as references for selecting values of k e L0 used to estimate methane generation model in LandGEM. As a result it was found that compared the characteristics adopted in the four scenarios recommended by the USEPA literature with those found in the landfill of Rio Claro (high amount of organic matter in the waste landed and daily practice of leachate recirculation), the scenario that apparently better represent the rate of methane generation is the scenario 01, with k = 0.7 and L0 = 96. Now, the adjustment of parameters in relation to the data field of methane flow, the value of L0 which best fits the methane generation from the landfill in Rio Claro is 150, while for k the line behavior that best represents the reality are values between 0.7 and 0.3. Regarding the parameters of the waste grounded, between the suggested values of k, 0,3 is most consistent with the intermediate level of biological degradation of the residue grounded, while L0 due to the biodegradability of the waste, a new value between 120 and 150 may be more appropriate for the study

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In hospitals, health professionals may face different situations and problems. By following them, it is remarkable that one of the difficulties is related to the support provided by the facilities to carry out their work. This also affects the quality of treatment offered to patients. One of the points of improvement that could be studied is hospital beds. The Fawler's simplest hospital bed type, used in most Brazilian public hospitals, is designed with an ergonomic average height that offers a default position for analysis and treatment of patients. There is no possibility of adjusting the height of those beds, and hence there is a limitation in this regard since that height is fixed, but the physical structures of the workers and patients may vary widely and there may be a conflict when there are people too large or small involved in this process. Beyond that, studies by experts show that beds with height adjustment decreases the muscular effort and improve the movement quality of the spine of nursing staff, reducing the force on certain vertebrae and also the ergonomic risk. Of course, patient comfort is also affected accordingly. As the beds made with height adjustment are very expensive, this study aims to design a device to adapt the not adjustable beds. The project must be viable from an economic and mechanic standpoint, being able to adapt both old and new simplest Fawler hospital bed models, since their dimensions are similar. The final result shows that it is possible to adapt such beds using the designed concept at a viable cost. Furthermore, this concept could be applied in other bed types or objects that have hollow feet

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The friction phenomena is present in mechanical systems with two surfaces that are in contact, which can cause serious damage to structures. Your understanding in many dynamic problems became the target of research due to its nonlinear behavior. It is necessary to know and thoroughly study each existing friction model found in the literature and nonlinear methods to define what will be the most appropriate to the problem in question. One of the most famous friction model is the Coulomb Friction, which is considered in the studied problems in the French research center Laboratoire de Mécanique des Structures et des Systèmes Couplés (LMSSC), where this search began. Regarding the resolution methods, the Harmonic Balance Method is generally used. To expand the knowledge about the friction models and the nonlinear methods, a study was carried out to identify and study potential methodologies that can be applied in the existing research lines in LMSSC and then obtain better final results. The identified friction models are divided into static and dynamic. Static models can be Classical Models, Karnopp Model and Armstrong Model. The dynamic models are Dahl Model, Bliman and Sorine Model and LuGre Model. Concerning about nonlinear methods, we study the Temporal Methods and Approximate Methods. The friction models analyzed with the help of Matlab software are verified from studies in the literature demonstrating the effectiveness of the developed programming

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)