958 resultados para Análise não linear de estruturas
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
From the characterization of biophysical attributes of the watershed (slope, soil types, capacity to land use and land cover), this article, used the multi-criteria analysis method – Weighted Linear Combination, defined priority areas for adaptation to the use of land as to its capacity of use. With this methodological approach, were created for the watershed under study, four classes, formed by different combinations of biophysical attributes (discrete data), representing levels of priorities for agricultural land use. The Multicriteria Evaluation in a GIS is suitable for the mapping of priority areas to the suitability of land use in watersheds. The geospatial information on the biophysical environment, generated from the methodological procedures described in this article, has a high positive potential to guide the rational planning of the use of natural resources and territorial occupation, besides serving as a powerful instrument to guide policies and collective processes of decision on the use and land cover.
Resumo:
INTRODUÇÃO: As modificações da frequência cardíaca (FC) durante a transição repouso-exercício podem ser caracterizadas por meio da aplicação de cálculos matemáticos simples, como: deltas 0-10 e 0-30s para inferir sobre o sistema nervoso parassimpático, e delta e regressão linear aplicados no intervalo 60-240s para inferir sobre o sistema nervoso simpático. Assim, o objetivo deste estudo foi testar a hipótese de que indivíduos jovens e de meia-idade apresentam diferentes respostas da FC em exercício de intensidade moderada e intensa, com diferentes cálculos matemáticos. MÉTODOS: Homens aparentemente saudáveis, sendo sete de meia-idade e 10 jovens, foram submetidos a testes de carga constante de intensidade moderada e intensa. Foram calculados os deltas da FC nos períodos de 0-10s, 0-30s e 60-240s e a regressão linear simples no período de 60 a 240s. Os parâmetros obtidos na análise de regressão linear simples foram: intercepto e inclinação angular. Utilizou-se o teste Shapiro-Wilk para verificar a distribuição dos dados e o teste t não pareado para comparação entre os grupos. O nível de significância estatística considerado foi 5%. RESULTADOS: O valor do intercepto e do delta 0-10s foi menor no grupo meia-idade nas duas cargas e a inclinação do ângular foi menor no grupo meia-idade no exercício moderado. CONCLUSÃO: Os indivíduos jovens apresentam retirada vagal de maior magnitude no estágio inicial da resposta da FC durante exercício dinâmico em carga constante nas intensidades analisadas e maior velocidade de ajuste da resposta simpática em exercícios moderados.
Resumo:
Este trabalho propõe uma extensão do método de propagação de feixe (BPM - Beam Propagation Method) para a análise de guias de ondas ópticos e acopladores baseados em materiais não-lineares do tipo Kerr. Este método se destina à investigação de estruturas onde a utilização da equação escalar de Helmholtz (EEH) em seu limite paraxial não mais se aplica. Os métodos desenvolvidos para este fim são denominados na literatura como métodos de propagação de feixe de ângulo largo. O formalismo aqui desenvolvido é baseado na técnica das diferenças finitas e nos esquemas de Crank-Nicholson (CN) e Douglas generalizado (GD). Estes esquemas apresentam como característica o fato de apresentarem um erro de truncamento em relação ao passo de discretização transversal, Δx, proporcional a O(Δx2) para o primeiro e O(Δx4). A convergência do método em ambos esquemas é otimizada pela utilização de um algoritmo interativo para a correção do campo no meio não-linear. O formalismo de ângulo largo é obtido pela expansão da EEH para os esquemas CN e GD em termos de polinômios aproximantes de Padé de ordem (1,0) e (1,1) para CN e GD, e (2,2) e (3,3) para CN. Os aproximantes de ordem superior a (1,1) apresentam sérios problemas de estabilidade. Este problema é eliminado pela rotação dos aproximantes no plano complexo. Duas condições de contorno nos extremos da janela computacional são também investigadas: 1) (TBC - Transparent Boundary Condition) e 2) condição de contorno absorvente (TAB - Transparent Absorbing Boundary). Estas condições de contorno possuem a facilidade de evitar que reflexões indesejáveis sejam transmitidas para dentro da janela computacional. Um estudo comparativo da influência destas condições de contorno na solução de guias de ondas ópticos não-lineares é também abordada neste trabalho.
Resumo:
De modo a satisfazer aspectos de resistência, custo ou conforto, o aperfeiçoamento do desempenho das estruturas é uma meta sempre almejada na Engenharia. Melhorias têm sido alcançadas dado ao crescente uso de materiais compósitos, pois estes apresentam propriedades físicas diferenciadas capazes de atender as necessidades de projeto. Associado ao emprego de compósitos, o estudo da plasticidade demonstra uma interessante alternativa para aumentar o desempenho estrutural ao conferir uma capacidade resistente adicional ao conjunto. Entretanto, alguns problemas podem ser encontrados na análise elastoplástica de compósitos, além das próprias dificuldades inerentes à incorporação de fibras na matriz, no caso de compósitos reforçados. A forma na qual um compósito reforçado por fibras e suas fases têm sua representação e simulação é de extrema importância para garantir que os resultados obtidos sejam compatíveis com a realidade. À medida que se desenvolvem modelos mais refinados, surgem problemas referentes ao custo computacional, além da necessidade de compatibilização dos graus de liberdade entre os nós das malhas de elementos finitos da matriz e do reforço, muitas vezes exigindo a coincidência das referidas malhas. O presente trabalho utiliza formulações que permitem a representação de compósitos reforçados com fibras sem que haja a necessidade de coincidência entre malhas. Além disso, este permite a simulação do meio e do reforço em regime elastoplástico com o objetivo de melhor estudar o real comportamento. O modelo constitutivo adotado para a plasticidade é o de von Mises 2D associativo com encruamento linear positivo e a solução deste modelo foi obtida através de um processo iterativo. A formulação de elementos finitos posicional é adotada com descrição Lagrangeana Total e apresenta as posições do corpo no espaço como parâmetros nodais. Com o intuito de averiguar a correta implementação das formulações consideradas, exemplos para validação e apresentação das funcionalidades do código computacional desenvolvido foram analisados.
Resumo:
O objeto deste trabalho é a análise do aproveitamento múltiplo do reservatório de Barra Bonita, localizado na confluência entre os rios Piracicaba e Tietê, no estado de São Paulo e pertencente ao chamado sistema Tietê-Paraná. Será realizada a otimização da operação do reservatório, através de programação linear, com o objetivo de aumentar a geração de energia elétrica, através da maximização da vazão turbinada. Em seguida, a partir dos resultados da otimização da geração de energia, serão utilizadas técnicas de simulação computacional, para se obter índices de desempenho conhecidos como confiabilidade, resiliência e vulnerabilidade, além de outros fornecidos pelo próprio modelo de simulação a ser utilizado. Estes índices auxiliam a avaliação da freqüência, magnitude e duração dos possíveis conflitos existentes. Serão analisados os possíveis conflitos entre a navegação, o armazenamento no reservatório, a geração de energia e a ocorrência de enchentes na cidade de Barra Bonita, localizada a jusante da barragem.
Resumo:
A Biologia Computacional tem desenvolvido algoritmos aplicados a problemas relevantes da Biologia. Um desses problemas é a Protein Structure Prediction (PSP). Vários métodos têm sido desenvolvidos na literatura para lidar com esse problema. Porém a reprodução de resultados e a comparação dos mesmos não têm sido uma tarefa fácil. Nesse sentido, o Critical Assessment of protein Structure Prediction (CASP), busca entre seus objetivos, realizar tais comparações. Além disso, os sistemas desenvolvidos para esse problema em geral não possuem interface amigável, não favorecendo o uso por não especialistas da computação. Buscando reduzir essas dificuldades, este trabalho propões o Koala, um sistema baseado em uma plataforma web, que integra vários métodos de predição e análises de estruturas de proteínas, possibilitando a execução de experimentos complexos com o uso de fluxos de trabalhos. Os métodos de predição disponíveis podem ser integrados para a realização de análises dos resultados, usando as métricas RMSD, GDT-TS ou TM-Score. Além disso, o método Sort by front dominance (baseado no critério de optimalidade de Pareto), proposto nesse trabalho, consegue avaliar predições sem uma estrutura de referência. Os resultados obtidos, usando proteínas alvo de artigos recentes e do CASP11, indicam que o Koala tem capacidade de realizar um conjunto relativamente grande de experimentos estruturados, beneficiando a determinação de melhores estruturas de proteínas, bem como o desenvolvimento de novas abordagens para predição e análise por meio de fluxos de trabalho.
Resumo:
This research aims to set whether is possible to build spatial patterns over oil fields using DFA (Detrended Fluctuation Analysis) of the following well logs: sonic, density, porosity, resistivity and gamma ray. It was employed in the analysis a set of 54 well logs from the oil field of Campos dos Namorados, RJ, Brazil. To check for spatial correlation, it was employed the Mantel test between the matrix of geographic distance and the matrix of the difference of DFA exponents of the well logs. The null hypothesis assumes the absence of spatial structures that means no correlation between the matrix of Euclidean distance and the matrix of DFA differences. Our analysis indicate that the sonic (p=0.18) and the density (p=0.26) were the profiles that show tendency to correlation, or weak correlation. A complementary analysis using contour plot also has suggested that the sonic and the density are the most suitable with geophysical quantities for the construction of spatial structures corroborating the results of Mantel test
Resumo:
This work intent to study the motive power provided by the plane linear induction motor, in a lock condition. It uses a method of imposition of the electric current to the stator via a frequency convertor PWM driven by a refed platform. The reading of the motive power was performed by a load cell using an electronic circuit for reading and conditioning of the signal. Aiming a complete analysis of the linear motor, it was performed a computational modeling that employs all relevant parameters to the study of the locked machine. At the end it was held a theoric-experimental confrontation that evaluated the effectiveness of the proposed method.
Resumo:
Forecast is the basis for making strategic, tactical and operational business decisions. In financial economics, several techniques have been used to predict the behavior of assets over the past decades.Thus, there are several methods to assist in the task of time series forecasting, however, conventional modeling techniques such as statistical models and those based on theoretical mathematical models have produced unsatisfactory predictions, increasing the number of studies in more advanced methods of prediction. Among these, the Artificial Neural Networks (ANN) are a relatively new and promising method for predicting business that shows a technique that has caused much interest in the financial environment and has been used successfully in a wide variety of financial modeling systems applications, in many cases proving its superiority over the statistical models ARIMA-GARCH. In this context, this study aimed to examine whether the ANNs are a more appropriate method for predicting the behavior of Indices in Capital Markets than the traditional methods of time series analysis. For this purpose we developed an quantitative study, from financial economic indices, and developed two models of RNA-type feedfoward supervised learning, whose structures consisted of 20 data in the input layer, 90 neurons in one hidden layer and one given as the output layer (Ibovespa). These models used backpropagation, an input activation function based on the tangent sigmoid and a linear output function. Since the aim of analyzing the adherence of the Method of Artificial Neural Networks to carry out predictions of the Ibovespa, we chose to perform this analysis by comparing results between this and Time Series Predictive Model GARCH, developing a GARCH model (1.1).Once applied both methods (ANN and GARCH) we conducted the results' analysis by comparing the results of the forecast with the historical data and by studying the forecast errors by the MSE, RMSE, MAE, Standard Deviation, the Theil's U and forecasting encompassing tests. It was found that the models developed by means of ANNs had lower MSE, RMSE and MAE than the GARCH (1,1) model and Theil U test indicated that the three models have smaller errors than those of a naïve forecast. Although the ANN based on returns have lower precision indicator values than those of ANN based on prices, the forecast encompassing test rejected the hypothesis that this model is better than that, indicating that the ANN models have a similar level of accuracy . It was concluded that for the data series studied the ANN models show a more appropriate Ibovespa forecasting than the traditional models of time series, represented by the GARCH model
Resumo:
As estruturas de solo reforçado com geossintéticos são normalmente constituídas por solos granulares com boas propriedades físicas e mecânicas. O uso de apenas este tipo de solos pode proporcionar o aumento, por vezes insustentável, do custo da execução das estruturas e o aumento do seu impacto ambiental. Deste modo, as estruturas de solo reforçado perdem a sua vantagem competitiva em relação a outros tipos de estruturas (muros de betão, muros de gravidade, muros de gabiões, etc.). Para resolver este problema podem ser utilizados outros tipos de solos (solos locais, finos, com propriedades físicas e mecânicas piores mas, no entanto, mais baratos) para a execução deste tipo de estruturas. De forma geral, com este estudo pretendeu-se contribuir para o incremento do conhecimento sobre a utilização de solos finos para a construção de estruturas de solo reforçado (muros e taludes). Para tal avaliaram-se as diferenças no comportamento mecânico dos materiais compósitos (solo granular reforçado versus solo fino reforçado) e das estruturas de solo reforçado constituídas com os dois tipos de solos. Assim, os objetivos deste estudo foram avaliar: a influência de vários parâmetros nas propriedades mecânicas e na capacidade de carga dos solos reforçados com geossintéticos; a influência de vários parâmetros no dimensionamento das estruturas de solo reforçado; e o comportamento das estruturas dimensionadas (incluindo a estabilidade global e a influência do processo construtivo) recorrendo a uma ferramenta numérica (PLAXIS). Para cumprir os objetivos propostos foram realizadas análises experimentais em laboratório (análise do comportamento do solo reforçado através de ensaios triaxiais e de California Bearing Ratio) e análises numéricas (dimensionamento de estruturas de solo reforçado; modelação numérica do comportamento através de uma ferramenta numérica comercial com o método dos elementos finitos). Os resultados dos ensaios experimentais mostraram que o comportamento mecânico e a capacidade de carga do solo foram incrementados com a inclusão das camadas de geossintético. Este efeito variou com os diversos parâmetros analisados mas, de forma geral, foi mais importante no solo fino (solo com propriedades mecânicas piores). As análises numéricas mostraram que as estruturas de solo fino precisaram de maior densidade de reforços para serem estáveis. Além disso, as estruturas de solo fino foram mais deformáveis e o efeito do seu processo construtivo foi mais importante (principalmente para estruturas de solo fino saturado).
Resumo:
The municipal management in any country of the globe requires planning and allocation of resources evenly. In Brazil, the Law of Budgetary Guidelines (LDO) guides municipal managers toward that balance. This research develops a model that seeks to find the balance of the allocation of public resources in Brazilian municipalities, considering the LDO as a parameter. For this using statistical techniques and multicriteria analysis as a first step in order to define allocation strategies, based on the technical aspects arising from the municipal manager. In a second step, presented in linear programming based optimization where the objective function is derived from the preference of the results of the manager and his staff. The statistical representation is presented to support multicriteria development in the definition of replacement rates through time series. The multicriteria analysis was structured by defining the criteria, alternatives and the application of UTASTAR methods to calculate replacement rates. After these initial settings, an application of linear programming was developed to find the optimal allocation of enforcement resources of the municipal budget. Data from the budget of a municipality in southwestern Paraná were studied in the application of the model and analysis of results.
Resumo:
Forecast is the basis for making strategic, tactical and operational business decisions. In financial economics, several techniques have been used to predict the behavior of assets over the past decades.Thus, there are several methods to assist in the task of time series forecasting, however, conventional modeling techniques such as statistical models and those based on theoretical mathematical models have produced unsatisfactory predictions, increasing the number of studies in more advanced methods of prediction. Among these, the Artificial Neural Networks (ANN) are a relatively new and promising method for predicting business that shows a technique that has caused much interest in the financial environment and has been used successfully in a wide variety of financial modeling systems applications, in many cases proving its superiority over the statistical models ARIMA-GARCH. In this context, this study aimed to examine whether the ANNs are a more appropriate method for predicting the behavior of Indices in Capital Markets than the traditional methods of time series analysis. For this purpose we developed an quantitative study, from financial economic indices, and developed two models of RNA-type feedfoward supervised learning, whose structures consisted of 20 data in the input layer, 90 neurons in one hidden layer and one given as the output layer (Ibovespa). These models used backpropagation, an input activation function based on the tangent sigmoid and a linear output function. Since the aim of analyzing the adherence of the Method of Artificial Neural Networks to carry out predictions of the Ibovespa, we chose to perform this analysis by comparing results between this and Time Series Predictive Model GARCH, developing a GARCH model (1.1).Once applied both methods (ANN and GARCH) we conducted the results' analysis by comparing the results of the forecast with the historical data and by studying the forecast errors by the MSE, RMSE, MAE, Standard Deviation, the Theil's U and forecasting encompassing tests. It was found that the models developed by means of ANNs had lower MSE, RMSE and MAE than the GARCH (1,1) model and Theil U test indicated that the three models have smaller errors than those of a naïve forecast. Although the ANN based on returns have lower precision indicator values than those of ANN based on prices, the forecast encompassing test rejected the hypothesis that this model is better than that, indicating that the ANN models have a similar level of accuracy . It was concluded that for the data series studied the ANN models show a more appropriate Ibovespa forecasting than the traditional models of time series, represented by the GARCH model
Resumo:
Dissertação (mestrado)—Universidade de Brasília, Instituto de Química, Programa de Pós-Graduação em Química, 2016.
Resumo:
A produção aditiva tem vindo a ganhar cada vez mais importância no contexto atual pois, através destes processos, é possível criar protótipos de forma rápida que permitem de forma eficaz a visualização do modelo mas também, nalguns casos, a verificação da funcionalidade do mesmo. Este tipo de fabrico está em ascensão e estão constantemente a serem exploradas novas aplicações. Na produção aditiva, o material de suporte gerado para suportar a construção tem elevada importância no tempo e custo do processo. Neste contexto, torna-se cada vez mais evidente que é necessário entender o comportamento mecânico desta estrutura de modo a tornar o processo mais rápido e com menores custos sem comprometer a resistência das peças produzidas por este. O processo de FDM é um dos processos de produção aditiva que constrói modelos camada a camada a partir de ficheiros CAD que são tratados no software da máquina por forma a dividir o modelo em várias camadas finas que geram várias secções com as geometrias correspondentes. A construção do modelo físico é feita através da extrusão e deposição de polímeros consoante a secção pretendida. O principal objetivo deste trabalho é a caracterização mecânica do material de suporte gerado aquando a construção da peça final pretendida. Foi com este objetivo que foram criados modelos de teste através do processo de FDM para serem submetidos a ensaios de compressão de modo a entender de que forma o material de suporte influencia na resistência final do modelo. Da análise dos dados obtidos é possível concluir que o material de suporte não aumenta a resistência das peças produzidas.