985 resultados para Anàlisi intervalar modal
Resumo:
Este estudo visou a utilização direta da análise modal adjunta em sistemas não-clásicos de natureza concentrada e distribuída, explorando o conceitos de biortogonalidade modal e da resposta impulso evolutiva e estacionária. Discutiu-se a natureza do espectro para diversas classes de sistemas, em particular para sistemas com efeitos giroscópicos e com atrito interno. A teoria foi desenvolvida de maneira paralela para sistemas de primeira ordem e de segunda ordem, porém é apresentada de maneira independente, ou seja, para os sistemas de segunda ordem não é utilizada a formulação de espaço de estado, a qual reduz o sistema para primeira ordem. Assim, as relações de biortogonalidade para sistemas de segunda ordem são apresentadas e utilizadas de maneira direta na expansão modal da resposta dos sistemas. A forma dos modos de vibração em variadas aplicações é determinada de maneira exata com o uso da base dinâmica gerada pela resposta impulso espacial. No cálculo dos autovalores foi introduzida uma aproximação polinomial para a resposta impulso espacial Os coeficientes dessa aproximação foram obtidos por recursão, a partir de uma equação em diferenças associada à equação característica do problema modal. Simulações numéricas foram realizadas para obter a resposta impulso evolutiva, respostas forçadas e modos de vibração de sistemas não-clássicos concentrados, formulados através de modelos ou aproximações, e sistemas distribuídos, formulados através de modelos ou incluindo distúrbios e acoplamento através das condições decontorno. Os resultados deste estudo permitiram concluir, através das simulações numéricas realizadas, a importância da base dinâmica no sentido de simplificar os cálculos para obtenção dos autovalores, dos modos de vibração e, consequentemente, da resposta do sistema, seja concentrado, distribuído com ou sem acoplamento das condições de contorno. A utilização da análise modal adjunta, desde que ocorra uma ordenação adequada dos autovalores e modos, mostrou-se um método eficiente na obtenção direta da resposta de sistemas não-clássicos de segunda ordem, ou seja, sem redução ao espaço de estado.
Resumo:
Neste trabalho, foram analisadas, implementadas e mostradas as características de uma interface com estrutura de programação genérica para o ambiente Windows, criando facilidades de rapidez, confiabilidade e a apresentação de resultados aos usuários do sistema matemático Maple na criação e uso de aplicações matemáticas. A interface utilizou como modelo de implementação cálculos modais de vigas clássicas de Euler-Bernoulli. O usuário encontra, em um único sistema, cálculo para vigas clássicas, terá uma entrada de dados facilitada de variáveis que serão substituídas automaticamente no programa fonte da viga e a geração de resultados em um ambiente amigável com dados e gráficos mostrados de forma organizados.
Resumo:
O presente trabalho investiga o funcionamento do discurso de Divulgação Científica, tomando como corpus de análise as revistas Superinteressante e Ciência Hoje. Partindo da concepção de ciência enquanto prática social e ideológica e tendo como referencial teórico a Análise de Discurso de linha francesa, a preocupação central dessa investigação está pautada no modo como os diferentes sujeitos - o cientista, o jornalista e o leitor - se movimentam, isto é, se constituem no discurso de Divulgação Científica, sendo interpelados tanto pelo poder/verdade da ciência quanto pelo poder/verdade da mídia. Para investigar, então, o funcionamento de tal discurso, a tese está dividida em seis capítulos. O primeiro capítulo aborda a concepção de ciência, de forma a marcar os limites entre a ciência e a não-ciência, bem como trata dos deslocamentos sociais produzidos a partir do conhecimento científico. Entre esses deslocamentos, está o Jornalismo Científico e, por sua vez, o discurso de Divulgação Científica, que também é caracterizado nesse primeiro capítulo. No segundo capítulo, trava-se um diálogo entre três autores: Mikail Bakhtin, Michel Foucault e Michel Pêcheux, havendo um destaque para Pêcheux, que é o fundador da Análise do Discurso. A partir desse diálogo, são apresentadas as principais noções da teoria do discurso que sustentarão as análises sobre o funcionamento discursivo da Divulgação Científica. O terceiro capítulo trata da constituição do corpus e da explicitação da metodologia a ser adotada durante as análises. No quarto capítulo, são apresentadas as primeiras análises sobre o modo como são representadas as imagens da ciência e do cientista no discurso de Divulgação Científica. O quinto capítulo privilegia a discussão acerca do lugar discursivo em que se inscrevem tanto o jornalista quanto o cientista no discurso de Divulgação Científica. Ainda são analisadas as posições-sujeito que operam nesse discurso, a partir da inscrição do jornalista e/ou do cientista em um determinado lugar discursivo. No sexto e último capítulo da tese, as análises estão centradas no sujeito-leitor, enfocando a construção do efeito-leitor e da imagem projetada à ciência, a partir de seqüências selecionadas das Cartas de Leitores de ambas as revistas - Superinteressante e Ciência Hoje. Tais análises focalizam a distinção entre leitor real e leitor virtual. Dessa forma, essa tese enfoca a caracterização do discurso de Divulgação Científica como um espaço discursivo intervalar, no qual se entrecruzam diferentes sujeitos, mas também as diferentes ordens de saberes/as diferentes vozes que esses sujeitos mobilizam, bem como as instituições que eles representam, o que atesta a constituição eminentemente heterogênea desse discurso.
Resumo:
O ICTM (Interval Categorizer Tesselation Model), objeto da presente tese, é um modelo geral para análise de espaços de natureza geométrica, baseado em tesselaçoes, que é capaz de produzir uma categorização confiável de conjunto de pontos de um dado espaço, de acordo com múltiplas características dos pontos, cada característica correspondendo a uma camada do modelo. Por exemplo, na análise de terrenos geográficos, uma região geográfica pode ser analisada de acordo com a sua topografia, vegetaçao, demografia, dados econômicos etc, cada uma gerando uma subdivisão diferente da região. O modelo geral baseado em tesselações não está restrito, porém, a análise de espaços bi-dimensionais. O conjunto dos pontos analisados pode pertencer a um espaço multidimensional, determinando a característica multi-dimensional de cada camada. Um procedimento de projeção das categorizações obtidas em cada camada sobre uma camada básica leva a uma categorização confiavel mais significante, que combina em uma só classificação as análises obtidas para cada característica. Isto permite muitas análises interessantes no que tange a dependência mútua das características. A dimensão da tesselação pode ser arbitrária ou escolhida de acordo com algum critério específico estabelecido pela aplicação. Neste caso, a categorização obtida pode ser refinada, ou pela re-definição da dimensão da tesselação ou tomando cada sub-região resultante para ser analisada separadamente A formalização nos registradores pode ser facilmente recuperada apenas pela indexação dos elementos das matrizes, em qualquer momento da execução. A implementação do modelo é naturalmente paralela, uma vez que a análise é feita basicamente por regras locais. Como os dados de entrada numéricos são usualmente suscetíveis a erros, o modelo utiliza a aritmética intervalar para se ter um controle automático de erros. O modelo ICTM também suporta a extração de fatos sobre as regiões de modo qualitativo, por sentenças lógicas, ou quantitativamente, pela análise de probabilidade. Este trabalho recebe apoio nanceiro do CNPq/CTPETRO e FAPERGS.
Resumo:
Tendo em vista a crescente preocupação com a questão da mudança climática e suas consequências para a sociedade, pretendemos analisar de que forma o padrão de viagens dos munícipes impacta no consumo de combustíveis nos municípios. Utilizamos como proxy para as viagens a frota de veículos dos municípios, empregando o modelo em painel com efeitos fixos. O resultado aponta que, se houver uma política que incentive a mudança modal, é possível reduzir o consumo de combustíveis e, consequentemente, a emissão de gases de efeito estufa.
Resumo:
A área de pesquisa de testes não-destrutivos é muito importante, trabalhando com o diagnóstico e o monitoramento das condições dos componentes estruturais prevenindo falhas catastróficas. O uso de algoritmos genéticos para identificar mudanças na integridade estrutural através de mudanças nas respostas de vibração da estrutura é um método não-destrutivo que vem sendo pesquisado. Isto se deve ao fato de que são vantajosos em achar o mínimo global em situações difíceis de problemas de otimização, particularmente onde existem muitos mínimos locais como no caso de detecção de dano. Neste trabalho é proposto um algoritmo genético para localizar e avaliar os danos em membros estruturais usando o conceito de mudanças nas freqüências naturais da estrutura. Primeiramente foi realizada uma revisão das técnicas de detecção de dano das últimas décadas. A origem, os fundamentos, principais aspectos, principais características, operações e função objetivo dos algoritmos genéticos também são demonstrados. Uma investigação experimental em estruturas de materiais diferentes foi realizada a fim de se obter uma estrutura capaz de validar o método. Finalmente, se avalia o método com quatro exemplos de estruturas com danos simulados experimentalmente e numericamente. Quando comparados com técnicas clássicas de detecção dano, como sensibilidade modal, os algoritmos genéticos se mostraram mais eficientes. Foram obtidos melhores resultados na localização do que na avaliação das intensidades dos danos nos casos de danos propostos.
Resumo:
Universidade da Madeira - Centro de Ciência e Tecnologia da Madeira - Fundo Social Europeu e Propragama Operacional Plurifundos da Região Autónoma da Madeira
Resumo:
This work present a interval approach to deal with images with that contain uncertainties, as well, as treating these uncertainties through morphologic operations. Had been presented two intervals models. For the first, is introduced an algebraic space with three values, that was constructed based in the tri-valorada logic of Lukasiewiecz. With this algebraic structure, the theory of the interval binary images, that extends the classic binary model with the inclusion of the uncertainty information, was introduced. The same one can be applied to represent certain binary images with uncertainty in pixels, that it was originated, for example, during the process of the acquisition of the image. The lattice structure of these images, allow the definition of the morphologic operators, where the uncertainties are treated locally. The second model, extend the classic model to the images in gray levels, where the functions that represent these images are mapping in a finite set of interval values. The algebraic structure belong the complete lattices class, what also it allow the definition of the elementary operators of the mathematical morphology, dilation and erosion for this images. Thus, it is established a interval theory applied to the mathematical morphology to deal with problems of uncertainties in images
Resumo:
The idea of considering imprecision in probabilities is old, beginning with the Booles George work, who in 1854 wanted to reconcile the classical logic, which allows the modeling of complete ignorance, with probabilities. In 1921, John Maynard Keynes in his book made explicit use of intervals to represent the imprecision in probabilities. But only from the work ofWalley in 1991 that were established principles that should be respected by a probability theory that deals with inaccuracies. With the emergence of the theory of fuzzy sets by Lotfi Zadeh in 1965, there is another way of dealing with uncertainty and imprecision of concepts. Quickly, they began to propose several ways to consider the ideas of Zadeh in probabilities, to deal with inaccuracies, either in the events associated with the probabilities or in the values of probabilities. In particular, James Buckley, from 2003 begins to develop a probability theory in which the fuzzy values of the probabilities are fuzzy numbers. This fuzzy probability, follows analogous principles to Walley imprecise probabilities. On the other hand, the uses of real numbers between 0 and 1 as truth degrees, as originally proposed by Zadeh, has the drawback to use very precise values for dealing with uncertainties (as one can distinguish a fairly element satisfies a property with a 0.423 level of something that meets with grade 0.424?). This motivated the development of several extensions of fuzzy set theory which includes some kind of inaccuracy. This work consider the Krassimir Atanassov extension proposed in 1983, which add an extra degree of uncertainty to model the moment of hesitation to assign the membership degree, and therefore a value indicate the degree to which the object belongs to the set while the other, the degree to which it not belongs to the set. In the Zadeh fuzzy set theory, this non membership degree is, by default, the complement of the membership degree. Thus, in this approach the non-membership degree is somehow independent of the membership degree, and this difference between the non-membership degree and the complement of the membership degree reveals the hesitation at the moment to assign a membership degree. This new extension today is called of Atanassov s intuitionistic fuzzy sets theory. It is worth noting that the term intuitionistic here has no relation to the term intuitionistic as known in the context of intuitionistic logic. In this work, will be developed two proposals for interval probability: the restricted interval probability and the unrestricted interval probability, are also introduced two notions of fuzzy probability: the constrained fuzzy probability and the unconstrained fuzzy probability and will eventually be introduced two notions of intuitionistic fuzzy probability: the restricted intuitionistic fuzzy probability and the unrestricted intuitionistic fuzzy probability
Resumo:
The Support Vector Machines (SVM) has attracted increasing attention in machine learning area, particularly on classification and patterns recognition. However, in some cases it is not easy to determinate accurately the class which given pattern belongs. This thesis involves the construction of a intervalar pattern classifier using SVM in association with intervalar theory, in order to model the separation of a pattern set between distinct classes with precision, aiming to obtain an optimized separation capable to treat imprecisions contained in the initial data and generated during the computational processing. The SVM is a linear machine. In order to allow it to solve real-world problems (usually nonlinear problems), it is necessary to treat the pattern set, know as input set, transforming from nonlinear nature to linear problem. The kernel machines are responsible to do this mapping. To create the intervalar extension of SVM, both for linear and nonlinear problems, it was necessary define intervalar kernel and the Mercer s theorem (which caracterize a kernel function) to intervalar function
Resumo:
In the present work, three composites with distinct reinforcements (polyester, modal e polyester + modal), all if a unsaturated orthophthalic polyester resin as matrix were used, in order to conduct a comparative study by mechanical tests and water absorption. The fibre mats were prepared in a mat preparatory by immersion developed in the Textile Engineering Laboratory. The composites were manufactured using a closed mould process by compression using an unsaturated orthophthalic polyester resin as matrix and 1% MEK (methyl ethyl ketone peroxide) as an initiator. In each composite twelve samples with the dimensions of 150x25x3 mm were cut randomly for the mechanical analysis (tension x extension, three points bending and water absorption and Scanning Electron Micsroscopy). The mechanical tests were carried out in the Laboratório de Metais e Ensaios Mecânicos UFRN . All the analyses were carried out according to the ASTM norms. The resultant samples from the mechanical analysis were subjected for the Scanning Electron Microscopy analysis. Based on the results obtained, it was observed that the reinforced composite with two fibres (modal + polyester) presented better results in comparison to the other two composites both in the tension/extension as well on the three point bending tests. In the water absorption test, it was possible to observe an equilibrium in the water absorption by the modal and polyester composite, due to the union of the two fibres. In the SEM images, the regions of rupture in the composites as well as the adsorption between the fiber and the matrix could be observed
Resumo:
Formalization of logical systems in natural deduction brings many metatheoretical advantages, which Normalization proof is always highlighted. Modal logic systems, until very recently, were not routinely formalized in natural deduction, though some formulations and Normalization proofs are known. This work is a presentation of some important known systems of modal logic in natural deduction, and some Normalization procedures for them, but it is also and mainly a presentation of a hierarchy of modal logic systems in natural deduction, from K until S5, together with an outline of a Normalization proof for the system K, which is a model for Normalization in other systems
Resumo:
Double three-phase transmission lines are analyzed in this paper using a modal transformation model. The main attribute of this model is the use of a single real transformation matrix based on line geometrical characteristics and the Clarke matrix. Because of this, for any line point, the electrical values can be accessed for phase domain or mode domain using the considered transformation matrix and without convolution methods. For non-transposed symmetrical lines the errors between the model results and the exact modes are insignificant values. The eigenvector and eigenvalue analyses for transposed lines search the similarities among the three analyzed transposition types and the possible simplifications for a non-transposed case.
Resumo:
Eigenvector and eigenvalue analyses are carried out for double three-phase transmission lines, studying the application of a constant and real phase-mode transformation matrix and the errors of this application to mode line models. Employing some line transposition types, exact results are obtained with a single real transformation matrix based on Clarke's matrix and line geometrical characteristics. It is shown that the proposed technique leads to insignificant errors when a nontransposed case is considered. For both cases, transposed and nontransposed, the access to the electrical values (voltage and current, for example) is provided through a simple matrix multiplication without convolution methods. Using this facility, an interesting model for transmission line analysis is obtained even though the nontransposed case errors are not eliminated. The main advantages of the model are related to the transformation matrix: single, real, frequency independent, and identical for voltage and current.
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)