995 resultados para Análise intervalar


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Neste trabalho, são apresentados a metodologia de projeto e resultados de testes experimentais de um estabilizador de sistema de potência (ESP), implementado em um sistema de geração em escala reduzida de 10 kVA, localizado no Laboratório de Controle e Sistema de Potência (LACSPOT) da Universidade Federal do Pará (UFPA). O projeto do ESP é baseado em uma estratégia de controle robusto com ênfase em incertezas paramétricas estruturadas, as quais são tratadas com ferramentas da teoria de análise intervalar. Estas incertezas são decorrentes de mudanças do ponto de operação do sistema, que provocam variações nos parâmetros de um modelo matemático linearizado referente ao comportamento dinâmico do sistema elétrico de potência no referido ponto de operação. Para o projeto do ESP robusto intervalar, são realizados uma serie de ensaios experimentais com o propósito de estimar os parâmetros de modelos linearizados da planta, representando satisfatoriamente a dinâmica dos modos poucos amortecidos do sistema de geração interligado. O método de identificação é baseado em técnica de identificação paramétrica, baseado em mínimos quadrados. A partir de um conjunto de dados de entrada e saída, para cada ponto de operação, um modelo linear, do tipo auto-regressivo com entrada exógenos (ARX), estimado para fim de uso do projeto do ESP. Por fim, uma série de testes experimentais é realizada no sistema de geração interligado a rede elétrica local, com o propósito de verificar a efetividade da técnica de controle robusto intervalar proposta para a sintonia do ESP. A partir da análise da função custo do sinal de erro de desvio de potência elétrica na saída do gerador síncrono e a função custo do sinal de controle do ESP comprova-se experimentalmente o bom desempenho obtido pela técnica de controle proposta em comparação com uma técnica de controle clássica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Pós-graduação em Matemática - IBILCE

Relevância:

70.00% 70.00%

Publicador:

Resumo:

O cálculo do equilíbrio de fases é um problema de grande importância em processos da engenharia, como, por exemplo, na separação por destilação, em processos de extração e simulação da recuperação terciária de petróleo, entre outros. Mas para resolvê-lo é aconselhável que se estude a priori a estabilidade termodinâmica do sistema, a qual consiste em determinar se uma dada mistura se apresenta em uma ou mais fases. Tal problema pode ser abordado como um problema de otimização, conhecido como a minimização da função distância do plano tangente à energia livre de Gibbs molar, onde modelos termodinâmicos, de natureza não convexa e não linear, são utilizados para descrevê-lo. Esse fato tem motivado um grande interesse em técnicas de otimização robustas e eficientes para a resolução de problemas relacionados com a termodinâmica do equilíbrio de fases. Como tem sido ressaltado na literatura, para proporcionar uma completa predição do equilíbrio de fases, faz-se necessário não apenas a determinação do minimizador global da função objetivo do teste de estabilidade, mas também a obtenção de todos os seus pontos estacionários. Assim, o desenvolvimento de metodologias para essa tarefa desafiadora tem se tornado uma nova área de pesquisa da otimização global aplicada à termodinâmica do equilíbrio, com interesses comuns na engenharia química e na engenharia do petróleo. O foco do presente trabalho é uma nova metodologia para resolver o problema do teste de estabilidade. Para isso, usa-se o chamado método do conjunto gerador para realizar buscas do tipo local em uma rede de pontos previamente gerada por buscas globais efetuadas com uma metaheurística populacional, no caso o método do enxame de partículas.Para se obter mais de um ponto estacionário, minimizam-se funções de mérito polarizadas, cujos pólos são os pontos previamente encontrados. A metodologia proposta foi testada na análise de quatorze misturas polares previamente consideradas na literatura. Os resultados mostraram que o método proposto é robusto e eficiente a ponto de encontrar, além do minimizador global, todos os pontos estacionários apontados previamente na literatura, sendo também capaz de detectar, em duas misturas ternárias estudadas, pontos estacionários não obtidos pelo chamado método de análise intervalar, uma técnica confiável e muito difundida na literatura. A análise do teste de estabilidade pela simples utilização do método do enxame de partículas associado à técnica de polarização mencionada acima, para a obtenção de mais de um ponto estacionário (sem a busca local feita pelo método do conjunto gerador em uma dada rede de pontos), constitui outra metodologia para a resolução do problema de interesse. Essa utilização é uma novidade secundária deste trabalho. Tal metodologia simplificada exibiu também uma grande robustez, sendo capaz de encontrar todos os pontos estacionários pesquisados. No entanto, quando comparada com a abordagem mais geral proposta aqui, observou-se que tal simplificação pode, em alguns casos onde a função de mérito apresenta uma geometria mais complexa, consumir um tempo de máquina relativamente grande, dessa forma é menos eficiente.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A necessidade de uma precisão e de uma aproximação dos resultados numéricos zeram com que diversas teorias surgissem: dentre elas, destacamos a Matemática Intervalar. A Matemática Intervalar surgiu na década de 60 com os trabalhos de pesquisa de Moore (MOORE, 1959) , em que ele propôs trabalhar com uma Matemática baseada na noção de intervalo real e não mais com um número como aproximação. Com isso, surgiu a necessidade de revisitar e reformular os conceitos e resultados da Matemática Clássica utilizando como base a noção de intervalo de Moore. Uma das áreas da Matem ática Clássica que tem tido muitas aplicações em engenharias e ciências é a Análises Numérica, onde um dos seus pilares é o Cálculo Integral e em particular as integrais de linha. Assim, é muito desejável se ter um cálculo integral dentro da própria Matemática Intervalar. No presente trabalho apresenta-se uma noção de Integral de Linha Intervalar baseada na extensão de integração proposta por Bedregal em (BEDREGAL; BEDREGAL, 2010). Para a fundamentação apresenta-se incialmente uma introdução sobre a pespectiva em que o trabalho foi realizado, considerando alguns aspectos histórico-evolutivos da Matemática Clássica. Os conceitos de Integrais de Linha Clássica, bem como algumas das suas aplicações mais importantes. Alguns conceitos de Matemática Intervalar necessários para o entendimento do trabalho. Para nalizar propomos uma aplicação da integral de linha em um experimênto clássico da mecânica quântica (a difração de um elétron em uma fenda) que graças ao fato de ser a Matemática Intervalar utilizada, nos dá um foco mais detalhado e mais próximo da realidade

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Os sistemas do tipo correia transportadora, são sistemas essenciais para grandes empresas, embora este equipamento apresente um elevado grau de criticidade, de modo que uma parada não planejada do mesmo, pode gerar perdas imensas ou até mesmo a parada de todo o processo produtivo. Tendo em vista a criticidade do equipamento, torna-se necessário realizar a monitoração adequada do mesmo e detectar com maior antecedência possível a ocorrência de alguma falta ocorrida no sistema. Objetivando reduzir as paradas não planejadas, investiga-se nesta dissertação a modelagem de um sistema do tipo correia transportadora com a finalidade de uso no monitoramento e diagnóstico de faltas neste tipo de sistema. Primeiramente é discutido um modelo fenomenológico do processo, o qual é baseado na aplicação das leis da mecânica e considerando-se os diversos tipos de força de oposição ao movimento de uma correia transportadora. Os principais parâmetros do transportador foram estimados utilizando-se técnicas de identificação baseadas em Mínimos Quadrados Não Recursivos. Em seguida, foi desenvolvido e implementado um algoritmo de detecção de faltas utilizando a teoria de análise intervalar, de modo que possibilite detectar condições inadequadas de funcionamento. Com o intuito de avaliar o desempenho do algoritmo proposto foi projetado e construído um protótipo que emula as condições operacionais típicas de um sistema real do tipo correia transportadora. Os resultados obtidos experimentalmente, confirmam o bom desempenho da metodologia proposta.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente trabalho investiga o funcionamento do discurso de Divulgação Científica, tomando como corpus de análise as revistas Superinteressante e Ciência Hoje. Partindo da concepção de ciência enquanto prática social e ideológica e tendo como referencial teórico a Análise de Discurso de linha francesa, a preocupação central dessa investigação está pautada no modo como os diferentes sujeitos - o cientista, o jornalista e o leitor - se movimentam, isto é, se constituem no discurso de Divulgação Científica, sendo interpelados tanto pelo poder/verdade da ciência quanto pelo poder/verdade da mídia. Para investigar, então, o funcionamento de tal discurso, a tese está dividida em seis capítulos. O primeiro capítulo aborda a concepção de ciência, de forma a marcar os limites entre a ciência e a não-ciência, bem como trata dos deslocamentos sociais produzidos a partir do conhecimento científico. Entre esses deslocamentos, está o Jornalismo Científico e, por sua vez, o discurso de Divulgação Científica, que também é caracterizado nesse primeiro capítulo. No segundo capítulo, trava-se um diálogo entre três autores: Mikail Bakhtin, Michel Foucault e Michel Pêcheux, havendo um destaque para Pêcheux, que é o fundador da Análise do Discurso. A partir desse diálogo, são apresentadas as principais noções da teoria do discurso que sustentarão as análises sobre o funcionamento discursivo da Divulgação Científica. O terceiro capítulo trata da constituição do corpus e da explicitação da metodologia a ser adotada durante as análises. No quarto capítulo, são apresentadas as primeiras análises sobre o modo como são representadas as imagens da ciência e do cientista no discurso de Divulgação Científica. O quinto capítulo privilegia a discussão acerca do lugar discursivo em que se inscrevem tanto o jornalista quanto o cientista no discurso de Divulgação Científica. Ainda são analisadas as posições-sujeito que operam nesse discurso, a partir da inscrição do jornalista e/ou do cientista em um determinado lugar discursivo. No sexto e último capítulo da tese, as análises estão centradas no sujeito-leitor, enfocando a construção do efeito-leitor e da imagem projetada à ciência, a partir de seqüências selecionadas das Cartas de Leitores de ambas as revistas - Superinteressante e Ciência Hoje. Tais análises focalizam a distinção entre leitor real e leitor virtual. Dessa forma, essa tese enfoca a caracterização do discurso de Divulgação Científica como um espaço discursivo intervalar, no qual se entrecruzam diferentes sujeitos, mas também as diferentes ordens de saberes/as diferentes vozes que esses sujeitos mobilizam, bem como as instituições que eles representam, o que atesta a constituição eminentemente heterogênea desse discurso.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A Estatística é uma ferramenta indispensável em todos os campos científicos. A Estatística descritiva é usada para sintetizar dados. O principal problema desta área está relacionado aos valores de uma amostra, os quais geralmente possuem erros que ocorrem durante a obtenção dos dados. Um dos objetivos deste trabalho é apresentar uma forma de representação para os valores amostrais que considera os erros contidos nestes valores. Esta representação é realizada através de intervalos. A literatura mostra que foram realizadas pesquisas somente em problemas de calcular os valores intervalares das medidas de dispersão variância, covariância e coeficiente de correlação, que a utilização da computação intervalar na solução de problemas de medidas de dispersão intervalar sempre fornece solução com intervalos superestimados (intervalos com amplitude grande), e que ao procurar uma solução com intervalos de amplitude pequena (através da computação da imagem intervalar), o problema passa a pertencer a classe de problemas NP-Difícil. Com o objetivo principal de analisar a complexidade computacional dos problemas de computar os valores dos indicadores estatísticos descritivos com entradas intervalares, e realizar uma classificação quanto a classe de complexidade, a presente tese apresenta: i) definições intervalares de medidas de tendência central, medidas de dispersão e separatrizes; ii) investigação da complexidade de problemas das medidas de tendência central média, mediana e moda, das medidas de dispersão amplitude, variância, desvio padrão, coeficiente de variação, covariância, coeficiente de correlação e das separatrizes e iii) representação intervalar dos valores reais, de tal modo que garante a qualidade de aproximação nos intervalos solução calculado através da extensão intervalar Primeiramente, apresentamos uma abordagem intervalar para os indicadores estatísticos e propomos algoritmos para a solução dos problemas de computar os intervalos de medidas de tendência central intervalar, dispersão intervalar e separatrizes intervalares. Tais algoritmos utilizam a aritmética intervalar definida por Moore, a extensão intervalar e foram projetados para serem executados em ambientes intervalares como IntLab e Maple Intervalar. Por meio da análise da complexidade computacional verificamos que os problemas de medidas de tendência central, dispersão e separatrizes, com entradas intervalares, pertencem à classe de problemas P. Este trabalho apresenta, portanto, algoritmos de tempo polinomial que calculam os intervalos dos indicadores estatísticos com entradas intervalares, e que retornam como solução intervalos com qualidade de aproximação. Os resultados obtidos no desenvolvimento do trabalho tornaram viável a computação da Estatística Descritiva Intervalar.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O ICTM (Interval Categorizer Tesselation Model), objeto da presente tese, é um modelo geral para análise de espaços de natureza geométrica, baseado em tesselaçoes, que é capaz de produzir uma categorização confiável de conjunto de pontos de um dado espaço, de acordo com múltiplas características dos pontos, cada característica correspondendo a uma camada do modelo. Por exemplo, na análise de terrenos geográficos, uma região geográfica pode ser analisada de acordo com a sua topografia, vegetaçao, demografia, dados econômicos etc, cada uma gerando uma subdivisão diferente da região. O modelo geral baseado em tesselações não está restrito, porém, a análise de espaços bi-dimensionais. O conjunto dos pontos analisados pode pertencer a um espaço multidimensional, determinando a característica multi-dimensional de cada camada. Um procedimento de projeção das categorizações obtidas em cada camada sobre uma camada básica leva a uma categorização confiavel mais significante, que combina em uma só classificação as análises obtidas para cada característica. Isto permite muitas análises interessantes no que tange a dependência mútua das características. A dimensão da tesselação pode ser arbitrária ou escolhida de acordo com algum critério específico estabelecido pela aplicação. Neste caso, a categorização obtida pode ser refinada, ou pela re-definição da dimensão da tesselação ou tomando cada sub-região resultante para ser analisada separadamente A formalização nos registradores pode ser facilmente recuperada apenas pela indexação dos elementos das matrizes, em qualquer momento da execução. A implementação do modelo é naturalmente paralela, uma vez que a análise é feita basicamente por regras locais. Como os dados de entrada numéricos são usualmente suscetíveis a erros, o modelo utiliza a aritmética intervalar para se ter um controle automático de erros. O modelo ICTM também suporta a extração de fatos sobre as regiões de modo qualitativo, por sentenças lógicas, ou quantitativamente, pela análise de probabilidade. Este trabalho recebe apoio nanceiro do CNPq/CTPETRO e FAPERGS.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A matemática intervalar é uma teoria matemática originada na década de 60 com o objetivo de responder questões de exatidão e eficiência que surgem na prática da computação científica e na resolução de problemas numéricos. As abordagens clássicas para teoria da computabilidade tratam com problemas discretos (por exemplo, sobre os números naturais, números inteiros, strings sobre um alfabeto finito, grafos, etc.). No entanto, campos da matemática pura e aplicada tratam com problemas envolvendo números reais e números complexos. Isto acontece, por exemplo, em análise numérica, sistemas dinâmicos, geometria computacional e teoria da otimização. Assim, uma abordagem computacional para problemas contínuos é desejável, ou ainda necessária, para tratar formalmente com computações analógicas e computações científicas em geral. Na literatura existem diferentes abordagens para a computabilidade nos números reais, mas, uma importante diferença entre estas abordagens está na maneira como é representado o número real. Existem basicamente duas linhas de estudo da computabilidade no contínuo. Na primeira delas uma aproximação da saída com precisão arbitrária é computada a partir de uma aproximação razoável da entrada [Bra95]. A outra linha de pesquisa para computabilidade real foi desenvolvida por Blum, Shub e Smale [BSS89]. Nesta aproximação, as chamadas máquinas BSS, um número real é visto como uma entidade acabada e as funções computáveis são geradas a partir de uma classe de funções básicas (numa maneira similar às funções parciais recursivas). Nesta dissertação estudaremos o modelo BSS, usado para se caracterizar uma teoria da computabilidade sobre os números reais e estenderemos este para se modelar a computabilidade no espaço dos intervalos reais. Assim, aqui veremos uma aproximação para computabilidade intervalar epistemologicamente diferente da estudada por Bedregal e Acióly [Bed96, BA97a, BA97b], na qual um intervalo real é visto como o limite de intervalos racionais, e a computabilidade de uma função intervalar real depende da computabilidade de uma função sobre os intervalos racionais

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho teve como objetivo geral desenvolver uma metodologia sistemática para a inversão de dados de reflexão sísmica em arranjo ponto-médio-comum (PMC), partindo do caso 1D de variação vertical de velocidade e espessura que permite a obtenção de modelos de velocidades intervalares, vint,n, as espessuras intervalares, zn, e as velocidades média-quadrática, vRMS,n, em seções PMC individualizadas. Uma consequência disso é a transformação direta destes valores do tempo para profundidade. Como contribuição a análise de velocidade, foram desenvolvidos dois métodos para atacar o problema baseado na estimativa de velocidade intervalar. O primeiro método foi baseado na marcação manual em seções PMC, e inversão por ajuste de curvas no sentido dos quadrados-mínimos. O segundo método foi baseado na otimização da função semblance para se obter uma marcação automática. A metodologia combinou dois tipos de otimização: um Método Global (Método Price ou Simplex), e um Método Local (Gradiente de Segunda Ordem ou Conjugado), submetidos a informação à priori e vínculos. A marcação de eventos na seção tempo-distância faz parte dos processos de inversão, e os pontos marcados constituem os dados de entrada juntamente com as informações à priori do modelo a ser ajustado. A marcação deve, por princípio, evitar eventos que representem múltiplas, difrações e interseções, e numa seção pode ser feita mais de 50 marcações de eventos, enquanto que num mapa semblance não se consegue marcar mais de 10 eventos de reflexão. A aplicação deste trabalho é voltada a dados sísmicos de bacias sedimentares em ambientes marinhos para se obter uma distribuição de velocidades para a subsuperfície, onde o modelo plano-horizontal é aplicado em seções PMC individualizadas, e cuja solução pode ser usada como um modelo inicial em processos posteriores. Os dados reais da Bacia Marinha usados neste trabalho foram levantados pela PETROBRAS em 1985, e a linha sísmica selecionada foi a de número L5519 da Bacia do Camamu, e o PMC apresentado é a de número 237. A linha é composta de 1098 pontos de tiro, com arranjo unilateraldireito. O intervalo de amostragem é 4 ms. O espaçamento entre os geofones é 13,34 m com o primeiro geofone localizado a 300 m da fonte. O espaçamento entre as fontes é de 26,68 m. Como conclusão geral, o método de estimativa de velocidade intervalar apresentada neste trabalho fica como suporte alternativo ao processo de análise de velocidades, onde se faz necessário um controle sobre a sequência de inversão dos PMCs ao longo da linha sísmica para que a solução possa ser usada como modelo inicial ao imageamento, e posterior inversão tomográfica. Como etapas futuras, podemos propor trabalhos voltados direto e especificamente a análise de velocidade sísmica estendendo o caso 2D de otimização do semblance ao caso 3D, estender o presente estudo para o caso baseado na teoria do raio imagem com a finalidade de produzir um mapa continuo de velocidades para toda a seção sísmica de forma automática.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this work was developed a fuzzy computational model type-2 predictive interval, using the software of the type-2 fuzzy MATLAB toolbox, the final idea is to estimate the number of hospitalizations of patients with respiratory diseases. The interest in the creation of this model is to assist in decision makeshift hospital environment, where there are no medical or professional equipment available to provide the care that the population need. It began working with the study of fuzzy logic, the fuzzy inference system and fuzzy toolbox. Through a real database provided by the Departamento de Informática do Sistema Único de Saúde (DATASUS) and Companhia de Tecnologia de Saneamento Básico (CETESB), was possible to start the model. The analyzed database is composed of the number of patients admitted with respiratory diseases a day for the public hospital in São José dos Campos, during the year 2009 and by factors such as PM10, SO2, wind and humidity. These factors were analyzed as input variables and, through these, is possible to get the number of admissions a day, which is the output variable of the model. For data analysis we used the fuzzy control method type-2 Mamdani. In the following steps the performance developed in this work was compared with the performance of the same model using fuzzy logic type-1. Finally, the validity of the models was estimated by the ROC curve

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The ineffectiveness of current design processes has been well studied and has resulted in widespread calls for the evolution and development of new management processes. Perhaps one problem is that with the advent of BIM we are moving from one stage to another without necessarily having resolved all the issues. CAD design technology, if well handled, could have significantly raised the level of quality and efficiency of current processes, but in practice this was not fully realized. Therefore, technology alone can´t solve all the problems and the advent of BIM could result in a similar bottleneck. For a precise definition of the problem to be solved we should start by understanding what are the main current bottlenecks that have yet to be overcome by either new technologies or management processes, and the impact of human behavior related issues despite the advent of new technologies. The fragmented and dispersed nature of the AEC sector and the huge number of small organizations that comprise it would probably be a major limiting factor. Several authors have addressed this issue and more recently IDDS has been defined as the highest level of achievement. However, what is written on IDDS shows an extremely ideal situation on a state to be achieved; it shows a holistic utopian proposition with the intent to create the research agenda to move towards that state. Key to IDDS is the framing of a new management model which should address the problems associated with key aspects: technology, processes, policies and people. One of the primary areas to be further studied is the process of collaborative work and understanding, together with the development of proposals to overcome the many cultural barriers that currently exist and impede the advance of new management methods. The purpose of this paper is to define and delimit problems to be solved so that it is possible to implement a new management model for a collaborative design process.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This text discusses the project for a garden by Gonçalo Ribeiro-Telles that argues for a different possibility of creating a garden as landscape continuum and exploring picturesque as an apparatus to expand the experience of the place

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Abstract: The present article discusses about the representation of Octavius, Mark Antony and Cleopatra in three coins, to reflect about how the ancient mintage contributed for these personages could shape their images to the populus romanus in general.