990 resultados para Análise de Robustez
Resumo:
This work develops a robustness analysis with respect to the modeling errors, being applied to the strategies of indirect control using Artificial Neural Networks - ANN s, belong to the multilayer feedforward perceptron class with on-line training based on gradient method (backpropagation). The presented schemes are called Indirect Hybrid Control and Indirect Neural Control. They are presented two Robustness Theorems, being one for each proposed indirect control scheme, which allow the computation of the maximum steady-state control error that will occur due to the modeling error what is caused by the neural identifier, either for the closed loop configuration having a conventional controller - Indirect Hybrid Control, or for the closed loop configuration having a neural controller - Indirect Neural Control. Considering that the robustness analysis is restrict only to the steady-state plant behavior, this work also includes a stability analysis transcription that is suitable for multilayer perceptron class of ANN s trained with backpropagation algorithm, to assure the convergence and stability of the used neural systems. By other side, the boundness of the initial transient behavior is assured by the assumption that the plant is BIBO (Bounded Input, Bounded Output) stable. The Robustness Theorems were tested on the proposed indirect control strategies, while applied to regulation control of simulated examples using nonlinear plants, and its results are presented
Resumo:
The goal of this paper is to present a methodology for quality control of horizontal geodetic networks through robustness and covariance analysis. In the proposed methodology, the positional accuracy of each point is estimated by a possible bias in their position (based on robustness analysis), in addition to its own positional precision (uncertainty) (through covariance analysis), being a measure independently from the choice of the datum. Besides presenting the theoretical development of the method, its application is demonstrated in a numerical example. The results indicate that, in general, the greater the distance of an unknown point to the control(s) point(s) of the network, the greater is the propagation of random errors on this unknown point, and the smaller the number of redundant observations around a unknown point, the greater the influence of possible (undetected) non-random errors on this point.
Resumo:
Currently, the need of reliable coordinates has been one of the main objectives of the scientific and practice community. Thus, the robustness analysis of a geodetic network, aims, at analyzing if the network is robust or not, based on the maximum undetectable errors. The network will be robust if the influence of these errors is small, otherwise it is weak, or not robust. This analysis is performed with the merger of two techniques, one which deals with the statistical analysis of reliability and the other one with the geometric strength analysis. The reliability analysis will provide the maximum error that cannot be detected by tests, after the adjustment. After finding these errors, the geometric strength analysis will determine the potential strain that the network will have, based on these errors. It is emphasized that the robustness analysis doesn't depend of the datum, reflecting only the geometry of the network and the accuracy of the observations (VANÌCEK et al., 2001). Therefore, this work aims at contributing to the scientific research on geodetic networks, checking the same, based on their geometry and observations.
Resumo:
Pós-graduação em Engenharia Elétrica - FEIS
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
A Diabetes Mellitus Tipo2 é uma doença crónica que afecta sobretudo a população adulta e é responsável por mais de 90% dos casos de diabetes. A sua prevalência tem aumentado rapidamente, implicando elevados custos em saúde. Está normalmente associada a várias co-morbilidades e complicações, constituindo-se uma das principais causas de morbilidade e mortalidade no mundo. Em Portugal, dados dos Observatório Nacional da Diabetes revelam que, em 2012, cerca de 13% da população adulta sofria de diabetes (aproximadamente um milhão de pessoas), sendo a taxa de incidência anual de 500 novos casos por cada 100 000 habitantes. A amostra do estudo incluiu os doentes com DM2 com mais de 20 anos, num total de 205068 utentes registados nos centros de cuidados de saúde primários da ARSLVT e que residem na área de Lisboa e Vale do Tejo. O enfoque desta dissertação não é somente a exploração dos padrões geográficos da DM Tipo2 mas, sobretudo, a análise de sensibilidade e robustez das estatísticas espaciais utilizadas. Os objectivos são fundamentalmente metodológicos e passam pela aplicação de estatísticas espaciais, em ambiente ArcGIS®, GeoDaTM e linguagem de computação estatística R; pela reflexão em torno das medidas de dependência e de heterogeneidade geográfica e ainda pela análise quantitativa da irregularidade da distribuição espacial da DM Tipo2 na região de Lisboa, baseada em decisões decorrentes do estudo da sensibilidade e da robustez das estatísticas espaciais. A estrutura espacial dos dados foi estudada segundo matrizes de vizinhos mais próximos, fazendo variar o número de vizinhos (1 a 20). Uma vez definida a estrutura de vizinhança procurou-se traduzir o grau de similaridade espacial que existe entre áreas que são próximas, utilizando como medida o Índice Global de Moran. A identificação dos clusters espaciais foi feita através da aplicação das estatísticas de Anselin Local Moran´s I e Getis-Ord Gi*. Após aplicação das estatísticas referidas procurou-se avaliar, ao longo dos testes realizados, a percentagem de permanência das freguesias num cluster espacial. Da análise dos resultados, e tendo em conta os objectivos propostos, concluiu-se que o mapeamento de padrões espaciais é pouco sensível à variação dos parâmetros utilizados. As duas ferramentas de análise espacial utilizadas (análise de cluster e outlier - Anselin´s Local Moran´s I e análises de Hot spot - Getis-Ord Gi*), embora muito distintas, geraram resultados muito similares em termos de identificação da localização geográfica dos clusters para todas as variáveis. Desta forma, foi possível identificar alguns clusters, ainda que de um modo geral exista uma aleatoriedade espacial nos dados.
Análise global da estabilidade termodinâmica de misturas: um estudo com o método do conjunto gerador
Resumo:
O cálculo do equilíbrio de fases é um problema de grande importância em processos da engenharia, como, por exemplo, na separação por destilação, em processos de extração e simulação da recuperação terciária de petróleo, entre outros. Mas para resolvê-lo é aconselhável que se estude a priori a estabilidade termodinâmica do sistema, a qual consiste em determinar se uma dada mistura se apresenta em uma ou mais fases. Tal problema pode ser abordado como um problema de otimização, conhecido como a minimização da função distância do plano tangente à energia livre de Gibbs molar, onde modelos termodinâmicos, de natureza não convexa e não linear, são utilizados para descrevê-lo. Esse fato tem motivado um grande interesse em técnicas de otimização robustas e eficientes para a resolução de problemas relacionados com a termodinâmica do equilíbrio de fases. Como tem sido ressaltado na literatura, para proporcionar uma completa predição do equilíbrio de fases, faz-se necessário não apenas a determinação do minimizador global da função objetivo do teste de estabilidade, mas também a obtenção de todos os seus pontos estacionários. Assim, o desenvolvimento de metodologias para essa tarefa desafiadora tem se tornado uma nova área de pesquisa da otimização global aplicada à termodinâmica do equilíbrio, com interesses comuns na engenharia química e na engenharia do petróleo. O foco do presente trabalho é uma nova metodologia para resolver o problema do teste de estabilidade. Para isso, usa-se o chamado método do conjunto gerador para realizar buscas do tipo local em uma rede de pontos previamente gerada por buscas globais efetuadas com uma metaheurística populacional, no caso o método do enxame de partículas.Para se obter mais de um ponto estacionário, minimizam-se funções de mérito polarizadas, cujos pólos são os pontos previamente encontrados. A metodologia proposta foi testada na análise de quatorze misturas polares previamente consideradas na literatura. Os resultados mostraram que o método proposto é robusto e eficiente a ponto de encontrar, além do minimizador global, todos os pontos estacionários apontados previamente na literatura, sendo também capaz de detectar, em duas misturas ternárias estudadas, pontos estacionários não obtidos pelo chamado método de análise intervalar, uma técnica confiável e muito difundida na literatura. A análise do teste de estabilidade pela simples utilização do método do enxame de partículas associado à técnica de polarização mencionada acima, para a obtenção de mais de um ponto estacionário (sem a busca local feita pelo método do conjunto gerador em uma dada rede de pontos), constitui outra metodologia para a resolução do problema de interesse. Essa utilização é uma novidade secundária deste trabalho. Tal metodologia simplificada exibiu também uma grande robustez, sendo capaz de encontrar todos os pontos estacionários pesquisados. No entanto, quando comparada com a abordagem mais geral proposta aqui, observou-se que tal simplificação pode, em alguns casos onde a função de mérito apresenta uma geometria mais complexa, consumir um tempo de máquina relativamente grande, dessa forma é menos eficiente.
Resumo:
Hoje em dia, distribuições de grandes volumes de dados por redes TCP/IP corporativas trazem problemas como a alta utilização da rede e de servidores, longos períodos para conclusão e maior sensibilidade a falhas na infraestrutura de rede. Estes problemas podem ser reduzidos com utilização de redes par-a-par (P2P). O objetivo desta dissertação é analisar o desempenho do protocolo BitTorrent padrão em redes corporativas e também realizar a análise após uma modificação no comportamento padrão do protocolo BitTorrent. Nesta modificação, o rastreador identifica o endereço IP do par que está solicitando a lista de endereços IP do enxame e envia somente aqueles pertencentes à mesma rede local e ao semeador original, com o objetivo de reduzir o tráfego em redes de longa distância. Em cenários corporativos típicos, as simulações mostraram que a alteração é capaz de reduzir o consumo médio de banda e o tempo médio dos downloads, quando comparados ao BitTorrent padrão, além de conferir maior robustez à distribuição em casos de falhas em enlaces de longa distância. As simulações mostraram também que em ambientes mais complexos, com muitos clientes, e onde a restrição de banda em enlaces de longa distância provoca congestionamento e descartes, o desempenho do protocolo BitTorrent padrão pode ser semelhante a uma distribuição em arquitetura cliente-servidor. Neste último caso, a modificação proposta mostrou resultados consistentes de melhoria do desempenho da distribuição.
Resumo:
O objetivo desta dissertação é avaliar se há correlação significativa entre a receita orçamentária municipal, em termos per capita, e seu grau de desenvolvimento humano medido pelo indicador IDH. Para tanto foi proposto um modelo econométrico com o emprego de dados em painel aplicado a uma amostra de 2264 cidades brasileiras nos anos de 1991 e 2000. Para testar a robustez dos resultados preliminares, os municípios foram segregados ainda conforme a região geográfica em que estão localizados e segundo o tamanho da população residente em seus territórios. Independentemente do agrupamento efetuado os resultados se mantiveram bastante estáveis, sendo possível concluir que a relação entre a receita orçamentária per capita municipal e o IDH é muito fraca, embora estatisticamente significante. Outra importante conclusão deste estudo é que quanto pior os indicadores sociais do município observado, maior é o aumento marginal esperado no IDH em função de acréscimos na sua arrecadação per capita.
Resumo:
Este artigo tem como objetivo verificar a robustez do contéudo preditivo de regras da análise técnica, usando informações intradiárias do mercado futuro do índice de ações da Bolsa de Valores de São Paulo (Ibovespa Futuro). A metodologia sugerida foi a avaliacão em grupos, conforme os resultados de Baptista (2002), tal que as regras são obtidas conforme os resultados em alguns dos subperíodos estudados, sendo testadas em períodos subsequentes. Como resultado, obteve-se robustez ao longo do tempo e à taxa de amostragem dos dados no desempenho das regras acima do benchmark (buy-and-hold), porém considerações realistas acerca do momento de compra, assim como da corretagem (exceto grande investidor), podem reduzir substancialmente os ganhos
Resumo:
Este artigo analisou as relações entre poupança pública e crescimento econômico. Inicialmente, a análise teórico-descritiva dessas relações mostrou que a poupança pública é um indicador de sustentabilidade fiscal mais completo do que o superávit primário e tende a apresentar efeitos mais positivos sobre o produto do que o superávit operacional. As equações estimadas e os testes de robustez dos resultados da posterior análise econométrica, que utilizou modelos de regressão múltipla para um painel de 38 nações, comprovaram, a elevados níveis de confiança, a hipótese de relação positiva entre as taxas de poupança pública e de crescimento econômico per capita indicando a direção de causalidade entre ambos, além de fornecerem resultados interessantes e consistentes sobre a forma de associação do desenvolvimento a outras variáveis. A conclusão central foi de que um aumento de uma unidade na taxa de poupança pública deve levar, em média, a uma elevação de 0,17 unidades na taxa de crescimento econômico per capita
Resumo:
Essa pesquisa tem como principal objetivo analisar e caracterizar a dinâmica associada à geração, à seleção e à implementação de inovações tecnológicas nas cadeias produtivas agroindustriais. A estrutura de análise vale-se da abordagem dos Sistemas Setoriais de Inovação-SSI, aplicada a um recorte vertical definido pelo conceito de cadeia produtiva. A abordagem de SSI é definida como o sistema de firmas e instituições ativas no desenvolvimento e manufatura de produtos de um setor e na geração e utilização das tecnologias setoriais; esse sistema evolui através de processos de interação e cooperação no desenvolvimento de artefatos tecnológicos, bem como por meio de processos de concorrência e seleção em atividades de inovação. Utilizou-se o método de estudos de caso para evidenciar as relações sistêmicas e os trade-offs entre os fatores institucionais, tecnológicos e organizacionais relacionados com o processo de inovação empreendido pelas agroindústrias Escolheu-se um desenho de pesquisa com uma unidade de análise (agroindústrias que recentemente lançaram novos produtos na cadeia produtiva de leite fluido) e múltiplos estudos de caso (duas agroindústrias no Brasil e duas na França, que lançaram algumas das principais inovações de produto nesses mercados na década de 1990, leite UHT Premium, leite esterilizado, leite UHT orgânico e leite microfiltrado, respectivamente). As estratégias desenvolvidas por fornecedores, o setor lácteo e o sistema de distribuição de alimentos estão sofrendo mudanças rápidas nesses países, o que demonstra bem a robustez do fenômeno em contextos diferentes e complexos. Além disso, a consideração de arquétipos contrastantes - grandes corporações multinacionais e pequenas e médias empresas agroindustriais – em dois SSI que representam ambientes assimétricos – países desenvolvidos e em desenvolvimento – favorece a geração de insight sobre a inter-relação dos elementos-chave associados com a inovação tecnológica. O SSI da cadeia produtiva de leite fluido na França é caracterizado por um alto nível de oportunidade, por um lado, devido à disponibilidade de um mercado consumidor relevante, protegido e diversificado, por outro lado, graças a um sistema estruturado voltado ao suporte e financiamento das atividades inovadoras. Além disso, este país conta com uma grande variedade de agentes, capazes de ofertar e desenvolver um amplo leque de soluções tecnológicas inovadoras – o que se expressa pela emergência de variantes tecnológicas pré-paradigmáticas como aquelas consideradas nos estudos de caso Contudo, esse SSI é emblemático de uma concorrência vertical feroz entre as indústrias de laticínios e o varejo. Já no Brasil, o SSI da cadeia produtiva de leite fluido é caracterizado por um nível de oportunidade promissor, o segmento de distribuição é, relativamente, menos concentrado, e a parcela de mercado de produtos com marca de varejo é, ainda, limitado nesse SSI. Apesar disso, as assimetrias no potencial de consumo da população restringem o tamanho dos mercados de nicho e instabilizam a demanda. Ainda, a variedade de soluções tecnológicas nesse SSI é limitada pelo baixo investimento público e privado em pesquisa aplicada e pela restrita integração entre instituições de pesquisa e indústrias de laticínios. Em ambos os SSI, os estudos de caso evidenciaram que o pioneirismo – associado á exploração de ativos complementares (especialmente imagem de marca) – e á aprendizagem tácita, são os meios mais importantes para garantir um certo grau de apropriabilidade das novas tecnologias.
Resumo:
A presente dissertação teve como objetivo analisar de modo abrangente e preciso as relações entre poupança pública e crescimento econômico, motivada pela importância do estudo para o entendimento dos fatores incentivadores do desenvolvimento e pela quase absoluta originalidade do tema. Depois de uma revisão analítica de modelos de crescimento econômico investigativos dos impactos do setor público sobre as taxas de desenvolvimento, análise teórico-descritiva das relações entre poupança pública e crescimento mostrou que a poupança é um indicador de sustentabilidade fiscal mais completo do que o superávit primário e tende a apresentar efeitos mais positivos sobre o comportamento do produto do que o superávit operacional. A subseqüente análise econométrica dos efeitos da poupança pública sobre o crescimento econômico baseou-se em hipóteses retiradas do exame descritivo da evolução de algumas variáveis públicas e da taxa de crescimento per capita para uma série de países, estimando modelos de regressão múltipla para um painel de 38 nações, entre desenvolvidas e em desenvolvimento. As equações estimadas e os testes de robustez dos resultados comprovaram, a elevados níveis de confiança, a hipótese de relação positiva entre as taxas de poupança pública e de crescimento econômico per capita, além de fornecerem resultados interessantes e consistentes sobre a forma de associação do desenvolvimento a outras variáveis. A conclusão central foi que um aumento de uma unidade na taxa de poupança pública deve levar, em média, a uma elevação de 0,17 unidades na taxa de crescimento econômico per capita, reforçando o argumento de que um importante indicador fiscal a ser monitorado pelos governos com o objetivo de atingir taxas mais elevadas de crescimento sem descuidar de suas finanças é a poupança pública.
Resumo:
O principal objetivo desta dissertação é avaliar se o modelo de Comer identifica adequadamente a composição das carteiras dos fundos multimercados brasileiros. Ao confirmar sua eficiência, o modelo foi utilizado para avaliar se os fundos estão seguindo a política de investimento de acordo com sua classificação ANBIMA. Comparou-se o resultado do modelo, a classificação dos fundos na ANBIMA, e a alocação efetiva dos gestores, através da divulgação das carteiras na CVM. A comparação destes três fatores nos permite inferir a qualidade do modelo e o enquadramento do fundo. A hipótese central da pesquisa consiste em verificar se o modelo multifatorial de análise de estilo baseado em retorno desenvolvido por Comer é eficiente em sua aplicação no mercado de fundos multimercados brasileiro. Verificar ainda se os fundos da amostra estão enquadrados de acordo com sua classificação perante a ANBIMA. Este estudo usou a base de dados da Economática para obter uma amostra de fundos de investimento multimercado e testar a hipótese colocada. As regressões foram estimadas semanalmente no período de julho de 2007 até junho de 2012. Os resultados geraram as seguintes conclusões: 1) O modelo de análise de estilo dos fundos com base em seus retornos para fundos multimercados é eficiente para o Brasil, passando pelos testes de robustez nele aplicado. Confirmando assim, esta técnica como mais uma ferramenta de suporte ao investidor para alocar seu dinheiro. 2) A relação entre modelo, classificação ANBIMA e ativos da carteira.
Resumo:
Este trabalho procura identificar quais variáveis são as mais relevantes para previsão da taxa de câmbio real do Brasil e analisar a robustez dessas previsões. Para isso foram realizados testes de cointegração de Johansen em 13 variáveis macroeconômicas. O banco de dados utilizado são séries trimestrais e compreende o período de 1970 a 2014 e os testes foram realizados sobre as séries combinadas dois a dois, três a três e quatro a quatro. Por meio desse método, encontramos nove grupos que cointegram entre si. Utilizando esses grupos, são feitas previsões fora da amostra com a partir das últimas 60 observações. A qualidade das previsões foi avaliada por meio dos testes de Erro Quadrático Médio, teste de Diebold-Mariano e, além disso, foi utilizado um modelo de passeio aleatório do câmbio real como benchmark para o procedimento de Hansen. Todos os testes mostram que, à medida que se aumenta o horizonte de projeção, o passeio aleatório perde poder preditivo e a maioria dos modelos são mais informativos sobre o futuro da o câmbio real efetivo. O horizonte é de três a quatro anos à frente. No caso do teste de Hansen, o passeio aleatório é completamente eliminado do grupo final de modelos, mostrando que é possível fazer previsões superiores ao passeio aleatório.