432 resultados para Robustez
Resumo:
En los últimos años la proliferación de aplicaciones 3D en SIG ha sido enorme, desde la aparición de Google Earth el usuario está familiarizado con entornos 3D. Por otra parte lo ordenadores con aceleración 3D son comunes en la actualidad y el acceso a banda ancha es prácticamente generalizado, además cada vez hay mayor cantidad de datos públicos que pueden ser utilizados por clientes SIG que sean capas de recibir datos de Internet.Hay varias librerías apropiadas para la realización de este tipo de aplicaciones. IGO SOFTWARE a comenzado a desarrollar aplicaciones 3D con las librería Nasa World Wind SDK para java.Decidimos usar estar librerías por su robustez, sencillez, cantidad de ejemplo, estar hechas en java (nos permite su unión a muchas librerías SIG) y su uso de caché local. Las aplicaciones desarrolladas en 3D no sólo son visualmente más atractivas, también nos ofrecen más información que el SIG clásico en 2D. Gracias a la integración de librerías como SEXTANTE ahora es posible también realizar análisis. En un futuro se espera poder desarrollar también algoritmos de análisis en 3D usando dicha plataforma. Por otra parte, llevamos desde hace algunos años desarrollando aplicaciones para el tratamiento de nubes de puntos proveniente de Láser Escáner y LIDAR, esta plataforma es ideal para mostrar nubes de puntos, por lo que es perfecta para visualizar nubes de puntos georreferenciadas. Mostraremos ejemplos de aplicaciones programadas con estas librerías y las posibilidades que vemos de cara a un futuro a este tipo de desarrollos
Resumo:
This thesis studies robustness against large-scale failures in communications networks. If failures are isolated, they usually go unnoticed by users thanks to recovery mechanisms. However, such mechanisms are not effective against large-scale multiple failures. Large-scale failures may cause huge economic loss. A key requirement towards devising mechanisms to lessen their impact is the ability to evaluate network robustness. This thesis focuses on multilayer networks featuring separated control and data planes. The majority of the existing measures of robustness are unable to capture the true service degradation in such a setting, because they rely on purely topological features. One of the major contributions of this thesis is a new measure of functional robustness. The failure dynamics is modeled from the perspective of epidemic spreading, for which a new epidemic model is proposed. Another contribution is a taxonomy of multiple, large-scale failures, adapted to the needs and usage of the field of networking.
Resumo:
The performance of a model-based diagnosis system could be affected by several uncertainty sources, such as,model errors,uncertainty in measurements, and disturbances. This uncertainty can be handled by mean of interval models.The aim of this thesis is to propose a methodology for fault detection, isolation and identification based on interval models. The methodology includes some algorithms to obtain in an automatic way the symbolic expression of the residual generators enhancing the structural isolability of the faults, in order to design the fault detection tests. These algorithms are based on the structural model of the system. The stages of fault detection, isolation, and identification are stated as constraint satisfaction problems in continuous domains and solved by means of interval based consistency techniques. The qualitative fault isolation is enhanced by a reasoning in which the signs of the symptoms are derived from analytical redundancy relations or bond graph models of the system. An initial and empirical analysis regarding the differences between interval-based and statistical-based techniques is presented in this thesis. The performance and efficiency of the contributions are illustrated through several application examples, covering different levels of complexity.
Resumo:
O presente trabalho teve como objetivo a identificação de atributos relacionados à atratividade de clientes em clusters comerciais, na percepção de consumidores. Partindo-se da atratividade de clientes para lojas, desenvolveu-se um construto de avaliação de atratividade de clientes para clusters comerciais. Por meio de estudo descritivo-quantitativo junto a 240 consumidores, em dois reconhecidos clusters comerciais, utilizando-se a técnica de PLS-PM (Partial Least Squares Path Modeling), avaliou-se a relação entre a atratividade de clientes (variável reflexiva) e as dimensões do mix varejista de clusters comerciais (variáveis latentes), a partir do tratamento de indicadores de efeitos observáveis. Como principais resultados, observou-se que: (1) atratividade está associada significativamente às variáveis latentes, sugerindo robustez do modelo; (2) condições de compra e preços são dimensões com maior associação à atratividade de clientes, embora lojas, produtos e atendimento apresentem relevância; e (3) localização apresentou-se como dimensão menos correlacionada à atratividade de clientes para ambos os clusters.
Resumo:
Esta dissertação pretende consolidar um método quantitativo, flexível e genérico que possa ser útil na otimização experimental dos mais variados produtos e processos industriais medidos por múltiplas variáveis de resposta. O que se pretende com o método é identificar o ajuste ótimo dos fatores controláveis, ou seja, aquele que reduz os custos devido à má qualidade de um produto considerando também os custos de matéria-prima e energia gastos na fabricação desse produto. A redução dos custos gerados pela má qualidade de um produto é alcançada através da minimização dos desvios das variáveis de resposta dos seus valores alvos e maximização da robustez do produto ou processo aos fatores de ruído e a possíveis oscilações nos fatores controláveis, pois toda vez que uma variável de resposta desvia-se do seu valor alvo ou apresenta variabilidade, existe uma perda financeira experimentada pelo seu usuário. Ao longo do texto, faz-se uma revisão da literatura existente sobre o assunto, apresentam-se as etapas do método que devem ser cumpridas e algumas ferramentas consideradas eficientes no cumprimento dessas etapas. Logo após, realizam-se estudos práticos para validar o método e, baseado nesses estudos e no referencial teórico, conclui-se sobre o assunto.
Resumo:
Sistemas de visão artificial são cada vez mais usados para auxiliar seres humanos em diferentes tarefas. Estes sistemas são capazes de reconhecer padrões previamente ensinados em uma imagem complexa. A leitura automática é uma das mais atraentes tarefas nesta área [1], sendo que uma máquina com esta capacidade pode reconhecer objetos que possuam caracteres em sua identificação. Na área de trânsito, a identificação de veículos através da leitura de sua placa de licença vem conquistando cada vez mais espaço. No início dos anos cinqüenta, este conceito era usado para estudar o tempo de duração de viagens entre origem e destino. Os primeiros métodos utilizados eram baseados em observadores que anotavam as placas dos veículos e os tempos correspondentes em um papel ou fita gravada. As placas eram manualmente comparadas mais tarde, e os tempos de viagem calculados [2]. O crescente avanço tecnológico tem aumentado substancialmente a precisão e facilidade desta técnica permitindo sua utilização na identificação de veículos infratores e em situação irregular, e no controle de pedágios e estacionamentos pagos Este trabalho envolve o estudo de diversas técnicas de processamento e análise de imagem culminando no desenvolvimento de um sistema capaz de localizar e reconhecer os caracteres contidos numa placa de licença de um veículo. A imagem é previamente analisada por um algoritmo de procura por variações tonais padronizadas de maneira a restringir a área de análise do algoritmo principal do sistema. Este, por sua vez, binariza a imagem através de um algoritmo adaptativo e busca elementos que possuam dimensões próximas às dimensões esperadas dos caracteres da placa. O sistema busca encontrar uma seqüência de caracteres de dimensões aproximadamente iguais e para isso, varia um valor de limiar no processo de binarização conferindo maior robustez ao algoritmo. Uma vez encontrado um grupo de dígitos que satisfaçam alguns critérios prédefinidos, os caracteres são redimensionados e apresentados a duas redes neurais, uma para as letras e outra para os números.
Resumo:
O estudo do envolvimento do consumidor representa um dos tópicos mais importantes de pesquisa para aqueles que visam entender a forma como os seres humanos realizam suas decisões de compra. O envolvimento determina a quantidade de esforços empregados no processo de tomada de decisão, e apresenta importantes implicações tanto para o âmbito acadêmico quanto para o meio gerencial. No que diz respeito ao ambiente brasileiro, no entanto, foram poucos os trabalhos que se dedicaram exclusivamente a esse tema, não havendo, até o início desta pesquisa, nenhuma escala para mensuração de envolvimento validada para este cenário. O objetivo deste estudo é a avaliação da aplicabilidade da escala de Jain & Srinivasan (1990) na cidade de Porto Alegre. Tal escala, denominada New Involvement Profile (NIP), pode ser utilizada para mensuração do envolvimento de consumidores com diferentes categorias de produtos. Para esta pesquisa, mensurou-se o envolvimento com relação aos produtos cerveja, chocolate, corte de cabelo, CD, aparelho de televisão, detergente, shampoo e pilha. A escala NIP foi reaplicada a uma amostra de 420 (quatrocentos e vinte) respondentes em diversos bairros desta cidade. A qualidade e a robustez da escala de Jain & Srinivasan (1990) foram comprovadas através de testes de confiabilidade e verificações da validade de conteúdo e de constructo, englobando validade convergente e discriminante de cada dimensão da escala. Tal avaliação foi complementada a partir da relação existente entre os níveis de envolvimento encontrados e os pressupostos teóricos acerca desse conceito – tipos e determinates, bem como da comparação entre esses níveis e aqueles obtidos pelos mesmos produtos em estudos semelhantes.
Resumo:
Neste trabalho é proposta uma classe de modelos paramétricos para estrutura a termo de taxa de juros (ETTJ) em que diferentes segmentos possam ter características próprias, porém não independentes, o que é condizente com a teoria de preferências por Habitat. O modelo baseia-se em Bowsher & Meeks (2006) onde a curva é determinada por um spline cúbico nas yields latentes, mas difere no sentido de permitir diferentes funções de classe C2 entre os segmentos, ao invés de polinômios cúbicos. Em particular usa-se a especi cação de Nelson & Siegel, o que permite recuperar o modelo de Diebold & Li (2006) quando não há diferenciação entre os segmentos da curva. O modelo é testado na previsão da ETTJ americana, para diferentes maturidades da curva e horizontes de previsão, e os resultados fora da amostra são comparados aos modelos de referência nesta literatura. Adicionalmente é proposto um método para avaliar a robustez da capacidade preditiva do modelos. Ao considerar a métrica de erros quadráticos médios , os resultados são superiores à previsão dos modelos Random Walk e Diebold & Li, na maior parte das maturidades, para horizontes de 3, 6 , 9 e 12 meses.
Resumo:
O objetivo desta dissertação é avaliar se há correlação significativa entre a receita orçamentária municipal, em termos per capita, e seu grau de desenvolvimento humano medido pelo indicador IDH. Para tanto foi proposto um modelo econométrico com o emprego de dados em painel aplicado a uma amostra de 2264 cidades brasileiras nos anos de 1991 e 2000. Para testar a robustez dos resultados preliminares, os municípios foram segregados ainda conforme a região geográfica em que estão localizados e segundo o tamanho da população residente em seus territórios. Independentemente do agrupamento efetuado os resultados se mantiveram bastante estáveis, sendo possível concluir que a relação entre a receita orçamentária per capita municipal e o IDH é muito fraca, embora estatisticamente significante. Outra importante conclusão deste estudo é que quanto pior os indicadores sociais do município observado, maior é o aumento marginal esperado no IDH em função de acréscimos na sua arrecadação per capita.
Resumo:
Este artigo tem como objetivo verificar a robustez do contéudo preditivo de regras da análise técnica, usando informações intradiárias do mercado futuro do índice de ações da Bolsa de Valores de São Paulo (Ibovespa Futuro). A metodologia sugerida foi a avaliacão em grupos, conforme os resultados de Baptista (2002), tal que as regras são obtidas conforme os resultados em alguns dos subperíodos estudados, sendo testadas em períodos subsequentes. Como resultado, obteve-se robustez ao longo do tempo e à taxa de amostragem dos dados no desempenho das regras acima do benchmark (buy-and-hold), porém considerações realistas acerca do momento de compra, assim como da corretagem (exceto grande investidor), podem reduzir substancialmente os ganhos
Resumo:
Este artigo analisou as relações entre poupança pública e crescimento econômico. Inicialmente, a análise teórico-descritiva dessas relações mostrou que a poupança pública é um indicador de sustentabilidade fiscal mais completo do que o superávit primário e tende a apresentar efeitos mais positivos sobre o produto do que o superávit operacional. As equações estimadas e os testes de robustez dos resultados da posterior análise econométrica, que utilizou modelos de regressão múltipla para um painel de 38 nações, comprovaram, a elevados níveis de confiança, a hipótese de relação positiva entre as taxas de poupança pública e de crescimento econômico per capita indicando a direção de causalidade entre ambos, além de fornecerem resultados interessantes e consistentes sobre a forma de associação do desenvolvimento a outras variáveis. A conclusão central foi de que um aumento de uma unidade na taxa de poupança pública deve levar, em média, a uma elevação de 0,17 unidades na taxa de crescimento econômico per capita
Resumo:
De acordo com a Lei Federal n° 9.433/97, que instituiu a Política e o Sistema Nacional de Gerenciamento dos Recursos Hídricos, o planejamento de recursos hídricos deve ter um enfoque sistêmico, de uso múltiplo das águas e descentralização das decisões, adotando a bacia hidrográfica como unidade de gestão. Dentro deste contexto, de descentralização de decisões e participação de grandes grupos no processo de tomada de decisão sobre a gestão dos recursos hídricos, os procedimentos clássicos de avaliação de alternativas para planejar o uso, controle e proteção das águas tornam-se limitados por sua impossibilidade de incluir outros critérios, além da minimização dos custos ou da maximização dos benefícios, e por não considerarem a subjetividade inerente ao processo de tomada de decisão, que corresponde ao sistema de valores dos atores envolvidos na tomada de decisões. Assim, este trabalho apresenta um Método Multicritério em Apoio à Decisão para o planejamento de recursos hídricos de bacias hidrográficas, que além de incorporar vários critérios na avaliação de alternativas, por adotar uma abordagem construtivista, propicia a participação de todos os atores envolvidos no processo de tomada de decisão. Para testar a aplicabilidade prática do método proposto foi escolhida a bacia hidrográfica do rio dos Sinos, localizada no estado do Rio Grande do Sul, sendo construído um Modelo Multicritério de Avaliação de Alternativas para o Plano da Bacia Hidrográfica do Rio dos Sinos. Os resultados do trabalho demonstraram a robustez da proposta que, ao possibilitar a geração e avaliação de alternativas para o Plano da Bacia Hidrográfica do Rio dos Sinos, a partir de diversos critérios, e levando em conta o sistema de valores dos decisores, se constituiu em um diferencial capaz de conferir maior legitimidade ao processo de tomada de decisões sobre o planejamento de recursos hídricos de bacias hidrográficas.
Resumo:
Este trabalho aborda o desenvolvimento de um algoritmo de controle para servoposicionadores pneumáticos. Esses dispositivos são limpos, baratos e apresentam boa relação entre seu peso e a potência que são capazes de fornecer, o que os torna vantajosos para muitas aplicações. Seu emprego em tarefas de precisão é comprometido, no entanto, pelo seu comportamento fortemente não-linear. Visando compreender os fenômenos envolvidos, e realizar testes dos controladores propostos através de simulações, é realizado um estudo da modelagem matemática desses sistemas. Buscando situar este trabalho no campo de pesquisa proposto, é apresentada uma introdução aos critérios de estabilidade utilizados no âmbito dos sistemas não-lineares, com atenção especial ao Teorema da Estabilidade Assintótica de Lyapunov. Também são discutidas as técnicas de controle não-linear utilizadas neste trabalho. O controlador não-linear proposto é sintetizado com base na estratégia de controle em cascata. Essa técnica consiste na interpretação do servoposicionador como dois subsistemas interconectados: um subsistema mecânico e outro pneumático. O modelo do subsistema mecânico é utilizado para determinar o valor de pressão necessário para que o sistema siga a trajetória desejada. Com essa informação, é calculada a entrada de controle adequada para o subsistema pneumático, de forma que esta última forneça a pressão desejada ao subsistema mecânico. A fim de assegurar robustez ao sistema controlado frente à presença de incertezas paramétricas e de forças externas e/ou de atrito, utiliza-se uma técnica de controle a estrutura variável no subsistema pneumático. A lei originalmente proposta para o subsistema pneumático é, então, modificada, com os objetivos de eliminar a necessidade de monitorar o sinal de aceleração do sistema e de reduzir o grau de solicitação dos componentes eletromecânicos do servoposicionador. As propriedades de estabilidade e robustez do sistema em malha fechada são provadas analiticamente para cada uma das duas leis de controle propostas. As demonstrações são obtidas por meio da teoria de estabilidade de Lyapunov. Essas propriedades são corroboradas por meio de simulação do sistema controlado, com e sem a presença dos efeitos não-lineares do atrito e das incertezas paramétricas. Além de ratificar as características analiticamente previstas para o servoposicionador em malha fechada, os resultados das simulações também são utilizados para comparar os méritos das diferentes leis de controle propostas para o seguimento no subsistema pneumático.
Resumo:
Neste trabalho é avaliada a aplicação da técnica de ICP OES (Espectrometria de Emissão com Plasma Indutivamente Acoplado) para a determinação de elementos traço em amostras ambientais. Foram investigados os comportamentos de As, Ba, Cd, Co, Cu, Cr, Mn, Ni, Pb, V e Zn, utilizando-se espectrômetro com vista de observação axial/radial do plasma e sistema de detecção baseado em dispositivos de carga acoplada (CCD). No presente estudo, foi avaliado o desempenho dos nebulizadores pneumáticos do tipo concêntrico (Meinhard), “cross flow” e GemCone® acoplados às câmaras de nebulização de duplo passo (Scott) e ciclônica, bem como do nebulizador ultra-sônico para a introdução de amostras no plasma. Investigou-se a robustez do plasma, potência de radiofreqüência (RF), vazão dos gases de nebulização e auxiliar, bem como a altura de observação, para ambas as vistas de observação do plasma. Sob condições otimizadas os limites de detecção (LD), em ng mL-1, para os elementos As, Ba, Cd, Co, Cr, Cu, Mn, Ni, Pb, V e Zn, em solução aquosa de HNO3 5% (v/v), utilizando-se a configuração axial do plasma, foram: 1,1 - 16; 0,002 - 0,32; 0,03 - 1,2; 0,02 - 0,72; 0,03 - 0,82; 0,04 - 3,0; 0,003 - 0,76; 0,08 - 3,8; 0,22 - 8,9; 0,04 - 2,6; e 0,02 - 1,2 respectivamente. Utilizando-se a configuração radial, os LDs (ng mL-1) dos mesmos elementos foram: 10 - 87; 0,01 - 0,91; 0,07 - 3,8; 0,16 - 4,3; 0,13 - 8,1; 0,16 - 4,3; 0,01 - 0,81; 0,43 - 7,6; 1,4 - 37; 0,28 - 6,0 e 0,77 - 9,5 respectivamente. Com relação à nebulização pneumática, os LDs são relativamente mais baixos quando é utilizado o nebulizador concêntrico acoplado à câmara de nebulização ciclônica. LDs ainda melhores são obtidos mediante o uso de nebulização ultra-sônica mas, neste caso, foi observado que o plasma é menos robusto. As metodologias foram desenvolvidas mediante o uso de materiais de referência certificados sendo analisados os seguintes materiais: sedimento marinho (PACS-2/NRCC), folhas de maçã (apple leaves – 1515/NIST) e água (natural water – 1640/NIST), obtendo-se concentrações concordantes com as certificadas, com exceção do Ni em folha de maçã, que não foi detectado utilizando-se a nebulização pneumática e também não pôde ser determinado com exatidão mediante o uso de nebulizador ultra-sônico. Interferências não espectrais observadas na análise de sedimento marinho foram contornadas através da diluição da amostra, ou através da lavagem da câmara de nebulização com solução de HNO3 5% (v/v), por 60 s entre cada ciclo de leitura. Estas interferências não puderam ser contornadas com o uso de padrão interno (PI). A interferência espectral do As sobre o Cd não foi observada fazendo-se a medição do sinal em área de pico, demarcado com somente 3 pontos/pico. Após serem estabelecidas as metodologias de análise, foram analisadas as seguintes amostras não certificadas: água de rio, água subterrânea (poço artesiano), água tratada e de chuva, folhas de eucalipto e bambu, acículas de pinus e infusão de chá preto, sendo possível quantificar baixas concentrações dos elementos investigados, utilizando-se a calibração externa.
Resumo:
The present work has as main objective the identification and impact analysis for the practice ITIL in the organizational flexibility of a multinational IT company, being this study of quali-quantitative and exploratory nature. To achieve this objective, some theoretical studies on bureaucracy, organization flexibility, control, IT governance and ITIL were done, as a form to better understand the research problem. For analysis effect a set of eleven ITIL process was considered in this research ¿ service desk, incident management, problem management, change management, configuration management, release management, service level management, availability management, capacity management, continuity management and finally IT financial services management ¿ grouped in its two core areas ¿ service support and service delivery. Then a scale was constructed and validated, on the basis of theoretical models developed by Volberda (1997), Tenório (2002) and Golden and Powell (1999), to measure the flexibility related to each process comprising the ITIL core. The dimensions adopted to measure flexibility were: organization design task, managerial task, IT impact on work force, HR management, efficiency impact, sensitivity, versatility and robustness. The instrument used in research was a semi-structured interview, which was divided in two parts. The data collection was performed with ten interviewed people from an IT multinational company, based on convenience, some were managers and there were users, some were ITIL certified and others not. The statistic tests of t student and Wilcoxon non-parametric were adopted. The result of the research indicated that the ITIL service support area, for possessing greater operational focus, presents flexibility trend. The opposite was found for the service delivery area, which has greater tactical focus. The results also suggest that the change management discipline was the one that contributed for the most flexibility inside the company, followed by incident management discipline and the service desk function.