890 resultados para Tchebyshev metrics
Resumo:
This paper presents a strategy for the solution of the WDM optical networks planning. Specifically, the problem of Routing and Wavelength Allocation (RWA) in order to minimize the amount of wavelengths used. In this case, the problem is known as the Min-RWA. Two meta-heuristics (Tabu Search and Simulated Annealing) are applied to take solutions of good quality and high performance. The key point is the degradation of the maximum load on the virtual links in favor of minimization of number of wavelengths used; the objective is to find a good compromise between the metrics of virtual topology (load in Gb/s) and of the physical topology (quantity of wavelengths). The simulations suggest good results when compared to some existing in the literature.
Resumo:
Wireless Sensor Networks (WSNs) have a vast field of applications, including deployment in hostile environments. Thus, the adoption of security mechanisms is fundamental. However, the extremely constrained nature of sensors and the potentially dynamic behavior of WSNs hinder the use of key management mechanisms commonly applied in modern networks. For this reason, many lightweight key management solutions have been proposed to overcome these constraints. In this paper, we review the state of the art of these solutions and evaluate them based on metrics adequate for WSNs. We focus on pre-distribution schemes well-adapted for homogeneous networks (since this is a more general network organization), thus identifying generic features that can improve some of these metrics. We also discuss some challenges in the area and future research directions. (C) 2010 Elsevier B.V. All rights reserved.
Resumo:
In the last decades, the air traffic system has been changing to adapt itself to new social demands, mainly the safe growth of worldwide traffic capacity. Those changes are ruled by the Communication, Navigation, Surveillance/Air Traffic Management (CNS/ATM) paradigm, based on digital communication technologies (mainly satellites) as a way of improving communication, surveillance, navigation and air traffic management services. However, CNS/ATM poses new challenges and needs, mainly related to the safety assessment process. In face of these new challenges, and considering the main characteristics of the CNS/ATM, a methodology is proposed at this work by combining ""absolute"" and ""relative"" safety assessment methods adopted by the International Civil Aviation Organization (ICAO) in ICAO Doc.9689 [14], using Fluid Stochastic Petri Nets (FSPN) as the modeling formalism, and compares the safety metrics estimated from the simulation of both the proposed (in analysis) and the legacy system models. To demonstrate its usefulness, the proposed methodology was applied to the ""Automatic Dependent Surveillance-Broadcasting"" (ADS-B) based air traffic control system. As conclusions, the proposed methodology assured to assess CNS/ATM system safety properties, in which FSPN formalism provides important modeling capabilities, and discrete event simulation allowing the estimation of the desired safety metric. (C) 2011 Elsevier Ltd. All rights reserved.
Resumo:
The roots of swarm intelligence are deeply embedded in the biological study of self-organized behaviors in social insects. Particle swarm optimization (PSO) is one of the modern metaheuristics of swarm intelligence, which can be effectively used to solve nonlinear and non-continuous optimization problems. The basic principle of PSO algorithm is formed on the assumption that potential solutions (particles) will be flown through hyperspace with acceleration towards more optimum solutions. Each particle adjusts its flying according to the flying experiences of both itself and its companions using equations of position and velocity. During the process, the coordinates in hyperspace associated with its previous best fitness solution and the overall best value attained so far by other particles within the group are kept track and recorded in the memory. In recent years, PSO approaches have been successfully implemented to different problem domains with multiple objectives. In this paper, a multiobjective PSO approach, based on concepts of Pareto optimality, dominance, archiving external with elite particles and truncated Cauchy distribution, is proposed and applied in the design with the constraints presence of a brushless DC (Direct Current) wheel motor. Promising results in terms of convergence and spacing performance metrics indicate that the proposed multiobjective PSO scheme is capable of producing good solutions.
Resumo:
Recombinant protein production in bacteria is efficient except that insoluble inclusion bodies form when some gene sequences are expressed. Such proteins must undergo renaturation, which is an inefficient process due to protein aggregation on dilution from concentrated denaturant. In this study, the protein-protein interactions of eight distinct inclusion-body proteins are quantified, in different solution conditions, by measurement of protein second virial coefficients (SVCs). Protein solubility is shown to decrease as the SVC is reduced (i.e., as protein interactions become more attractive). Plots of SVC versus denaturant concentration demonstrate two clear groupings of proteins: a more aggregative group and a group having higher SVC and better solubility. A correlation of the measured SVC with protein molecular weight and hydropathicity, that is able to predict which group each of the eight proteins falls into, is presented. The inclusion of additives known to inhibit aggregation during renaturation improves solubility and increases the SVC of both protein groups. Furthermore, an estimate of maximum refolding yield (or solubility) using high-performance liquid chromatography was obtained for each protein tested, under different environmental conditions, enabling a relationship between yield and SVC to be demonstrated. Combined, the results enable an approximate estimation of the maximum refolding yield that is attainable for each of the eight proteins examined, under a selected chemical environment. Although the correlations must be tested with a far larger set of protein sequences, this work represents a significant move beyond empirical approaches for optimizing renaturation conditions. The approach moves toward the ideal of predicting maximum refolding yield using simple bioinformatic metrics that can be estimated from the gene sequence. Such a capability could potentially screen, in silico, those sequences suitable for expression in bacteria from those that must be expressed in more complex hosts. (C) 2004 Wiley Periodicals, Inc.
Resumo:
O trabalho teve por objetivo verificar a influência da presença dos acordos de acionistas na qualidade das informações contábeis divulgadas pelas empresas listadas na BM&FBOVESPA, do ano de 2001 a 2011. Para inferir a respeito da qualidade das informações contábeis foram utilizadas as métricas de informatividade e value relevance. Foram analisados em separado: os acordos de comando (utilizados para garantir o controle) dos acordos de defesa (utilizados para garantir o acesso a determinados direitos através do alcance de um percentual mínimo de capital votante). A amostra teve como critério de corte o mínimo de 0,001 de liquidez na BM&FBOVESPA. Foi utilizada regressão linear múltipla com dados em painel desequilibrado, tendo como variáveis de controle: concentração de votos, tamanho, endividamento, market-to-book e perdas. Com base nos efeitos cumprimento e monitoramento, com a utilização da metodologia proposta, o trabalho aponta que empresas com qualquer um dos tipos de acordo entre acionistas possuem maior qualidade das informações contábeis divulgadas.
Resumo:
Este trabalho investiga, no mercado acionário brasileiro, o efeito da contabilidade de hedge na qualidade das informações contábeis divulgadas, no disclosure dos instrumentos financeiros derivativos e na assimetria de informação. Para medir a qualidade da informação contábil, foram utilizadas as métricas de relevância da informação contábil e informatividade dos lucros contábeis. Para a execução deste trabalho, foi constituída uma amostra geral com empresas brasileiras, não financeiras, listadas na Bolsa de Valores de São Paulo, compreendendo as 150 empresas com maior valor de mercado em 01/01/2014. A partir da amostra geral, foram constituídas amostras para a aplicação dos modelos de value relevance, informativeness, disclosure e assimetria de informação. A amostra para relevância contou com 758 observações firmas-anos, para o período de 2008 a 2013. A amostra para informatividade contou com 701 observações firmas-anos, para o período de 2008 a 2013. A amostra para disclosure contou com 100 observações firmas-anos, para o período de 2011 a 2012. A amostra para assimetria de informação contou com 100 observações firmas-anos, para o período de 2011 a 2012. Para as análises dos dados, utilizou-se regressões com errospadrão robustos com abordagem POLS e Efeitos Fixos, aplicadas sobre dados em painel. Complementarmente, para as análises do efeito do hedge accounting sobre o disclosure e assimetria de informação, foi aplicado o método de Propensity Score Matching. As evidências encontradas para a influência da contabilidade de hedge na relevância da informação contábil apontaram uma relação positiva e significante na interação com o LL. Na análise da informatividade dos lucros contábeis, a pesquisa evidenciou uma relação negativa e estatisticamente significante do lucro quando interagido com a variável dummy de hedge accounting. Quanto às evidências encontradas para a influência do hedge accounting sobre o disclosure dos derivativos, verificou-se uma relação positiva e estatisticamente significante da dummy de hedge accounting com o indicador de evidenciação dos derivativos. Em relação às evidências para a assimetria de informação, embora os coeficientes se mostrassem no sentido esperado, os mesmos não foram estatisticamente significativos. Adicionalmente, incorporamse às análises econométricas uma análise descritiva, na amostra geral, da utilização do hedge accounting no Brasil, para o ano de 2013. Dentre as 150 empresas da amostra, 49 empresas utilizaram hedge accounting, onde 41 empresas adotam apenas 1 tipo de hedge. O hedge de fluxo de caixa é o tipo de hedge mais adotado pelas empresas, sendo utilizado por 42 companhias.
Resumo:
Este trabalho apresenta um serviço de reconfiguração dinâmica para Redes de Sensores sem Fio. O trabalho inclui o projeto e a definição de uma arquitetura conceitual que suporta a coleta de uma variedade de informações contextuais e provê uma abstração alto nível para especificação de roteamento sensível ao contexto através de reconfiguração de métricas de roteamento e parâmetros de comunicação. O objetivo da infraestrutura proposta é possibilitar a criação de regras que adaptem o comportamento da rede em tempo de execução, em função dessas informações contextuais. Uma implementação da arquitetura para o protocolo RPL e o sistema operacional Contiki foi realizada, mostrando a viabilidade da abordagem proposta.
Resumo:
Trata a presente pesquisa sobre o estudo da evolução da área da paisagem que compõe o município de Linhares (ES), nos anos de 1985 e 2013/2014, que constitui o maior município do Estado do Espírito Santo. Foi realizada, por meio de processamento digital de imagens de satélites LANDSAT 5 e 8, a classificação de uso e ocupação da terra da área em estudo. Além disso usou-se as imagens do satélite RapdEye para acurácia da classificação digital das imagens. A partir dos resultados levantados de uso e ocupação foram definidas as matrizes da paisagem para 1985 e 2013/2014, bem como avaliadas as manchas que compõem a matriz. Foram aplicadas as métricas da paisagem utilizando a ferramenta de estatística Fragstats, possibilitando o cálculo dos Índices de Paisagem afim de avaliar a evolução qualitativa e quantitativa da paisagem do município de Linhares.
Resumo:
Esta dissertação busca identificar se os diferentes Estágios de Ciclo de Vida (ECVs) estão relacionados com a qualidade da informação contábil nas empresas brasileiras. Segundo pesquisas internacionais, os diferentes ECVs influenciam a qualidade da informação contábil. Aqui, foram empregadas as métricas de relevância, tempestividade e conservadorismo, de maneira semelhante às utilizadas por Lopes (2009) para verificar a qualidade da informação contábil. Para identificar os Estágios de Ciclo de Vida, foi utilizada a forma de identificação orgânica elaborada por Dickinson (2011), fundamentada nos sinais dos fluxos de caixa da empresa. A amostra deste trabalho é composta por empresas brasileiras que negociaram ações na BM&FBovespa, no período de 2008 à 2013, sendo excluídas as empresas do setor financeiro. O total de empresas que compõem a amostra é de 330, sendo 1.163 observações para o modelo de relevância, 1.163 para o modelo de tempestividade e 1.167 observações para o modelo de conservadorismo. Para verificar os efeitos dos ECVs na qualidade da informação contábil foram utilizados dados em painel desbalanceado e regressões robustas, com a correção de White, identificando os ECVs através de dummies. Os resultados encontrados indicam que os ECVs afetam a qualidade da informação contábil e que nos estágios de Crescimento e Maturidade as informações contábeis apresentam maior relevância e tempestividade. Não foi possível identificar os efeitos dos diferentes ECVs no conservadorismo, pois as variáveis de interesse não foram estatisticamente significantes.
Resumo:
Graphical user interfaces (GUIs) are critical components of todays software. Given their increased relevance, correctness and usability of GUIs are becoming essential. This paper describes the latest results in the development of our tool to reverse engineer the GUI layer of interactive computing systems. We use static analysis techniques to generate models of the user interface behaviour from source code. Models help in graphical user interface inspection by allowing designers to concentrate on its more important aspects. One particularly type of model that the tool is able to generate is state machines. The paper shows how graph theory can be useful when applied to these models. A number of metrics and algorithms are used in the analysis of aspects of the user interface's quality. The ultimate goal of the tool is to enable analysis of interactive system through GUIs source code inspection.
Resumo:
Graphical user interfaces (GUIs) are critical components of today's open source software. Given their increased relevance, the correctness and usability of GUIs are becoming essential. This paper describes the latest results in the development of our tool to reverse engineer the GUI layer of interactive computing open source systems. We use static analysis techniques to generate models of the user interface behavior from source code. Models help in graphical user interface inspection by allowing designers to concentrate on its more important aspects. One particular type of model that the tool is able to generate is state machines. The paper shows how graph theory can be useful when applied to these models. A number of metrics and algorithms are used in the analysis of aspects of the user interface's quality. The ultimate goal of the tool is to enable analysis of interactive system through GUIs source code inspection.
Resumo:
This paper presents a catalog of smells in the context of interactive applications. These so-called usability smells are indicators of poor design on an application’s user interface, with the potential to hinder not only its usability but also its maintenance and evolution. To eliminate such usability smells we discuss a set of program/usability refactorings. In order to validate the presented usability smells catalog, and the associated refactorings, we present a preliminary empirical study with software developers in the context of a real open source hospital management application. Moreover, a tool that computes graphical user interface behavior models, giving the applications’ source code, is used to automatically detect usability smells at the model level.
Resumo:
This paper studies musical opus from the point of view of three mathematical tools: entropy, pseudo phase plane (PPP), and multidimensional scaling (MDS). The experiments analyze ten sets of different musical styles. First, for each musical composition, the PPP is produced using the time series lags captured by the average mutual information. Second, to unravel hidden relationships between the musical styles the MDS technique is used. The MDS is calculated based on two alternative metrics obtained from the PPP, namely, the average mutual information and the fractal dimension. The results reveal significant differences in the musical styles, demonstrating the feasibility of the proposed strategy and motivating further developments towards a dynamical analysis of musical sounds.
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)