910 resultados para complexity metrics


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ao longo dos últimos 20 anos tem havido uma profusão de estudos que examinam, no âmbito de empresas, a contribuição dos mecanismos de aprendizagem e da adoção de técnicas de gestão para o processo de acumulação tecnológica. No entanto, ainda são escassos os estudos que examinem, de maneira conjunta e sob uma perspectiva dinâmica, o relacionamento entre a adoção de técnicas de gestão, mecanismos de aprendizagem e trajetórias de acumulação de capacidades tecnológicas. Mais que isto, faltam estudos que examinem o duplo papel das técnicas de gestão, ora como parte do estoque de capacidades tecnológicas, ora como um processo de aprendizagem tecnológica em si. Esta dissertação objetiva oferecer uma contribuição para preencher esta lacuna neste campo de estudo. O enfoque desta dissertação deriva de observações empíricas, realizadas em empresas, e inspira-se no clássico estudo Innovation and Learning: the two faces of R&D, de Cohen e Levinthal (1989). Assim a dissertação baseia-se em um estudo de caso individual, realizado em uma empresa do setor siderúrgico no Brasil, no período de 1984 a 2008, examinando estas questões à luz de modelos analíticos disponíveis na literatura internacional. Neste sentido, adotou-se o entendimento de capacidade tecnológica como o conjunto de recursos necessários para gerar e gerir mudanças tecnológicas, sendo construída e acumulada de forma gradual, a partir do engajamento em processos de aprendizagem e da coordenação de bases de conhecimentos acumulados em diferentes dimensões, simbioticamente relacionadas. As métricas utilizadas identificam tipos e níveis de capacidade tecnológica para diferentes funções e identifica quatro tipos de processos de aprendizagem tecnológica e os avalia em termos de suas características-chave. Tomando-se por base evidências empíricas qualitativas e quantitativas, colhidas em primeira mão, a base de trabalho de campo, este estudo verificou que: 1. A empresa acumulou níveis inovativos de capacidades tecnológicas em todas as funções examinadas, sendo o nível Inovativo Intermediário (Nível 5) nas funções Engenharia de Projetos (de forma incompleta) e Equipamentos e o nível Intermediário Avançado (Nível 6) nas funções Processos e Organização da Produção e Produtos. 2. Os mecanismos de aprendizagem subjacentes à acumulação destes níveis de capacidade tecnológica apresentaram resultados relevantes em termos de suas características-chave, principalmente no que diz respeito à variedade e intensidade: de 24 mecanismos em 1984 para um total de 59 em 2008, com uma variação de 145,8%, e com 56 dos 59 mecanismos (94,92%) utilizados atualmente de forma sistemática. 3. O período compreendido entre os anos de 1990 e 2004, no qual foram implementadas as técnicas de gestão estudadas, exceto o Plano de Sugestões, se caracteriza por apresentar a maior taxa de acumulação de capacidades tecnológicas e por dar início à utilização da quase totalidade dos 35 novos mecanismos de aprendizagem incorporados pela empresa após o início de suas operações (1984). E que as técnicas de gestão estudadas: 1. Colaboraram para o processo de aprendizagem tecnológica da AMBJF, principalmente pela necessidade de se: (i) incorporar novos mecanismos de aprendizagem que lhe permitissem acumular, antecipadamente, a base de conhecimentos necessária à implementação das técnicas de gestão estudadas; (ii) coordenar um número maior de mecanismos que dessem o adequado suporte ao aumento da complexidade de seu Sistema de Gestão Integrada (SOl). 2. Ampliaram, por si, o estoque de capacidades tecnológicas da empresa, maIS especificamente em sua dimensão organizacional, a partir da acumulação de conhecimento em procedimentos, instruções de trabalho, manuais, processos e fluxos de gestão e de produção, dentre outros. Desta forma, os resultados aqui encontrados confirmam que a adoção e a implementação das técnicas de gestão estudadas contribuíram com e influenciaram o processo de aprendizagem tecnológica e a trajetória de acumulação tecnológica da empresa, ao mesmo tempo, exercendo, portanto, um duplo papel na organização. Esta conclusão nos leva a um melhor entendimento do tema e pode contribuir para a compreensão de ações políticas e gerenciais que possam acelerar a acumulação de capacidades tecnológicas, entendendo a relevância das técnicas de gestão menos em termos de sua "mera" adoção e mais do seu processo de implementação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As organizações contemporâneas apresentam elevado grau de complexidade. A extensa cadeia de processos deve ser gerenciada de forma integrada e requer descentralização da tomada de decisões para assegurar respostas ágeis aos estímulos do ambiente competitivo. Este contexto demanda a criação de ferramentas de gestão que apoiem os gestores no atingimento dos objetivos estratégicos globais das empresas, como o modelo de referência analisado neste trabalho, que alia as métricas de gestão da cadeia de suprimentos com o conceito do Balanced Scorecard. Este trabalho objetivou, por um lado, avaliar a atual arquitetura de indicadores de desempenho da unidade operacional (UO) de uma grande distribuidora de combustíveis à luz deste modelo de referência e, por outro, testar o modelo de referência através do estudo de caso quanto à sua universalidade de aplicação por diferentes empresas. Dentre os resultados obtidos, destacam-se: a arquitetura de indicadores atual da UO está desequilibrada nas dimensões do BSC – comparada à dimensão financeira que apresenta 7 indicadores, a dimensão clientes apresenta somente 2 indicadores; identificou-se uma lacuna de 50% na relação de indicadores de desempenho da UO quando a confrontamos com o modelo de referência; para as lacunas identificadas, desenvolveu-se um plano de ação para sua incorporação à arquitetura da UO; constatou-se que 24% das métricas do modelo de referência não se aplicam à realidade da UO e; o modelo de referência não abarca itens relevantes como treinamento, engajamento e Saúde, Meio Ambiente e Segurança (SMS), primordial para a realidade da empresa, que acompanha atualmente 6 indicadores de SMS. Verificou-se, também, que o uso de um modelo de referência genérico não é o mais adequado por causa das complexidades intrínsecas de cada uma das organizações. Entretanto, o mesmo pode ser usado como um guia para verificação de suficiência dos indicadores pré-selecionados por uma determinada empresa porque indica lacunas que podem não ser percebidas no processo de seleção.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A quantificação do risco país – e do risco político em particular – levanta várias dificuldades às empresas, instituições, e investidores. Como os indicadores econômicos são atualizados com muito menos freqüência do que o Facebook, compreender, e mais precisamente, medir – o que está ocorrendo no terreno em tempo real pode constituir um desafio para os analistas de risco político. No entanto, com a crescente disponibilidade de “big data” de ferramentas sociais como o Twitter, agora é o momento oportuno para examinar os tipos de métricas das ferramentas sociais que estão disponíveis e as limitações da sua aplicação para a análise de risco país, especialmente durante episódios de violência política. Utilizando o método qualitativo de pesquisa bibliográfica, este estudo identifica a paisagem atual de dados disponíveis a partir do Twitter, analisa os métodos atuais e potenciais de análise, e discute a sua possível aplicação no campo da análise de risco político. Depois de uma revisão completa do campo até hoje, e tendo em conta os avanços tecnológicos esperados a curto e médio prazo, este estudo conclui que, apesar de obstáculos como o custo de armazenamento de informação, as limitações da análise em tempo real, e o potencial para a manipulação de dados, os benefícios potenciais da aplicação de métricas de ferramentas sociais para o campo da análise de risco político, particularmente para os modelos qualitativos-estruturados e quantitativos, claramente superam os desafios.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In the last decade mobile wireless communications have witnessed an explosive growth in the user’s penetration rate and their widespread deployment around the globe. It is expected that this tendency will continue to increase with the convergence of fixed Internet wired networks with mobile ones and with the evolution to the full IP architecture paradigm. Therefore mobile wireless communications will be of paramount importance on the development of the information society of the near future. In particular a research topic of particular relevance in telecommunications nowadays is related to the design and implementation of mobile communication systems of 4th generation. 4G networks will be characterized by the support of multiple radio access technologies in a core network fully compliant with the Internet Protocol (all IP paradigm). Such networks will sustain the stringent quality of service (QoS) requirements and the expected high data rates from the type of multimedia applications to be available in the near future. The approach followed in the design and implementation of the mobile wireless networks of current generation (2G and 3G) has been the stratification of the architecture into a communication protocol model composed by a set of layers, in which each one encompasses some set of functionalities. In such protocol layered model, communications is only allowed between adjacent layers and through specific interface service points. This modular concept eases the implementation of new functionalities as the behaviour of each layer in the protocol stack is not affected by the others. However, the fact that lower layers in the protocol stack model do not utilize information available from upper layers, and vice versa, downgrades the performance achieved. This is particularly relevant if multiple antenna systems, in a MIMO (Multiple Input Multiple Output) configuration, are implemented. MIMO schemes introduce another degree of freedom for radio resource allocation: the space domain. Contrary to the time and frequency domains, radio resources mapped into the spatial domain cannot be assumed as completely orthogonal, due to the amount of interference resulting from users transmitting in the same frequency sub-channel and/or time slots but in different spatial beams. Therefore, the availability of information regarding the state of radio resources, from lower to upper layers, is of fundamental importance in the prosecution of the levels of QoS expected from those multimedia applications. In order to match applications requirements and the constraints of the mobile radio channel, in the last few years researches have proposed a new paradigm for the layered architecture for communications: the cross-layer design framework. In a general way, the cross-layer design paradigm refers to a protocol design in which the dependence between protocol layers is actively exploited, by breaking out the stringent rules which restrict the communication only between adjacent layers in the original reference model, and allowing direct interaction among different layers of the stack. An efficient management of the set of available radio resources demand for the implementation of efficient and low complexity packet schedulers which prioritize user’s transmissions according to inputs provided from lower as well as upper layers in the protocol stack, fully compliant with the cross-layer design paradigm. Specifically, efficiently designed packet schedulers for 4G networks should result in the maximization of the capacity available, through the consideration of the limitations imposed by the mobile radio channel and comply with the set of QoS requirements from the application layer. IEEE 802.16e standard, also named as Mobile WiMAX, seems to comply with the specifications of 4G mobile networks. The scalable architecture, low cost implementation and high data throughput, enable efficient data multiplexing and low data latency, which are attributes essential to enable broadband data services. Also, the connection oriented approach of Its medium access layer is fully compliant with the quality of service demands from such applications. Therefore, Mobile WiMAX seems to be a promising 4G mobile wireless networks candidate. In this thesis it is proposed the investigation, design and implementation of packet scheduling algorithms for the efficient management of the set of available radio resources, in time, frequency and spatial domains of the Mobile WiMAX networks. The proposed algorithms combine input metrics from physical layer and QoS requirements from upper layers, according to the crosslayer design paradigm. Proposed schedulers are evaluated by means of system level simulations, conducted in a system level simulation platform implementing the physical and medium access control layers of the IEEE802.16e standard.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The evolution of wireless communication systems leads to Dynamic Spectrum Allocation for Cognitive Radio, which requires reliable spectrum sensing techniques. Among the spectrum sensing methods proposed in the literature, those that exploit cyclostationary characteristics of radio signals are particularly suitable for communication environments with low signal-to-noise ratios, or with non-stationary noise. However, such methods have high computational complexity that directly raises the power consumption of devices which often have very stringent low-power requirements. We propose a strategy for cyclostationary spectrum sensing with reduced energy consumption. This strategy is based on the principle that p processors working at slower frequencies consume less power than a single processor for the same execution time. We devise a strict relation between the energy savings and common parallel system metrics. The results of simulations show that our strategy promises very significant savings in actual devices.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Background: The tectum is a structure localized in the roof of the midbrain in vertebrates, and is taken to be highly conserved in evolution. The present article assessed three hypotheses concerning the evolution of lamination and citoarchitecture of the tectum of nontetrapod animals: 1) There is a significant degree of phylogenetic inertia in both traits studied (number of cellular layers and number of cell classes in tectum); 2) Both traits are positively correlated accross evolution after correction for phylogeny; and 3) Different developmental pathways should generate different patterns of lamination and cytoarchitecture.Methodology/Principal Findings: The hypotheses were tested using analytical-computational tools for phylogenetic hypothesis testing. Both traits presented a considerably large phylogenetic signal and were positively associated. However, no difference was found between two clades classified as per the general developmental pathways of their brains.Conclusions/Significance: The evidence amassed points to more variation in the tectum than would be expected by phylogeny in three species from the taxa analysed; this variation is not better explained by differences in the main course of development, as would be predicted by the developmental clade hypothesis. Those findings shed new light on the evolution of an functionally important structure in nontetrapods, the most basal radiations of vertebrates.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

There is a need for multi-agent system designers in determining the quality of systems in the earliest phases of the development process. The architectures of the agents are also part of the design of these systems, and therefore also need to have their quality evaluated. Motivated by the important role that emotions play in our daily lives, embodied agents researchers have aimed to create agents capable of producing affective and natural interaction with users that produces a beneficial or desirable result. For this, several studies proposing architectures of agents with emotions arose without the accompaniment of appropriate methods for the assessment of these architectures. The objective of this study is to propose a methodology for evaluating architectures emotional agents, which evaluates the quality attributes of the design of architectures, in addition to evaluation of human-computer interaction, the effects on the subjective experience of users of applications that implement it. The methodology is based on a model of well-defined metrics. In assessing the quality of architectural design, the attributes assessed are: extensibility, modularity and complexity. In assessing the effects on users' subjective experience, which involves the implementation of the architecture in an application and we suggest to be the domain of computer games, the metrics are: enjoyment, felt support, warm, caring, trust, cooperation, intelligence, interestingness, naturalness of emotional reactions, believabiliy, reducing of frustration and likeability, and the average time and average attempts. We experimented with this approach and evaluate five architectures emotional agents: BDIE, DETT, Camurra-Coglio, EBDI, Emotional-BDI. Two of the architectures, BDIE and EBDI, were implemented in a version of the game Minesweeper and evaluated for human-computer interaction. In the results, DETT stood out with the best architectural design. Users who have played the version of the game with emotional agents performed better than those who played without agents. In assessing the subjective experience of users, the differences between the architectures were insignificant

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Currently the interest in large-scale systems with a high degree of complexity has been much discussed in the scientific community in various areas of knowledge. As an example, the Internet, protein interaction, collaboration of film actors, among others. To better understand the behavior of interconnected systems, several models in the area of complex networks have been proposed. Barabási and Albert proposed a model in which the connection between the constituents of the system could dynamically and which favors older sites, reproducing a characteristic behavior in some real systems: connectivity distribution of scale invariant. However, this model neglects two factors, among others, observed in real systems: homophily and metrics. Given the importance of these two terms in the global behavior of networks, we propose in this dissertation study a dynamic model of preferential binding to three essential factors that are responsible for competition for links: (i) connectivity (the more connected sites are privileged in the choice of links) (ii) homophily (similar connections between sites are more attractive), (iii) metric (the link is favored by the proximity of the sites). Within this proposal, we analyze the behavior of the distribution of connectivity and dynamic evolution of the network are affected by the metric by A parameter that controls the importance of distance in the preferential binding) and homophily by (characteristic intrinsic site). We realized that the increased importance as the distance in the preferred connection, the connections between sites and become local connectivity distribution is characterized by a typical range. In parallel, we adjust the curves of connectivity distribution, for different values of A, the equation P(k) = P0e

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nowadays, there are many aspect-oriented middleware implementations that take advantage of the modularity provided by the aspect oriented paradigm. Although the works always present an assessment of the middleware according to some quality attribute, there is not a specific set of metrics to assess them in a comprehensive way, following various quality attributes. This work aims to propose a suite of metrics for the assessment of aspect-oriented middleware systems at different development stages: design, refactoring, implementation and runtime. The work presents the metrics and how they are applied at each development stage. The suite is composed of metrics associated to static properties (modularity, maintainability, reusability, exibility, complexity, stability, and size) and dynamic properties (performance and memory consumption). Such metrics are based on existing assessment approaches of object-oriented and aspect-oriented systems. The proposed metrics are used in the context of OiL (Orb in Lua), a middleware based on CORBA and implemented in Lua, and AO-OiL, the refactoring of OIL that follows a reference architecture for aspect-oriented middleware systems. The case study performed in OiL and AO-OiL is a system for monitoring of oil wells. This work also presents the CoMeTA-Lua tool to automate the collection of coupling and size metrics in Lua source code

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The effects of habitat complexity, induced by construction of artificial reefs, on the fish assemblages in the Barra Bonita reservoir, Brazil, and in the lotic zone immediately below the dam were studied. Four artificial reefs were constructed in each habitat at variable distances from the shore. Multiple correspondence analysis showed that the factors distance from the shore and type of habitat were determinants for the group formation, and artificial reefs had a lesser effect. Fish species composition was about the same at locations with and without reefs.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

We present a class of three-dimensional integrable structures associated with the Darboux-Egoroff metric and classical Euler equations of free rotations of a rigid body. They are obtained as canonical structures of rational Landau-Ginzburg potentials and provide solutions to the Painleve VI equation.