999 resultados para Análise e desempenho de tarefas
Resumo:
A criação do MERCOSUL em 1990 solidificou o relacionamento comercial entre os países membros do bloco, fazendo com que o intercâmbio comercial Brasil – Argentina obtivesse um forte crescimento no período, em quase todos os setores da economia. No entanto, o setor de eletroeletrônicos não se desenvolveu da mesma forma, tornando-se alvo de disputas freqüentes entre os dois países citados, além de ter seu desenvolvimento fortemente impactado por diversas crises econômicas. Este trabalho apresenta uma análise do desempenho recente do setor, relacionando a sua estrutura de custos, impostos e operações à sua baixa competitividade nas exportações, a partir de estudo de caso com dados fornecidos por uma empresa multinacional. O estudo de caso sugere a existência de um mercado potencial que sustente a implantação de fabricantes de componentes na região, aumentando a competitividade dos produtos fabricados de forma sustentável, com o objetivo de transformar as operações fabris de eletroeletrônicos das zonas francas de Manaus e da Terra do Fogo em pólos exportadores para outros países da América Latina.
Resumo:
O tema desta dissertação teve origem com a constatação da precária situação financeira dos estados e municípios brasileiros e da crescente necessidade de obtenção de recursos e redução de gastos para combater os constantes déficits. Este trabalho tratará da administração do déficit público do Estado do Rio Grande do Sul e do Município de Caxias do Sul na segunda metade da década de 90. Na operacionalização dos dados desenvolveu-se primeiramente um panorama do desempenho da economia gaúcha e de Caxias do Sul, destacando as principais transformações ocorridas no âmbito de suas variáveis econômicas mais representativas. Apresenta em seguida uma abordagem conjuntural da economia brasileira, considerando os fatores históricos e políticos, passando num segundo momento, a análise do desempenho do setor público brasileiro durante a fase de estabilização que caracteriza esse período. Finalmente, torna-se importante conhecer a evolução das contas públicas tanto do RS como de Caxias do Sul, bem como, a utilização dos recursos nessas esferas de governo. O estudo constata que a busca do equilíbrio na alocação do dinheiro público e o caminho correto para a estabilidade econômica passou pela necessidade de um ajuste fiscal no longo prazo.
Resumo:
A fim de auxiliar os investidores na compreensão da exposição a risco de seu portfólio, este texto estuda os impactos das mudanças não antecipadas dos fatores econômicos em ações com características específicas (alto fluxo de dividendos, alto crescimento esperado, entre outras). Por exemplo, verifica se uma ação com alto crescimento esperado apresenta maior elasticidade a um choque inflacionário do que uma ação pagadora de dividendos. Esse estudo por meio da metodologia do APT com estimação em três etapas desenvolvida por McElroy e Burmeister (1998) consegue mostrar, para a amostra estudada de ações do Ibovespa, como: (i) as ações que tem maior parcela do seu valor no futuro são as que possuem maior exposição ao risco de inflação e ao risco de prazo; (ii) as ações de empresas grandes (Large Caps) são as mais sensíveis ao risco de mercado; (iii) o fator expectacional é relevante na análise do desempenho das ações; (iii) há maior sensibilidade das ações de crescimento à inflação do que ao ciclo econômico, (iv) o risco de crédito e o de mercado são os fatores que melhor explicam o desempenho dessa amostra, dentre os estudados. Apesar de contra-intuitivo, os fatores de risco de ciclo econômico e termo quase não ajudam a explicar o retorno de muitos dos portfólios. Dessa forma, o texto auxilia o investidor a entender fatores que influenciam o desempenho de uma ação, além do prêmio ou desconto em relação ao valor presente dos fluxos de caixa.
Resumo:
Diretorio TesteAs recentes mudanças de estrutura no sistema elétrico (geração, transmissão, distribuição e comercialização de energia) têm motivado o uso da geração distribuída e, em particular, pequenos produtores independentes conectados ao sistemas de distribuição e subtransmissão. Sendo recente, ainda há muitas lacunas quanto ao entendimento do impacto desta nova topologia na estabilidade e outros índices de desempenho do sistema. O presente trabalho está focado na conexão dos produtores independentes aos sistemas de distribuição e subtransmissão e visa contribuir quanto ao estudo teórico-prático deste problema, com ênfase nos aspectos de modelagem dos componentes do sistema. Este estudo faz parte do projeto de pesquisa “Impacto de Produtores Independentes e Autoprodutores Conectados aos sistemas de distribuição e subtransmissão", desenvolvido pela UFRGS com financiamento da CEEE. Como as unidades de geração distribuída são conectadas às redes de distribuição e transmissão, a distância entre estes geradores e as cargas é menor comparativamente às usinas de grande porte. Existe ainda a questão dos produtores independentes serem de potências menores e, portanto, mais suscetíveis às variações de carga da rede em que estão ligados. Devido a estes e outros fatores, uma melhor análise dos modelos estáticos e dinâmicos dos diversos componentes do sistema de potência dentro desta nova topologia se faz necessária. Um dos aspectos considerados neste trabalho, foi o estudo da influência da resistência da linha na análise da geração distribuída nas linhas de distribuição. Esta foi uma das contribuições deste trabalho e foi realizada por meio de simulações considerando vários modelos de geradores e cargas. Outra contribuição foi a construção do sistema consistindo de um protótipo de um produtor independente conectado a rede de distribuição, composto de um gerador de 100kVA conectado à rede elétrica, contendo cargas resistivas e indutivas, podendo serem ligadas/desligadas, emulando condições de operação similares às reais. A construção do protótipo também envolveu um sistema para simulação, um sistema supervisório para operação e realização de ensaios, e os algoritmos necessários para tal. Este sistema permite a simulação dinâmica de modelos de sistemas elétricos de potência em diversos cenários e a verificação experimental do comportamento dos grupos geradores em diversas condições de operação, incluindo a análise de desempenho estático, ensaios de curto circuito e as variações de despacho ativo e reativo de potência. Obtendo com isso uma melhor identificação e quantificação do impacto dos produtores independentes e autoprodutores na análise de sistemas elétricos de potência.
Resumo:
A maximização de valor como objetivo central das firmas está presente na literatura há mais de 200 anos, embora existam outras vertentes mais recentes como a teoria dos stakeholders. Este trabalho irá discutir porque a maximização de valor deve ser o objetivo central, e partir deste conceito, buscará tratar quais as melhores formas de se buscar este objetivo, avaliaremos as medidas de criação de valor e seu impacto na avaliação das ações brasileiras, testando a influência de diferentes períodos de tempo, de defasagem temporal e da separação de setores da indústria nestas avaliações. Para as firmas conseguirem atingir seu objetivo central de maximização de valor, é necessário o estabelecimento de medidas de desempenho de seus administradores e de sistemas de governança corporativa para garantir o alinhamento da administração com os objetivos da corporação. Ao avaliarmos as medidas de criação de valor, chegamos a conclusão de que o NOPAT é a medida que melhor explica a geração de valor nas empresas, superando o Lucro Econômico, embora este tenha se mostrado mais eficiente em períodos em que a economia não atravessa crises ou sofre choques negativos. Concluímos ainda que a influencia de questões próprias a determinados segmentos da indústria é fator relevante na análise do desempenho das ações e que bons níveis de governança corporativa melhoram a geração de valor das empresas.
Resumo:
A literatura Operações de Paz é farta de exemplos de análise de desempenho de uma operação. Essas análises observam o cumprimento do mandato, ou os efeitos no Estado hospedeiro. Mas poucos estudos, tratam das consequências dessa participação para os Estados que enviam tropas. Tentando ajudar a preencher essa lacuna, esta dissertação pretende entender se a participação e o protagonismo brasileiro na Missão das Nações Unidas para a Estabilização do Haiti - MINUSTAH ajudaram o Brasil a alcançar seus objetivos. Utilizando uma abordagem mista, foram analisados dados de contribuição de tropas, orçamentos, documentos oficiais e, por fim, foram realizadas 08 entrevistas com militares e especialistas civis. Com base no modelo de objetivos estatais aplicado, se estudou se a presença no Haiti permitiu ao Brasil sinalizar seus objetivos para a comunidade internacional, reformar suas instituições, as militares entre elas, e se havia necessidades orçamentárias para contribuir para a missão. As evidências analisadas levam a crer que o saldo da missão é misto. Embora alguns aspectos demonstrem definitivas melhorias, outros são irrelevantes ou sofrem com a manutenção da cultura militar antiquada.
Resumo:
Este trabalho foi desenvolvido num estágio na empresa ABS GmbH sucursal em Portugal, e teve como foco a compressão de imagem e vídeo com os padrões JPEG e H.264, respetivamente. Foi utilizada a plataforma LeopardBoard DM368, com um controlador ARM9. A análise do desempenho de compressão de ambos os padrões foi realizada através de programas em linguagem C, para execução no processador DM368. O programa para compressão de imagem recebe como parâmetros de entrada o nome e a resolução da imagem a comprimir, e comprime-a com 10 níveis de quantização diferentes. Os resultados mostram que é possível obter uma velocidade de compressão até 73 fps (frames per second) para a resolução 1280x720, e que imagens de boa qualidade podem ser obtidas com rácios de compressão até cerca de 22:1. No programa para compressão de vídeo, o codificador está configurado de acordo com as recomendações para as seguintes aplicações: videoconferência, videovigilância, armazenamento e broadcasting/streaming. As configurações em cada processo de codificação, o nome do ficheiro, o número de frames e a resolução do mesmo representam os parâmetros de entrada. Para a resolução 1280x720, foram obtidas velocidades de compressão até cerca de 68 fps, enquanto para a resolução 1920x1088 esse valor foi cerca de 30 fps. Foi ainda desenvolvida uma aplicação com capacidades para capturar imagens ou vídeos, aplicar processamento de imagem, compressão, armazenamento e transmissão para uma saída DVI (Digital Visual Interface). O processamento de imagem em software permite melhorar dinamicamente as imagens, e a taxa média de captura, compressão e armazenamento é cerca de 5 fps para a resolução 1280x720, adequando-se à captura de imagens individuais. Sem processamento em software, a taxa sobe para cerca de 23 fps para a resolução 1280x720, sendo cerca de 28 fps para a resolução 1280x1088, o que é favorável à captura de vídeo.
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
This work aims at investigating the strategies of management used by State School Joaquim Jose de Medeiros, located in the city of Cruzeta - RN, as award practice of "School of Reference in Management", with a state title in 1999 at the beginning of the decade from 2000, being "Outstanding Brazil" from best management strategies nationally. In 2005, it is ranked among the best experiences of the state. It has been become complex by experiencing in that institution, but at the same time an enjoyable practice, mainly by using a social research, in a qualitative and quantitative approach, and a analysis of the institutional performance of two management practices: from 1995 to 2002 and from 2003 to 2007 . To understand the object, a investigative questionnaire was used with representatives of the school community and carried out an analysis of assessment of institutional and documents of institutional organization of the periods above in order to identify management strategies and examine the influences of the share capital, public policies , the institutional evaluation, in the process of democratic construction that has allowed achievements, highlighting Cruzeta, in the Seridó in the state of Rio Grande do Norte, semi-arid northeast, in the national and international juncture of well-successful experiences in management in institutional categories and leadership. This study becomes relevant to allow understand that the cultural practices of seridoenses that symbolize a capital generated by principles of trust, reciprocity, civic culture, as a driving force in overcoming the problems community and the conquest of democratic principles, worked for the school become a national reference in educational administration. Another aspect that made it natural that school was the collective creation of educational project with the participation and civic culture of self-evaluation as a way to understand the institutional practice and establish guidelines to improve the teaching and practice management in its many dimensions educational, social, administrative - financial and legal
Resumo:
Ensuring the dependability requirements is essential for the industrial applications since faults may cause failures whose consequences result in economic losses, environmental damage or hurting people. Therefore, faced from the relevance of topic, this thesis proposes a methodology for the dependability evaluation of industrial wireless networks (WirelessHART, ISA100.11a, WIA-PA) on early design phase. However, the proposal can be easily adapted to maintenance and expansion stages of network. The proposal uses graph theory and fault tree formalism to create automatically an analytical model from a given wireless industrial network topology, where the dependability can be evaluated. The evaluation metrics supported are the reliability, availability, MTTF (mean time to failure), importance measures of devices, redundancy aspects and common cause failures. It must be emphasized that the proposal is independent of any tool to evaluate quantitatively the target metrics. However, due to validation issues it was used a tool widely accepted on academy for this purpose (SHARPE). In addition, an algorithm to generate the minimal cut sets, originally applied on graph theory, was adapted to fault tree formalism to guarantee the scalability of methodology in wireless industrial network environments (< 100 devices). Finally, the proposed methodology was validate from typical scenarios found in industrial environments, as star, line, cluster and mesh topologies. It was also evaluated scenarios with common cause failures and best practices to guide the design of an industrial wireless network. For guarantee scalability requirements, it was analyzed the performance of methodology in different scenarios where the results shown the applicability of proposal for networks typically found in industrial environments
Resumo:
The metaheuristics techiniques are known to solve optimization problems classified as NP-complete and are successful in obtaining good quality solutions. They use non-deterministic approaches to generate solutions that are close to the optimal, without the guarantee of finding the global optimum. Motivated by the difficulties in the resolution of these problems, this work proposes the development of parallel hybrid methods using the reinforcement learning, the metaheuristics GRASP and Genetic Algorithms. With the use of these techniques, we aim to contribute to improved efficiency in obtaining efficient solutions. In this case, instead of using the Q-learning algorithm by reinforcement learning, just as a technique for generating the initial solutions of metaheuristics, we use it in a cooperative and competitive approach with the Genetic Algorithm and GRASP, in an parallel implementation. In this context, was possible to verify that the implementations in this study showed satisfactory results, in both strategies, that is, in cooperation and competition between them and the cooperation and competition between groups. In some instances were found the global optimum, in others theses implementations reach close to it. In this sense was an analyze of the performance for this proposed approach was done and it shows a good performance on the requeriments that prove the efficiency and speedup (gain in speed with the parallel processing) of the implementations performed
Resumo:
Este trabalho apresenta um levantamento dos problemas associados à influência da observabilidade e da visualização radial no projeto de sistemas de monitoramento para redes de grande magnitude e complexidade. Além disso, se propõe a apresentar soluções para parte desses problemas. Através da utilização da Teoria de Redes Complexas, são abordadas duas questões: (i) a localização e a quantidade de nós necessários para garantir uma aquisição de dados capaz de representar o estado da rede de forma efetiva e (ii) a elaboração de um modelo de visualização das informações da rede capaz de ampliar a capacidade de inferência e de entendimento de suas propriedades. A tese estabelece limites teóricos a estas questões e apresenta um estudo sobre a complexidade do monitoramento eficaz, eficiente e escalável de redes
Resumo:
This work proposes the development of an intelligent system for analysis of digital mammograms, capable to detect and to classify masses and microcalcifications. The digital mammograms will be pre-processed through techniques of digital processing of images with the purpose of adapting the image to the detection system and automatic classification of the existent calcifications in the suckles. The model adopted for the detection and classification of the mammograms uses the neural network of Kohonen by the algorithm Self Organization Map - SOM. The algorithm of Vector quantization, Kmeans it is also used with the same purpose of the SOM. An analysis of the performance of the two algorithms in the automatic classification of digital mammograms is developed. The developed system will aid the radiologist in the diagnosis and accompaniment of the development of abnormalities
Resumo:
ln this work the implementation of the SOM (Self Organizing Maps) algorithm or Kohonen neural network is presented in the form of hierarchical structures, applied to the compression of images. The main objective of this approach is to develop an Hierarchical SOM algorithm with static structure and another one with dynamic structure to generate codebooks (books of codes) in the process of the image Vector Quantization (VQ), reducing the time of processing and obtaining a good rate of compression of images with a minimum degradation of the quality in relation to the original image. Both self-organizing neural networks developed here, were denominated HSOM, for static case, and DHSOM, for the dynamic case. ln the first form, the hierarchical structure is previously defined and in the later this structure grows in an automatic way in agreement with heuristic rules that explore the data of the training group without use of external parameters. For the network, the heuristic mIes determine the dynamics of growth, the pruning of ramifications criteria, the flexibility and the size of children maps. The LBO (Linde-Buzo-Oray) algorithm or K-means, one ofthe more used algorithms to develop codebook for Vector Quantization, was used together with the algorithm of Kohonen in its basic form, that is, not hierarchical, as a reference to compare the performance of the algorithms here proposed. A performance analysis between the two hierarchical structures is also accomplished in this work. The efficiency of the proposed processing is verified by the reduction in the complexity computational compared to the traditional algorithms, as well as, through the quantitative analysis of the images reconstructed in function of the parameters: (PSNR) peak signal-to-noise ratio and (MSE) medium squared error
Resumo:
In this work, a performance analysis of transmission schemes employing turbo trellis coded modulation. In general, the performance analysis of such schemes is guided by evaluating the error probability of these schemes. The exact evaluation of this probability is very complex and inefficient from the computational point of view, a widely used alternative is the use of union bound of error probability, because of its easy implementation and computational produce bounds that converge quickly. Since it is the union bound, it should use to expurge some elements of distance spectrum to obtain a tight bound. The main contribution of this work is that the listing proposal is carried out from the puncturing at the level of symbol rather than bit-level as in most works of literature. The main reason for using the symbol level puncturing lies in the fact that the enummerating function of the turbo scheme is obtained directly from complex sequences of signals through the trellis and not indirectly from the binary sequences that require further binary to complex mapping, as proposed by previous works. Thus, algorithms can be applied through matrix from the adjacency matrix, which is obtained by calculating the distances of the complex sequences of the trellis. This work also presents two matrix algorithms for state reduction and the evaluation of the transfer function of this. The results presented in comparisons of the bounds obtained using the proposed technique with some turbo codes of the literature corroborate the proposition of this paper that the expurgated bounds obtained are quite tight and matrix algorithms are easily implemented in any programming software language