991 resultados para Efficient implementation
Resumo:
In this paper we describe and evaluate a geometric mass-preserving redistancing procedure for the level set function on general structured grids. The proposed algorithm is adapted from a recent finite element-based method and preserves the mass by means of a localized mass correction. A salient feature of the scheme is the absence of adjustable parameters. The algorithm is tested in two and three spatial dimensions and compared with the widely used partial differential equation (PDE)-based redistancing method using structured Cartesian grids. Through the use of quantitative error measures of interest in level set methods, we show that the overall performance of the proposed geometric procedure is better than PDE-based reinitialization schemes, since it is more robust with comparable accuracy. We also show that the algorithm is well-suited for the highly stretched curvilinear grids used in CFD simulations. Copyright (C) 2010 John Wiley & Sons, Ltd.
Resumo:
A visualização de conjuntos de dados volumétricos é comum em diversas áreas de aplicação e há já alguns anos os diversos aspectos envolvidos nessas técnicas vêm sendo pesquisados. No entanto, apesar dos avanços das técnicas de visualização de volumes, a interação com grandes volumes de dados ainda apresenta desafios devido a questões de percepção (ou isolamento) de estruturas internas e desempenho computacional. O suporte do hardware gráfico para visualização baseada em texturas permite o desenvolvimento de técnicas eficientes de rendering que podem ser combinadas com ferramentas de recorte interativas para possibilitar a inspeção de conjuntos de dados tridimensionais. Muitos estudos abordam a otimização do desempenho de ferramentas de recorte, mas muito poucos tratam das metáforas de interação utilizadas por essas ferramentas. O objetivo deste trabalho é desenvolver ferramentas interativas, intuitivas e fáceis de usar para o recorte de imagens volumétricas. Inicialmente, é apresentado um estudo sobre as principais técnicas de visualização direta de volumes e como é feita a exploração desses volumes utilizando-se recorte volumétrico. Nesse estudo é identificada a solução que melhor se enquadra no presente trabalho para garantir a interatividade necessária. Após, são apresentadas diversas técnicas de interação existentes, suas metáforas e taxonomias, para determinar as possíveis técnicas de interação mais fáceis de serem utilizadas por ferramentas de recorte. A partir desse embasamento, este trabalho apresenta o desenvolvimento de três ferramentas de recorte genéricas implementadas usando-se duas metáforas de interação distintas que são freqüentemente utilizadas por usuários de aplicativos 3D: apontador virtual e mão virtual. A taxa de interação dessas ferramentas é obtida através de programas de fragmentos especiais executados diretamente no hardware gráfico. Estes programas especificam regiões dentro do volume a serem descartadas durante o rendering, com base em predicados geométricos. Primeiramente, o desempenho, precisão e preferência (por parte dos usuários) das ferramentas de recorte volumétrico são avaliados para comparar as metáforas de interação empregadas. Após, é avaliada a interação utilizando-se diferentes dispositivos de entrada para a manipulação do volume e ferramentas. A utilização das duas mãos ao mesmo tempo para essa manipulação também é testada. Os resultados destes experimentos de avaliação são apresentados e discutidos.
Resumo:
Esta dissertação de mestrado tem por objetivo relatar o resultado de um estudo de verificação das práticas de gerenciamento de projetos, baseadas no Guia PMBOK (Project Management Body of Knowledge), presentes no dia-a-dia pelos profissionais de projetos das organizações brasileiras. A execução eficaz, eficiente e efetiva de um projeto necessita de uma composição entre conhecimentos, habilidades, técnicas e ferramentas definidos em diversos guias de gestão de projetos. Essa composição é o que se denomina: gerenciamento de projetos. A fundamentação prática aqui apresentada baseou-se em uma pesquisa de campo quantitativa, que inquiriu sujeitos organizacionais atuantes em gestão de projetos em suas empresas. Assim, pôde-se verificar as características do profissional, de sua organização, do uso das práticas e das métricas de sucesso do projeto. Ressalte-se que este estudo limita-se ao Brasil, como ambiente em que atua o público-alvo de pesquisa. Para tanto, o estudo foi desenvolvido: de forma descritiva, a partir da realidade de gestão de projetos apresentada pelos profissionais; explicativa, tendo como objetivo central esclarecer qual o seu grau de utilização em relação ao Guia PMBOK, no contexto das organizações brasileiras; e exploratória, dado que existia pouco conhecimento acumulado e sistematizado a respeito deste tema, na área Brasil. A revisão bibliográfica, para consolidar o estudo das teorias referentes à área gestão de projetos, deu-se por meio de guias, periódicos e jornais especializados, trabalhos acadêmicos e livros sobre o tema em questão e demais textos virtuais. Da análise quantitativa, buscou-se a conformidade sobre os dados coletados a fim de se consolidar a consistência lógica das informações obtidas nas respostas sobre a avaliação do grau de uso do preceitos de gerenciamento de projetos do Guia PMBOK por parte dos profissionais de projetos, do mercado brasileiro. Os resultados demonstraram diferentes graus de uso das práticas relativas às nove áreas de conhecimento do Guia PMBOK. Pôde-se apurar, também, revelações intrigantes como a existência de um EGP (escritório de gestão de projetos) na empresa, como no contexto, no qual estão inseridos os profissionais e suas organizações, podem contribuir de modo significativo tanto na alteração dos graus de uso como no sucesso do projeto. Almeja-se que o presente estudo possa servir de elemento prospectivo para outras pesquisas na área de gerenciamento de projetos, fomentando a realização de trabalhos e publicações científicas, de âmbito brasileiro.
Resumo:
Neste trabalho apresentamos um novo método numérico com passo adaptativo baseado na abordagem de linearização local, para a integração de equações diferenciais estocásticas com ruído aditivo. Propomos, também, um esquema computacional que permite a implementação eficiente deste método, adaptando adequadamente o algorítimo de Padé com a estratégia “scaling-squaring” para o cálculo das exponenciais de matrizes envolvidas. Antes de introduzirmos a construção deste método, apresentaremos de forma breve o que são equações diferenciais estocásticas, a matemática que as fundamenta, a sua relevância para a modelagem dos mais diversos fenômenos, e a importância da utilização de métodos numéricos para avaliar tais equações. Também é feito um breve estudo sobre estabilidade numérica. Com isto, pretendemos introduzir as bases necessárias para a construção do novo método/esquema. Ao final, vários experimentos numéricos são realizados para mostrar, de forma prática, a eficácia do método proposto, e compará-lo com outros métodos usualmente utilizados.
Resumo:
Trabalho apresentado no 37th Conference on Stochastic Processes and their Applications - July 28 - August 01, 2014 -Universidad de Buenos Aires
Resumo:
Trabalho apresentado no Congresso Nacional de Matemática Aplicada à Indústria, 18 a 21 de novembro de 2014, Caldas Novas - Goiás
Resumo:
We consider a class of sampling-based decomposition methods to solve risk-averse multistage stochastic convex programs. We prove a formula for the computation of the cuts necessary to build the outer linearizations of the recourse functions. This formula can be used to obtain an efficient implementation of Stochastic Dual Dynamic Programming applied to convex nonlinear problems. We prove the almost sure convergence of these decomposition methods when the relatively complete recourse assumption holds. We also prove the almost sure convergence of these algorithms when applied to risk-averse multistage stochastic linear programs that do not satisfy the relatively complete recourse assumption. The analysis is first done assuming the underlying stochastic process is interstage independent and discrete, with a finite set of possible realizations at each stage. We then indicate two ways of extending the methods and convergence analysis to the case when the process is interstage dependent.
Resumo:
Given the uncertainties of the environment in today's world, strategic planning is again discussed as an important tool to position the organization in future likely. To address this a more dynamic and less linear, trying to adapt the multiple realities, the method of scenarios can be one of the strategies to anticipate future designs. In the public sphere, an efficient implementation of human resources and financial managers require a new approach to the formulation of strategies. Tourism, in turn, presents itself as an important segment of the national economy shaped up as a major source of funds for the formation of the Gross Domestic Product - GDP - of states and municipalities. This study aims to know the guidelines and perspectives of municipal planning of tourism in the city of Natal/RN from the case by the representatives of the sector. The survey was developed based on a qualitative, exploratory, based on the case in the Secretaria Municipal de Turismo e Desenvolvimento Econômico - SETURDE. The results express that the body goes through a time of changes in its organizational structure and in defining its role with the local tourism. The national plan for tourism and the choice of Christmas as the host city for the World Cup in 2014 have stimulated interest in developing a formal strategic planning in the organization. However, when it comes to more complex tools, such as the method of future scenarios, the technical know its definition and importance for future actions. The results presented support the conclusion that the actions are designed intuitively and without complying with the scientific methods developed for this purpose, as the method of strategic scenarios. However, the evidence beginning to emerge from the plans and documents issued by the federal government, as well as the Secretary's own initiative, direct the actions of the body to coordinate and act as a fulcrum for local action to the increase in tourism
Resumo:
Este artigo, que envolve a combinação de procedimentos quantitativos e qualitativos, traz resultados de pesquisa que analisou o impacto do Fundef na estruturação da rede municipal de ensino de Pirapozinho-SP, e mostra como estes resultados trazem subsídios para um funcionamento mais adequado da atual política de financiamento da educação. Constatou-se que, mesmo sem aumentar os recursos financeiros do ensino fundamental, o Fundef racionalizou e tornou mais eficiente a sua aplicação, diminuindo desvios e desperdícios, e que a instituição dos Conselhos de Acompanhamento e Controle Social possibilitou maior participação popular na fiscalização do executivo aumentando a transparência dos gastos com educação, que a constituição do Fundef abriu a possibilidade de implantação do Fundeb atualmente em vigor e que a melhoria no funcionamento deste está relacionada ao aumento da participação da sociedade nas decisões da política educacional e ao investimento na qualificação desta participação.
Resumo:
Efficient implementation of recycling networks requires appropriate logistical structures for managing the reverse flow of materials from users to producers. The steel sheet distributor studied had established a protocol for scrap recovery with the steel plant and its customers. The company invested in producing containers, hiring a specialized labor force and in purchasing trucks for container transportation to implement the logistics network for recycling. That network interconnected the company with two kinds of customers: the ones returning scrap and the ones who preferred to continue business-as-usual. The logistical network was analyzed using emergy synthesis, and the data obtained were used to evaluate and compare the system's environmental costs and benefits from the perspective of the distributor and the steel plant operator. The use of emergy ternary diagrams provided a way to assess recycle strategies to compare the relative economic and environmental benefits of the logistical network implemented. The minimum quantity of scrap that the distributor must recover to improve environmental benefits was determined allowing decision on whether it is worth keeping the system running. The new assessment method proposed also may help policy-makers to create strategies to reward or incentive users of reverse logistics, and help to establish regulations, by decreasing taxes or stimulating innovation, for effectively implement the National Policy on Solid Waste. (C) 2013 Elsevier Ltd. All rights reserved.
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)
Resumo:
This thesis explores the capabilities of heterogeneous multi-core systems, based on multiple Graphics Processing Units (GPUs) in a standard desktop framework. Multi-GPU accelerated desk side computers are an appealing alternative to other high performance computing (HPC) systems: being composed of commodity hardware components fabricated in large quantities, their price-performance ratio is unparalleled in the world of high performance computing. Essentially bringing “supercomputing to the masses”, this opens up new possibilities for application fields where investing in HPC resources had been considered unfeasible before. One of these is the field of bioelectrical imaging, a class of medical imaging technologies that occupy a low-cost niche next to million-dollar systems like functional Magnetic Resonance Imaging (fMRI). In the scope of this work, several computational challenges encountered in bioelectrical imaging are tackled with this new kind of computing resource, striving to help these methods approach their true potential. Specifically, the following main contributions were made: Firstly, a novel dual-GPU implementation of parallel triangular matrix inversion (TMI) is presented, addressing an crucial kernel in computation of multi-mesh head models of encephalographic (EEG) source localization. This includes not only a highly efficient implementation of the routine itself achieving excellent speedups versus an optimized CPU implementation, but also a novel GPU-friendly compressed storage scheme for triangular matrices. Secondly, a scalable multi-GPU solver for non-hermitian linear systems was implemented. It is integrated into a simulation environment for electrical impedance tomography (EIT) that requires frequent solution of complex systems with millions of unknowns, a task that this solution can perform within seconds. In terms of computational throughput, it outperforms not only an highly optimized multi-CPU reference, but related GPU-based work as well. Finally, a GPU-accelerated graphical EEG real-time source localization software was implemented. Thanks to acceleration, it can meet real-time requirements in unpreceeded anatomical detail running more complex localization algorithms. Additionally, a novel implementation to extract anatomical priors from static Magnetic Resonance (MR) scansions has been included.
Resumo:
Over the last 60 years, computers and software have favoured incredible advancements in every field. Nowadays, however, these systems are so complicated that it is difficult – if not challenging – to understand whether they meet some requirement or are able to show some desired behaviour or property. This dissertation introduces a Just-In-Time (JIT) a posteriori approach to perform the conformance check to identify any deviation from the desired behaviour as soon as possible, and possibly apply some corrections. The declarative framework that implements our approach – entirely developed on the promising open source forward-chaining Production Rule System (PRS) named Drools – consists of three components: 1. a monitoring module based on a novel, efficient implementation of Event Calculus (EC), 2. a general purpose hybrid reasoning module (the first of its genre) merging temporal, semantic, fuzzy and rule-based reasoning, 3. a logic formalism based on the concept of expectations introducing Event-Condition-Expectation rules (ECE-rules) to assess the global conformance of a system. The framework is also accompanied by an optional module that provides Probabilistic Inductive Logic Programming (PILP). By shifting the conformance check from after execution to just in time, this approach combines the advantages of many a posteriori and a priori methods proposed in literature. Quite remarkably, if the corrective actions are explicitly given, the reactive nature of this methodology allows to reconcile any deviations from the desired behaviour as soon as it is detected. In conclusion, the proposed methodology brings some advancements to solve the problem of the conformance checking, helping to fill the gap between humans and the increasingly complex technology.
Resumo:
This thesis deals with heterogeneous architectures in standard workstations. Heterogeneous architectures represent an appealing alternative to traditional supercomputers because they are based on commodity components fabricated in large quantities. Hence their price-performance ratio is unparalleled in the world of high performance computing (HPC). In particular, different aspects related to the performance and consumption of heterogeneous architectures have been explored. The thesis initially focuses on an efficient implementation of a parallel application, where the execution time is dominated by an high number of floating point instructions. Then the thesis touches the central problem of efficient management of power peaks in heterogeneous computing systems. Finally it discusses a memory-bounded problem, where the execution time is dominated by the memory latency. Specifically, the following main contributions have been carried out: A novel framework for the design and analysis of solar field for Central Receiver Systems (CRS) has been developed. The implementation based on desktop workstation equipped with multiple Graphics Processing Units (GPUs) is motivated by the need to have an accurate and fast simulation environment for studying mirror imperfection and non-planar geometries. Secondly, a power-aware scheduling algorithm on heterogeneous CPU-GPU architectures, based on an efficient distribution of the computing workload to the resources, has been realized. The scheduler manages the resources of several computing nodes with a view to reducing the peak power. The two main contributions of this work follow: the approach reduces the supply cost due to high peak power whilst having negligible impact on the parallelism of computational nodes. from another point of view the developed model allows designer to increase the number of cores without increasing the capacity of the power supply unit. Finally, an implementation for efficient graph exploration on reconfigurable architectures is presented. The purpose is to accelerate graph exploration, reducing the number of random memory accesses.
Resumo:
A general approach is presented for implementing discrete transforms as a set of first-order or second-order recursive digital filters. Clenshaw's recurrence formulae are used to formulate the second-order filters. The resulting structure is suitable for efficient implementation of discrete transforms in VLSI or FPGA circuits. The general approach is applied to the discrete Legendre transform as an illustration.