766 resultados para parallel hybrid


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Engenharia Electrotécnica e de Computadores Mestrado Integrado em Engenharia Electrotécnica e de Computadores

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Engenharia Informática

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Engenharia Biomédica

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Face à estagnação da tecnologia uniprocessador registada na passada década, aos principais fabricantes de microprocessadores encontraram na tecnologia multi-core a resposta `as crescentes necessidades de processamento do mercado. Durante anos, os desenvolvedores de software viram as suas aplicações acompanhar os ganhos de performance conferidos por cada nova geração de processadores sequenciais, mas `a medida que a capacidade de processamento escala em função do número de processadores, a computação sequencial tem de ser decomposta em várias partes concorrentes que possam executar em paralelo, para que possam utilizar as unidades de processamento adicionais e completar mais rapidamente. A programação paralela implica um paradigma completamente distinto da programação sequencial. Ao contrário dos computadores sequenciais tipificados no modelo de Von Neumann, a heterogeneidade de arquiteturas paralelas requer modelos de programação paralela que abstraiam os programadores dos detalhes da arquitectura e simplifiquem o desenvolvimento de aplicações concorrentes. Os modelos de programação paralela mais populares incitam os programadores a identificar instruções concorrentes na sua lógica de programação, e a especificá-las sob a forma de tarefas que possam ser atribuídas a processadores distintos para executarem em simultâneo. Estas tarefas são tipicamente lançadas durante a execução, e atribuídas aos processadores pelo motor de execução subjacente. Como os requisitos de processamento costumam ser variáveis, e não são conhecidos a priori, o mapeamento de tarefas para processadores tem de ser determinado dinamicamente, em resposta a alterações imprevisíveis dos requisitos de execução. `A medida que o volume da computação cresce, torna-se cada vez menos viável garantir as suas restrições temporais em plataformas uniprocessador. Enquanto os sistemas de tempo real se começam a adaptar ao paradigma de computação paralela, há uma crescente aposta em integrar execuções de tempo real com aplicações interativas no mesmo hardware, num mundo em que a tecnologia se torna cada vez mais pequena, leve, ubíqua, e portável. Esta integração requer soluções de escalonamento que simultaneamente garantam os requisitos temporais das tarefas de tempo real e mantenham um nível aceitável de QoS para as restantes execuções. Para tal, torna-se imperativo que as aplicações de tempo real paralelizem, de forma a minimizar os seus tempos de resposta e maximizar a utilização dos recursos de processamento. Isto introduz uma nova dimensão ao problema do escalonamento, que tem de responder de forma correcta a novos requisitos de execução imprevisíveis e rapidamente conjeturar o mapeamento de tarefas que melhor beneficie os critérios de performance do sistema. A técnica de escalonamento baseado em servidores permite reservar uma fração da capacidade de processamento para a execução de tarefas de tempo real, e assegurar que os efeitos de latência na sua execução não afectam as reservas estipuladas para outras execuções. No caso de tarefas escalonadas pelo tempo de execução máximo, ou tarefas com tempos de execução variáveis, torna-se provável que a largura de banda estipulada não seja consumida por completo. Para melhorar a utilização do sistema, os algoritmos de partilha de largura de banda (capacity-sharing) doam a capacidade não utilizada para a execução de outras tarefas, mantendo as garantias de isolamento entre servidores. Com eficiência comprovada em termos de espaço, tempo, e comunicação, o mecanismo de work-stealing tem vindo a ganhar popularidade como metodologia para o escalonamento de tarefas com paralelismo dinâmico e irregular. O algoritmo p-CSWS combina escalonamento baseado em servidores com capacity-sharing e work-stealing para cobrir as necessidades de escalonamento dos sistemas abertos de tempo real. Enquanto o escalonamento em servidores permite partilhar os recursos de processamento sem interferências a nível dos atrasos, uma nova política de work-stealing que opera sobre o mecanismo de capacity-sharing aplica uma exploração de paralelismo que melhora os tempos de resposta das aplicações e melhora a utilização do sistema. Esta tese propõe uma implementação do algoritmo p-CSWS para o Linux. Em concordância com a estrutura modular do escalonador do Linux, ´e definida uma nova classe de escalonamento que visa avaliar a aplicabilidade da heurística p-CSWS em circunstâncias reais. Ultrapassados os obstáculos intrínsecos `a programação da kernel do Linux, os extensos testes experimentais provam que o p-CSWS ´e mais do que um conceito teórico atrativo, e que a exploração heurística de paralelismo proposta pelo algoritmo beneficia os tempos de resposta das aplicações de tempo real, bem como a performance e eficiência da plataforma multiprocessador.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

INTRODUCTION: Hypoplastic left heart syndrome (HLHS) is a major cause of cardiac death during the first week of life. The hybrid approach is a reliable, reproducible treatment option for patients with HLHS. Herein we report our results using this approach, focusing on its efficacy, safety and late outcome. METHODS: We reviewed prospectively collected data on patients treated for HLHS using a hybrid approach between July 2007 and September 2014. RESULTS: Nine patients had a stage 1 hybrid procedure, with seven undergoing a comprehensive stage 2 procedure. One patient completed the Fontan procedure. Five patients underwent balloon atrial septostomy after the hybrid procedure; in three patients, a stent was placed across the atrial septum. There were three deaths: two early after the hybrid procedure and one early after stage two palliation. Overall survival was 66%. CONCLUSIONS: In our single-center series, the hybrid approach for HLHS yields intermediate results comparable to those of the Norwood strategy. The existence of dedicated teams for the diagnosis and management of these patients, preferably in high-volume centers, is of major importance in this condition.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Engenharia Informática

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Doutor em Ambiente

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This dissertation presents an approach aimed at three-dimensional perception’s obstacle detection on all-terrain robots. Given the huge amount of acquired information, the adversities such environments present to an autonomous system and the swiftness, thus required, from each of its navigation decisions, it becomes imperative that the 3-D perceptional system to be able to map obstacles and passageways in the most swift and detailed manner. In this document, a hybrid approach is presented bringing the best of several methods together, combining the lightness of lesser meticulous analyses with the detail brought by more thorough ones. Realizing the former, a terrain’s slope mapping system upon a low resolute volumetric representation of the surrounding occupancy. For the latter’s detailed evaluation, two novel metrics were conceived to discriminate the little depth discrepancies found in between range scanner’s beam distance measurements. The hybrid solution resulting from the conjunction of these two representations provides a reliable answer to traversability mapping and a robust discrimination of penetrable vegetation from that constituting real obstructions. Two distinct robotic platforms offered the possibility to test the hybrid approach on very different applications: a boat, under an European project, the ECHORD Riverwatch, and a terrestrial four-wheeled robot for a national project, the Introsys Robot.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Breast cancer is the most common cancer among women, being a major public health problem. Worldwide, X-ray mammography is the current gold-standard for medical imaging of breast cancer. However, it has associated some well-known limitations. The false-negative rates, up to 66% in symptomatic women, and the false-positive rates, up to 60%, are a continued source of concern and debate. These drawbacks prompt the development of other imaging techniques for breast cancer detection, in which Digital Breast Tomosynthesis (DBT) is included. DBT is a 3D radiographic technique that reduces the obscuring effect of tissue overlap and appears to address both issues of false-negative and false-positive rates. The 3D images in DBT are only achieved through image reconstruction methods. These methods play an important role in a clinical setting since there is a need to implement a reconstruction process that is both accurate and fast. This dissertation deals with the optimization of iterative algorithms, with parallel computing through an implementation on Graphics Processing Units (GPUs) to make the 3D reconstruction faster using Compute Unified Device Architecture (CUDA). Iterative algorithms have shown to produce the highest quality DBT images, but since they are computationally intensive, their clinical use is currently rejected. These algorithms have the potential to reduce patient dose in DBT scans. A method of integrating CUDA in Interactive Data Language (IDL) is proposed in order to accelerate the DBT image reconstructions. This method has never been attempted before for DBT. In this work the system matrix calculation, the most computationally expensive part of iterative algorithms, is accelerated. A speedup of 1.6 is achieved proving the fact that GPUs can accelerate the IDL implementation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Hybrid knowledge bases are knowledge bases that combine ontologies with non-monotonic rules, allowing to join the best of both open world ontologies and close world rules. Ontologies shape a good mechanism to share knowledge on theWeb that can be understood by both humans and machines, on the other hand rules can be used, e.g., to encode legal laws or to do a mapping between sources of information. Taking into account the dynamics present today on the Web, it is important for these hybrid knowledge bases to capture all these dynamics and thus adapt themselves. To achieve that, it is necessary to create mechanisms capable of monitoring the information flow present on theWeb. Up to today, there are no such mechanisms that allow for monitoring events and performing modifications of hybrid knowledge bases autonomously. The goal of this thesis is then to create a system that combine these hybrid knowledge bases with reactive rules, aiming to monitor events and perform actions over a knowledge base. To achieve this goal, a reactive system for the SemanticWeb is be developed in a logic-programming based approach accompanied with a language for heterogeneous rule base evolution having as its basis RIF Production Rule Dialect, which is a standard for exchanging rules over theWeb.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introduction This study evaluated the level of concordance between hybrid capture II (HCII) and PapilloCheck® for the detection of high-risk human papillomavirus (HPV) in anal samples. Methods Anal cell samples collected from 42 human immunodeficiency virus (HIV)+ patients were analyzed. Results Considering only the 13 high-risk HPV types that are detectable by both tests, HCII was positive for 52.3% of the samples, and PapilloCheck® was positive for 52.3%. The level of concordance was 80.9% (Kappa = 0.61). Conclusions Good concordance was observed between the tests for the detection of high-risk HPV.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente tese reflete sobre os temas do desenvolvimento sustentável, da sustentabilidade corporativa, da responsabilidade social corporativa e das dimensões do Triple Bottom Line. O principal objetivo do nosso trabalho é contribuir para o conhecimento das relações que se estabelecem nas interseções entre a dimensão económica, social e ambiental da sustentabilidade corporativa, aqui designadas de relações híbridas. Neste sentido, desenvolveu-se um enquadramento teórico que fundamenta o modelo proposto, designado por Hybrid Bottom Line. De acordo com este enquadramento procurou-se conceber uma metodologia que permitisse analisar como é que estas relações de interseção entre economia-ambiente e economia-social se verificam e de que forma os seus resultados podem beneficiar a compreensão, avaliação e melhorias no entendimento da sustentabilidade corporativa, bem como possibilitar uma análise dirigida a fatores recombinantes específicos. Em complemento, foi desenvolvida uma proposta que permite posicionar o esforço desenvolvido pela empresa no âmbito da sustentabilidade e desta forma tipificar as suas ações. Nesta tese a abordagem empírica recaiu na análise dos relatórios de sustentabilidade publicados pelas empresas e baseados nas diretivas de relato propostas pelo Global Reporting Initiative. A amostra para o estudo abrangeu um total de 85 empresas de diferentes dimensões de 36 sectores económicos e representando 36 países de 5 continentes. A análise dos resultados foi feita utilizando diversos métodos de análise de dados (de frequência e de conteúdo) e análises estatísticas (análise de contingência, variância e de correspondências múltiplas) que permitiram observar as relações entre as dimensões do Triple Bottom Line, dando lugar à construção de uma matriz de relações híbridas. Seguidamente foi realizada uma análise longitudinal de uma das empresas da amostra tendo como referência a matriz híbrida obtida, assim como a tipificação da empresa no âmbito da sustentabilidade. Os resultados alcançados nas diferentes fases indicam que o enquadramento teórico que foi utilizado é útil para a análise das interseções entre as dimensões e permite uma avaliação dirigida a fatos ocorridos entre pares dimensionais, bem como projetar análises e posicionamentos futuros. Os resultados obtidos sugerem que a proposta apresentada é útil e deverá ser utilizada e desenvolvida noutros contextos. Esta tese contribui para a ideia de que a responsabilidade corporativa não deve ser só vista e operacionalizada como uma realidade de dimensões segmentadas mas também deve ser observada como um conjunto possível de interações que se manifestam nas interseções das suas diferentes dimensões.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Combinatorial Optimization Problems occur in a wide variety of contexts and generally are NP-hard problems. At a corporate level solving this problems is of great importance since they contribute to the optimization of operational costs. In this thesis we propose to solve the Public Transport Bus Assignment problem considering an heterogeneous fleet and line exchanges, a variant of the Multi-Depot Vehicle Scheduling Problem in which additional constraints are enforced to model a real life scenario. The number of constraints involved and the large number of variables makes impracticable solving to optimality using complete search techniques. Therefore, we explore metaheuristics, that sacrifice optimality to produce solutions in feasible time. More concretely, we focus on the development of algorithms based on a sophisticated metaheuristic, Ant-Colony Optimization (ACO), which is based on a stochastic learning mechanism. For complex problems with a considerable number of constraints, sophisticated metaheuristics may fail to produce quality solutions in a reasonable amount of time. Thus, we developed parallel shared-memory (SM) synchronous ACO algorithms, however, synchronism originates the straggler problem. Therefore, we proposed three SM asynchronous algorithms that break the original algorithm semantics and differ on the degree of concurrency allowed while manipulating the learned information. Our results show that our sequential ACO algorithms produced better solutions than a Restarts metaheuristic, the ACO algorithms were able to learn and better solutions were achieved by increasing the amount of cooperation (number of search agents). Regarding parallel algorithms, our asynchronous ACO algorithms outperformed synchronous ones in terms of speedup and solution quality, achieving speedups of 17.6x. The cooperation scheme imposed by asynchronism also achieved a better learning rate than the original one.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This thesis aims to develop an alternative active managed portfolio strategy based on companies‟ Fundamental and Technical Analysis and analyze its finals results. There is a big distinction between the two approaches and the main objective is to understand if it is possible to take advantage of both. With this in mind a Hybrid investment strategy for the US stock market, due to its dimension and liquidity, which was able to outperform the S&P 500 index, the benchmark, during both Bear and Bull Markets between 2000 and 2015.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Although, the word “Love” in organizations is seen as a rare concept, but it has gained importance in management theoretical foundation. This study seeks to explore the companionate love in distinct of organizational forms (Private companies; Social organizations; NGO and IPSS) through interviews. The results propose that it is a tensional concept with a complex dynamic: tension of personal behavior, tension of professional behavior; tension of individual impact and tension of community impact. The love dynamic has common points to all organizations, but its expression depends on the specific form of the organization.