986 resultados para Pos-processing software


Relevância:

20.00% 20.00%

Publicador:

Resumo:

International Lifesaving Congress 2007, La Coruna, Spain, December, 2007

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Article in Press, Corrected Proof

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Consumer-electronics systems are becoming increasingly complex as the number of integrated applications is growing. Some of these applications have real-time requirements, while other non-real-time applications only require good average performance. For cost-efficient design, contemporary platforms feature an increasing number of cores that share resources, such as memories and interconnects. However, resource sharing causes contention that must be resolved by a resource arbiter, such as Time-Division Multiplexing. A key challenge is to configure this arbiter to satisfy the bandwidth and latency requirements of the real-time applications, while maximizing the slack capacity to improve performance of their non-real-time counterparts. As this configuration problem is NP-hard, a sophisticated automated configuration method is required to avoid negatively impacting design time. The main contributions of this article are: 1) An optimal approach that takes an existing integer linear programming (ILP) model addressing the problem and wraps it in a branch-and-price framework to improve scalability. 2) A faster heuristic algorithm that typically provides near-optimal solutions. 3) An experimental evaluation that quantitatively compares the branch-and-price approach to the previously formulated ILP model and the proposed heuristic. 4) A case study of an HD video and graphics processing system that demonstrates the practical applicability of the approach.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os requisitos legais impostos ao processo de manutenção das instalações de AVAC em edifícios evoluíram nos últimos 10 anos no sentido de uma crescente exigência, obrigando à existência de planos de manutenção preventiva, livros de ocorrências, inspeções obrigatórias a equipamentos, auditorias ou certi cações energéticas. Para os responsáveis da gestão da manutenção de edifícios, em particular para os que gerem uma quantidade signi cativa de equipamentos e instalações, fazê-lo sem o auxílio de uma ferramenta informática é um desa o considerável. Este trabalho visou a arquitetura de um sistema de gestão da manutenção de edifícios que foi aplicado a um caso real, nomeadamente o campus de Azurém da Universidade do Minho. Foi desenvolvida uma metodologia de inspeção, recolha e tratamento da informação para os sistemas técnicos de AVAC existentes nos edifícios. Esta metodologia foi implementada numa aplicação informática que permite aos técnicos responsáveis pela manutenção uma agilização de tarefas, resultado de um vasto conjunto de informações e de ferramentas desenvolvidas propositadamente, facilmente acessíveis através da rede Wi-Fi universitária. A integração das tarefas de manutenção na aplicação informática permitirá aumentar o grau de e ciência e e cácia nas atividades inerentes à manutenção, aumentando o grau de satisfação dos técnicos envolvidos no processo e dos utentes dos edifícios. O registo das tarefas de manutenção realizadas e dos respetivos custos em bases de dados, tornará também possível a geração de relatórios que sustentarão decisões mais assertivas. A implementação na aplicação informática dos seis módulos estruturais do Sistema de Gestão da Manutenção e Consumos Energéticos, SGMCE, permitirá atingir um nível de gestão da manutenção mais elevado, criando condições para o efetuar o comissionamento. O comissionamento prolonga-se por toda a vida do edifício, permitindo atingir os objetivos designados pelo seu promotor, dentro de patamares de custos de exploração energéticos e de custos optimizados de manutenção.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As novas tecnologias aplicadas ao processamento de imagem e reconhecimento de padrões têm sido alvo de um grande progresso nas últimas décadas. A sua aplicação é transversal a diversas áreas da ciência, nomeadamente a área da balística forense. O estudo de evidências (invólucros e projeteis) encontradas numa cena de crime, recorrendo a técnicas de processamento e análise de imagem, é pertinente pelo facto de, aquando do disparo, as armas de fogo imprimirem marcas únicas nos invólucros e projéteis deflagrados, permitindo relacionar evidências deflagradas pela mesma arma. A comparação manual de evidências encontradas numa cena de crime com evidências presentes numa base de dados, em termos de parâmetros visuais, constitui uma abordagem demorada. No âmbito deste trabalho pretendeu-se desenvolver técnicas automáticas de processamento e análise de imagens de evidências, obtidas através do microscópio ótico de comparação, tendo por base algoritmos computacionais. Estes foram desenvolvidos com recurso a pacotes de bibliotecas e a ferramentas open-source. Para a aquisição das imagens de evidências balísticas foram definidas quatro modalidades de aquisição: modalidade Planar, Multifocus, Microscan e Multiscan. As imagens obtidas foram aplicados algoritmos de processamento especialmente desenvolvidos para o efeito. A aplicação dos algoritmos de processamento permite a segmentação de imagem, a extração de características e o alinhamento de imagem. Este último tem como finalidade correlacionar as evidências e obter um valor quantitativo (métrica), indicando o quão similar essas evidências são. Com base no trabalho desenvolvido e nos resultados obtidos, foram definidos protocolos de aquisição de imagens de microscopia, que possibilitam a aquisição de imagens das regiões passiveis de serem estudadas, assim como algoritmos que permitem automatizar o posterior processo de alinhamento de imagens de evidências, constituindo uma vantagem em relação ao processo de comparação manual.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente tese tem como principal objetivo a comparação entre dois software de CFD (Computer Fluid Dynamics) na simulação de escoamentos atmosféricos com vista à sua aplicação ao estudo e caracterização de parques eólicos. O software em causa são o OpenFOAM (Open Field Operation and Manipulation) - freeware open source genérico - e o Windie, ferramenta especializada no estudo de parques eólicos. Para este estudo foi usada a topografia circundante a um parque eólico situado na Grécia, do qual dispúnhamos de resultados de uma campanha de medições efetuada previamente. Para este _m foram usados procedimentos e ferramentas complementares ao Open-FOAM, desenvolvidas por da Silva Azevedo (2013) adequados para a realização do pré-processamento, extração de dados e pós-processamento, aplicados na simulação do caso pratico. As condições de cálculo usadas neste trabalho limitaram-se às usadas na simulação de escoamentos previamente simulados pelo software Windie: condições de escoamento turbulento, estacionário, incompressível e em regime não estratificado, com o recurso ao modelo de turbulência RaNS (Reynolds-averaged Navier-Stokes ) k - E atmosférico. Os resultados de ambas as simulações - OpenFOAM e Windie - foram comparados com resultados de uma campanha de medições, através dos valores de speed-up e intensidade turbulenta nas posições dos anemómetros.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Recent embedded processor architectures containing multiple heterogeneous cores and non-coherent caches renewed attention to the use of Software Transactional Memory (STM) as a building block for developing parallel applications. STM promises to ease concurrent and parallel software development, but relies on the possibility of abort conflicting transactions to maintain data consistency, which in turns affects the execution time of tasks carrying transactions. Because of this fact the timing behaviour of the task set may not be predictable, thus it is crucial to limit the execution time overheads resulting from aborts. In this paper we formalise a FIFO-based algorithm to order the sequence of commits of concurrent transactions. Then, we propose and evaluate two non-preemptive and one SRP-based fully-preemptive scheduling strategies, in order to avoid transaction starvation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The recent technological advancements and market trends are causing an interesting phenomenon towards the convergence of High-Performance Computing (HPC) and Embedded Computing (EC) domains. On one side, new kinds of HPC applications are being required by markets needing huge amounts of information to be processed within a bounded amount of time. On the other side, EC systems are increasingly concerned with providing higher performance in real-time, challenging the performance capabilities of current architectures. The advent of next-generation many-core embedded platforms has the chance of intercepting this converging need for predictable high-performance, allowing HPC and EC applications to be executed on efficient and powerful heterogeneous architectures integrating general-purpose processors with many-core computing fabrics. To this end, it is of paramount importance to develop new techniques for exploiting the massively parallel computation capabilities of such platforms in a predictable way. P-SOCRATES will tackle this important challenge by merging leading research groups from the HPC and EC communities. The time-criticality and parallelisation challenges common to both areas will be addressed by proposing an integrated framework for executing workload-intensive applications with real-time requirements on top of next-generation commercial-off-the-shelf (COTS) platforms based on many-core accelerated architectures. The project will investigate new HPC techniques that fulfil real-time requirements. The main sources of indeterminism will be identified, proposing efficient mapping and scheduling algorithms, along with the associated timing and schedulability analysis, to guarantee the real-time and performance requirements of the applications.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Trabalho de projecto apresentado como requisito parcial para a obtenção do grau de mestre em Ciência e Sistemas de Informação Geográfica

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho é o desenvolvimento de frameworks de testes automáticos de software. Este tipo de testes normalmente está associado ao modelo evolucionário e às metodologias ágeis de desenvolvimento de software, enquanto que os testes manuais estão relacionados com o modelo em cascata e as metodologias tradicionais. Como tal foi efetuado um estudo comparativo sobre os tipos de metodologias e de testes existentes, para decidir quais os que melhor se adequavam ao projeto e dar resposta à questão "Será que realmente compensa realizar testes (automáticos)?". Finalizado o estudo foram desenvolvidas duas frameworks, a primeira para a implementação de testes funcionais e unitários sem dependências a ser utilizada pelos estagiários curriculares da LabOrders, e a segunda para a implementação de testes unitários com dependências externas de base de dados e serviços, a ser utilizada pelos funcionários da empresa. Nas últimas duas décadas as metodologias ágeis de desenvolvimento de software não pararam de evoluir, no entanto as ferramentas de automação não conseguiram acompanhar este progresso. Muitas áreas não são abrangidas pelos testes e por isso alguns têm de ser feitos manualmente. Posto isto foram criadas várias funcionalidades inovadoras para aumentar a cobertura dos testes e tornar as frameworks o mais intuitivas possível, nomeadamente: 1. Download automático de ficheiros através do Internet Explorer 9 (e versões mais recentes). 2. Análise do conteúdo de ficheiros .pdf (através dos testes). 3. Obtenção de elementos web e respetivos atributos através de código jQuery utilizando a API WebDriver com PHP bindings. 4. Exibição de mensagens de erro personalizadas quando não é possível encontrar um determinado elemento. As frameworks implementadas estão também preparadas para a criação de outros testes (de carga, integração, regressão) que possam vir a ser necessários no futuro. Foram testadas em contexto de trabalho pelos colaboradores e clientes da empresa onde foi realizado o projeto de mestrado e os resultados permitiram concluir que a adoção de uma metodologia de desenvolvimento de software com testes automáticos pode aumentar a produtividade, reduzir as falhas e potenciar o cumprimento de orçamentos e prazos dos projetos das organizações.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Development and standardization of reliable methods for detection of Mycobacterium tuberculosis in clinical samples is an important goal in laboratories throughout the world. In this work, lung and spleen fragments from a patient who died with the diagnosis of miliary tuberculosis were used to evaluate the influence of the type of fixative as well as the fixation and paraffin inclusion protocols on PCR performance in paraffin embedded specimens. Tissue fragments were fixed for four h to 48 h, using either 10% non-buffered or 10% buffered formalin, and embedded in pure paraffin or paraffin mixed with bee wax. Specimens were submitted to PCR for amplification of the human beta-actin gene and separately for amplification of the insertion sequence IS6110, specific from the M. tuberculosis complex. Amplification of the beta-actin gene was positive in all samples. No amplicons were generated by PCR-IS6110 when lung tissue fragments were fixed using 10% non-buffered formalin and were embedded in paraffin containing bee wax. In conclusion, combined inhibitory factors interfere in the detection of M. tuberculosis in stored material. It is important to control these inhibitory factors in order to implement molecular diagnosis in pathology laboratories.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este working paper centra-se no desenvolvimento das técnicas de edição de documentos ou publicações, que têm conhecido um incremento espectacular na última década. Os avanços e descobertas mais significativas entre 1450 e 1986, eclipsam-se praticamente, quando comparados com as grandes modificações dos últimos sete anos (isto é a História da auto-edição e si). Desde o aparecimento do primeiro programa de auto-edição e da primeira impressora laser, dotada de um intérprete postscript, até hoje, a evolução e aperfeiçoamento tanto do software como do hardware tem sido tanta, continuando a fazer-se a um tal ritmo, que se tornou irreversível.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In this paper we study several natural and man-made complex phenomena in the perspective of dynamical systems. For each class of phenomena, the system outputs are time-series records obtained in identical conditions. The time-series are viewed as manifestations of the system behavior and are processed for analyzing the system dynamics. First, we use the Fourier transform to process the data and we approximate the amplitude spectra by means of power law functions. We interpret the power law parameters as a phenomenological signature of the system dynamics. Second, we adopt the techniques of non-hierarchical clustering and multidimensional scaling to visualize hidden relationships between the complex phenomena. Third, we propose a vector field based analogy to interpret the patterns unveiled by the PL parameters.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Atualmente, as empresas distinguem-se das demais pelos produtos e serviços fornecidos com qualidade e dentro dos prazos estabelecidos. Uma empresa de desenvolvimento de software não foge a essa regra e para isso os processos envolvidos nas diversas fases de levantamento, desenvolvimento, implementação e suporte devem estar documentados, ser do conhecimento geral da Organização e colocados em prática diariamente nas diversas atividades dos colaboradores. Para isso deve contribuir uma melhoria contínua desses mesmos processos. O CMMI-DEV, Capability Maturity Model Integration for Development, possibilita a introdução de boas práticas nas diversas áreas do processo de desenvolvimento de software, mas também a avaliação dessas áreas e respetiva identificação de aspetos a necessitarem de ser melhorados ou até disseminados por toda a organização. Este trabalho envolveu efetuar uma análise teórica do CMMI-DEV e sua posterior utilização prática num ambiente de trabalho empresarial para avaliação dos processos dessa empresa. Para a concretização deste segundo aspeto, foi elaborado um questionário para avaliar os processos de uma organização, segundo o modelo CMMI-DEV 1.3, avaliada a facilidade de utilização do questionário de avaliação dos processos por parte dos inquiridos. Foi realizada ainda uma análise aos resultados obtidos nos referidos questionários.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Engenharia Mecânica