977 resultados para Dual task paradigm
Resumo:
Image segmentation is an ubiquitous task in medical image analysis, which is required to estimate morphological or functional properties of given anatomical targets. While automatic processing is highly desirable, image segmentation remains to date a supervised process in daily clinical practice. Indeed, challenging data often requires user interaction to capture the required level of anatomical detail. To optimize the analysis of 3D images, the user should be able to efficiently interact with the result of any segmentation algorithm to correct any possible disagreement. Building on a previously developed real-time 3D segmentation algorithm, we propose in the present work an extension towards an interactive application where user information can be used online to steer the segmentation result. This enables a synergistic collaboration between the operator and the underlying segmentation algorithm, thus contributing to higher segmentation accuracy, while keeping total analysis time competitive. To this end, we formalize the user interaction paradigm using a geometrical approach, where the user input is mapped to a non-cartesian space while this information is used to drive the boundary towards the position provided by the user. Additionally, we propose a shape regularization term which improves the interaction with the segmented surface, thereby making the interactive segmentation process less cumbersome. The resulting algorithm offers competitive performance both in terms of segmentation accuracy, as well as in terms of total analysis time. This contributes to a more efficient use of the existing segmentation tools in daily clinical practice. Furthermore, it compares favorably to state-of-the-art interactive segmentation software based on a 3D livewire-based algorithm.
Resumo:
A presente dissertação fundamenta-se na monitorização e análise de uma “Unidade de Tratamento de Ar” baseada em tecnologia exsicante evaporativa assistida por energia solar. Primeiramente é apresentado um conjunto de conceitos associados ao tema abordado, de modo a facilitar a compreensão dos fenómenos termodinâmicos envolvidos. Após a abordagem inicial que serve de consolidação, é feito o ponto da situação actual, quer em termos tecnológicos, quer em termos de instalações existentes. A etapa seguinte da dissertação descreve pormenorizadamente a instalação do LNEG e seus princípios de funcionamento, nesta fase também é contemplada a descrição sumária dos equipamentos, dos componentes e dos elementos de medição e controlo presentes no sistema. A metodologia seguida assenta fortemente em dois pontos; primeiro, a monitorização do sistema através do software “Agilent VEE Pro” e pela análise dos dados recolhidos com auxílio da folha de cálculo do LNEG, desenvolvida especialmente para este sistema. Em segundo lugar, a metodologia seguida será a imposta pela “Tarefa 38” de acordo com a Agência Internacional de Energia, no âmbito do programa de Aquecimento e Arrefecimento Solar o que permite a comparação de sistemas a nível internacional. Alias a “Tarefa 38” pretende desenvolver esta tecnologia, ao nível da concepção, estandardização, optimização das instalações, conceder o fácil acesso à informação e promover a comparabilidade de resultados. O desempenho global do sistema é bastante positivo, o bom comportamento do sistema é ilustrado na análise gráfica feita nos modos de aquecimento e arrefecimento. O grau de satisfação dos utilizadores é bom e o sistema demonstra capacidade para manter o conforto térmico dos espaços a climatizar de acordo com as normas e regulamentos em vigor. A utilização das energias renováveis nos dias de hoje, como por exemplo a energia solar é mais do que uma obrigação, é um dever.
Resumo:
This article reports on a-Si:H-based low-leakage blue-enhanced photodiodes for dual-screen x-ray imaging detectors. Doped nanocrystalline silicon was incorporated in both the n- and p-type regions to reduce absorption losses for light incoming from the top and bottom screens. The photodiode exhibits a dark current density of 900 pA/cm(2) and an external quantum efficiency up to 90% at a reverse bias of 5 V. In the case of illumination through the tailored p-layer, the quantum efficiency of 60% at a 400 nm wavelength is almost double that for the conventional a-Si:H n-i-p photodiode.
Resumo:
The reactive power management is an important task in future power systems. The control of reactive power allows the increase of distributed energy resources penetration as well as the optimal operation of distribution networks. Currently, the control of reactive power is only controlled in large power units and in high and very high voltage substations. In this paper a reactive power control in smart grids paradigm is proposed, considering the management of distributed energy resources and of the distribution network by an aggregator namely Virtual Power Player (VPP).
Resumo:
Dust is a complex mixture of particles of organic and inorganic origin and different gases absorbed in aerosol droplets. In a poultry unit include dried faecal matter and urine, skin flakes, ammonia, carbon dioxide, pollens, feed and litter particles, feathers, grain mites, fungi spores, bacteria, viruses and their constituents. Dust particles vary in size and differentiation between particle size fractions is important in health studies in order to quantify penetration within the respiratory system. A descriptive study was developed in order to assess exposure to particles in a poultry unit during different operations, namely routine examination and floor turn over. Direct-reading equipment was used (Lighthouse, model 3016 IAQ). Particle measurement was performed in 5 different sizes (PM0.5; PM1.0; PM2.5; PM5.0; PM10). The chemical composition of poultry litter was also determined by neutron activation analysis. Normally, the litter of poultry pavilions is turned over weekly and it was during this operation that the higher exposure of particles was observed. In all the tasks considered PM5.0 and PM10.0 were the sizes with higher concentrations values. PM10 is what turns out to have higher values and PM0.5 the lowest values. The chemical element with the highest concentration was Mg (5.7E6 mg.kg-1), followed by K (1.5E4 mg.kg-1), Ca (4.8E3 mg.kg-1), Na (1.7E3 mg.kg-1), Fe (2.1E2 mg.kg-1) and Zn (4.2E1 mg.kg-1). This high presence of particles in the respirable range (<5–7μm) means that poultry dust particles can penetrate into the gas exchange region of the lung. Larger particles (PM10) present a range of concentrations from 5.3E5 and 3.0E6 mg/m3.
Resumo:
OBJECTIVE: To examine the effects of the length and timing of nighttime naps on performance and physiological functions, an experimental study was carried out under simulated night shift schedules. METHODS: Six students were recruited for this study that was composed of 5 experiments. Each experiment involved 3 consecutive days with one night shift (22:00-8:00) followed by daytime sleep and night sleep. The experiments had 5 conditions in which the length and timing of naps were manipulated: 0:00-1:00 (E60), 0:00-2:00 (E120), 4:00-5:00 (L60), 4:00-6:00 (L120), and no nap (No-nap). During the night shifts, participants underwent performance tests. A questionnaire on subjective fatigue and a critical flicker fusion frequency test were administered after the performance tests. Heart rate variability and rectal temperature were recorded continuously during the experiments. Polysomnography was also recorded during the nap. RESULTS: Sleep latency was shorter and sleep efficiency was higher in the nap in L60 and L120 than that in E60 and E120. Slow wave sleep in the naps in E120 and L120 was longer than that in E60 and L60. The mean reaction time in L60 became longer after the nap, and faster in E60 and E120. Earlier naps serve to counteract the decrement in performance and physiological functions during night shifts. Performance was somewhat improved by taking a 2-hour nap later in the shift, but deteriorated after a one-hour nap. CONCLUSIONS: Naps in the latter half of the night shift were superior to earlier naps in terms of sleep quality. However performance declined after a 1-hour nap taken later in the night shift due to sleep inertia. This study suggests that appropriate timing of a short nap must be carefully considered, such as a 60-min nap during the night shift.
Resumo:
This article describes a new approach in the Intelligent Training of Operators in Power Systems Control Centres, considering the new reality of Renewable Sources, Distributed Generation, and Electricity Markets, under the emerging paradigms of Cyber-Physical Systems and Ambient Intelligence. We propose Intelligent Tutoring Systems as the approach to deal with the intelligent training of operators in these new circumstances.
Resumo:
Development of Dual Source Computed Tomography (Definition, Siemens Medical Solutions, Erlanger, Germany) allowed advances in temporal resolution, with the addition of a second X-ray source and an array of detectors to the TCM 64 slices. The ability to run exams on Dual Energy, allows greater differentiation of tissues, showing differences between closer attenuation coefficients. In terms of renal applications, the distinction of kidney stones and masses become one of the main advantages of the use of dual-energy technology. This article pretends to demonstrate operating principles of this equipment, as its main renal applications.
Resumo:
De entre os impostos que integram o nosso sistema fiscal, o imposto sobre o rendimento das pessoas singulares, ocupa um lugar de destaque na arrecadação de receitas. A sua im-portância coloca este imposto sobre pressão, pondo em confronto a tributação dos rendi-mentos de capitais e a tributação dos rendimentos do trabalho. O modelo de base compreensiva em que assenta o imposto pessoal está semi dualizado, dado tributar de forma diferente os rendimentos com origem em investimentos financeiros, subtraindo-os ao englobamento com os restantes rendimentos. Com a presente dissertação, pretende-se averiguar se o imposto pessoal, face ao recorte constitucional, pode adoptar um modelo de base semi-dual. Esta configuração permitiria simplificar o imposto, assumir duas bases e coloca-lo em linha com os modelos de tributação pessoal adoptados em alguns países europeus. O estudo realizado permitiu concluir que é possível a adopção de um modelo de base semi-dual, desde que se mantenha, por opção do contribuinte, o regime do englobamento com os restantes rendimentos. A dúvida que manifestamos relaciona-se com a oportuni-dade da concretização da reforma. O momento delicado de finanças públicas que o nosso país atravessa, traz tarefas acrescidas aos políticos, fruto dos compromissos internacionais assumidos, o que pode obstar ao agendamento da reforma do imposto pessoal que muitos reclamam. Daí que o caminho a seguir seria o do aperfeiçoamento do actual modelo.
Resumo:
Video coding technologies have played a major role in the explosion of large market digital video applications and services. In this context, the very popular MPEG-x and H-26x video coding standards adopted a predictive coding paradigm, where complex encoders exploit the data redundancy and irrelevancy to 'control' much simpler decoders. This codec paradigm fits well applications and services such as digital television and video storage where the decoder complexity is critical, but does not match well the requirements of emerging applications such as visual sensor networks where the encoder complexity is more critical. The Slepian Wolf and Wyner-Ziv theorems brought the possibility to develop the so-called Wyner-Ziv video codecs, following a different coding paradigm where it is the task of the decoder, and not anymore of the encoder, to (fully or partly) exploit the video redundancy. Theoretically, Wyner-Ziv video coding does not incur in any compression performance penalty regarding the more traditional predictive coding paradigm (at least for certain conditions). In the context of Wyner-Ziv video codecs, the so-called side information, which is a decoder estimate of the original frame to code, plays a critical role in the overall compression performance. For this reason, much research effort has been invested in the past decade to develop increasingly more efficient side information creation methods. This paper has the main objective to review and evaluate the available side information methods after proposing a classification taxonomy to guide this review, allowing to achieve more solid conclusions and better identify the next relevant research challenges. After classifying the side information creation methods into four classes, notably guess, try, hint and learn, the review of the most important techniques in each class and the evaluation of some of them leads to the important conclusion that the side information creation methods provide better rate-distortion (RD) performance depending on the amount of temporal correlation in each video sequence. It became also clear that the best available Wyner-Ziv video coding solutions are almost systematically based on the learn approach. The best solutions are already able to systematically outperform the H.264/AVC Intra, and also the H.264/AVC zero-motion standard solutions for specific types of content. (C) 2013 Elsevier B.V. All rights reserved.
Resumo:
PURPOSE: Fatty liver disease (FLD) is an increasing prevalent disease that can be reversed if detected early. Ultrasound is the safest and ubiquitous method for identifying FLD. Since expert sonographers are required to accurately interpret the liver ultrasound images, lack of the same will result in interobserver variability. For more objective interpretation, high accuracy, and quick second opinions, computer aided diagnostic (CAD) techniques may be exploited. The purpose of this work is to develop one such CAD technique for accurate classification of normal livers and abnormal livers affected by FLD. METHODS: In this paper, the authors present a CAD technique (called Symtosis) that uses a novel combination of significant features based on the texture, wavelet transform, and higher order spectra of the liver ultrasound images in various supervised learning-based classifiers in order to determine parameters that classify normal and FLD-affected abnormal livers. RESULTS: On evaluating the proposed technique on a database of 58 abnormal and 42 normal liver ultrasound images, the authors were able to achieve a high classification accuracy of 93.3% using the decision tree classifier. CONCLUSIONS: This high accuracy added to the completely automated classification procedure makes the authors' proposed technique highly suitable for clinical deployment and usage.
Resumo:
Este trabalho descreve as actividades desenvolvidas no âmbito de uma task-force para revitalizar a função Sistemas de Informação de uma grande empresa nacional. Apresenta, em particular, o sistema de indicadores de gestão definido nesse contexto
Resumo:
Os sistemas de tempo real modernos geram, cada vez mais, cargas computacionais pesadas e dinâmicas, começando-se a tornar pouco expectável que sejam implementados em sistemas uniprocessador. Na verdade, a mudança de sistemas com um único processador para sistemas multi- processador pode ser vista, tanto no domínio geral, como no de sistemas embebidos, como uma forma eficiente, em termos energéticos, de melhorar a performance das aplicações. Simultaneamente, a proliferação das plataformas multi-processador transformaram a programação paralela num tópico de elevado interesse, levando o paralelismo dinâmico a ganhar rapidamente popularidade como um modelo de programação. A ideia, por detrás deste modelo, é encorajar os programadores a exporem todas as oportunidades de paralelismo através da simples indicação de potenciais regiões paralelas dentro das aplicações. Todas estas anotações são encaradas pelo sistema unicamente como sugestões, podendo estas serem ignoradas e substituídas, por construtores sequenciais equivalentes, pela própria linguagem. Assim, o modo como a computação é na realidade subdividida, e mapeada nos vários processadores, é da responsabilidade do compilador e do sistema computacional subjacente. Ao retirar este fardo do programador, a complexidade da programação é consideravelmente reduzida, o que normalmente se traduz num aumento de produtividade. Todavia, se o mecanismo de escalonamento subjacente não for simples e rápido, de modo a manter o overhead geral em níveis reduzidos, os benefícios da geração de um paralelismo com uma granularidade tão fina serão meramente hipotéticos. Nesta perspetiva de escalonamento, os algoritmos que empregam uma política de workstealing são cada vez mais populares, com uma eficiência comprovada em termos de tempo, espaço e necessidades de comunicação. Contudo, estes algoritmos não contemplam restrições temporais, nem outra qualquer forma de atribuição de prioridades às tarefas, o que impossibilita que sejam diretamente aplicados a sistemas de tempo real. Além disso, são tradicionalmente implementados no runtime da linguagem, criando assim um sistema de escalonamento com dois níveis, onde a previsibilidade, essencial a um sistema de tempo real, não pode ser assegurada. Nesta tese, é descrita a forma como a abordagem de work-stealing pode ser resenhada para cumprir os requisitos de tempo real, mantendo, ao mesmo tempo, os seus princípios fundamentais que tão bons resultados têm demonstrado. Muito resumidamente, a única fila de gestão de processos convencional (deque) é substituída por uma fila de deques, ordenada de forma crescente por prioridade das tarefas. De seguida, aplicamos por cima o conhecido algoritmo de escalonamento dinâmico G-EDF, misturamos as regras de ambos, e assim nasce a nossa proposta: o algoritmo de escalonamento RTWS. Tirando partido da modularidade oferecida pelo escalonador do Linux, o RTWS é adicionado como uma nova classe de escalonamento, de forma a avaliar na prática se o algoritmo proposto é viável, ou seja, se garante a eficiência e escalonabilidade desejadas. Modificar o núcleo do Linux é uma tarefa complicada, devido à complexidade das suas funções internas e às fortes interdependências entre os vários subsistemas. Não obstante, um dos objetivos desta tese era ter a certeza que o RTWS é mais do que um conceito interessante. Assim, uma parte significativa deste documento é dedicada à discussão sobre a implementação do RTWS e à exposição de situações problemáticas, muitas delas não consideradas em teoria, como é o caso do desfasamento entre vários mecanismo de sincronização. Os resultados experimentais mostram que o RTWS, em comparação com outro trabalho prático de escalonamento dinâmico de tarefas com restrições temporais, reduz significativamente o overhead de escalonamento através de um controlo de migrações, e mudanças de contexto, eficiente e escalável (pelo menos até 8 CPUs), ao mesmo tempo que alcança um bom balanceamento dinâmico da carga do sistema, até mesmo de uma forma não custosa. Contudo, durante a avaliação realizada foi detetada uma falha na implementação do RTWS, pela forma como facilmente desiste de roubar trabalho, o que origina períodos de inatividade, no CPU em questão, quando a utilização geral do sistema é baixa. Embora o trabalho realizado se tenha focado em manter o custo de escalonamento baixo e em alcançar boa localidade dos dados, a escalonabilidade do sistema nunca foi negligenciada. Na verdade, o algoritmo de escalonamento proposto provou ser bastante robusto, não falhando qualquer meta temporal nas experiências realizadas. Portanto, podemos afirmar que alguma inversão de prioridades, causada pela sub-política de roubo BAS, não compromete os objetivos de escalonabilidade, e até ajuda a reduzir a contenção nas estruturas de dados. Mesmo assim, o RTWS também suporta uma sub-política de roubo determinística: PAS. A avaliação experimental, porém, não ajudou a ter uma noção clara do impacto de uma e de outra. No entanto, de uma maneira geral, podemos concluir que o RTWS é uma solução promissora para um escalonamento eficiente de tarefas paralelas com restrições temporais.
Resumo:
In this work we isolated from soil and characterized several bacterial strains capable of either resisting high concentrations of heavy metals (Cd2+ or Hg2+ or Pb2+) or degrading the common soil and groundwater pollutants MTBE (methyl-tertbutyl ether) or TCE (trichloroethylene). We then used soil microcosms exposed to MTBE (50 mg/l) or TCE (50 mg/l) in the presence of one heavy metal (Cd 10 ppm or Hg 5 ppm or Pb 50 or 100 ppm) and two bacterial isolates at a time, a degrader plus a metalresistant strain. Some of these two-membered consortia showed degradation efficiencies well higher (49–182% higher) than those expected under the conditions employed, demonstrating the occurrence of a synergetic relationship between the strains used. Our results show the efficacy of the dual augmentation strategy for MTBE and TCE bioremediation in the presence of heavy metals.