61 resultados para Acquired pellicle


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Relatório de Estágio apresentado ao Instituto Superior de Contabilidade e Administração do Porto para a obtenção do Grau de Mestre em Auditoria Orientador: Rodrigo Mário Oliveira Carvalho, Dr. Coorientador: Vicente António Fernandes Seixas, Dr.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Over time, XML markup language has acquired a considerable importance in applications development, standards definition and in the representation of large volumes of data, such as databases. Today, processing XML documents in a short period of time is a critical activity in a large range of applications, which imposes choosing the most appropriate mechanism to parse XML documents quickly and efficiently. When using a programming language for XML processing, such as Java, it becomes necessary to use effective mechanisms, e.g. APIs, which allow reading and processing of large documents in appropriated manners. This paper presents a performance study of the main existing Java APIs that deal with XML documents, in order to identify the most suitable one for processing large XML files

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Over time, XML markup language has acquired a considerable importance in applications development, standards definition and in the representation of large volumes of data, such as databases. Today, processing XML documents in a short period of time is a critical activity in a large range of applications, which imposes choosing the most appropriate mechanism to parse XML documents quickly and efficiently. When using a programming language for XML processing, such as Java, it becomes necessary to use effective mechanisms, e.g. APIs, which allow reading and processing of large documents in appropriated manners. This paper presents a performance study of the main existing Java APIs that deal with XML documents, in order to identify the most suitable one for processing large XML files.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação de Mestrado apresentada ao Instituto de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Marketing Digital, sob orientação de Mestre António da Silva Vieira.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O ensino praticado nas nossas escolas necessita ser mais consentâneo com os princípios e valores veiculados pela Educação Ambiental. Pretende-se, com este trabalho, levar os alunos a percepcionar a natureza com um olhar diferente, a estabelecer uma nova relação com o meio, adoptando uma postura pró-activa na defesa do espaço ribeirinho. Por meio de um percurso investigativo ao longo da margem esquerda de um troço do rio Este, na zona envolvente da Escola, os alunos de uma turma do 5º ano estudaram a flora autóctone existente na zona ribeirinha e recolheram amostras de água onde puderam aplicar processos de tratamento. Os temas abordados pertencem aos conteúdos leccionados nas aulas de Ciências da Natureza. Considerando que estas actividades podem ser importantes ferramentas na educação para o ambiente, elaborou-se para o grupo experimental um caderno de campo, que serviu de orientação ao estudo da flora, realizou-se uma actividade prática no laboratório, com a amostra da água recolhida. Posteriormente aplicou-se um teste, para conhecer o grau de conhecimento adquirido após a actividade e, no final, os alunos responderam a um inquérito para se conhecer o seu grau de satisfação. Ainda que os resultados do teste não mostrem diferenças significativas na aquisição de conhecimento em relação à turma não participante no projecto, a interpretação da paisagem mostrou-se um meio eficaz de envolver os alunos, desenvolver sensibilidades, construir conceitos, promover atitudes positivas que vão de encontro a uma Educação Ambiental ligada à cidadania.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Relatório de estágio apresentado ao Instituto de Contabilidade e Administração do Porto para a obtenção do título de Mestre em Auditoria Orientada por Dr. Rodrigo Carvalho Coorientador: Dr. José Rui Dias

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction: Image resizing is a normal feature incorporated into the Nuclear Medicine digital imaging. Upsampling is done by manufacturers to adequately fit more the acquired images on the display screen and it is applied when there is a need to increase - or decrease - the total number of pixels. This paper pretends to compare the “hqnx” and the “nxSaI” magnification algorithms with two interpolation algorithms – “nearest neighbor” and “bicubic interpolation” – in the image upsampling operations. Material and Methods: Three distinct Nuclear Medicine images were enlarged 2 and 4 times with the different digital image resizing algorithms (nearest neighbor, bicubic interpolation nxSaI and hqnx). To evaluate the pixel’s changes between the different output images, 3D whole image plot profiles and surface plots were used as an addition to the visual approach in the 4x upsampled images. Results: In the 2x enlarged images the visual differences were not so noteworthy. Although, it was clearly noticed that bicubic interpolation presented the best results. In the 4x enlarged images the differences were significant, with the bicubic interpolated images presenting the best results. Hqnx resized images presented better quality than 4xSaI and nearest neighbor interpolated images, however, its intense “halo effect” affects greatly the definition and boundaries of the image contents. Conclusion: The hqnx and the nxSaI algorithms were designed for images with clear edges and so its use in Nuclear Medicine images is obviously inadequate. Bicubic interpolation seems, from the algorithms studied, the most suitable and its each day wider applications seem to show it, being assumed as a multi-image type efficient algorithm.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction: A major focus of data mining process - especially machine learning researches - is to automatically learn to recognize complex patterns and help to take the adequate decisions strictly based on the acquired data. Since imaging techniques like MPI – Myocardial Perfusion Imaging on Nuclear Cardiology, can implicate a huge part of the daily workflow and generate gigabytes of data, there could be advantages on Computerized Analysis of data over Human Analysis: shorter time, homogeneity and consistency, automatic recording of analysis results, relatively inexpensive, etc.Objectives: The aim of this study relates with the evaluation of the efficacy of this methodology on the evaluation of MPI Stress studies and the process of decision taking concerning the continuation – or not – of the evaluation of each patient. It has been pursued has an objective to automatically classify a patient test in one of three groups: “Positive”, “Negative” and “Indeterminate”. “Positive” would directly follow to the Rest test part of the exam, the “Negative” would be directly exempted from continuation and only the “Indeterminate” group would deserve the clinician analysis, so allowing economy of clinician’s effort, increasing workflow fluidity at the technologist’s level and probably sparing time to patients. Methods: WEKA v3.6.2 open source software was used to make a comparative analysis of three WEKA algorithms (“OneR”, “J48” and “Naïve Bayes”) - on a retrospective study using the comparison with correspondent clinical results as reference, signed by nuclear cardiologist experts - on “SPECT Heart Dataset”, available on University of California – Irvine, at the Machine Learning Repository. For evaluation purposes, criteria as “Precision”, “Incorrectly Classified Instances” and “Receiver Operating Characteristics (ROC) Areas” were considered. Results: The interpretation of the data suggests that the Naïve Bayes algorithm has the best performance among the three previously selected algorithms. Conclusions: It is believed - and apparently supported by the findings - that machine learning algorithms could significantly assist, at an intermediary level, on the analysis of scintigraphic data obtained on MPI, namely after Stress acquisition, so eventually increasing efficiency of the entire system and potentially easing both roles of Technologists and Nuclear Cardiologists. In the actual continuation of this study, it is planned to use more patient information and significantly increase the population under study, in order to allow improving system accuracy.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction: Although relative uptake values aren’t the most important objective of a 99mTc-DMSA scan, they are important quantitative information. In most of the dynamic renal scintigraphies attenuation correction is essential if one wants to obtain a reliable result of the quantification process. Although in DMSA scans the absent of significant background and the lesser attenuation in pediatric patients, makes that this attenuation correction techniques are actually not applied. The geometric mean is the most common method, but that includes the acquisition of an anterior (extra) projection, which it is not acquired by a large number of NM departments. This method and the attenuation factors proposed by Tonnesen will be correlated with the absence of attenuation correction procedures. Material and Methods: Images from 20 individuals (aged 3 years +/- 2) were used and the two attenuation correction methods applied. The mean time of acquisition (time post DMSA administration) was 3.5 hours +/- 0.8h. Results: The absence of attenuation correction showed a good correlation with both attenuation methods (r=0.73 +/- 0.11) and the mean difference verified on the uptake values between the different methods were 4 +/- 3. The correlation was higher when the age was lower. The attenuation correction methods correlation was higher between them two than with the “no attenuation correction” method (r=0.82 +/- 0.8), and the mean differences of the uptake values were 2 +/- 2. Conclusion: The decision of not doing any kind of attenuation correction method can be justified by the minor differences verified on the relative kidney uptake values. Nevertheless, if it is recognized that there is a need for an accurate value of the relative kidney uptake, then an attenuation correction method should be used. Attenuation correction factors proposed by Tonnesen can be easily implemented and so become a practical and easy to implement alternative, namely when the anterior projection - needed for the geometric mean methodology – is not acquired.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A noção de Economia relativa ao Hidrogénio no vocabulário dos líderes políticos e empresariais tem vindo a mudar sobretudo pela preocupação da poluição global, segurança energética e mudanças climáticas, para além do crescente domínio técnico dos cientistas e engenheiros. O interesse neste composto, que é o elemento mais simples e abundante no universo, está a crescer, devido aos avanços tecnológicos das células de combustível – as potenciais sucessoras das baterias dos aparelhos portáteis eletrónicos, centrais elétricas e motores de combustão interna. Existem métodos já bem desenvolvidos para produzir o hidrogénio. Contudo, destacase a eletrólise da água, não só por ser um método simples mas porque pode utilizar recursos energéticos renováveis, tais como, o vento ou os painéis fotovoltaicos, e aumentar a sua eficiência. Os desafios para melhorar a utilização deste método consistem em reduzir o consumo, a manutenção e os custos energéticos e aumentar a confiança, a durabilidade e a segurança. Mais ainda, consistem em rentabilizar o subproduto oxigénio pois é um gás industrial e medicinal muito importante. Neste trabalho, estudou-se a viabilidade económica da instalação de uma unidade de produção de hidrogénio e oxigénio puros por eletrólise da água, utilizando como fonte energética a energia solar, na empresa Gasoxmed – Gases Medicinais S.A., pretendendo num futuro próximo, comercializar o hidrogénio como fonte de energia, e por outro lado, aproveitar o subproduto oxigénio para utilização industrial. Projetou-se assim uma unidade utilizando um eletrolisador da marca Proton, modelo C30, com capacidade de produção gasosa de 3 kg/h (30 m3/h) de hidrogénio e 20 kg/h (15 m3/h) de oxigénio. Os gases produzidos são comprimidos num compressor da marca RIX a 200 bares para posterior armazenamento em cilindros pressurizados. Dimensionou-se ainda um sistema de miniprodução fotovoltaico com potência 250 kW para alimentar eletricamente a instalação. A realização do projeto na nova área de produção necessitará de 1.713.963€, os quais serão adquiridos por empréstimo bancário. Definiram-se todos os custos fixos associados ao projeto que perfazem um total de 62.554€/mês para os primeiros 5 anos (duração do crédito bancário) findo o qual diminuirão para 21.204€/mês. Da comercialização do hidrogénio, do oxigénio industrial e da eletricidade produzida no sistema de miniprodução de 250 kW, prevê-se um lucro mensal de 117.925€, perfazendo assim um total líquido mensal positivo de 55.371€ durante os primeiros 5 anos e a partir daí de 96.721€/mês, resultando uma amortização do investimento inicial no final do 3º ano.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The introduction of electricity markets and integration of Distributed Generation (DG) have been influencing the power system’s structure change. Recently, the smart grid concept has been introduced, to guarantee a more efficient operation of the power system using the advantages of this new paradigm. Basically, a smart grid is a structure that integrates different players, considering constant communication between them to improve power system operation and management. One of the players revealing a big importance in this context is the Virtual Power Player (VPP). In the transportation sector the Electric Vehicle (EV) is arising as an alternative to conventional vehicles propel by fossil fuels. The power system can benefit from this massive introduction of EVs, taking advantage on EVs’ ability to connect to the electric network to charge, and on the future expectation of EVs ability to discharge to the network using the Vehicle-to-Grid (V2G) capacity. This thesis proposes alternative strategies to control these two EV modes with the objective of enhancing the management of the power system. Moreover, power system must ensure the trips of EVs that will be connected to the electric network. The EV user specifies a certain amount of energy that will be necessary to charge, in order to ensure the distance to travel. The introduction of EVs in the power system turns the Energy Resource Management (ERM) under a smart grid environment, into a complex problem that can take several minutes or hours to reach the optimal solution. Adequate optimization techniques are required to accommodate this kind of complexity while solving the ERM problem in a reasonable execution time. This thesis presents a tool that solves the ERM considering the intensive use of EVs in the smart grid context. The objective is to obtain the minimum cost of ERM considering: the operation cost of DG, the cost of the energy acquired to external suppliers, the EV users payments and remuneration and penalty costs. This tool is directed to VPPs that manage specific network areas, where a high penetration level of EVs is expected to be connected in these areas. The ERM is solved using two methodologies: the adaptation of a deterministic technique proposed in a previous work, and the adaptation of the Simulated Annealing (SA) technique. With the purpose of improving the SA performance for this case, three heuristics are additionally proposed, taking advantage on the particularities and specificities of an ERM with these characteristics. A set of case studies are presented in this thesis, considering a 32 bus distribution network and up to 3000 EVs. The first case study solves the scheduling without considering EVs, to be used as a reference case for comparisons with the proposed approaches. The second case study evaluates the complexity of the ERM with the integration of EVs. The third case study evaluates the performance of scheduling with different control modes for EVs. These control modes, combined with the proposed SA approach and with the developed heuristics, aim at improving the quality of the ERM, while reducing drastically its execution time. The proposed control modes are: uncoordinated charging, smart charging and V2G capability. The fourth and final case study presents the ERM approach applied to consecutive days.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A optimização e a aprendizagem em Sistemas Multi-Agente são consideradas duas áreas promissoras mas relativamente pouco exploradas. A optimização nestes ambientes deve ser capaz de lidar com o dinamismo. Os agentes podem alterar o seu comportamento baseando-se em aprendizagem recente ou em objectivos de optimização. As estratégias de aprendizagem podem melhorar o desempenho do sistema, dotando os agentes da capacidade de aprender, por exemplo, qual a técnica de optimização é mais adequada para a resolução de uma classe particular de problemas, ou qual a parametrização é mais adequada em determinado cenário. Nesta dissertação são estudadas algumas técnicas de resolução de problemas de Optimização Combinatória, sobretudo as Meta-heurísticas, e é efectuada uma revisão do estado da arte de Aprendizagem em Sistemas Multi-Agente. É também proposto um módulo de aprendizagem para a resolução de novos problemas de escalonamento, com base em experiência anterior. O módulo de Auto-Optimização desenvolvido, inspirado na Computação Autónoma, permite ao sistema a selecção automática da Meta-heurística a usar no processo de optimização, assim como a respectiva parametrização. Para tal, recorreu-se à utilização de Raciocínio baseado em Casos de modo que o sistema resultante seja capaz de aprender com a experiência adquirida na resolução de problemas similares. Dos resultados obtidos é possível concluir da vantagem da sua utilização e respectiva capacidade de adaptação a novos e eventuais cenários.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente dissertação apresenta uma solução para o problema de modelização tridimensional de galerias subterrâneas. O trabalho desenvolvido emprega técnicas provenientes da área da robótica móvel para obtenção um sistema autónomo móvel de modelização, capaz de operar em ambientes não estruturados sem acesso a sistemas de posicionamento global, designadamente GPS. Um sistema de modelização móvel e autónomo pode ser bastante vantajoso, pois constitui um método rápido e simples de monitorização das estruturas e criação de representações virtuais das galerias com um elevado nível de detalhe. O sistema de modelização desloca-se no interior dos túneis para recolher informações sensoriais sobre a geometria da estrutura. A tarefa de organização destes dados com vista _a construção de um modelo coerente, exige um conhecimento exacto do percurso praticado pelo sistema, logo o problema de localização da plataforma sensorial tem que ser resolvido. A formulação de um sistema de localização autónoma tem que superar obstáculos que se manifestam vincadamente nos ambientes underground, tais como a monotonia estrutural e a já referida ausência de sistemas de posicionamento global. Neste contexto, foi abordado o conceito de SLAM (Simultaneous Loacalization and Mapping) para determinação da localização da plataforma sensorial em seis graus de liberdade. Seguindo a abordagem tradicional, o núcleo do algoritmo de SLAM consiste no filtro de Kalman estendido (EKF { Extended Kalman Filter ). O sistema proposto incorpora métodos avançados do estado da arte, designadamente a parametrização em profundidade inversa (Inverse Depth Parametrization) e o método de rejeição de outliers 1-Point RANSAC. A contribuição mais importante do método por nós proposto para o avanço do estado da arte foi a fusão da informação visual com a informação inercial. O algoritmo de localização foi testado com base em dados reais, adquiridos no interior de um túnel rodoviário. Os resultados obtidos permitem concluir que, ao fundir medidas inerciais com informações visuais, conseguimos evitar o fenómeno de degeneração do factor de escala, comum nas aplicações de localização através de sistemas puramente monoculares. Provámos simultaneamente que a correcção de um sistema de localização inercial através da consideração de informações visuais é eficaz, pois permite suprimir os desvios de trajectória que caracterizam os sistemas de dead reckoning. O algoritmo de modelização, com base na localização estimada, organiza no espaço tridimensional os dados geométricos adquiridos, resultando deste processo um modelo em nuvem de pontos, que posteriormente _e convertido numa malha triangular, atingindo-se assim uma representação mais realista do cenário original.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com o crescimento das Tecnologias de Informação e Comunicação os métodos de ensino também foram evoluindo, verificando-se assim mudanças bastante significativas na forma como se adquire o conhecimento. O aparecimento do ensino à distância aliado aos meios digitais, que estão cada vez mais disponíveis e acessíveis, tanto a alunos como a professores, são um excelente complemento à actividade lectiva. Exemplo disso é mesmo o caso do e-learning que veio revolucionar todo o processo de aquisição de conhecimento, deixando para segundo plano pormenores como o local ou a hora de aquisição do conhecimento. Entre muitos tipos de recursos disponíveis, os OA’s (Objecto de Aprendizagem) têm uma utilização cada vez mais frequente. No levantamento do estado da arte e no estudo dos recursos educativos utilizados actualmente na Medicina Dentária, foi assinalado a utilização recorrente dos OA’s, que basicamente são pequenos pedaços de informação que podem ser reutilizados ou referenciados tecnologicamente. Seguidamente, iniciou-se a realização de um OA que pudesse servir de apoio ao ensino da Medicina Dentária, focando-se concretamente na higiene oral para as crianças entre os 7 e 12 anos. Finalmente, procedeu-se à sua validação conclui-se que no futuro será possível a sua reutilização em diferentes contextos de ensino e aprendizagem na área.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A eletromiografia é, hoje em dia, uma das técnicas mais utilizadas no estudo dos músculos, estando presente em áreas como a medicina, a biomecânica e a fisiologia, possibilitando o desenvolvimento científico e contribuindo para proporcionar melhorias na qualidade da vida humana. Sendo assim, este trabalho apresenta um protótipo de um aparelho de aquisição de sinais eletromiográficos, explicando também toda a teoria, técnicas, componentes utilizadas e softwares que estiveram presentes na sua implementação. De uma forma sucinta, para a aquisição do sinal eletromiográfico usou-se uma placa de aquisição NI-USB 6009 e para a visualização do mesmo recorreu-se ao software LabVIEW. Para validar o sinal adquirido com o equipamento desenvolvido, utilizou-se um outro equipamento, o Biopac MP36 Student Lab System, fazendo-se assim recolhas de sinais eletromiográficos com ambos os equipamentos. Os sinais recolhidos pelos dois equipamentos foram analisados no software Acknowledge 3.9.0 (Biopac Systems, Inc.), podendo observar-se os espetros de frequência correspondentes a cada sinal e retirar valores para posterior análise estatística. Feita essa análise, concluiu-se que não foram detetadas diferenças significativas entre os sinais eletromiográficos recolhidos com ambos os equipamentos, validando-se assim, o equipamento desenvolvido.