28 resultados para Testing and Debugging

em Instituto Politécnico do Porto, Portugal


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Mestrado em Engenharia Electrotécnica e de Computadores - Área de Especialização em Automação e Sistemas

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta dissertação descreve o sistema de apoio à racionalização da utilização de energia eléctrica desenvolvido no âmbito da unidade curricular de Tese/Dissertação. O domínio de aplicação enquadra-se no contexto da Directiva da União Europeia 2006/32/EC que declara ser necessário colocar à disposição dos consumidores a informação e os meios que promovam a redução do consumo e o aumento da eficiência energética individual. O objectivo é o desenvolvimento de uma solução que permita a representação gráfica do consumo/produção, a definição de tectos de consumo, a geração automática de alertas e alarmes, a comparação anónima com clientes com perfil idêntico por região e a previsão de consumo/produção no caso de clientes industriais. Trata-se de um sistema distribuído composto por front-end e back-end. O front-end é composto pelas aplicações de interface com o utilizador desenvolvidas para dispositivos móveis Android e navegadores Web. O back-end efectua o armazenamento e processamento de informação e encontra-se alojado numa plataforma de cloud computing – o Google App Engine – que disponibiliza uma interface padrão do tipo serviço Web. Esta opção assegura interoperabilidade, escalabilidade e robustez ao sistema. Descreve-se em detalhe a concepção, desenvolvimento e teste do protótipo realizado, incluindo: (i) as funcionalidades de gestão e análise de consumo e produção de energia implementadas; (ii) as estruturas de dados; (iii) a base de dados e o serviço Web; e (iv) os testes e a depuração efectuados. (iv) Por fim, apresenta-se o balanço deste projecto e efectuam-se sugestões de melhoria.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Pretende-se, na presente dissertação, descrever o trabalho desenvolvido e os conhecimentos adquiridos no decorrer do projeto “iCOPE”, realizado no âmbito do curso de Mestrado em Engenharia de Computação e Instrumentação Médica. O projeto consistiu no desenvolvimento de um sistema aplicacional para o auxílio à prestação de serviços e cuidados de saúde a pacientes com doenças psicóticas tanto através de ferramentas de autogestão, como por funcionalidades que permitirão a um terapeuta monitorizar as ocorrências comunicadas pelos respetivos pacientes atribuídos. As tarefas à responsabilidade do autor desta dissertação compreenderam o levantamento e especificação de requisitos funcionais, o desenvolvimento das funcionalidades e interfaces de gestão de utilizadores e administração do sistema, o desenvolvimento das funcionalidades e interfaces para utilização pelos terapeutas e a criação de ferramentas para a instalação do servidor aplicacional central, existindo ainda cooperação no desenvolvimento de funcionalidades e interfaces para utilização pelos pacientes, nomeadamente ao nível da modelização da base de dados e na realização de testes e deteção de erros. Os resultados da avaliação das interfaces desenvolvidas, obtidos por meio da análise de respostas dadas por um grupo de potenciais utilizadores a um inquérito de usabilidade anónimo, demonstraram que estes estão satisfeitos com a solução implementada, havendo, no entanto, margem para futuros melhoramentos e incremento de funcionalidades.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Radio interference drastically affects the performance of sensor-net communications, leading to packet loss and reduced energy-efficiency. As an increasing number of wireless devices operates on the same ISM frequencies, there is a strong need for understanding and debugging the performance of existing sensornet protocols under interference. Doing so requires a low-cost flexible testbed infrastructure that allows the repeatable generation of a wide range of interference patterns. Unfortunately, to date, existing sensornet testbeds lack such capabilities, and do not permit to study easily the coexistence problems between devices sharing the same frequencies. This paper addresses the current lack of such an infrastructure by using off-the-shelf sensor motes to record and playback interference patterns as well as to generate customizable and repeat-able interference in real-time. We propose and develop JamLab: a low-cost infrastructure to augment existing sensornet testbeds with accurate interference generation while limiting the overhead to a simple upload of the appropriate software. We explain how we tackle the hardware limitations and get an accurate measurement and regeneration of interference, and we experimentally evaluate the accuracy of JamLab with respect to time, space, and intensity. We further use JamLab to characterize the impact of interference on sensornet MAC protocols.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

As the wireless cellular market reaches competitive levels never seen before, network operators need to focus on maintaining Quality of Service (QoS) a main priority if they wish to attract new subscribers while keeping existing customers satisfied. Speech Quality as perceived by the end user is one major example of a characteristic in constant need of maintenance and improvement. It is in this topic that this Master Thesis project fits in. Making use of an intrusive method of speech quality evaluation, as a means to further study and characterize the performance of speech codecs in second-generation (2G) and third-generation (3G) technologies. Trying to find further correlation between codecs with similar bit rates, along with the exploration of certain transmission parameters which may aid in the assessment of speech quality. Due to some limitations concerning the audio analyzer equipment that was to be employed, a different system for recording the test samples was sought out. Although the new designed system is not standard, after extensive testing and optimization of the system's parameters, final results were found reliable and satisfactory. Tests include a set of high and low bit rate codecs for both 2G and 3G, where values were compared and analysed, leading to the outcome that 3G speech codecs perform better, under the approximately same conditions, when compared with 2G. Reinforcing the idea that 3G is, with no doubt, the best choice if the costumer looks for the best possible listening speech quality. Regarding the transmission parameters chosen for the experiment, the Receiver Quality (RxQual) and Received Energy per Chip to the Power Density Ratio (Ec/N0), these were subject to speech quality correlation tests. Final results of RxQual were compared to those of prior studies from different researchers and, are considered to be of important relevance. Leading to the confirmation of RxQual as a reliable indicator of speech quality. As for Ec/N0, it is not possible to state it as a speech quality indicator however, it shows clear thresholds for which the MOS values decrease significantly. The studied transmission parameters show that they can be used not only for network management purposes but, at the same time, give an expected idea to the communications engineer (or technician) of the end-to-end speech quality consequences. With the conclusion of the work new ideas for future studies come to mind. Considering that the fourth-generation (4G) cellular technologies are now beginning to take an important place in the global market, as the first all-IP network structure, it seems of great relevance that 4G speech quality should be subject of evaluation. Comparing it to 3G, not only in narrowband but also adding wideband scenarios with the most recent standard objective method of speech quality assessment, POLQA. Also, new data found on Ec/N0 tests, justifies further research studies with the intention of validating the assumptions made in this work.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

These are the proceedings for the eighth national conference on XML, its Associated Technologies and its Applications (XATA'2010). The paper selection resulted in 33% of papers accepted as full papers, and 33% of papers accepted as short papers. While these two types of papers were distinguish during the conference, and they had different talk duration, they all had the same limit of 12 pages. We are happy that the selected papers focus both aspects of the conference: XML technologies, and XML applications. In the first group we can include the articles on parsing and transformation technologies, like “Processing XML: a rewriting system approach", “Visual Programming of XSLT from examples", “A Refactoring Model for XML Documents", “A Performance based Approach for Processing Large XML Files in Multicore Machines", “XML to paper publishing with manual intervention" and “Parsing XML Documents in Java using Annotations". XML-core related papers are also available, focusing XML tools testing on “Test::XML::Generator: Generating XML for Unit Testing" and “XML Archive for Testing: a benchmark for GuessXQ". XML as the base for application development is also present, being discussed on different areas, like “Web Service for Interactive Products and Orders Configuration", “XML Description for Automata Manipulations", “Integration of repositories in Moodle", “XML, Annotations and Database: a Comparative Study of Metadata Definition Strategies for Frameworks", “CardioML: Integrating Personal Cardiac Information for Ubiquous Diagnosis and Analysis", “A Semantic Representation of Users Emotions when Watching Videos" and “Integrating SVG and SMIL in DAISY DTB production to enhance the contents accessibility in the Open Library for Higher Education". The wide spread of subjects makes us believe that for the time being XML is here to stay what enhances the importance of gathering this community to discuss related science and technology. Small conferences are traversing a bad period. Authors look for impact and numbers and only submit their works to big conferences sponsored by the right institutions. However the group of people behind this conference still believes that spaces like this should be preserved and maintained. This 8th gathering marks the beginning of a new cycle. We know who we are, what is our identity and we will keep working to preserve that. We hope the publication containing the works of this year's edition will catch the same attention and interest of the previous editions and above all that this publication helps in some other's work. Finally, we would like to thank all authors for their work and interest in the conference, and to the scientific committee members for their review work.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

As doenças cardiovasculares (DCV’s) são a maior causa de mortalidade e morbilidade em Portugal. O seu elevado impacto passa pelo desconhecimento, sub-diagnóstico, elevada prevalência e descontrolo dos seus principais factores de risco (clássicos e novos marcadores bioquímicos). Para o diagnóstico de uma das vertentes da doença cardiovascular, a doença cardíaca isquémica, a prova de esforço (PE) é o exame não invasivo, de baixo custo, com reduzida taxa de complicações e de fácil execução, mais usado na clínica. O objectivo deste estudo é averiguar se existe relação entre a prova de esforço, os factores de risco cardiovascular (FR’s) e alguns dos seus marcadores bioquímicos. Com vista a alcançar objectivo realizou-se um estudo prospectivo, longitudinal e descritivo, na Esferasaúde (Maia), entre Janeiro e Maio de 2011. Foram recolhidos dados, por inquérito, referentes a: biografia, antropometria, FR’s, medicação, PE e análises clínicas. Tendo sido incluídos todos os indivíduos (idade ≥ 18 anos) que tenham realizado prova de esforço e análises na unidade citada e com diferença temporal máxima de 2 meses, pelo método de amostragem dirigida e intencional. A dimensão amostral situou-se nos 30 elementos, sendo que 19 eram do género masculino. A média de idade foi 49,43±15,39 anos. Estimou-se a prevalência de FR’s e de indivíduos com valores dos marcadores bioquímicos anormais. Dois dos indivíduos apresentavam história de DCV’s e três deles PE positiva. Foram efectuadas diversas tentativas de associação entre as variáveis integradas no estudo - DCV e FR’s; PE e FR’s; PE e marcadores bioquímicos; capacidade de esforço e FR’s, género e resultado PE. Nenhuma relação se revelou significativa, com excepção para dois casos: relação entre as DCV’s e o aparecimento de alterações na PE (p = 0,002) e associação entre PE e colesterol HDL (p=0,040). Para α de 5%. Conclui-se que não existe relação aparente entre a prova de esforço, a existência de doença cardiovascular, os seus factores de risco e marcadores bioquímicos.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Introdução: A síndrome da cirurgia lombar falhada (SCLF) caracteriza-se pela persistência ou recidiva da dor ou aparecimento de novos sintomas após discectomia, descompressão de canal estreito ou artrodese lombares. Objectivos: O objectivo deste estudo foi descrever a abordagem em fisioterapia de um caso com Síndrome da Cirurgia Lombar Falhada e avaliar os seus efeitos na funcionalidade e sintomatologia dolorosa neste indivíduo. Metodologia: A amostra foi constituída por um sujeito com 41 anos, trabalhador da construção civil, apresentando dor lombar com irradiação para o membro inferior, após ter sido submetido a discectomia lombar e artrodese, que realizou sessões de fisioterapia convencional antes e depois da cirurgia, e que apresentava sinais compatíveis com compressão radicular. A intensidade da dor foi medida através da escala visual analógica (EVA), as amplitudes com o goniómetro universal, a funcionalidade foi avaliada utilizando o Questionário de Incapacidade Roland-Morris (RMDQ), o estado psicológico foi avaliado através da “Escala de Desânimo Associado à Dor” e do “Inventário de Convicções e Percepções Relacionadas com a Dor”. Resultados: A dor era inicialmente em média de 5,5/10 EVA, sendo de 3,4/10 EVA no final do tratamento. Quanto à funcionalidade (RMDQ) esta variou de 14/24 no início para 17/24 no final. De uma forma geral, após a aplicação de técnicas para diminuir a tensão do piriforme, técnicas neuurodinâmicas e um programa de exercícios para melhoria do controlo motor, o paciente apresentou alívio das queixas de dor na nádega esquerda e anca, aumento da amplitude de rotação medial da coxo-femoral, ausência das parestesias na face plantar do pé esquerdo e melhoria das queixas de dor na face anterior e lateral da coxa. Verificamos que houve diminuição dos índices de dor e melhorias dos níveis de funcionalidade. Conclusão: Neste estudo de caso, foi salientado o processo de raciocínio clínico desenvolvido pelo fisioterapeuta: a interpretação dos dados da história e levantamento das primeiras hipóteses e a realização dos testes no exame objectivo, permitiram estabelecer um diagnóstico funcional e elaborar um plano de intervenção através do qual o utente recuperou parcialmente a sua funcionalidade e diminuiu os seus índices de dor.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Introdução: As doenças cardiovasculares são a principal causa de morte na Europa e o sedentarismo é um dos seus principais fatores de risco. Os programas de reabilitação cardiovascular (RCV) no domicílio parecem ser eficazes na tolerância ao exercício. No entanto, torna-se difícil reproduzir um protocolo de exercícios no domicílio, por se tratar de estudos pouco específicos. Objetivo: Avaliar os efeitos de um programa de exercícios específico realizado no domicílio, na tolerância ao exercício em pacientes integrados num programa RCV. Metodologia: Estudo quase experimental composto por 20 indivíduos com pelo menos um ano de enfarte agudo do miocárdio, distribuídos aleatoriamente em dois grupos: grupo experimental (GE) e grupo de controlo (GC), ambos com 10 indivíduos. O programa de RCV no domicílio (constituído por 10 exercícios) teve a duração de 8 semanas, com uma frequência de 3 vezes por semana. Avaliou-se a frequência cardíaca (FC), tensão arterial e duplo produto basais e máximos; FC de recuperação; equivalentes metabólicos (METs); velocidade; inclinação; tempo de prova e de recuperação; índice cifótico; equilíbrio; e tempo em atividade moderada a vigorosa. Resultados: Ao fim de 8 semanas de exercício o GE aumentou significativamente os MET’s (p=0,001), tensão arterial sistólica máxima (p<0,001), duplo produto máximo (p<0,001) e tempo de prova (p=0,037) e diminuiu significativamente o tempo de recuperação (p<0,001), quando comparado com o GC. Conclusão: O programa de exercícios no domicílio promoveu uma melhoria na tolerância ao exercício e parece ter melhorado o equilíbrio, para a amostra em estudo.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A crescente complexidade dos sistemas electrónicos associada a um desenvolvimento nas tecnologias de encapsulamento levou à miniaturização dos circuitos integrados, provocando dificuldades e limitações no diagnóstico e detecção de falhas, diminuindo drasticamente a aplicabilidade dos equipamentos ICT. Como forma de lidar com este problema surgiu a infra-estrutura Boundary Scan descrita na norma IEEE1149.1 “Test Access Port and Boundary-Scan Architecture”, aprovada em 1990. Sendo esta solução tecnicamente viável e interessante economicamente para o diagnóstico de defeitos, efectua também outras aplicações. O SVF surgiu do desejo de incutir e fazer com que os fornecedores independentes incluíssem a norma IEEE 1149.1, é desenvolvido num formato ASCII, com o objectivo de enviar sinais, aguardar pela sua resposta, segundo a máscara de dados baseada na norma IEEE1149.1. Actualmente a incorporação do Boundary Scan nos circuitos integrados está em grande expansão e consequentemente usufrui de uma forte implementação no mercado. Neste contexto o objectivo da dissertação é o desenvolvimento de um controlador boundary scan que implemente uma interface com o PC e possibilite o controlo e monitorização da aplicação de teste ao PCB. A arquitectura do controlador desenvolvido contém um módulo de Memória de entrada, um Controlador TAP e uma Memória de saída. A implementação do controlador foi feita através da utilização de uma FPGA, é um dispositivo lógico reconfiguráveis constituído por blocos lógicos e por uma rede de interligações, ambos configuráveis, que permitem ao utilizador implementar as mais variadas funções digitais. A utilização de uma FPGA tem a vantagem de permitir a versatilidade do controlador, facilidade na alteração do seu código e possibilidade de inserir mais controladores dentro da FPGA. Foi desenvolvido o protocolo de comunicação e sincronização entre os vários módulos, permitindo o controlo e monitorização dos estímulos enviados e recebidos ao PCB, executados automaticamente através do software do Controlador TAP e de acordo com a norma IEEE 1149.1. A solução proposta foi validada por simulação utilizando o simulador da Xilinx. Foram analisados todos os sinais que constituem o controlador e verificado o correcto funcionamento de todos os seus módulos. Esta solução executa todas as sequências pretendidas e necessárias (envio de estímulos) à realização dos testes ao PCB. Recebe e armazena os dados obtidos, enviando-os posteriormente para a memória de saída. A execução do trabalho permitiu concluir que os projectos de componentes electrónicos tenderão a ser descritos num nível de abstracção mais elevado, recorrendo cada vez mais ao uso de linguagens de hardware, no qual o VHDL é uma excelente ferramenta de programação. O controlador desenvolvido será uma ferramenta bastante útil e versátil para o teste de PCBs e outras funcionalidades disponibilizadas pelas infra-estruturas BS.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Major depressive disorder (MDD) is a highly prevalent disorder, which has been associated with an abnormal response of the hypothalamus–pituitary–adrenal (HPA) axis. Reports have argued that an abnormal HPA axis response can be due to an altered P-Glycoprotein (P-GP) function. This argument suggests that genetic polymorphisms in ABCB1 may have an effect on the HPA axis activity; however, it is still not clear if this influences the risk of MDD. Our study aims to evaluate the effect of ABCB1 C1236T, G2677TA and C3435T genetic polymorphisms on MDD risk in a subset of Portuguese patients. DNA samples from 80 MDD patients and 160 control subjects were genotyped using TaqMan SNP Genotyping assays. A significant protection for MDD males carrying the T allele was observed (C1236T: odds ratio (OR) = 0.360, 95% confidence interval [CI]: [0.140– 0.950], p = 0.022; C3435T: OR= 0.306, 95% CI: [0.096–0.980], p = 0.042; and G2677TA: OR= 0.300, 95% CI: [0.100– 0.870], p = 0.013). Male Portuguese individuals carrying the 1236T/2677T/3435T haplotype had nearly 70% less risk of developing MDD (OR = 0.313, 95% CI: [0.118–0.832], p = 0.016, FDR p = 0.032). No significant differences were observed regarding the overall subjects. Our results suggest that genetic variability of the ABCB1 is associated with MDD development in male Portuguese patients. To the best of our knowledge, this is the first report in Caucasian samples to analyze the effect of these ABCB1 genetic polymorphisms on MDD risk.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In this paper we present a framework for managing QoS-aware applications in a dynamic, ad-hoc, distributed environment. This framework considers an available set of wireless/mobile and fixed nodes, which may temporally form groups in order to process a set of related services, and where there is the need to support different levels of service and different combinations of quality requirements. This framework is being developed both for testing and validating an approach, based on multidimensional QoS properties, which provides service negotiation and proposal evaluation algorithms, and for assessing the suitability of the Ada language to be used in the context of dynamic, QoS-aware systems.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Most research work on WSNs has focused on protocols or on specific applications. There is a clear lack of easy/ready-to-use WSN technologies and tools for planning, implementing, testing and commissioning WSN systems in an integrated fashion. While there exists a plethora of papers about network planning and deployment methodologies, to the best of our knowledge none of them helps the designer to match coverage requirements with network performance evaluation. In this paper we aim at filling this gap by presenting an unified toolset, i.e., a framework able to provide a global picture of the system, from the network deployment planning to system test and validation. This toolset has been designed to back up the EMMON WSN system architecture for large-scale, dense, real-time embedded monitoring. It includes network deployment planning, worst-case analysis and dimensioning, protocol simulation and automatic remote programming and hardware testing tools. This toolset has been paramount to validate the system architecture through DEMMON1, the first EMMON demonstrator, i.e., a 300+ node test-bed, which is, to the best of our knowledge, the largest single-site WSN test-bed in Europe to date.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The performance of the Weather Research and Forecast (WRF) model in wind simulation was evaluated under different numerical and physical options for an area of Portugal, located in complex terrain and characterized by its significant wind energy resource. The grid nudging and integration time of the simulations were the tested numerical options. Since the goal is to simulate the near-surface wind, the physical parameterization schemes regarding the boundary layer were the ones under evaluation. Also, the influences of the local terrain complexity and simulation domain resolution on the model results were also studied. Data from three wind measuring stations located within the chosen area were compared with the model results, in terms of Root Mean Square Error, Standard Deviation Error and Bias. Wind speed histograms, occurrences and energy wind roses were also used for model evaluation. Globally, the model accurately reproduced the local wind regime, despite a significant underestimation of the wind speed. The wind direction is reasonably simulated by the model especially in wind regimes where there is a clear dominant sector, but in the presence of low wind speeds the characterization of the wind direction (observed and simulated) is very subjective and led to higher deviations between simulations and observations. Within the tested options, results show that the use of grid nudging in simulations that should not exceed an integration time of 2 days is the best numerical configuration, and the parameterization set composed by the physical schemes MM5–Yonsei University–Noah are the most suitable for this site. Results were poorer in sites with higher terrain complexity, mainly due to limitations of the terrain data supplied to the model. The increase of the simulation domain resolution alone is not enough to significantly improve the model performance. Results suggest that error minimization in the wind simulation can be achieved by testing and choosing a suitable numerical and physical configuration for the region of interest together with the use of high resolution terrain data, if available.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

On-chip debug (OCD) features are frequently available in modern microprocessors. Their contribution to shorten the time-to-market justifies the industry investment in this area, where a number of competing or complementary proposals are available or under development, e.g. NEXUS, CJTAG, IJTAG. The controllability and observability features provided by OCD infrastructures provide a valuable toolbox that can be used well beyond the debugging arena, improving the return on investment rate by diluting its cost across a wider spectrum of application areas. This paper discusses the use of OCD features for validating fault tolerant architectures, and in particular the efficiency of various fault injection methods provided by enhanced OCD infrastructures. The reference data for our comparative study was captured on a workbench comprising the 32-bit Freescale MPC-565 microprocessor, an iSYSTEM IC3000 debugger (iTracePro version) and the Winidea 2005 debugging package. All enhanced OCD infrastructures were implemented in VHDL and the results were obtained by simulation within the same fault injection environment. The focus of this paper is on the comparative analysis of the experimental results obtained for various OCD configurations and debugging scenarios.