914 resultados para Testing and Debugging
Resumo:
Program slicing is a well known family of techniques intended to identify and isolate code fragments which depend on, or are depended upon, specific program entities. This is particularly useful in the areas of reverse engineering, program understanding, testing and software maintenance. Most slicing methods, and corresponding tools, target either the imperative or the object oriented paradigms, where program slices are computed with respect to a variable or a program statement. Taking a complementary point of view, this paper focuses on the slicing of higher-order functional programs under a lazy evaluation strategy. A prototype of a Haskell slicer, built as proof-of-concept for these ideas, is also introduced
Resumo:
Program slicing is a well known family of techniques used to identify code fragments which depend on or are depended upon specific program entities. They are particularly useful in the areas of reverse engineering, program understanding, testing and software maintenance. Most slicing methods, usually targeting either the imperative or the object oriented paradigms, are based on some sort of graph structure representing program dependencies. Slicing techniques amount, therefore, to (sophisticated) graph transversal algorithms. This paper proposes a completely different approach to the slicing problem for functional programs. Instead of extracting program information to build an underlying dependencies’ structure, we resort to standard program calculation strategies, based on the so-called Bird- Meertens formalism. The slicing criterion is specified either as a projection or a hiding function which, once composed with the original program, leads to the identification of the intended slice. Going through a number of examples, the paper suggests this approach may be an interesting, even if not completely general alternative to slicing functional programs
Resumo:
Os materiais compósitos à base de polímeros líquido-cristalinos sofreram um grande desenvolvimento nas três últimas décadas, com uma vasta utilização pela indústria, nomeadamente a aeronáutica e aeroespacial. Este trabalho, numa primeira fase desenvolveu-se com base numa pesquisa bibliográfica que tinha como principal objectivo conhecer o estado da arte dos polímeros líquido-cristalinos (PLC’s) e suas aplicações em materiais compósitos. Foi realizado um estudo bibliográfico das propriedades mecânicas dos principais sistemas de compósitos termoendurecíveis e termoplásticos de forma a criar um enquadramento do tema a desenvolver. Realizou-se também uma pesquisa sobre os mais recentes desenvolvimentos relativos às aplicações dos PLC’s na indústria aeronáutica e aeroespacial, com o estudo a incidir sobre as mais recentes aplicações em projectos desenvolvidos nomeadamente pela NASA. O trabalho foi direccionado para o estudo do Kevlar, desde a sua produção, à caracterização das suas principais propriedades mecânicas e aplicações industriais, com principal interesse nas aplicações em materiais compósitos. Particular atenção foi dada aos problemas que podem afectar o desempenho dos laminados produzidos com reforço de Kevlar. Neste trabalho os compósitos pré-impregnados foram estudados tendo em conta a sua caracterização em função das formas de empilhamento e das suas propriedades mecânicas. Foram consideradas neste estudo as normas ASTM (American Society for Testing and Materials) relativas aos ensaios a realizar, em particular o seu campo de aplicação e a metodologia dos ensaios para determinação das propriedades mecânicas dos compósitos. Neste trabalho é realizado um estudo comparativo sobre as propriedades mecânicas quando ocorrem, ou não, defeitos nos laminados. Foram realizados ensaios não destrutivos por ultra-sons de forma a garantir a qualidade do laminado para a produção dos provetes, assim como para a confirmação da correcta localização dos defeitos induzidos. No trabalho experimental, realizaram-se ensaios à tracção, à fadiga, à compressão e à flexão, com o fim de comparar grupos de provetes, com e sem defeitos, e caracterizar as variações das propriedades mecânicas. São abordados os factores que influenciam o desempenho de um laminado de Kevlar e os factores que desencadeiam a sua deterioração. A delaminação é um grave problema que afecta os laminados e que limita o seu desempenho. O estudo demonstrou que um dos principais problemas nos laminados de compósitos à base de polímeros líquido-cristalinos é a fadiga.
Resumo:
A motivação para este trabalho vem da necessidade que o autor tem em poder registar as notas tocadas na guitarra durante o processo de improviso. Quando o músico está a improvisar na guitarra, muitas vezes não se recorda das notas tocadas no momento, este trabalho trata o desenvolvimento de uma aplicação para guitarristas, que permita registar as notas tocadas na guitarra eléctrica ou clássica. O sinal é adquirido a partir da guitarra e processado com requisitos de tempo real na captura do sinal. As notas produzidas pela guitarra eléctrica, ligada ao computador, são representadas no formato de tablatura e/ou partitura. Para este efeito a aplicação capta o sinal proveniente da guitarra eléctrica a partir da placa de som do computador e utiliza algoritmos de detecção de frequência e algoritmos de estimação de duração de cada sinal para construir o registo das notas tocadas. A aplicação é desenvolvida numa perspectiva multi-plataforma, podendo ser executada em diferentes sistemas operativos Windows e Linux, usando ferramentas e bibliotecas de domínio público. Os resultados obtidos mostram a possibilidade de afinar a guitarra com valores de erro na ordem de 2 Hz em relação às frequências de afinação standard. A escrita da tablatura apresenta resultados satisfatórios, mas que podem ser melhorados. Para tal será necessário melhorar a implementação de técnicas de processamento do sinal bem como a comunicação entre processos para resolver os problemas encontrados nos testes efectuados.
Resumo:
As doenças cardiovasculares (DCV’s) são a maior causa de mortalidade e morbilidade em Portugal. O seu elevado impacto passa pelo desconhecimento, sub-diagnóstico, elevada prevalência e descontrolo dos seus principais factores de risco (clássicos e novos marcadores bioquímicos). Para o diagnóstico de uma das vertentes da doença cardiovascular, a doença cardíaca isquémica, a prova de esforço (PE) é o exame não invasivo, de baixo custo, com reduzida taxa de complicações e de fácil execução, mais usado na clínica. O objectivo deste estudo é averiguar se existe relação entre a prova de esforço, os factores de risco cardiovascular (FR’s) e alguns dos seus marcadores bioquímicos. Com vista a alcançar objectivo realizou-se um estudo prospectivo, longitudinal e descritivo, na Esferasaúde (Maia), entre Janeiro e Maio de 2011. Foram recolhidos dados, por inquérito, referentes a: biografia, antropometria, FR’s, medicação, PE e análises clínicas. Tendo sido incluídos todos os indivíduos (idade ≥ 18 anos) que tenham realizado prova de esforço e análises na unidade citada e com diferença temporal máxima de 2 meses, pelo método de amostragem dirigida e intencional. A dimensão amostral situou-se nos 30 elementos, sendo que 19 eram do género masculino. A média de idade foi 49,43±15,39 anos. Estimou-se a prevalência de FR’s e de indivíduos com valores dos marcadores bioquímicos anormais. Dois dos indivíduos apresentavam história de DCV’s e três deles PE positiva. Foram efectuadas diversas tentativas de associação entre as variáveis integradas no estudo - DCV e FR’s; PE e FR’s; PE e marcadores bioquímicos; capacidade de esforço e FR’s, género e resultado PE. Nenhuma relação se revelou significativa, com excepção para dois casos: relação entre as DCV’s e o aparecimento de alterações na PE (p = 0,002) e associação entre PE e colesterol HDL (p=0,040). Para α de 5%. Conclui-se que não existe relação aparente entre a prova de esforço, a existência de doença cardiovascular, os seus factores de risco e marcadores bioquímicos.
Resumo:
Introdução: A síndrome da cirurgia lombar falhada (SCLF) caracteriza-se pela persistência ou recidiva da dor ou aparecimento de novos sintomas após discectomia, descompressão de canal estreito ou artrodese lombares. Objectivos: O objectivo deste estudo foi descrever a abordagem em fisioterapia de um caso com Síndrome da Cirurgia Lombar Falhada e avaliar os seus efeitos na funcionalidade e sintomatologia dolorosa neste indivíduo. Metodologia: A amostra foi constituída por um sujeito com 41 anos, trabalhador da construção civil, apresentando dor lombar com irradiação para o membro inferior, após ter sido submetido a discectomia lombar e artrodese, que realizou sessões de fisioterapia convencional antes e depois da cirurgia, e que apresentava sinais compatíveis com compressão radicular. A intensidade da dor foi medida através da escala visual analógica (EVA), as amplitudes com o goniómetro universal, a funcionalidade foi avaliada utilizando o Questionário de Incapacidade Roland-Morris (RMDQ), o estado psicológico foi avaliado através da “Escala de Desânimo Associado à Dor” e do “Inventário de Convicções e Percepções Relacionadas com a Dor”. Resultados: A dor era inicialmente em média de 5,5/10 EVA, sendo de 3,4/10 EVA no final do tratamento. Quanto à funcionalidade (RMDQ) esta variou de 14/24 no início para 17/24 no final. De uma forma geral, após a aplicação de técnicas para diminuir a tensão do piriforme, técnicas neuurodinâmicas e um programa de exercícios para melhoria do controlo motor, o paciente apresentou alívio das queixas de dor na nádega esquerda e anca, aumento da amplitude de rotação medial da coxo-femoral, ausência das parestesias na face plantar do pé esquerdo e melhoria das queixas de dor na face anterior e lateral da coxa. Verificamos que houve diminuição dos índices de dor e melhorias dos níveis de funcionalidade. Conclusão: Neste estudo de caso, foi salientado o processo de raciocínio clínico desenvolvido pelo fisioterapeuta: a interpretação dos dados da história e levantamento das primeiras hipóteses e a realização dos testes no exame objectivo, permitiram estabelecer um diagnóstico funcional e elaborar um plano de intervenção através do qual o utente recuperou parcialmente a sua funcionalidade e diminuiu os seus índices de dor.
Resumo:
Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia de Eletrónica e Telecomunicações
Resumo:
Introdução: As doenças cardiovasculares são a principal causa de morte na Europa e o sedentarismo é um dos seus principais fatores de risco. Os programas de reabilitação cardiovascular (RCV) no domicílio parecem ser eficazes na tolerância ao exercício. No entanto, torna-se difícil reproduzir um protocolo de exercícios no domicílio, por se tratar de estudos pouco específicos. Objetivo: Avaliar os efeitos de um programa de exercícios específico realizado no domicílio, na tolerância ao exercício em pacientes integrados num programa RCV. Metodologia: Estudo quase experimental composto por 20 indivíduos com pelo menos um ano de enfarte agudo do miocárdio, distribuídos aleatoriamente em dois grupos: grupo experimental (GE) e grupo de controlo (GC), ambos com 10 indivíduos. O programa de RCV no domicílio (constituído por 10 exercícios) teve a duração de 8 semanas, com uma frequência de 3 vezes por semana. Avaliou-se a frequência cardíaca (FC), tensão arterial e duplo produto basais e máximos; FC de recuperação; equivalentes metabólicos (METs); velocidade; inclinação; tempo de prova e de recuperação; índice cifótico; equilíbrio; e tempo em atividade moderada a vigorosa. Resultados: Ao fim de 8 semanas de exercício o GE aumentou significativamente os MET’s (p=0,001), tensão arterial sistólica máxima (p<0,001), duplo produto máximo (p<0,001) e tempo de prova (p=0,037) e diminuiu significativamente o tempo de recuperação (p<0,001), quando comparado com o GC. Conclusão: O programa de exercícios no domicílio promoveu uma melhoria na tolerância ao exercício e parece ter melhorado o equilíbrio, para a amostra em estudo.
Resumo:
A crescente complexidade dos sistemas electrónicos associada a um desenvolvimento nas tecnologias de encapsulamento levou à miniaturização dos circuitos integrados, provocando dificuldades e limitações no diagnóstico e detecção de falhas, diminuindo drasticamente a aplicabilidade dos equipamentos ICT. Como forma de lidar com este problema surgiu a infra-estrutura Boundary Scan descrita na norma IEEE1149.1 “Test Access Port and Boundary-Scan Architecture”, aprovada em 1990. Sendo esta solução tecnicamente viável e interessante economicamente para o diagnóstico de defeitos, efectua também outras aplicações. O SVF surgiu do desejo de incutir e fazer com que os fornecedores independentes incluíssem a norma IEEE 1149.1, é desenvolvido num formato ASCII, com o objectivo de enviar sinais, aguardar pela sua resposta, segundo a máscara de dados baseada na norma IEEE1149.1. Actualmente a incorporação do Boundary Scan nos circuitos integrados está em grande expansão e consequentemente usufrui de uma forte implementação no mercado. Neste contexto o objectivo da dissertação é o desenvolvimento de um controlador boundary scan que implemente uma interface com o PC e possibilite o controlo e monitorização da aplicação de teste ao PCB. A arquitectura do controlador desenvolvido contém um módulo de Memória de entrada, um Controlador TAP e uma Memória de saída. A implementação do controlador foi feita através da utilização de uma FPGA, é um dispositivo lógico reconfiguráveis constituído por blocos lógicos e por uma rede de interligações, ambos configuráveis, que permitem ao utilizador implementar as mais variadas funções digitais. A utilização de uma FPGA tem a vantagem de permitir a versatilidade do controlador, facilidade na alteração do seu código e possibilidade de inserir mais controladores dentro da FPGA. Foi desenvolvido o protocolo de comunicação e sincronização entre os vários módulos, permitindo o controlo e monitorização dos estímulos enviados e recebidos ao PCB, executados automaticamente através do software do Controlador TAP e de acordo com a norma IEEE 1149.1. A solução proposta foi validada por simulação utilizando o simulador da Xilinx. Foram analisados todos os sinais que constituem o controlador e verificado o correcto funcionamento de todos os seus módulos. Esta solução executa todas as sequências pretendidas e necessárias (envio de estímulos) à realização dos testes ao PCB. Recebe e armazena os dados obtidos, enviando-os posteriormente para a memória de saída. A execução do trabalho permitiu concluir que os projectos de componentes electrónicos tenderão a ser descritos num nível de abstracção mais elevado, recorrendo cada vez mais ao uso de linguagens de hardware, no qual o VHDL é uma excelente ferramenta de programação. O controlador desenvolvido será uma ferramenta bastante útil e versátil para o teste de PCBs e outras funcionalidades disponibilizadas pelas infra-estruturas BS.
Resumo:
Major depressive disorder (MDD) is a highly prevalent disorder, which has been associated with an abnormal response of the hypothalamus–pituitary–adrenal (HPA) axis. Reports have argued that an abnormal HPA axis response can be due to an altered P-Glycoprotein (P-GP) function. This argument suggests that genetic polymorphisms in ABCB1 may have an effect on the HPA axis activity; however, it is still not clear if this influences the risk of MDD. Our study aims to evaluate the effect of ABCB1 C1236T, G2677TA and C3435T genetic polymorphisms on MDD risk in a subset of Portuguese patients. DNA samples from 80 MDD patients and 160 control subjects were genotyped using TaqMan SNP Genotyping assays. A significant protection for MDD males carrying the T allele was observed (C1236T: odds ratio (OR) = 0.360, 95% confidence interval [CI]: [0.140– 0.950], p = 0.022; C3435T: OR= 0.306, 95% CI: [0.096–0.980], p = 0.042; and G2677TA: OR= 0.300, 95% CI: [0.100– 0.870], p = 0.013). Male Portuguese individuals carrying the 1236T/2677T/3435T haplotype had nearly 70% less risk of developing MDD (OR = 0.313, 95% CI: [0.118–0.832], p = 0.016, FDR p = 0.032). No significant differences were observed regarding the overall subjects. Our results suggest that genetic variability of the ABCB1 is associated with MDD development in male Portuguese patients. To the best of our knowledge, this is the first report in Caucasian samples to analyze the effect of these ABCB1 genetic polymorphisms on MDD risk.
Resumo:
In this paper we present a framework for managing QoS-aware applications in a dynamic, ad-hoc, distributed environment. This framework considers an available set of wireless/mobile and fixed nodes, which may temporally form groups in order to process a set of related services, and where there is the need to support different levels of service and different combinations of quality requirements. This framework is being developed both for testing and validating an approach, based on multidimensional QoS properties, which provides service negotiation and proposal evaluation algorithms, and for assessing the suitability of the Ada language to be used in the context of dynamic, QoS-aware systems.
Resumo:
Dissertação de Natureza Científica para obtenção do grau de Mestre em Engenharia Civil Perfil Estruturas
Resumo:
Due to usage conditions, hazardous environments or intentional causes, physical and virtual systems are subject to faults in their components, which may affect their overall behaviour. In a ‘black-box’ agent modelled by a set of propositional logic rules, in which just a subset of components is externally visible, such faults may only be recognised by examining some output function of the agent. A (fault-free) model of the agent’s system provides the expected output given some input. If the real output differs from that predicted output, then the system is faulty. However, some faults may only become apparent in the system output when appropriate inputs are given. A number of problems regarding both testing and diagnosis thus arise, such as testing a fault, testing the whole system, finding possible faults and differentiating them to locate the correct one. The corresponding optimisation problems of finding solutions that require minimum resources are also very relevant in industry, as is minimal diagnosis. In this dissertation we use a well established set of benchmark circuits to address such diagnostic related problems and propose and develop models with different logics that we formalise and generalise as much as possible. We also prove that all techniques generalise to agents and to multiple faults. The developed multi-valued logics extend the usual Boolean logic (suitable for faultfree models) by encoding values with some dependency (usually on faults). Such logics thus allow modelling an arbitrary number of diagnostic theories. Each problem is subsequently solved with CLP solvers that we implement and discuss, together with a new efficient search technique that we present. We compare our results with other approaches such as SAT (that require substantial duplication of circuits), showing the effectiveness of constraints over multi-valued logics, and also the adequacy of a general set constraint solver (with special inferences over set functions such as cardinality) on other problems. In addition, for an optimisation problem, we integrate local search with a constructive approach (branch-and-bound) using a variety of logics to improve an existing efficient tool based on SAT and ILP.
Resumo:
Most research work on WSNs has focused on protocols or on specific applications. There is a clear lack of easy/ready-to-use WSN technologies and tools for planning, implementing, testing and commissioning WSN systems in an integrated fashion. While there exists a plethora of papers about network planning and deployment methodologies, to the best of our knowledge none of them helps the designer to match coverage requirements with network performance evaluation. In this paper we aim at filling this gap by presenting an unified toolset, i.e., a framework able to provide a global picture of the system, from the network deployment planning to system test and validation. This toolset has been designed to back up the EMMON WSN system architecture for large-scale, dense, real-time embedded monitoring. It includes network deployment planning, worst-case analysis and dimensioning, protocol simulation and automatic remote programming and hardware testing tools. This toolset has been paramount to validate the system architecture through DEMMON1, the first EMMON demonstrator, i.e., a 300+ node test-bed, which is, to the best of our knowledge, the largest single-site WSN test-bed in Europe to date.
Resumo:
OBJECTIVE To investigate differences in HIV infection- related risk practices by Female Sex Workers according to workplace and the effects of homophily on estimating HIV prevalence. METHODS Data from 2,523 women, recruited using Respondent-Driven Sampling, were used for the study carried out in 10 Brazilian cities in 2008-2009. The study included female sex workers aged 18 and over. The questionnaire was completed by the subjects and included questions on characteristics of professional activity, sexual practices, use of drugs, HIV testing, and access to health services. HIV quick tests were conducted. The participants were classified in two groups according to place of work: on the street or indoor venues, like nightclubs and saunas. To compare variable distributions by place of work, we used Chi-square homogeneity tests, taking into consideration unequal selection probabilities as well as the structure of dependence between observations. We tested the effect of homophily by workplace on estimated HIV prevalence. RESULTS The highest HIV risk practices were associated with: working on the streets, lower socioeconomic status, low regular smear test coverage, higher levels of crack use and higher levels of syphilis serological scars as well as higher prevalence of HIV infection. The effect of homophily was higher among sex workers in indoor venues. However, it did not affect the estimated prevalence of HIV, even after using a post-stratification by workplace procedure. CONCLUSIONS The findings suggest that strategies should focus on extending access to, and utilization of, health services. Prevention policies should be specifically aimed at street workers. Regarding the application of Respondent-Driven Sampling, the sample should be sufficient to estimate transition probabilities, as the network develops more quickly among sex workers in indoor venues.