14 resultados para Z-SCAN TECHNIQUE
em Instituto Politécnico do Porto, Portugal
Resumo:
DESIGN: A randomized controlled trial.OB JECTIVE: To investigate the immediate effects on pressure pain thresholds over latent trigger points (TrPs) in the masseter and temporalis muscles and active mouth opening following atlanto-occipital joint thrust manipulation or a soft tissue manual intervention targeted to the suboccipital muscles. BACKGROUND : Previous studies have described hypoalgesic effects of neck manipulative interventions over TrPs in the cervical musculature. There is a lack of studies analyzing these mechanisms over TrPs of muscles innervated by the trigeminal nerve. METHODS: One hundred twenty-two volunteers, 31 men and 91 women, between the ages of 18 and 30 years, with latent TrPs in the masseter muscle, were randomly divided into 3 groups: a manipulative group who received an atlanto-occipital joint thrust, a soft tissue group who received an inhibition technique over the suboccipital muscles, and a control group who did not receive an intervention. Pressure pain thresholds over latent TrPs in the masseter and temporalis muscles, and active mouth opening were assessed pretreatment and 2 minutes posttreatment by a blinded assessor. Mixed-model analyses of variance (ANOVA) were used to examine the effects of interventions on each outcome, with group as the between-subjects variable and time as the within-subjects variable. The primary analysis was the group-by-time interaction. RESULTS: The 2-by-3 mixed-model ANOVA revealed a significant group-by-time interaction for changes in pressure pain thresholds over masseter (P<.01) and temporalis (P =.003) muscle latent TrPs and also for active mouth opening (P<.001) in favor of the manipulative and soft tissue groups. Between-group effect sizes were small. CONCLUSIONS: The application of an atlanto-occipital thrust manipulation or soft tissue technique targeted to the suboccipital muscles led to an immediate increase in pressure pain thresholds over latent TrPs in the masseter and temporalis muscles and an increase in maximum active mouth opening. Nevertheless, the effects of both interventions were small and future studies are required to elucidate the clinical relevance of these changes. LEVEL OF EVIDENCE : Therapy, level 1b. J Orthop Sports Phys Ther 2010;40(5):310-317. doi:10.2519/jospt.2010.3257. KEYWORDSDS: cervical manipulation, muscle trigger points, neck, TMJ, upper cervical.
Resumo:
This paper proposes a new methodology to reduce the probability of occurring states that cause load curtailment, while minimizing the involved costs to achieve that reduction. The methodology is supported by a hybrid method based on Fuzzy Set and Monte Carlo Simulation to catch both randomness and fuzziness of component outage parameters of transmission power system. The novelty of this research work consists in proposing two fundamentals approaches: 1) a global steady approach which deals with building the model of a faulted transmission power system aiming at minimizing the unavailability corresponding to each faulted component in transmission power system. This, results in the minimal global cost investment for the faulted components in a system states sample of the transmission network; 2) a dynamic iterative approach that checks individually the investment’s effect on the transmission network. A case study using the Reliability Test System (RTS) 1996 IEEE 24 Buses is presented to illustrate in detail the application of the proposed methodology.
Resumo:
This paper presents a methodology to address reactive power compensation using Evolutionary Particle Swarm Optimization (EPSO) technique programmed in the MATLAB environment. The main objective is to find the best operation point minimizing power losses with reactive power compensation, subjected to all operational constraints, namely full AC power flow equations, active and reactive power generation constraints. The methodology has been tested with the IEEE 14 bus test system demonstrating the ability and effectiveness of the proposed approach to handle the reactive power compensation problem.
Resumo:
This paper presents a new and efficient methodology for distribution network reconfiguration integrated with optimal power flow (OPF) based on a Benders decomposition approach. The objective minimizes power losses, balancing load among feeders and subject to constraints: capacity limit of branches, minimum and maximum power limits of substations or distributed generators, minimum deviation of bus voltages and radial optimal operation of networks. The Generalized Benders decomposition algorithm is applied to solve the problem. The formulation can be embedded under two stages; the first one is the Master problem and is formulated as a mixed integer non-linear programming problem. This stage determines the radial topology of the distribution network. The second stage is the Slave problem and is formulated as a non-linear programming problem. This stage is used to determine the feasibility of the Master problem solution by means of an OPF and provides information to formulate the linear Benders cuts that connect both problems. The model is programmed in GAMS. The effectiveness of the proposal is demonstrated through two examples extracted from the literature.
Resumo:
Nos dias de hoje é necessário criar hábitos de vida mais saudáveis que contribuam para o bem-estar da população. Adoptar medidas e práticas de modo regular e disciplinado, pode diminuir o risco do aparecimento de determinadas doenças, como a obesidade, as doenças cardiovasculares, a hipertensão, a diabetes, alguns tipos de cancro e tantas outras. É também importante salientar que, uma alimentação cuidada dá saúde e aumenta a esperança média de vida. Em Portugal, nos últimos anos, os costumes alimentares da população têm vindo a alterar-se significativamente. As refeições caseiras confeccionadas com produtos frescos dão lugar à designada “cultura do fast food”. Em contrapartida, os consumidores são cada vez mais exigentes, estando em permanente alerta no que se refere ao estado dos alimentos. A rotulagem de um produto, para além da função publicitária, tem vindo a ser objecto de legislação específica de forma a fornecer informação simples e clara, correspondente à composição, qualidade, quantidade, validade ou outras características do produto. Estas informações devem ser acessíveis a qualquer tipo de público, com mais ou menos formação e de qualquer estrato social. A qualidade e segurança dos produtos deve basear-se na garantia de que todos os ingredientes, materiais de embalagem e processos produtivos são adequados à produção de produtos seguros, saudáveis e saborosos. A Silliker Portugal, S.A. é uma empresa independente de prestação de serviços para o sector agro-alimentar, líder mundial na prestação de serviços para a melhoria da qualidade e segurança alimentar. A Silliker dedica-se a ajudar as empresas a encontrar soluções para os desafios actuais do sector, oferecendo uma ampla gama de serviços, onde se inclui o serviço de análises microbiológicas, químicas e sensorial; consultadoria em segurança alimentar e desenvolvimento; auditorias; rotulagem e legislação. A actualização permanente de procedimentos na procura de uma melhoria contínua é um dos objectivos da empresa. Para responder a um dos desafios colocados à Silliker, surgiu este trabalho, que consistiu no desenvolvimento de um novo método para determinação de ácidos gordos e da gordura total em diferentes tipos de alimentos e comparação dos resultados, com os obtidos com o método analítico até então adoptado. Se a gordura é um elemento de grande importância na alimentação, devido às suas propriedades nutricionais e organoléticas, recentemente, os investigadores têm focado a sua atenção nos mais diversos ácidos gordos (saturados, monoinsaturados e polinsaturados), em particular nos ácidos gordos essenciais e nos isómeros do ácido linoleico conjugado (CLA), uma mistura de isómeros posicionais e geométricos do ácido linoleico com actividade biológica importante. A técnica usada nas determinações foi a cromatografia gasosa com ionização de chama, GC-FID, tendo as amostras sido previamente tratadas e extraídas de acordo com o tipo de matriz. A metodologia analítica desenvolvida permitiu a correcta avaliação do perfil em ácidos gordos, tendo-se para isso usado uma mistura de 37 ésteres metílicos, em que o ácido gordo C13:0 foi usado como padrão interno. A identificação baseou-se nos tempos de retenção de cada ácido gordo da mistura e para a quantificação usaram-se os factores de resposta. A validação do método implementado foi baseada nos resultados obtidos no estudo de três matrizes relativas a materiais certificados pela BIPEA (Bureau Interprofessionnel des Etudes Analytiques), para o que foram efectuadas doze réplicas de cada matriz. Para cada réplica efectuada foi calculado o teor de matéria gorda, sendo posteriormente o resultado comparado com o emitido pela entidade certificada. Após análise de cada constituinte foi também possível calcular o teor em ácidos gordos saturados, monoinsaturados e polinsaturados. A determinação do perfil em ácidos gordos dos materiais certificados foi aceitável atendendo aos valores obtidos, os quais se encontravam no intervalo de valores admissíveis indicados nos relatórios. A quantificação da matéria gorda no que se refere à matriz de “Paté à Tartinier” apresentou um z-score de 4,3, o que de acordo com as exigências internas da Silliker, não é válido. Para as outras duas matrizes (“Mélange Nutritif” e “Plat cuisiné à base de viande”) os valores de z-score foram, respectivamente, 0,7 e -1,0, o que permite concluir a validade do método. Para que o método possa vir a ser adoptado como método alternativo é necessário um estudo mais alargado relativamente a amostras com diferentes composições. O método foi aplicado na análise de amostras de fiambre, leite gordo, queijo, ovo com ómega 3, amendoim e óleo de girassol, e os resultados foram comparados com os obtidos pelo método até então adoptado.
Resumo:
Cada vez mais começa a notar-se, na indústria vitivinícola, uma grande preocupação com a qualidade dos seus produtos, motivada pela maior sensibilização e exigência dos consumidores. Deste modo, a presença de defeitos organoléticos no vinho representa uma fonte de perda financeira nesta indústria, pelo que o seu controlo se torna indispensável para que se obtenha um produto de elevada qualidade. Neste sentido, torna-se interessante desenvolver um método de análise que seja rápido de forma a permitir a quantificação simultânea das moléculas identificadas como principais responsáveis pelos distúrbios olfativos dos vinhos. Assim, este trabalho surge com o objetivo de implementar e validar um método para a determinação de contaminantes em vinho por microextração em fase sólida (SPME) e cromatografia gasosa acoplada à espetrometria de massa tandem (GC-MS/MS) e a sua correlação com a análise sensorial. A técnica de microextração em fase sólida é simples e rápida na medida em que não requer um pré-tratamento da amostra. Por sua vez, a análise por GC-MS permite identificar de forma clara os compostos em estudo, nomeadamente, 4-Etilfenol (4-EP), 4-Etilguaiacol (4-EG), 2,4,6-Tricloroanisol (TCA), 2,3,4,6-Tetracloroanisol (TeCA) e 2,4,6-Tribromoanisol (TBA). Foram realizados estudos de otimização das condições de extração, comparando as fibras 100 μm PDMS e 50/30 μm DVB/CAR/PDMS. Obtiveram-se resultados mais satisfatórios, em termos de resposta e da relação sinal/ruído, com a fibra 50/30 μm DVB/CAR/PDMS e estabeleceram-se como condições de extração 55ºC para a temperatura de incubação/extração, uma velocidade de agitação de 250 rpm e 60 minutos de tempo de extração. Ao longo deste trabalho, analisaram-se 50 amostras de vinho, das quais 48 eram amostras de Vinho Tinto do Douro e 2 de Vinho do Porto. Para validar a metodologia foram realizados estudos de linearidade, limiares analíticos, repetibilidade, precisão intermédia e recuperação. De um modo geral, obtiveram-se bons resultados ao nível da linearidade para as gamas de concentração escolhidas. Quanto aos limites de deteção e de quantificação, o 4-EP é o contaminante que apresenta uma gama de concentrações mais alta, notando-se limiares analíticos mais elevados, com valores próximos dos últimos níveis de concentração, oscilando entre 65 e 583 μg/L. No caso dos Anisóis, o TBA apresenta limites de deteção mais baixos, entre 0,4 e 17,0 ng/L. Os limiares analíticos foram validados com recurso a estudos de precisão intermédia e repetibilidade, cujos resultados se encontram dentro das especificações descritas no documento SANCO/10684/2009 (%RSD ≤ 30% para os Anisóis e %RSD ≤ 20% para os Fenóis Voláteis). Foram, ainda, realizados estudos de exatidão recorrendo a ensaios de recuperação e a ensaios interlaboratoriais. Muitas vezes conseguem-se boas recuperações, no entanto notam-se maiores dificuldades para o TBA e para o TeCA. Relativamente aos ensaios interlaboratoriais, verificam-se maiores discrepâncias para o 4-EP. Já os restantes contaminantes apresentam resultados, geralmente, satisfatórios (|z-score| ≤ 2).
Resumo:
An Electrocardiogram (ECG) monitoring system deals with several challenges related with noise sources. The main goal of this text was the study of Adaptive Signal Processing Algorithms for ECG noise reduction when applied to real signals. This document presents an adaptive ltering technique based on Least Mean Square (LMS) algorithm to remove the artefacts caused by electromyography (EMG) and power line noise into ECG signal. For this experiments it was used real noise signals, mainly to observe the di erence between real noise and simulated noise sources. It was obtained very good results due to the ability of noise removing that can be reached with this technique. A recolha de sinais electrocardiogr a cos (ECG) sofre de diversos problemas relacionados com ru dos. O objectivo deste trabalho foi o estudo de algoritmos adaptativos para processamento digital de sinal, para redu c~ao de ru do em sinais ECG reais. Este texto apresenta uma t ecnica de redu c~ao de ru do baseada no algoritmo Least Mean Square (LMS) para remo c~ao de ru dos causados quer pela actividade muscular (EMG) quer por ru dos causados pela rede de energia el ectrica. Para as experiencias foram utilizados ru dos reais, principalmente para aferir a diferen ca de performance do algoritmo entre os sinais reais e os simulados. Foram conseguidos bons resultados, essencialmente devido as excelentes caracter sticas que esta t ecnica tem para remover ru dos.
Resumo:
A crescente complexidade dos sistemas electrónicos associada a um desenvolvimento nas tecnologias de encapsulamento levou à miniaturização dos circuitos integrados, provocando dificuldades e limitações no diagnóstico e detecção de falhas, diminuindo drasticamente a aplicabilidade dos equipamentos ICT. Como forma de lidar com este problema surgiu a infra-estrutura Boundary Scan descrita na norma IEEE1149.1 “Test Access Port and Boundary-Scan Architecture”, aprovada em 1990. Sendo esta solução tecnicamente viável e interessante economicamente para o diagnóstico de defeitos, efectua também outras aplicações. O SVF surgiu do desejo de incutir e fazer com que os fornecedores independentes incluíssem a norma IEEE 1149.1, é desenvolvido num formato ASCII, com o objectivo de enviar sinais, aguardar pela sua resposta, segundo a máscara de dados baseada na norma IEEE1149.1. Actualmente a incorporação do Boundary Scan nos circuitos integrados está em grande expansão e consequentemente usufrui de uma forte implementação no mercado. Neste contexto o objectivo da dissertação é o desenvolvimento de um controlador boundary scan que implemente uma interface com o PC e possibilite o controlo e monitorização da aplicação de teste ao PCB. A arquitectura do controlador desenvolvido contém um módulo de Memória de entrada, um Controlador TAP e uma Memória de saída. A implementação do controlador foi feita através da utilização de uma FPGA, é um dispositivo lógico reconfiguráveis constituído por blocos lógicos e por uma rede de interligações, ambos configuráveis, que permitem ao utilizador implementar as mais variadas funções digitais. A utilização de uma FPGA tem a vantagem de permitir a versatilidade do controlador, facilidade na alteração do seu código e possibilidade de inserir mais controladores dentro da FPGA. Foi desenvolvido o protocolo de comunicação e sincronização entre os vários módulos, permitindo o controlo e monitorização dos estímulos enviados e recebidos ao PCB, executados automaticamente através do software do Controlador TAP e de acordo com a norma IEEE 1149.1. A solução proposta foi validada por simulação utilizando o simulador da Xilinx. Foram analisados todos os sinais que constituem o controlador e verificado o correcto funcionamento de todos os seus módulos. Esta solução executa todas as sequências pretendidas e necessárias (envio de estímulos) à realização dos testes ao PCB. Recebe e armazena os dados obtidos, enviando-os posteriormente para a memória de saída. A execução do trabalho permitiu concluir que os projectos de componentes electrónicos tenderão a ser descritos num nível de abstracção mais elevado, recorrendo cada vez mais ao uso de linguagens de hardware, no qual o VHDL é uma excelente ferramenta de programação. O controlador desenvolvido será uma ferramenta bastante útil e versátil para o teste de PCBs e outras funcionalidades disponibilizadas pelas infra-estruturas BS.
Resumo:
Food lipid major components are usually analyzed by individual methodologies using diverse extractive procedures for each class. A simple and fast extractive procedure was devised for the sequential analysis of vitamin E, cholesterol, fatty acids, and total fat estimation in seafood, reducing analyses time and organic solvent consumption. Several liquid/liquid-based extractive methodologies using chlorinated and non-chlorinated organic solvents were tested. The extract obtained is used for vitamin E quantification (normal-phase HPLC with fluorescence detection), total cholesterol (normal-phase HPLC with UV detection), fatty acid profile, and total fat estimation (GC-FID), all accomplished in <40 min. The final methodology presents an adequate linearity range and sensitivity for tocopherol and cholesterol, with intra- and inter-day precisions (RSD) from 3 to 11 % for all the components. The developed methodology was applied to diverse seafood samples with positive outcomes, making it a very attractive technique for routine analyses in standard equipped laboratories in the food quality control field.
Resumo:
Histone variants seem to play a major role in gene expression regulation. In prostate cancer, H2A.Z and its acetylated form are implicated in oncogenes’ upregulation. SIRT1, which may act either as tumor suppressor or oncogene, reduces H2A.Z levels in cardiomyocytes, via proteasome-mediated degradation, and this mechanism might be impaired in prostate cancer cells due to sirtuin 1 downregulation. Thus, we aimed to characterize the mechanisms underlying H2A.Z and SIRT1 deregulation in prostate carcinogenesis and how they interact. We found that H2AFZ and SIRT1 were up- and downregulated, respectively, at transcript level in primary prostate cancer and high-grade prostatic intraepithelial neoplasia compared to normal prostatic tissues. Induced SIRT1 overexpression in prostate cancer cell lines resulted in almost complete absence of H2A.Z. Inhibition of mTOR had a modest effect on H2A.Z levels, but proteasome inhibition prevented the marked reduction of H2A.Z due to sirtuin 1 overexpression. Prostate cancer cells exposed to epigenetic modifying drugs trichostatin A, alone or combined with 5-aza-2’-deoxycytidine, increased H2AFZ transcript, although with a concomitant decrease in protein levels. Conversely, SIRT1 transcript and protein levels increased after exposure. ChIP revealed an increase of activation marks within the TSS region for both genes. Remarkably, inhibition of sirtuin 1 with nicotinamide, increased H2A.Z levels, whereas activation of sirtuin 1 by resveratrol led to an abrupt decrease in H2A.Z. Finally, protein-ligation assay showed that exposure to epigenetic modifying drugs fostered the interaction between sirtuin 1 and H2A.Z. We concluded that sirtuin 1 and H2A.Z deregulation in prostate cancer are reciprocally related. Epigenetic mechanisms, mostly histone post-translational modifications, are likely involved and impair sirtuin 1-mediated downregulation of H2A.Z via proteasome-mediated degradation. Epigenetic modifying drugs in conjunction with enzymatic modulators are able to restore the normal functions of sirtuin 1 and might constitute relevant tools for targeted therapy of prostate cancer patients
Resumo:
This paper analyzes the signals captured during impacts and vibrations of a mechanical manipulator. To test the impacts, a flexible beam is clamped to the end-effector of a manipulator that is programmed in a way such that the rod moves against a rigid surface. Eighteen signals are captured and theirs correlation are calculated. A sensor classification scheme based on the multidimensional scaling technique is presented.
Resumo:
TiO2 films have been deposited on ITO substrates by dc reactive magnetron sputtering technique. It has been found that the sputtering pressure is a very important parameter for the structure of the deposited TiO2 films. When the pressure is lower than 1 Pa, the deposited has a dense structure and shows a preferred orientation along the [101] direction. However, the nanorod structure has been obtained as the sputtering pressure is higher than 1 Pa. These nanorods structure TiO2 film shows a preferred orientation along the [110] direction. The x-ray diffraction and the Raman scattering measurements show both the dense and the nanostructure TiO2 films have only an anatase phase, no other phase has been obtained. The results of the SEM show that these TiO2 nanorods are perpendicular to the ITO substrate. The TEM measurement shows that the nanorods have a very rough surface. The dye-sensitized solar cells (DSSCs) have been assembled using these TiO2 nanorod films prepared at different sputtering pressures as photoelectrode. And the effect of the sputtering pressure on the properties of the photoelectric conversion of the DSSCs has been studied.
Resumo:
Mestrado em Engenharia Electrotécnica e de Computadores - Área de Especialização em Automação e Sistemas
Resumo:
The external forces applied in swimming starts have been often studied, but using direct analysis and simple interpretation data processes. This study aimed to develop a tool for vertical and horizontal force assessment based on the swimmers' propulsive and structural forces (passive forces due to dead weight) applied during the block phase. Four methodological pathways were followed: the experimented fall of a rigid body, the swimmers' inertia effect, the development of a mathematical model to describe the outcome of the rigid body fall and its generalization to include the effects of the inertia, and the experimental swimmers' starting protocol analysed with the inclusion of the developed mathematical tool. The first three methodological steps resulted in the description and computation of the passive force components. At the fourth step, six well-trained swimmers performed three 15 m maximal grab start trials and three-dimensional (3D) kinetic data were obtained using a six degrees of freedom force plate. The passive force contribution to the start performance obtained from the model was subtracted from the experimental force due to the swimmers resulting in the swimmers' active forces. As expected, the swimmers' vertical and horizontal active forces accounted for the maximum variability contribution of the experimental forces. It was found that the active force profile for the vertical and horizontal components resembled one another. These findings should be considered in clarifying the active swimmers' force variability and the respective geometrical profile as indicators to redefine steering strategies.