59 resultados para high pressurization device
Resumo:
A backside protein-surface imprinting process is presented herein as a novel way to generate specific synthetic antibody materials. The template is covalently bonded to a carboxylated-PVC supporting film previously cast on gold, let to interact with charged monomers and surrounded next by another thick polymer. This polymer is then covalently attached to a transducing element and the backside of this structure (supporting film plus template) is removed as a regular “tape”. The new sensing layer is exposed after the full template removal, showing a high density of re-binding positions, as evidenced by SEM. To ensure that the templates have been efficiently removed, this re-binding layer was cleaned further with a proteolytic enzyme and solution washout. The final material was named MAPS, as in the back-side reading of SPAM, because it acts as a back-side imprinting of this recent approach. It was able to generate, for the first time, a specific response to a complex biomolecule from a synthetic material. Non-imprinted materials (NIMs) were also produced as blank and were used as a control of the imprinting process. All chemical modifications were followed by electrochemical techniques. This was done on a supporting film and transducing element of both MAPS and NIM. Only the MAPS-based device responded to oxLDL and the sensing layer was insensitive to other serum proteins, such as myoglobin and haemoglobin. Linear behaviour between log(C, μg mL−1) versus charged tranfer resistance (RCT, Ω) was observed by electrochemical impedance spectroscopy (EIS). Calibrations made in Fetal Calf Serum (FCS) were linear from 2.5 to 12.5 μg mL−1 (RCT = 946.12 × log C + 1590.7) with an R-squared of 0.9966. Overall, these were promising results towards the design of materials acting close to the natural antibodies and applied to practical use of clinical interest.
Resumo:
Human chorionic gonadotropin (hCG) is a key diagnostic marker of pregnancy and an important biomarker for cancers in the prostate, ovaries and bladder and therefore of great importance in diagnosis. For this purpose, a new immunosensor of screen-printed electrodes (SPEs) is presented here. The device was fabricated by introducing a polyaniline (PANI) conductive layer, via in situ electropolymerization of aniline, onto a screen-printed graphene support. The PANI-coated graphene acts as the working electrode of a three terminal electrochemical sensor. The working electrode is functionalised with anti-hCG, by means of a simple process that enabled oriented antibody binding to the PANI layer. The antibody was attached to PANI following activation of the –COOH group at the Fc terminal. Functionalisation of the electrode was analysed and optimized using Electrochemical Impedance Spectroscopy (EIS). Chemical modification of the surface was characterised using Fourier transform infrared, and Raman spectroscopy with confocal microscopy. The graphene–SPE–PANI devices displayed linear responses to hCG in EIS assays from 0.001 to 50 ng mL−1 in real urine, with a detection limit of 0.286 pg mL−1. High selectivity was observed with respect to the presence of the constituent components of urine (urea, creatinine, magnesium chloride, calcium chloride, sodium dihydrogen phosphate, ammonium chloride, potassium sulphate and sodium chloride) at their normal levels, with a negligible sensor response to these chemicals. Successful detection of hCG was also achieved in spiked samples of real urine from a pregnant woman. The immunosensor developed is a promising tool for point-of-care detection of hCG, due to its excellent detection capability, simplicity of fabrication, low-cost, high sensitivity and selectivity.
Resumo:
A gold screen printed electrode (Au-SPE) was modified by merging Molecular Imprinting and Self-Assembly Monolayer techniques for fast screening cardiac biomarkers in point-of-care (POC). For this purpose, Myoglobin (Myo) was selected as target analyte and its plastic antibody imprinted over a glutaraldehyde (Glu)/cysteamine (Cys) layer on the gold-surface. The imprinting effect was produced by growing a reticulated polymer of acrylamide (AAM) and N,N′-methylenebisacrylamide (NNMBA) around the Myo template, covalently attached to the biosensing surface. Electrochemical impedance spectroscopy (EIS) and cyclic voltammetry (CV) studies were carried out in all chemical modification steps to confirm the surface changes in the Au-SPE. The analytical features of the resulting biosensor were studied by different electrochemical techniques, including EIS, square wave voltammetry (SWV) and potentiometry. The limits of detection ranged from 0.13 to 8 μg/mL. Only potentiometry assays showed limits of detection including the cut-off Myo levels. Quantitative information was also produced for Myo concentrations ≥0.2 μg/mL. The linear response of the biosensing device showed an anionic slope of ~70 mV per decade molar concentration up to 0.3 μg/mL. The interference of coexisting species was tested and good selectivity was observed. The biosensor was successfully applied to biological fluids.
Resumo:
Monitoring organic environmental contaminants is of crucial importance to ensure public health. This requires simple, portable and robust devices to carry out on-site analysis. For this purpose, a low-temperature co-fired ceramics (LTCC) microfluidic potentiometric device (LTCC/μPOT) was developed for the first time for an organic compound: sulfamethoxazole (SMX). Sensory materials relied on newly designed plastic antibodies. Sol–gel, self-assembling monolayer and molecular-imprinting techniques were merged for this purpose. Silica beads were amine-modified and linked to SMX via glutaraldehyde modification. Condensation polymerization was conducted around SMX to fill the vacant spaces. SMX was removed after, leaving behind imprinted sites of complementary shape. The obtained particles were used as ionophores in plasticized PVC membranes. The most suitable membrane composition was selected in steady-state assays. Its suitability to flow analysis was verified in flow-injection studies with regular tubular electrodes. The LTCC/μPOT device integrated a bidimensional mixer, an embedded reference electrode based on Ag/AgCl and an Ag-based contact screen-printed under a micromachined cavity of 600 μm depth. The sensing membranes were deposited over this contact and acted as indicating electrodes. Under optimum conditions, the SMX sensor displayed slopes of about −58.7 mV/decade in a range from 12.7 to 250 μg/mL, providing a detection limit of 3.85 μg/mL and a sampling throughput of 36 samples/h with a reagent consumption of 3.3 mL per sample. The system was adjusted later to multiple analyte detection by including a second potentiometric cell on the LTCC/μPOT device. No additional reference electrode was required. This concept was applied to Trimethoprim (TMP), always administered concomitantly with sulphonamide drugs, and tested in fish-farming waters. The biparametric microanalyzer displayed Nernstian behaviour, with average slopes −54.7 (SMX) and +57.8 (TMP) mV/decade. To demonstrate the microanalyzer capabilities for real applications, it was successfully applied to single and simultaneous determination of SMX and TMP in aquaculture waters.
Resumo:
The trend to have more cooperative play and the increase of game dynamics in Robocup MSL League motivates the improvement of skills for ball passing and reception. Currently the majority of the MSL teams uses ball handling devices with rollers to have more precise kicks but limiting the capability to kick a moving ball without stopping it and grabbing it. This paper addresses the problem to receive and kick a fast moving ball without having to grab it with a roller based ball handling device. Here, the main difficulty is the high latency and low rate of the measurements of the ball sensing systems, based in vision or laser scanner sensors.Our robots use a geared leg coupled to a motor that acts simultaneously as the kicking device and low level ball sensor. This paper proposes a new method to improve the capability for ball sensing in the kicker, by combining high rate measurements from the torque and energy in the motor and angular position of the kicker leg. The developed method endows the kicker device with an effective ball detection ability, validated in several game situations like in an interception to a fast pass or when chasing the ball where the relative speed from robot to ball is low. This can be used to optimize the kick instant or by the embedded kicker control system to absorb the ball energy.
Resumo:
This work presents a low cost RTK-GPS system for localization of unmanned surface vehicles. The system is based on the use of standard low cost L1 band receivers and in the RTKlib open source software library. Mission scenarios with multiple robotic vehicles are addressed as the ones envisioned in the ICARUS search and rescue case where the possibility of having a moving RTK base on a large USV and multiple smaller vehicles acting as rovers in a local communication network allows for local relative localization with high quality. The approach is validated in operational conditions with results presented for moving base scenario. The system was implemented in the SWIFT USV with the ROAZ autonomous surface vehicle acting as a moving base. This setup allows for the performing of a missions in a wider range of environments and applications such as precise 3D environment modeling in contained areas and multiple robot operations.
Resumo:
Neste trabalho foi desenvolvido um estudo detalhado dos equipamentos de imagiologia médica, que recorrem ao uso de radiação-X, bem como da ressonância magnética. No seguimento deste estudo foram realizadas diversas atividades com equipamentos reais, desde instalações, reparações, manutenções, até ao seu desmantelamento. Este tipo de atividade permitiu ter uma melhor perceção do funcionamento de cada equipamento e o tipo de trabalho que é realizado por um engenheiro eletrotécnico na PHILIPS no sector healthcare. Durante estas atividades foi possível fazer um estudo da qualidade de imagem, em termos de fatores geométricos, em que foi estudada a distorção, a ampliação e a penumbra de uma imagem. Todos estes parâmetros foram alvos de estudo de forma a poder obter imagens com grande qualidade, mas sem que seja comprometida a saúde do doente, devido à elevada exposição de radiação que corpo humano pode absorver. Este estudo tem como intuito perceber como é que a variação de certos parâmetros irá alterar a qualidade da imagem. Desta forma pretende-se perceber como podem ser calibrados os equipamentos de diagnóstico por imagem, para que o técnico de diagnóstico e terapêutica apenas tenha de indicar qual a parte do corpo humano a radiografar, sendo que a máquina se coloca automaticamente nos parâmetros pré-definidos sem qualquer intervenção humana.
Resumo:
The high penetration of distributed energy resources (DER) in distribution networks and the competitive environment of electricity markets impose the use of new approaches in several domains. The network cost allocation, traditionally used in transmission networks, should be adapted and used in the distribution networks considering the specifications of the connected resources. The main goal is to develop a fairer methodology trying to distribute the distribution network use costs to all players which are using the network in each period. In this paper, a model considering different type of costs (fixed, losses, and congestion costs) is proposed comprising the use of a large set of DER, namely distributed generation (DG), demand response (DR) of direct load control type, energy storage systems (ESS), and electric vehicles with capability of discharging energy to the network, which is known as vehicle-to-grid (V2G). The proposed model includes three distinct phases of operation. The first phase of the model consists in an economic dispatch based on an AC optimal power flow (AC-OPF); in the second phase Kirschen's and Bialek's tracing algorithms are used and compared to evaluate the impact of each resource in the network. Finally, the MW-mile method is used in the third phase of the proposed model. A distribution network of 33 buses with large penetration of DER is used to illustrate the application of the proposed model.
Resumo:
In this work an adaptive modeling and spectral estimation scheme based on a dual Discrete Kalman Filtering (DKF) is proposed for speech enhancement. Both speech and noise signals are modeled by an autoregressive structure which provides an underlying time frame dependency and improves time-frequency resolution. The model parameters are arranged to obtain a combined state-space model and are also used to calculate instantaneous power spectral density estimates. The speech enhancement is performed by a dual discrete Kalman filter that simultaneously gives estimates for the models and the signals. This approach is particularly useful as a pre-processing module for parametric based speech recognition systems that rely on spectral time dependent models. The system performance has been evaluated by a set of human listeners and by spectral distances. In both cases the use of this pre-processing module has led to improved results.
Resumo:
In this work an adaptive filtering scheme based on a dual Discrete Kalman Filtering (DKF) is proposed for Hidden Markov Model (HMM) based speech synthesis quality enhancement. The objective is to improve signal smoothness across HMMs and their related states and to reduce artifacts due to acoustic model's limitations. Both speech and artifacts are modelled by an autoregressive structure which provides an underlying time frame dependency and improves time-frequency resolution. Themodel parameters are arranged to obtain a combined state-space model and are also used to calculate instantaneous power spectral density estimates. The quality enhancement is performed by a dual discrete Kalman filter that simultaneously gives estimates for the models and the signals. The system's performance has been evaluated using mean opinion score tests and the proposed technique has led to improved results.
Resumo:
High-content analysis has revolutionized cancer drug discovery by identifying substances that alter the phenotype of a cell, which prevents tumor growth and metastasis. The high-resolution biofluorescence images from assays allow precise quantitative measures enabling the distinction of small molecules of a host cell from a tumor. In this work, we are particularly interested in the application of deep neural networks (DNNs), a cutting-edge machine learning method, to the classification of compounds in chemical mechanisms of action (MOAs). Compound classification has been performed using image-based profiling methods sometimes combined with feature reduction methods such as principal component analysis or factor analysis. In this article, we map the input features of each cell to a particular MOA class without using any treatment-level profiles or feature reduction methods. To the best of our knowledge, this is the first application of DNN in this domain, leveraging single-cell information. Furthermore, we use deep transfer learning (DTL) to alleviate the intensive and computational demanding effort of searching the huge parameter's space of a DNN. Results show that using this approach, we obtain a 30% speedup and a 2% accuracy improvement.
Resumo:
A crescente necessidade de reduzir a dependência energética e a emissão de gases de efeito de estufa levou à adoção de uma série de políticas a nível europeu com vista a aumentar a eficiência energética e nível de controlo de equipamentos, reduzir o consumo e aumentar a percentagem de energia produzida a partir de fontes renováveis. Estas medidas levaram ao desenvolvimento de duas situações críticas para o setor elétrico: a substituição das cargas lineares tradicionais, pouco eficientes, por cargas não-lineares mais eficientes e o aparecimento da produção distribuída de energia a partir de fontes renováveis. Embora apresentem vantagens bem documentadas, ambas as situações podem afetar negativamente a qualidade de energia elétrica na rede de distribuição, principalmente na rede de baixa tensão onde é feita a ligação com a maior parte dos clientes e onde se encontram as cargas não-lineares e a ligação às fontes de energia descentralizadas. Isto significa que a monitorização da qualidade de energia tem, atualmente, uma importância acrescida devido aos custos relacionados com perdas inerentes à falta de qualidade de energia elétrica na rede e à necessidade de verificar que determinados parâmetros relacionados com a qualidade de energia elétrica se encontram dentro dos limites previstos nas normas e nos contratos com clientes de forma a evitar disputas ou reclamações. Neste sentido, a rede de distribuição tem vindo a sofrer alterações a nível das subestações e dos postos de transformação que visam aumentar a visibilidade da qualidade de energia na rede em tempo real. No entanto, estas medidas só permitem monitorizar a qualidade de energia até aos postos de transformação de média para baixa tensão, não revelando o estado real da qualidade de energia nos pontos de entrega ao cliente. A monitorização nestes pontos é feita periodicamente e não em tempo real, ficando aquém do necessário para assegurar a deteção correta de problemas de qualidade de energia no lado do consumidor. De facto, a metodologia de monitorização utilizada atualmente envolve o envio de técnicos ao local onde surgiu uma reclamação ou a um ponto de medição previsto para instalar um analisador de energia que permanece na instalação durante um determinado período de tempo. Este tipo de monitorização à posteriori impossibilita desde logo a deteção do problema de qualidade de energia que levou à reclamação, caso não se trate de um problema contínuo. Na melhor situação, o aparelho poderá detetar uma réplica do evento, mas a larga percentagem anomalias ficam fora deste processo por serem extemporâneas. De facto, para detetar o evento que deu origem ao problema é necessário monitorizar permanentemente a qualidade de energia. No entanto este método de monitorização implica a instalação permanente de equipamentos e não é viável do ponto de vista das empresas de distribuição de energia já que os equipamentos têm custos demasiado elevados e implicam a necessidade de espaços maiores nos pontos de entrega para conter os equipamentos e o contador elétrico. Uma alternativa possível que pode tornar viável a monitorização permanente da qualidade de energia consiste na introdução de uma funcionalidade de monitorização nos contadores de energia de determinados pontos da rede de distribuição. Os contadores são obrigatórios em todas as instalações ligadas à rede, para efeitos de faturação. Tradicionalmente estes contadores são eletromecânicos e recentemente começaram a ser substituídos por contadores inteligentes (smart meters), de natureza eletrónica, que para além de fazer a contagem de energia permitem a recolha de informação sobre outros parâmetros e aplicação de uma serie de funcionalidades pelo operador de rede de distribuição devido às suas capacidades de comunicação. A reutilização deste equipamento com finalidade de analisar a qualidade da energia junto dos pontos de entrega surge assim como uma forma privilegiada dado que se trata essencialmente de explorar algumas das suas características adicionais. Este trabalho tem como objetivo analisar a possibilidade descrita de monitorizar a qualidade de energia elétrica de forma permanente no ponto de entrega ao cliente através da utilização do contador elétrico do mesmo e elaborar um conjunto de requisitos para o contador tendo em conta a normalização aplicável, as características dos equipamentos utilizados atualmente pelo operador de rede e as necessidades do sistema elétrico relativamente à monitorização de qualidade de energia.
Resumo:
A presente dissertação insere-se no âmbito da unidade curricular “ Dissertação” do 2º ano do mestrado em Engenharia Eletrotécnica – Sistemas Elétricos de Energia. Com o aumento crescente do número de consumidores de energia, é cada vez mais imperioso a adoção de medidas de racionalização e gestão dos consumos da energia elétrica. Existem diferentes tipos de dificuldades no planeamento e implementação de novas centrais produtoras de energia renovável, pelo que também por este motivo é cada vez mais importante adoção de medidas de gestão de consumos, quer ao nível dos clientes alimentados em média tensão como de baixa tensão. Desta forma será mais acessível a criação de padrões de eficiência energética elevados em toda a rede de distribuição de energia elétrica. Também a economia é afetada por uma fraca gestão dos consumos por parte dos clientes. Elevados desperdícios energéticos levam a que mais energia tenha que ser produzida, energia essa que contribui ainda mais para a elevada taxa de dependência energética em Portugal, e para o degradar da economia nacional. Coloca-se assim a necessidade de implementar planos e métodos que promovam a eficiência energética e a gestão racional de consumos de energia elétrica. Apresenta-se nesta dissertação várias propostas, algumas na forma de projetos já em execução, que visam sensibilizar o consumidor para a importância da utilização eficiente de energia e, ao mesmo tempo, disponibilizam as ferramentas tecnológicas adequadas para auxiliar a implementação dos métodos propostos. Embora os planos apresentados, sobejamente conhecidos, tenham imensa importância, a implementação nos vários consumidores de sistemas capazes de efetivamente reduzir consumos tem um papel fundamental. Equipamentos de gestão de consumos, que são apresentados nesta dissertação, permitem ao consumidor aceder diretamente ao seu consumo. Podem aceder não apenas ao consumo global da instalação mas também ao consumo específico por equipamento, permitindo perceber onde se verifica a situação mais desfavorável. Funcionalidades de programação de perfis tipo, com limitações de potência em vários períodos horários, bem como possibilidades de controlo remoto com recurso a aplicações para Smartphones permitem a redução de consumos ao nível da rede de distribuição e, desta forma, contribuir para a redução dos desperdícios e da dependência energética em Portugal. No âmbito do trabalho de dissertação é desenvolvida uma metodologia de comercialização de potência, que é apresentada nesta tese. Esta metodologia propõem que o consumidor, em função dos seus consumos, pague apenas a quantidade de potência que efetivamente necessita num certo período de tempo. Assim, o consumidor deixa de pagar uma tarifa mensal fixa associada á sua potência contratada, e passará a pagar um valor correspondente apenas à potência que efetivamente solicitou em todas as horas durante o mês. Nesta metodologia que é apresentada, o consumidor poderá também fazer uma análise do seu diagrama de cargas e simular uma alteração da sua tarifa, tarifa esta que varia entre tarifa simples, bi-horária semanal, bi-horária diária, tri-horária semanal ou tri-horária diária, de forma a perceber em qual destas pagará um menor valor pela mesma energia. De forma a que o consumidor possa perceber se haverá vantagem de uma alteração para uma potência contratada flexível, ou para uma outra tarifa associada á energia, tem ao seu dispor uma ferramenta, que em função dos seus consumos, permite retirar conclusões sobre o preço final a pagar na fatura, após cada tipo de alteração. Esta ferramenta foi validada com recurso a várias simulações, para diferentes perfis de consumidores. Desta forma, o utilizador fica a perceber que realmente pode poupar com uma potência contratada flexível, ao mesmo tempo que pode identificar-se com um perfil de simulação e, mais facilmente, perceber para que alteração tarifária pode usufruir de uma maior poupança.
Resumo:
As novas tecnologias, em particular os meios de entretimento digital, oferecem diferentes soluções de interação para que as pessoas se possam divertir. O elevado (e crescente) número de jogos digitais disponíveis no mercado permitiu o aparecimento de um novo tipo de jogos digitais, os jogos sérios, com uma finalidade menos lúdica. O intuito desses jogos é usar as caraterísticas associadas aos jogos normais, mas direcioná-los para uma finalidade séria. Assim, além de divertir o utilizador estes jogos também possibilitam a transmissão de informação e conhecimento que de outra forma não teria o mesmo impacto, por falta de interesse e menor motivação dos utilizadores. Exergames são jogos digitais utilizados para o desenvolvimento pessoal como o propósito de melhorar o bem-estar das pessoas quer a nível físico quer a nível mental. Esses jogos requerem que partes do corpo estejam em constante movimento, sendo que alguns utilizam dispositivos de rastreio de movimentos do corpo como forma de interação com os sistemas. Os exergames são o foco desta tese, com uma análise das suas potencialidades e das diferentes áreas possíveis para a sua aplicabilidade. São analisados diferentes tipos de exergames consoante o dispositivo que irá permitir a utilização do jogo. Também são estudados algumas ferramentas externas que possibilitam a interação de aplicações móveis com equipamentos de exercício físico específicos. A componente prática da tese contempla a criação de um exergame para dispositivos móveis com o intuito de incentivar as pessoas para a prática de corridas de forma regular, para que possam ter um estilo de vida ativo e que contribui de forma direta para o bem-estar deles. Os testes realizados junto a um conjunto de pessoas conduziram a resultados positivos quer do jogo desenvolvido quer da utilidade deste tipo de jogos no desenvolvimento físico, o que permite afirmar que os exergames devido ao seu carácter sério, mas nunca deixando de parte a diversão e a interatividade, são motivadores extras para as pessoas praticarem exercício físico.