23 resultados para methods and measurement
em Instituto Politécnico do Porto, Portugal
Resumo:
In this work, a microwave-assisted extraction (MAE) methodology was compared with several conventional extraction methods (Soxhlet, Bligh & Dyer, modified Bligh & Dyer, Folch, modified Folch, Hara & Radin, Roese-Gottlieb) for quantification of total lipid content of three fish species: horse mackerel (Trachurus trachurus), chub mackerel (Scomber japonicus), and sardine (Sardina pilchardus). The influence of species, extraction method and frozen storage time (varying from fresh to 9 months of freezing) on total lipid content was analysed in detail. The efficiencies of methods MAE, Bligh & Dyer, Folch, modified Folch and Hara & Radin were the highest and although they were not statistically different, differences existed in terms of variability, with MAE showing the highest repeatability (CV = 0.034). Roese-Gottlieb, Soxhlet, and modified Bligh & Dyer methods were very poor in terms of efficiency as well as repeatability (CV between 0.13 and 0.18).
Resumo:
Ecological Water Quality - Water Treatment and Reuse
Resumo:
13th International Conference on Autonomous Robot Systems (Robotica), 2013, Lisboa
Resumo:
In order to combat a variety of pests, pesticides are widely used in fruits. Several extraction procedures (liquid extraction, single drop microextraction, microwave-assisted extraction, pressurized liquid extraction, supercritical fluid extraction, solid-phase extraction, solid-phase microextraction, matrix solid-phase dispersion, and stir bar sorptive extraction) have been reported to determine pesticide residues in fruits and fruit juices. The significant change in recent years is the introduction of the Quick, Easy, Cheap, Effective, Rugged, and Safe (QuEChERS) methods in these matrices analysis. A combination of techniques reported the use of new extraction methods and chromatography to provide better quantitative recoveries at low levels. The use of mass spectrometric detectors in combination with liquid and gas chromatography has played a vital role to solve many problems related to food safety. The main attention in this review is on the achievements that have been possible because of the progress in extraction methods and the latest advances and novelties in mass spectrometry, and how these progresses have influenced the best control of food, allowing for an increase in the food safety and quality standards.
Resumo:
This work measures and tries to compare the Antioxidant Capacity (AC) of 50 commercial beverages of different kinds: 6 wines, 12 beers, 18 soft drinks and 14 flavoured waters. Because there is no reference procedure established for this purpose, three different optical methods were used to analyse these samples: Total Radical trapping Antioxidant Parameter (TRAP), Trolox Equivalent Antioxidant Capacity (TEAC) and Ferric ion Reducing Antioxidant Parameter (FRAP). These methods differ on the chemical background and nature of redox system. The TRAP method involves the transfer of hydrogen atoms while TEAC and FRAP involves electron transfer reactions. The AC was also assessed against three antioxidants of reference, Ascorbic acid (AA), Gallic acid (GA) and 6-hydroxy-2,5,7,8-tetramethyl- 2-carboxylic acid (Trolox). The results obtained were analyzed statistically. Anova one-way tests were applied to all results and suggested that methods and standards exhibited significant statistical differences. The possible effect of sample features in the AC, such as gas, flavours, food colouring, sweeteners, acidity regulators, preservatives, stabilizers, vitamins, juice percentage, alcohol percentage, antioxidants and the colour was also investigated. The AC levels seemed to change with brand, kind of antioxidants added, and kind of flavour, depending on the sample. In general, higher ACs were obtained for FRAP as method, and beer for kind of sample, and the standard expressing the smaller AC values was GA.
Resumo:
Introdução: O acidente vascular encefálico (AVE) é uma importante e frequente condição de saúde que se repercute na funcionalidade do indivíduo. No sentido de reabilitar a função perdida, é comum o recurso a intervenções de fisioterapia baseado o conceito de Bobath. Como tal, importa verificar, as modificações no âmbito do controlo postural, através da migração do centro de pressão na base de suporte, face à aplicação de uma intervenção segundo abordagem baseada no conceito de Bobath em dois indivíduos com AVE. Métodos e participantes: Foram recrutados dois indivíduos com diagnóstico de AVE num hospital da zona do grande Porto. Dados referentes ao equilíbrio estático na condição de medição “olhos abertos ou fechados” e “calçado ou descalço” foram obtidos através de plataforma de forças, antes e após uma intervenção baseado no conceito de Bobath durante 13 semanas (M0 e M1). Nestes dois momentos foram ainda avaliados a mobilidade, função cognitiva, participação, equilíbrio através do teste Timed Up & Go (TUG) e Timed Up & Go Modificado (TUGM), e das escalas Mini Mental State Examination (MMSE), Postural Assessment for Stroke Scale (PASS), Escala de Berg (EB) e Índice de Barthel Modificado (IBM). Resultados: Os participantes obtiveram em ambos os momentos pontuação máxima no MMSE. Ambos os indivíduos atingiram o valor máximo no IBM em M1 (Mo: A: 78; B: 65). Ambos os indivíduos aumentaram o score entre M0 e M1, relativamente ao PASS (A: M0:21; M1:33; B: M0: 26; M1:34) e EB (A: M0:48; M1:54; B: M0: 30; M1:50). O tempo de realização do TUG e do TUGM diminuíram entre momentos em ambos os indivíduos (respectivamente: A: 15''13'' a 13''27''; B: 24''13'' a 13''88'' e A: 19''08''' a 13''27''; B: 29''60''' a 17''64'''). A área de deslocação do centro de pressão (CP) variou entre momentos em todas as condições de avaliação, sendo menor na condição “olhos abertos e descalço” em ambos os participantes (“olhos abertos e calçado”: A: M0= 1,364, M1=2,796; B: M0=1,892, M1=2,979; “olhos abertos e descalço”: A: M0= 0,758, M1=0,727; B: M0=3,064, M1=1,952; “olhos fechados e calçado”: A: M0= 2,360, M1=2,998; B: M0=2,232, M1= 4,392; “olhos fechados e descalço”: A: M0= 1,347, M1=2,388; B: M0=1,652, M1= 1,016). O desvio padrão das deslocações anteroposteriores variou entre momentos, sendo tendencialmente maior em M1 e na condição “descalço e olhos abertos”(“olhos abertos e calçado”: A: M0= 0,201, M1=0,500; B: M0=0,252, M1=0,310; “olhos abertos e descalço”: A: M0= 0,118, M1=0,165; B: M0=0,282, M1=0,276; “olhos fechados e calçado”: A: M0= 0,308, M1=0,398; B: M0=0,274, M1= 0,471; “olhos fechados e descalço”: A: M0= 0,158 , M1=0,373; B: M0=0,230, M1= 0,172), o desvio padrão das deslocações médio-lateral seguem a mesma tendência (“olhos abertos e calçado”: A: M0= 0,370 , M1=0,473; B: M0=0,454, M1=0,517; “olhos abertos e descalço”: A: M0= 0,354, M1=0,236 ; B: M0=0,584, M1=0,381; “olhos fechados e calçado”: A: M0= 0,425, M1=0,463; B: M0=0,462, M1= 0,583; “olhos fechados e descalço”: A: M0= 0,475, M1=0,416; B: M0=0,389, M1= 0,342). A velocidade de oscilação na direcção antero – posterior variou entre momentos, sendo tendencialmente menor em M1, em ambos os participantes e em todas as condições de avaliação: “olhos abertos e calçado”: A: M0= 0,886 , M1=0,532; B: M0=2,507, M1=01,072; “olhos abertos e descalço”: A: M0= 2,562, M1=3,815 ; B: M0=4,367, M1=0,262; “olhos fechados e calçado”: A: M0= 2,689, M1=1,757; B: M0=2,821, M1= 0,769; “olhos fechados e descalço”: A: M0= 2,984, M1=2,525; B: M0=4,100, M1= 0,265), a velocidade de oscilação na direcção médio – lateral seguem a mesma tendência para as condições de “olhos abertos e calçado”: A: M0= 6,524 , M1=6,218; B: M0=0,467, M1=0,404; “olhos fechados e calçado”: A: M0= 6,387, M1=1,927; B: M0=0,351, M1= 0,505; mas a velocidade de oscilação aumenta para as condições de “olhos abertos e descalço”: A: M0= 3,108, M1=7,806 ; B: M0=1,150, M1=8,054; “olhos fechados e descalço”: A: M0= 3,444, M1=3,839; B: M0=1,434, M1= 7,891). Conclusão: Entre os dois momentos os indivíduos melhoraram a sua mobilidade, equilíbrio, participação e actividades, potencialmente devido à intervenção baseado no conceito de Bobath.
Resumo:
Introdução: A cirurgia abdominal acarreta grande risco de complicações pulmonares pós-operatórias. As alterações pós-cirúrgicas abdominais, reflectem-se na dinâmica ventilatória, de modo particular nos volumes e capacidades pulmonares, e na capacidade de tosse. Objectivos: Compreender qual a variação dos volumes e capacidades pulmonares e da capacidade de tosse antes e depois da cirurgia abdominal (estômago e cólon), e qual a correlação dessa variação com o nível de dor percepcionada. Desenho do estudo: Unicêntrico, prospectivo e observacional. Amostra: 10 indivíduos, propostos para cirurgia abdominal – estômago e cólon. Metodologia: Dois momentos de avaliação: um nas 24h préoperatórias em que se mediu a capacidade vital forçada (CVF) e o volume expirado máximo no primeiro segundo (VEMS1) com espirometria, e do pico de fluxo de tosse (PCF); e um segundo momento nas 24h pós-operatórias onde se repetiram as medições do primeiro momento com o acréscimo da avaliação da dor. Resultados: No pós-operatorio imediato há uma diminuição significativa da CVF de 44,30%±17,24 (p=0,005), do VEMS1 de 35,50%±28,47 (p=0,009) e do PCF de 38,97%±38,66 (p=0,012). Não se verificou nenhuma relação entre a dor percepcionada na realização das manobras de espirometria e tosse com diminuição a da CVF e do VEMS1 e do PCF respectivamente. O sexo apresentou uma relação significativa com a variação da CRF e do VEMS1 (p=0,046 e p=0,008 respectivamente). A frequência respiratória apresentou um aumento significativo no pós-operatório de 10±11,22 cpm (p=0,019). A saturação periférica de oxigénio apresentou uma diminuição significativa no pós-operatório de 3,52±2,47 (p=0,011) Conclusão: No estudo efectuado fica demonstrado o impacto negativo da cirurgia abdominal na dinâmica respiratória. A diminuição dos valores da CVF, do VEMS1 e do PCF podem contribuir de forma significativa para o aumento do risco de complicações respiratória pós-operatórias. No entanto seria importante a realização deste estudo com uma amostra maior.
Resumo:
Total petroleum hydrocarbons (TPH) are important environmental contaminants which are toxic to human and environmental receptors. Several analytical methods have been used to quantify TPH levels in contaminated soils, specifically through infrared spectrometry (IR) and gas chromatography (GC). Despite being two of the most used techniques, some issues remain that have been inadequately studied: a) applicability of both techniques to soils contaminated with two distinct types of fuel (petrol and diesel), b) influence of the soil natural organic matter content on the results achieved by various analytical methods, and c) evaluation of the performance of both techniques in analyses of soils with different levels of contamination (presumably non-contaminated and potentially contaminated). The main objectives of this work were to answer these questions and to provide more complete information about the potentials and limitations of GC and IR techniques. The results led us to the following conclusions: a) IR analysis of soils contaminated with petrol is not suitable due to volatilisation losses, b) there is a significant influence of organic matter in IR analysis, and c) both techniques demonstrated the capacity to accurately quantify TPH in soils, irrespective of their contamination levels.
Resumo:
Este trabalho teve o intuito de criar uma linha de montagem universal através da qual será dada formação aos atuais operadores e a novos que possam vir a pertencer ao departamento de montagem na empresa Grohe Portugal. Para tal era necessário saber realizar um estudo de métodos e um estudo de tempos sobre os vários processos existentes no departamento de montagem. Com esse intuito foi elaborada uma pesquisa sobre as referidas temáticas, onde ficou evidente a sua importância e a sua imprescindibilidade. Inicialmente houve também um acompanhamento das montagens dos produtos nas várias linhas, de forma a adquirir conhecimento sobre as características dos processos de montagem existentes no departamento. Os pontos mais importantes durante o estudo de métodos e tempos realizado foram a definição de toda a estrutura do processo, das ferramentas e materiais a utilizar, não esquecendo a relação entre o operador e as suas ferramentas e a medição de tempos de todas as tarefas necessárias para cada processo de montagem. A linha de montagem, cujo projeto se desenvolveu, é composta por três bancadas e consiste num conjunto de postos de trabalho onde são executadas as operações através de máquinas, do trabalho humano, ou da sua conjugação, dispostos numa determinada sequência, sendo alguns deles amovíveis. Para a realização e conclusão deste projeto foram superadas diversas etapas, sendo que as mais relevantes foram: a análise dos processos de montagem; estudo de tempos de todas as famílias de produtos a serem implementados na linha de formação; - Definição da estrutura da linha de montagem; - Definição das rampas e dos tubos de abastecimento da linha; - Desenho da linha de montagem em 3D no software SolidWorks. Paralelamente foram também desenvolvidos estudos de tempos sobre alguns produtos com o intuito de serem implementadas melhorias, ou apenas para o controlo de tempos necessários para a realização das operações Por último, foi também elaborada uma recolha de ferramentas existentes no departamento de montagem para serem elaborados manuais de instruções das ferramentas fabricadas internamente, com o objetivo de obter a certificação OSHAS 180001 e de criar documentos com a listagem de materiais necessários para cada produto.
Resumo:
The IEEE 802.15.4 is the most widespread used protocol for Wireless Sensor Networks (WSNs) and it is being used as a baseline for several higher layer protocols such as ZigBee, 6LoWPAN or WirelessHART. Its MAC (Medium Access Control) supports both contention-free (CFP, based on the reservation of guaranteed time-slots GTS) and contention based (CAP, ruled by CSMA/CA) access, when operating in beacon-enabled mode. Thus, it enables the differentiation between real-time and best-effort traffic. However, some WSN applications and higher layer protocols may strongly benefit from the possibility of supporting more traffic classes. This happens, for instance, for dense WSNs used in time-sensitive industrial applications. In this context, we propose to differentiate traffic classes within the CAP, enabling lower transmission delays and higher success probability to timecritical messages, such as for event detection, GTS reservation and network management. Building upon a previously proposed methodology (TRADIF), in this paper we outline its implementation and experimental validation over a real-time operating system. Importantly, TRADIF is fully backward compatible with the IEEE 802.15.4 standard, enabling to create different traffic classes just by tuning some MAC parameters.
Resumo:
Optimization problems arise in science, engineering, economy, etc. and we need to find the best solutions for each reality. The methods used to solve these problems depend on several factors, including the amount and type of accessible information, the available algorithms for solving them, and, obviously, the intrinsic characteristics of the problem. There are many kinds of optimization problems and, consequently, many kinds of methods to solve them. When the involved functions are nonlinear and their derivatives are not known or are very difficult to calculate, these methods are more rare. These kinds of functions are frequently called black box functions. To solve such problems without constraints (unconstrained optimization), we can use direct search methods. These methods do not require any derivatives or approximations of them. But when the problem has constraints (nonlinear programming problems) and, additionally, the constraint functions are black box functions, it is much more difficult to find the most appropriate method. Penalty methods can then be used. They transform the original problem into a sequence of other problems, derived from the initial, all without constraints. Then this sequence of problems (without constraints) can be solved using the methods available for unconstrained optimization. In this chapter, we present a classification of some of the existing penalty methods and describe some of their assumptions and limitations. These methods allow the solving of optimization problems with continuous, discrete, and mixing constraints, without requiring continuity, differentiability, or convexity. Thus, penalty methods can be used as the first step in the resolution of constrained problems, by means of methods that typically are used by unconstrained problems. We also discuss a new class of penalty methods for nonlinear optimization, which adjust the penalty parameter dynamically.
Resumo:
Indoor location systems cannot rely on technologies such as GPS (Global Positioning System) to determine the position of a mobile terminal, because its signals are blocked by obstacles such as walls, ceilings, roofs, etc. In such environments. The use of alternative techniques, such as the use of wireless networks, should be considered. The location estimation is made by measuring and analysing one of the parameters of the wireless signal, usually the received power. One of the techniques used to estimate the locations using wireless networks is fingerprinting. This technique comprises two phases: in the first phase data is collected from the scenario and stored in a database; the second phase consists in determining the location of the mobile node by comparing the data collected from the wireless transceiver with the data previously stored in the database. In this paper an approach for localisation using fingerprinting based on Fuzzy Logic and pattern searching is presented. The performance of the proposed approach is compared with the performance of classic methods, and it presents an improvement between 10.24% and 49.43%, depending on the mobile node and the Fuzzy Logic parameters.ł
Resumo:
This paper presents a novel approach to WLAN propagation models for use in indoor localization. The major goal of this work is to eliminate the need for in situ data collection to generate the Fingerprinting map, instead, it is generated by using analytical propagation models such as: COST Multi-Wall, COST 231 average wall and Motley- Keenan. As Location Estimation Algorithms kNN (K-Nearest Neighbour) and WkNN (Weighted K-Nearest Neighbour) were used to determine the accuracy of the proposed technique. This work is based on analytical and measurement tools to determine which path loss propagation models are better for location estimation applications, based on Receive Signal Strength Indicator (RSSI).This study presents different proposals for choosing the most appropriate values for the models parameters, like obstacles attenuation and coefficients. Some adjustments to these models, particularly to Motley-Keenan, considering the thickness of walls, are proposed. The best found solution is based on the adjusted Motley-Keenan and COST models that allows to obtain the propagation loss estimation for several environments.Results obtained from two testing scenarios showed the reliability of the adjustments, providing smaller errors in the measured values values in comparison with the predicted values.