13 resultados para Differencein-in-Difference estimation (DID)
em Instituto Politécnico do Porto, Portugal
Resumo:
In life cycle impact assessment (LCIA) models, the sorption of the ionic fraction of dissociating organic chemicals is not adequately modeled because conventional non-polar partitioning models are applied. Therefore, high uncertainties are expected when modeling the mobility, as well as the bioavailability for uptake by exposed biota and degradation, of dissociating organic chemicals. Alternative regressions that account for the ionized fraction of a molecule to estimate fate parameters were applied to the USEtox model. The most sensitive model parameters in the estimation of ecotoxicological characterization factors (CFs) of micropollutants were evaluated by Monte Carlo analysis in both the default USEtox model and the alternative approach. Negligible differences of CFs values and 95% confidence limits between the two approaches were estimated for direct emissions to the freshwater compartment; however the default USEtox model overestimates CFs and the 95% confidence limits of basic compounds up to three orders and four orders of magnitude, respectively, relatively to the alternative approach for emissions to the agricultural soil compartment. For three emission scenarios, LCIA results show that the default USEtox model overestimates freshwater ecotoxicity impacts for the emission scenarios to agricultural soil by one order of magnitude, and larger confidence limits were estimated, relatively to the alternative approach.
Resumo:
Lead is an important environmental pollutant. The role of vacuole, in Pb detoxification, was studied using a vacuolar protein sorting mutant strain (vps16D), belonging to class C mutants. Cells disrupted in VPS16 gene, did not display a detectable vacuolar-like structure. Based on the loss of cell proliferation capacity, it was found that cells from vps16D mutant exhibited a hypersensitivity to Pb-induced toxicity, compared to wild type (WT) strain. The function of vacuolar H?-ATPase (VATPase), in Pb detoxification, was evaluated using mutants with structurally normal vacuoles but defective in subunits of catalytic (vma1D or vma2D) or membrane domain (vph1D or vma3D) of V-ATPase. All mutants tested, lacking a functional V-ATPase, displayed an increased susceptibility to Pb, comparatively to cells from WT strain. Modification of vacuolar morphology, in Pb-exposed cells, was visualized using a Vma2p-GFP strain. The treatment of yeast cells with Pb originated the fusion of the medium size vacuolar lobes into one enlarged vacuole. In conclusion, it was found that vacuole plays an important role in the detoxification of Pb in Saccharomyces cerevisiae; in addition, a functional V-ATPase was required for Pb compartmentalization.
Resumo:
Proceedings of the International Conference on Computer Vision Theory and Applications, 361-365, 2013, Barcelona, Spain
Resumo:
This paper addresses the optimal involvement in derivatives electricity markets of a power producer to hedge against the pool price volatility. To achieve this aim, a swarm intelligence meta-heuristic optimization technique for long-term risk management tool is proposed. This tool investigates the long-term opportunities for risk hedging available for electric power producers through the use of contracts with physical (spot and forward contracts) and financial (options contracts) settlement. The producer risk preference is formulated as a utility function (U) expressing the trade-off between the expectation and the variance of the return. Variance of return and the expectation are based on a forecasted scenario interval determined by a long-term price range forecasting model. This model also makes use of particle swarm optimization (PSO) to find the best parameters allow to achieve better forecasting results. On the other hand, the price estimation depends on load forecasting. This work also presents a regressive long-term load forecast model that make use of PSO to find the best parameters as well as in price estimation. The PSO technique performance has been evaluated by comparison with a Genetic Algorithm (GA) based approach. A case study is presented and the results are discussed taking into account the real price and load historical data from mainland Spanish electricity market demonstrating the effectiveness of the methodology handling this type of problems. Finally, conclusions are dully drawn.
Resumo:
The relentless discovery of cancer biomarkers demands improved methods for their detection. In this work, we developed protein imprinted polymer on three-dimensional gold nanoelectrode ensemble (GNEE) to detect epithelial ovarian cancer antigen-125 (CA 125), a protein biomarker associated with ovarian cancer. CA 125 is the standard tumor marker used to follow women during or after treatment for epithelial ovarian cancer. The template protein CA 125 was initially incorporated into the thin-film coating and, upon extraction of protein from the accessible surfaces on the thin film, imprints for CA 125 were formed. The fabrication and analysis of the CA 125 imprinted GNEE was done by using cyclic voltammetry (CV), differential pulse voltammetry (DPV) and electrochemical impedance spectroscopy (EIS) techniques. The surfaces of the very thin, protein imprinted sites on GNEE are utilized for immunospecific capture of CA 125 molecules, and the mass of bound on the electrode surface can be detected as a reduction in the faradic current from the redox marker. Under optimal conditions, the developed sensor showed good increments at the studied concentration range of 0.5–400 U mL−1. The lowest detection limit was found to be 0.5 U mL−1. Spiked human blood serum and unknown real serum samples were analyzed. The presence of non-specific proteins in the serum did not significantly affect the sensitivity of our assay. Molecular imprinting using synthetic polymers and nanomaterials provides an alternative approach to the trace detection of biomarker proteins.
Resumo:
Com o desenvolvimento económico a gestão de recursos é um desafio que a sociedade moderna enfrenta. Um desenvolvimento sustentável, que procure satisfazer as necessidades da geração actual e futuras, é fundamental. É pois necessário encontrar novas fontes de energia e reduzir/valorizar resíduos. O objectivo deste trabalho prende-se com a valorização de um resíduo de ácidos gordos livres como fonte alternativa de energia. Estes ácidos gordos são obtidos na purificação primária da glicerina proveniente da produção de biodiesel por via alcalina, cedida pela empresa SOCIPOLE SA. Inicialmente separaram-se os ácidos gordos livres e ésteres presentes na glicerina, e caracterizou-se o produto obtido. Efectuaram-se dois ensaios, obtendo-se 42,9% e 53,8% em massa de ácidos gordos livres e 41,7% e 34,0% de ésteres no 1º e 2º ensaio respectivamente. Além dos ésteres e ácidos gordos livres, no 1º produto existem 15,4% de matéria não esterificável e no 2º 12,2%. Na primeira parte do trabalho, estudou-se a possibilidade de utilização directa deste produto como combustível. Determinou-se o PCI, obtendo-se 29,8 e 29,4 MJ/kg para o 1º e 2º ensaio respectivamente. Estes valores são superiores aos que se encontram no despacho 17313/2008 de 26 de Junho de 2008, para biogasolina e biodiesel (27,2 MJ/kg), significando que os ácidos gordos livres separados têm forte potencial para serem usados como combustível. Efectuou-se também um estudo de corrosão de aço do corpo e tubos de uma caldeira através de ensaios de polarização, usando um Potenciostato/Galvanostato, e por variação da massa de amostras mergulhadas nos ácidos gordos livres a 105ºC e à temperatura ambiente. Nas condições estudadas, os ácidos gordos não promoveram corrosão nas amostras. Por fim, fez-se a combustão de uma amostra dos ácidos gordos livres num bico de Meeker e verificou-se a formação de depósitos equivalentes a 1,93% da massa inicial. Na segunda parte estudou-se a possibilidade de produzir biodiesel por esterificação, dos ácidos gordos livres. Fez-se um estudo prévio para verificar qual a melhor razão molar de amostra/metanol a utilizar, optando-se por 1:6. Após cinco etapas de esterificação, obteve-se um produto final com 85,6% de ésteres. Não foram então atingidos os 96,5% exigidos pela norma europeia EN 14214, devido à presença de matéria não esterificável na matéria-prima, que não foi possível separar totalmente do produto durante o processo (esterificação, lavagem e secagem). Pela análise de todos os parâmetros, o produto obtido não pode ser considerado biodiesel, não sendo possível ser comercializado como tal. A análise dos resultados aponta para a opção da valorização do resíduo de ácidos gordos na queima directa em geradores e caldeiras que deverá no entanto, ser precedida de um estudo mais detalhado que inclua a análise da constituição da matéria não esterificável, para garantir uma combustão segura.
Resumo:
A compreensão das interacções entre os oceanos, a linha de costa, a qualidade do ar e as florestas só será possível através do registo e análise de informação geo-temporalmente referenciada. Mas a monitorização de grandes áreas apresenta o problema da cobertura espacial e temporal, e os custos nela envolvidos pela impossibilidade de disseminar a quantidade de estações de monitorização necessários à compreensão do fenómeno. É necessário então definir metodologias de colocação de sensores e recolha de informação de forma robusta, económica e temporalmente útil. Nesta dissertação apresentamos uma estratégia de monitorização ambiental, para meios hídricos, (ou de grande dimensão) que baseada em sistemas móveis e alguns princípios da geoestatística, fornece uma ferramenta de monitorização mais económica, sem prejuízo da qualidade de informação. Os modelos usados na geoestatística assentam na ideia de que medidas mais próximas tendem a serem mais parecidas do que valores observados em locais distantes e fornece métodos para quantificar esta correlação espacial e incorporá-la na estimação. Os resultados obtidos sustentam a convicção do uso de veículos móveis em redes de sensores e que contribuímos para responder à seguinte questão “Qual a técnica que nos permite com poucos sensores monitorizar grandes áreas?”. A solução passará por modelos de estimação de grandezas utilizados na geoestatística associados a sistemas móveis.
Resumo:
The main objective of this research is to exploit the possibility of using an ex situ solvent extraction technique for the remediation of soils contaminated with semi-volatile petroleum hydrocarbons. The composition of the organic phase was chosen in order to form a single phase mixture with an aqueous phase and simultaneously not being disturbed (forming stable emulsions) by the soil particles hauling the contaminants. It should also permit a regeneration of the organic solvent phase. As first, we studied the miscibility domain of the chosen ternary systems constituted by ethyl acetate–acetone–water. This system proved to satisfy the previous requirements allowing for the formation of a single liquid phase mixture within a large spectrum of compositions, and also allowing for an intimate contact with the soil. Contaminants in the diesel range within different functional groups were selected: xylene, naphthalene and hexadecane. The analytical control was done by gas chromatography with FID detector. The kinetics of the extractions proved to be fast, leading to equilibrium after 10 min. The effect of the solid–liquid ratio on the extraction efficiency was studied. Lower S/L ratios (1:8, w/v) proved to be more efficient, reaching recoveries in the order of 95%. The option of extraction in multiple contacts did not improve the recovery in relation to a single contact. The solvent can be regenerated by distillation with a loss around 10%. The contaminants are not evaporated and they remain in the non-volatile phase. The global results show that the ex situ solvent extraction is technically a feasible option for the remediation of semi-volatile aromatic, polyaromatic and linear hydrocarbons.
Resumo:
This paper proposes the calculation of fractional algorithms based on time-delay systems. The study starts by analyzing the memory properties of fractional operators and their relation with time delay. Based on the Fourier analysis an approximation of fractional derivatives through timedelayed samples is developed. Furthermore, the parameters of the proposed approximation are estimated by means of genetic algorithms. The results demonstrate the feasibility of the new perspective.
Resumo:
Nowadays there is an increase of location-aware mobile applications. However, these applications only retrieve location with a mobile device's GPS chip. This means that in indoor or in more dense environments these applications don't work properly. To provide location information everywhere a pedestrian Inertial Navigation System (INS) is typically used, but these systems can have a large estimation error since, in order to turn the system wearable, they use low-cost and low-power sensors. In this work a pedestrian INS is proposed, where force sensors were included to combine with the accelerometer data in order to have a better detection of the stance phase of the human gait cycle, which leads to improvements in location estimation. Besides sensor fusion an information fusion architecture is proposed, based on the information from GPS and several inertial units placed on the pedestrian body, that will be used to learn the pedestrian gait behavior to correct, in real-time, the inertial sensors errors, thus improving location estimation.
Resumo:
Dissertação de Mestrado em Gestão Integrada da Qualidade, Ambiente e Segurança
Resumo:
Neste trabalho faz-se uma pesquisa e análise dos conceitos associados à navegação inercial para estimar a distância percorrida por uma pessoa. Foi desenvolvida uma plataforma de hardware para implementar os algoritmos de navegação inercial e estudar a marcha humana. Os testes efetuados permitiram adaptar os algoritmos de navegação inercial para humanos e testar várias técnicas para reduzir o erro na estimativa da distância percorrida. O sistema desenvolvido é um sistema modular que permite estudar o efeito da inserção de novos sensores. Desta forma foram adaptados os algoritmos de navegação para permitir a utilização da informação dos sensores de força colocados na planta do pé do utilizador. A partir desta arquitetura foram efetuadas duas abordagens para o cálculo da distância percorrida por uma pessoa. A primeira abordagem estima a distância percorrida considerando o número de passos. A segunda abordagem faz uma estimação da distância percorrida com base nos algoritmos de navegação inercial. Foram realizados um conjunto de testes para comparar os erros na estimativa da distância percorrida pelas abordagens efetuadas. A primeira abordagem obteve um erro médio de 4,103% em várias cadências de passo. Este erro foi obtido após sintonia para o utilizador em questão. A segunda abordagem obteve um erro de 9,423%. De forma a reduzir o erro recorreu-se ao filtro de Kalman o que levou a uma redução do erro para 9,192%. Por fim, recorreu-se aos sensores de força que permitiram uma redução para 8,172%. A segunda abordagem apesar de ter um erro maior não depende do utilizador pois não necessita de sintonia dos parâmetros para estimar a distância para cada pessoa. Os testes efetuados permitiram, através dos sensores de força, testar a importância da força sentida pela planta do pé para aferir a fase do ciclo de marcha. Esta capacidade permite reduzir os erros na estimativa da distância percorrida e obter uma maior robustez neste tipo de sistemas.
Resumo:
We present a novel approach of Stereo Visual Odometry for vehicles equipped with calibrated stereo cameras. We combine a dense probabilistic 5D egomotion estimation method with a sparse keypoint based stereo approach to provide high quality estimates of vehicle’s angular and linear velocities. To validate our approach, we perform two sets of experiments with a well known benchmarking dataset. First, we assess the quality of the raw velocity estimates in comparison to classical pose estimation algorithms. Second, we added to our method’s instantaneous velocity estimates a Kalman Filter and compare its performance with a well known open source stereo Visual Odometry library. The presented results compare favorably with state-of-the-art approaches, mainly in the estimation of the angular velocities, where significant improvements are achieved.