909 resultados para Lead-time and set-up optimization
Resumo:
Os reguladores de tensão LDO são utilizados intensivamente na actual indústria de electrónica, são uma parte essencial de um bloco de gestão de potência para um SoC. O aumento de produtos portáteis alimentados por baterias levou ao crescimento de soluções totalmente integradas, o que degrada o rendimento dos blocos analógicos que o constituem face às perturbações introduzidas na alimentação. Desta forma, surge a necessidade de procurar soluções cada vez mais optimizadas, impondo assim novas soluções, e/ou melhoramentos dos circuitos de gestão de potência, tendo como objectivo final o aumento do desempenho e da autonomia dos dispositivos electrónicos. Normalmente este tipo de reguladores tem a corrente de saída limitada, devido a problemas de estabilidade associados. Numa tentativa de evitar a instabilidade para as correntes de carga definidas e aumentar o PSRR do mesmo, é apresentado um método de implementação que tem como objectivo melhorar estas características, em que se pretende aumentar o rendimento e melhorar a resposta à variação da carga. No entanto, a técnica apresentada utiliza polarização adaptativa do estágio de potência, o que implica um aumento da corrente de consumo. O regulador LDO foi implementado na tecnologia CMOS UMC 0.18μm e ocupa uma área inferior a 0,2mm2. Os resultados da simulação mostram que o mesmo suporta uma transição de corrente 10μA para 100mA, com uma queda de tensão entre a tensão de alimentação e a tensão de saída inferior a 200mV. A estabilidade é assegurada para todas as correntes de carga. O tempo de estabelecimento é inferior a 6μs e as variações da tensão de saída relativamente a seu valor nominal são inferiores a 5mV. A corrente de consumo varia entre os 140μA até 200μA, o que permite atingir as especificações proposta para um PSRR de 40dB@10kHz.
Resumo:
O óxido de polifenileno com a marca comercial PPO® é uma das resinas principais produzidas na SABIC IP e o ingrediente principal do plástico de engenharia com a marca registada, Noryl®. A equipa de tecnologia de processo de PPO® desenvolve uma série de novos produtos em reactores de pequena escala, tanto em Selkirk como em Bergen op Zoom. Para se efectuar uma transição rápida da escala laboratorial para a fábrica, é necessário um conhecimento completo do reactor. O objectivo deste projecto consiste em esboçar linhas gerais para o scale-up de novos produtos de PPO1, do laboratório para a escala industrial, baseado no estudo de um tipo de PPO, PPO 803. Este estudo pode ser dividido em duas fases. Numa primeira fase, as receitas e os perfis da reacção são comparados, de onde se retiram as primeiras conclusões. Posteriormente, com base nestas conclusões, é realizado um planeamento experimental. O estudo inicial sugeriu que a receita, a temperatura inicial do reactor e a velocidade do agitador poderiam influenciar o tempo da reacção bem como a queda da velocidade intrínseca do polímero (IV drop). As reacções experimentais mostraram que a receita é o principal factor que influencia, tanto o tempo de reacção, como a queda de viscosidade intrínseca. O tempo de reacção será tanto maior quanto menor a agitação devido à má dispersão do oxigénio na mistura. O uso de temperaturas iniciais elevadas conduz a uma queda maior da viscosidade intrínseca devido à desactivação do catalisador. O método experimental utilizado no laboratório de Bergen op Zoom é um bom exemplo, simulador, do procedimento utilizado na fábrica.
Resumo:
A Mundotêxtil foi fundada em 1975 tendo iniciado a sua actividade na área comercial de produtos têxteis. Actualmente é o maior produtor nacional de atoalhados de felpo e emprega 575 colaboradores. Como resultado do seu crescimento e sobretudo da actividade de tingimento de fio e felpo, as necessidades de água são consideráveis e o volume de efluentes gerados nos processos industriais é cada vez maior a empresa avançou com a construção de uma estação de tratamento por lamas activadas, colocando-a em funcionamento em Setembro de 2004. Inicialmente surgiram dificuldades para a remoção da cor e da concentração da Carência Química de Oxigénio (CQO) de modo a cumprir os limites máximos de emissão permitidos nas normas de descarga no rio Ave e no Decreto-Lei nº 236/98, de 1 de Agosto. Com a descarga de parte dos efluentes no SIDVA e a utilização de um coagulante adicionado ao reactor o tratamento passou a apresentar melhores resultados. O intuito deste trabalho é o de apresentar soluções de modo a optimizar o funcionamento do tratamento biológico da Mundotêxtil. A optimização pode começar na concepção dos produtos, pode incidir no processo de fabrico para além de poder ser efectuada no seio da estação de tratamento biológico. Foi efectuado um estudo do tratamento biológico por lamas activadas no Laboratório de Tecnologia Química Profª Doutora Lída de Vasconcelos, laboratório tecnológico do Instituto Superior de Engenharia do Porto (ISEP) que decorreu nos meses de Maio, Junho e Julho de 2010. O estudo laboratorial foi efectuado para três situações distintas: 1) tratamento do efluente bruto sem qualquer tipo de pré-tratamento (ensaios 1 a 3); 2) tratamento do efluente bruto submetido a pré-tratamento com coagulante Ambifloc BIO MD (ensaios 4 e 5) e 3) tratamento com adição de fungos ao tanque de arejamento (ensaio 6). Foram utilizadas duas instalações de tratamento alimentadas a partir do mesmo tanque de alimentação. Os dois sistemas eram idênticos, diferiram nos caudais de alimentação de efluente que foram alterados ao longo do estudo. O efluente a tratar foi fornecido pela empresa Mundotêxtil, sendo recolhido por diversas vezes ao longo dos ensaios. Este efluente foi retirado após o pré-tratamento da empresa, ou seja este efluente é o mesmo que alimenta o tratamento biológico da Mundotêxtil. Devido a este facto o efluente usado no estudo laboratorial teve uma variabilidade no período em que decorreu o estudo, nomeadamente em termos de concentração de CQO e cor. A relação entre a Carência Bioquímica (CBO5) e a CQO situouse entre 0,47 e 0,63 o que traduz que está dentro dos valores típicos para um efluente têxtil. Os melhores resultados globais de remoção de CQO foram obtidos no ensaio 5 e estiveram compreendidos entre 73,2% e 77,5% para o ensaio 5.1 e entre 62,9 e 73,2% para o ensaio 5.2. Neste ensaio foi utilizado o coagulante. Todos os valores de concentração de CQO obtidos nos efluentes dos decantadores para os ensaios 2, 5 e 6 são inferiores aos valores limite de descarga definidos nas normas de descarga no rio Ave e o Decreto-Lei 236/98. Os valores de concentração de Sólidos Suspensos Totais (SST), pH, fósforo, CBO5 e cor nos decantadores cumpriram os limites de descarga definidos nas normas de descarga no rio Ave e no Decreto-Lei nº 236/98 em todos os ensaios. Os parâmetros cinéticos obtidos para os ensaios com descorante são os que melhor se ajustam ao projecto de uma instalação de tratamento biológico por lamas activadas do efluente da Mundotêxtil. Os valores obtidos, após ajuste, são os seguintes: k=0,015 L/(mgSSV*d); Sn=12 mg/L; a=0,7982 kgO2/kgCBO5; b=0,0233 [kgO2/(kgSSV*d); y=0,2253 kgSSV/kgCBO5; kd=0,0036 kgSSV/(kgSSV*d. Com base nos parâmetros cinéticos obtiveram-se os seguintes resultados para o projecto de uma estação de tratamento biológico por lamas activadas: · Tempo de retenção hidráulica no reactor de 1,79 d, · Volume do reactor igual a 3643 m3 · Consumo de oxigénio no reactor de 604 kg/d · Razão de recirculação igual a 0,8 · Volume total do decantador secundário igual a 540 m3 · Diâmetro do decantador secundário igual a 15 m A quantidade de oxigénio necessário é baixa e o valor mais adequado deverá ser da ordem de 1200 kg/d. Também foi efectuada uma análise aos produtos químicos consumidos pela empresa na área das tinturarias com a finalidade de identificar as substâncias com uma maior influência potencial no funcionamento da Estação de Tratamento Biológico. O encolante CB, Cera Têxtil P Líquida, Perfemina P-12, Meropan DPE-P, Meropan BRE-P, Indimina STS e Benzym TEC são os produtos químicos que têm uma influência potencial mais significativa na qualidade dos efluentes. Devido ao facto das temperaturas do efluente alimentado ao tratamento biológico da Mundotêxtil oscilarem entre 35 ºC e 43ºC efectuou-se um estudo às necessidades de água quente das tinturarias e por outro lado à capacidade de aquecimento dos efluentes disponíveis. Actualmente a racionalização dos consumos de água é cada vez mais premente, por isso também é apresentado neste trabalho um estudo para a substituição das máquinas convencionais das tinturarias com uma relação de banho 1:10 por máquinas de banho curto (1:6,5). Verifica-se a redução de consumos de 40% de água, 52% de energia eléctrica, 35% de produtos químicos, 51% das necessidades de vapor e por consequência um aumento da produtividade. A empresa pode reduzir os consumos de água em cerca de 280.000 m3/ano. A utilização do pré-tratamento com o coagulante permitirá baixar a concentração da CQO e reduzir a cor à entrada do reactor tratamento biológico. Deste modo é possível manter um tratamento eficiente à saída do tratamento biológico nas situações de descarga de cores carregadas e carga orgânica elevada. Com este conjunto de soluções, quer sejam aplicadas na totalidade ou não, a empresa Mundotêxtil pode enfrentar o futuro com mais confiança podendo estar preparada para fazer face à escassez de água e custos cada vez maiores da energia. Por outro lado pode tratar os seus efluentes a custos menores. A substituição das máquinas de tingimento por máquinas com relação de banho mais baixa (banho curto) implica investimentos elevados mas estes investimentos são necessários não só por motivos ambientais mas também devido à grande competitividade dos mercados.
Resumo:
O panorama atual da emergência e socorro de primeira linha em Portugal, carateriza-se por uma grande aposta ao longo dos últimos anos num incremento contínuo da qualidade e da eficiência que estes serviços prestam às populações locais. Com vista à prossecução do objetivo de melhoria contínua dos serviços, foram realizados ao longo dos últimos anos investimentos avultados ao nível dos recursos técnicos e ao nível da contratação e formação de recursos humanos altamente qualificados. Atualmente as instituições que prestam socorro e emergência de primeira linha estão bem dotadas ao nível físico e ao nível humano dos recursos necessários para fazerem face aos mais diversos tipos de ocorrências. Contudo, ao nível dos sistemas de informação de apoio à emergência e socorro de primeira linha, verifica-se uma inadequação (e por vezes inexistência) de sistemas informáticos capazes de suportar convenientemente o atual contexto de exigência e complexidade da emergência e socorro. Foi feita ao longo dos últimos anos, uma forte aposta na melhoria dos recursos físicos e dos recursos humanos encarregues da resposta àsemergência de primeira linha, mas descurou-se a área da gestão e análise da informação sobre as ocorrências, assim como, o delinear de possíveis estratégias de prevenção que uma análise sistematizada da informação sobre as ocorrências possibilita. Nas instituições de emergência e socorro de primeira linha em Portugal (bombeiros, proteção civil municipal, PSP, GNR, polícia municipal), prevalecem ainda hoje os sistemas informáticos apenas para o registo das ocorrências à posteriori e a total inexistência de sistemas de registo de informação e de apoio à decisão na alocação de recursos que operem em tempo real. A generalidade dos sistemas informáticos atualmente existentes nas instituições são unicamente de sistemas de backoffice, que não aproveitam a todas as potencialidades da informação operacional neles armazenada. Verificou-se também, que a geo-localização por via informática dos recursos físicos e de pontos de interesse relevantes em situações críticas é inexistente a este nível. Neste contexto, consideramos ser possível e importante alinhar o nível dos sistemas informáticos das instituições encarregues da emergência e socorro de primeira linha, com o nível dos recursos físicos e humanos que já dispõem atualmente. Dado que a emergência e socorro de primeira linha é um domínio claramente elegível para a aplicação de tecnologias provenientes dos domínios da inteligência artificial (nomeadamente sistemas periciais para apoio à decisão) e da geo-localização, decidimos no âmbito desta tese desenvolver um sistema informático capaz de colmatar muitas das lacunas por nós identificadas ao nível dos sistemas informáticos destas instituições. Pretendemos colocar as suas plataformas informáticas num nível similar ao dos seus recursos físicos e humanos. Assim, foram por nós identificadas duas áreas chave onde a implementação de sistemas informáticos adequados às reais necessidades das instituições podem ter um impacto muito proporcionar uma melhor gestão e otimização dos recursos físicos e humanos. As duas áreas chave por nós identificadas são o suporte à decisão na alocação dos recursos físicos e a geolocalização dos recursos físicos, das ocorrências e dos pontos de interesse. Procurando fornecer uma resposta válida e adequada a estas duas necessidades prementes, foi desenvolvido no âmbito desta tese o sistema CRITICAL DECISIONS. O sistema CRITICAL DECISIONS incorpora um conjunto de funcionalidades típicas de um sistema pericial, para o apoio na decisão de alocação de recursos físicos às ocorrências. A inferência automática dos recursos físicos, assenta num conjunto de regra de inferência armazenadas numa base de conhecimento, em constante crescimento e atualização, com base nas respostas bem sucedidas a ocorrências passadas. Para suprimir as carências aos nível da geo-localização dos recursos físicos, das ocorrências e dos pontos de interesse, o sistema CRITICAL DECISIONS incorpora também um conjunto de funcionalidades de geo-localização. Estas permitem a geo-localização de todos os recursos físicos da instituição, a geo-localização dos locais e as áreas das várias ocorrências, assim como, dos vários tipos de pontos de interesse. O sistema CRITICAL DECISIONS visa ainda suprimir um conjunto de outras carências por nós identificadas, ao nível da gestão documental (planos de emergência, plantas dos edifícios) , da comunicação, da partilha de informação entre as instituições de socorro e emergência locais, da contabilização dos tempos de serviço, entre outros. O sistema CRITICAL DECISIONS é o culminar de um esforço colaborativo e contínuo com várias instituições, responsáveis pela emergência e socorro de primeira linha a nível local. Esperamos com o sistema CRITICAL DECISIONS, dotar estas instituições de uma plataforma informática atual, inovadora, evolutiva, com baixos custos de implementação e de operação, capaz de proporcionar melhorias contínuas e significativas ao nível da qualidade da resposta às ocorrências, das capacidades de prevenção e de uma melhor otimização de todos os tipos de recursos que têm ao dispor.
Resumo:
In recent years several countries have set up policies that allow exchange of kidneys between two or more incompatible patient–donor pairs. These policies lead to what is commonly known as kidney exchange programs. The underlying optimization problems can be formulated as integer programming models. Previously proposed models for kidney exchange programs have exponential numbers of constraints or variables, which makes them fairly difficult to solve when the problem size is large. In this work we propose two compact formulations for the problem, explain how these formulations can be adapted to address some problem variants, and provide results on the dominance of some models over others. Finally we present a systematic comparison between our models and two previously proposed ones via thorough computational analysis. Results show that compact formulations have advantages over non-compact ones when the problem size is large.
Resumo:
In the last twenty years genetic algorithms (GAs) were applied in a plethora of fields such as: control, system identification, robotics, planning and scheduling, image processing, and pattern and speech recognition (Bäck et al., 1997). In robotics the problems of trajectory planning, collision avoidance and manipulator structure design considering a single criteria has been solved using several techniques (Alander, 2003). Most engineering applications require the optimization of several criteria simultaneously. Often the problems are complex, include discrete and continuous variables and there is no prior knowledge about the search space. These kind of problems are very more complex, since they consider multiple design criteria simultaneously within the optimization procedure. This is known as a multi-criteria (or multiobjective) optimization, that has been addressed successfully through GAs (Deb, 2001). The overall aim of multi-criteria evolutionary algorithms is to achieve a set of non-dominated optimal solutions known as Pareto front. At the end of the optimization procedure, instead of a single optimal (or near optimal) solution, the decision maker can select a solution from the Pareto front. Some of the key issues in multi-criteria GAs are: i) the number of objectives, ii) to obtain a Pareto front as wide as possible and iii) to achieve a Pareto front uniformly spread. Indeed, multi-objective techniques using GAs have been increasing in relevance as a research area. In 1989, Goldberg suggested the use of a GA to solve multi-objective problems and since then other researchers have been developing new methods, such as the multi-objective genetic algorithm (MOGA) (Fonseca & Fleming, 1995), the non-dominated sorted genetic algorithm (NSGA) (Deb, 2001), and the niched Pareto genetic algorithm (NPGA) (Horn et al., 1994), among several other variants (Coello, 1998). In this work the trajectory planning problem considers: i) robots with 2 and 3 degrees of freedom (dof ), ii) the inclusion of obstacles in the workspace and iii) up to five criteria that are used to qualify the evolving trajectory, namely the: joint traveling distance, joint velocity, end effector / Cartesian distance, end effector / Cartesian velocity and energy involved. These criteria are used to minimize the joint and end effector traveled distance, trajectory ripple and energy required by the manipulator to reach at destination point. Bearing this ideas in mind, the paper addresses the planning of robot trajectories, meaning the development of an algorithm to find a continuous motion that takes the manipulator from a given starting configuration up to a desired end position without colliding with any obstacle in the workspace. The chapter is organized as follows. Section 2 describes the trajectory planning and several approaches proposed in the literature. Section 3 formulates the problem, namely the representation adopted to solve the trajectory planning and the objectives considered in the optimization. Section 4 studies the algorithm convergence. Section 5 studies a 2R manipulator (i.e., a robot with two rotational joints/links) when the optimization trajectory considers two and five objectives. Sections 6 and 7 show the results for the 3R redundant manipulator with five goals and for other complementary experiments are described, respectively. Finally, section 8 draws the main conclusions.
Resumo:
As alterações climáticas e as emissões de CO2 são questões que suscitam a nível internacional e nacional o desenvolvimento de estratégias que atenuem os seus impactes. A Eficiência Energética (EE) é essencial para que num futuro próximo não haja impactes significativos no meio ambiente devido a elevado e ineficiente consumo energético. A União Europeia (UE) e Portugal têm desenvolvido políticas e programas que estimulam a eficiência energética, bem como a diminuição de gases com efeito de estufa (GEE) e a promoção da utilização de fontes de energia renovável. Por outro lado vivemos numa sociedade que passa cerca de 80% do seu tempo em edifícios e, nestes, é consumida 40% da energia mundial. Com uma dependência energética superior a 80%, Portugal tem vindo a apostar, nos últimos anos, em fontes de energia renovável. Esta aposta serve como substituição de fontes, mas não leva directamente à redução de consumos. A redução da factura de energia só pode ser atingida com uma maior eficiência energética e melhores práticas de gestão de energia em edifícios, transportes e industria. Esta dissertação centra-se especificamente num conjunto de edifícios públicos, património municipal da autarquia de Matosinhos, cujo modelo de fornecimento da energia eléctrica é passível de análise crítica no sentido de uma optimização radical ao nível da concepção da rede e exploração, com consequente redução de custos ao nível da facturação. Esta nova metodologia de exploração e gestão de sistemas eléctricos incidirá na criação de um “campus” energético autárquico resultante do novo layout da rede e respectivo fornecimento de energia a partir da rede de distribuição pública. O estudo permitirá fornecer ferramentas fundamentais para a gestão municipal e empresarial ao nível da sustentabilidade energética nos edifícios públicos com abrangência aos serviços empresariais. De referir que a gestão das instalações eléctricas para optimização do desempenho, eficiência e qualidade de energia é aplicável aos 308 municípios nacionais com relevância para as empresas que apresentam consumos significativos nos seus edifícios. Enquanto funcionário da Câmara Municipal de Matosinhos, este município foi uma escolha natural como referência, na análise da relação existente entre a administração local e a gestão da energia. Para ajudar à análise foi efectuado um benchmarketing a cinco edifícios municipais: Edifício dos Paços do Concelho, Biblioteca Municipal Florbela Espanca, Palacete Visconde Trevões, ex-Edifício dos SMAS e Edifício do ex-Tribunal, visando potenciar a correcta gestão de energia destes edifícios por parte das entidades que os gerem, perante novas oportunidades de melhoria e soluções encontradas. Como contributo às metas impostas pela Directiva 2009/28/CE para 2020, a qual prevê uma redução de 20% no consumo final de energia através da eficiência energética, a incorporação de 20% de energia renovável no consumo energético global e a consequente redução em 20% da emissão de GEE, é apresentado um estudo ao nível de um parque fotovoltaico com a componente técnica e económica.
Resumo:
This paper is on the self-scheduling problem for a thermal power producer taking part in a pool-based electricity market as a price-taker, having bilateral contracts and emission-constrained. An approach based on stochastic mixed-integer linear programming approach is proposed for solving the self-scheduling problem. Uncertainty regarding electricity price is considered through a set of scenarios computed by simulation and scenario-reduction. Thermal units are modelled by variable costs, start-up costs and technical operating constraints, such as: forbidden operating zones, ramp up/down limits and minimum up/down time limits. A requirement on emission allowances to mitigate carbon footprint is modelled by a stochastic constraint. Supply functions for different emission allowance levels are accessed in order to establish the optimal bidding strategy. A case study is presented to illustrate the usefulness and the proficiency of the proposed approach in supporting biding strategies. (C) 2014 Elsevier Ltd. All rights reserved.
Resumo:
Coffee silverskin is a major roasting by-product that could be valued as a source of antioxidant compounds. The effect of the major variables (solvent polarity, temperature and extraction time) affecting the extraction yields of bioactive compounds and antioxidant activity of silverskin extracts was evaluated. The extracts composition varied significantly with the extraction conditions used. A factorial experimental design showed that the use of a hydroalcoholic solvent (50%:50%) at 40 °C for 60 min is a sustainable option to maximize the extraction yield of bioactive compounds and the antioxidant capacity of extracts. Using this set of conditions it was possible to obtain extracts containing total phenolics (302.5 ± 7.1 mg GAE/L), tannins (0.43 ± 0.06 mg TAE/L), and flavonoids (83.0 ± 1.4 mg ECE/L), exhibiting DPPHradical dot scavenging activity (326.0 ± 5.7 mg TE/L) and ferric reducing antioxidant power (1791.9 ± 126.3 mg SFE/L). These conditions allowed, in comparison with other “more effective” for some individual parameters, a cost reduction, saving time and energy.
Resumo:
Trabalho de Projecto apresentado para cumprimento dos requisitos necessários à obtenção do grau de Mestre em Ensino do Inglês
Resumo:
The aggregation and management of Distributed Energy Resources (DERs) by an Virtual Power Players (VPP) is an important task in a smart grid context. The Energy Resource Management (ERM) of theses DERs can become a hard and complex optimization problem. The large integration of several DERs, including Electric Vehicles (EVs), may lead to a scenario in which the VPP needs several hours to have a solution for the ERM problem. This is the reason why it is necessary to use metaheuristic methodologies to come up with a good solution with a reasonable amount of time. The presented paper proposes a Simulated Annealing (SA) approach to determine the ERM considering an intensive use of DERs, mainly EVs. In this paper, the possibility to apply Demand Response (DR) programs to the EVs is considered. Moreover, a trip reduce DR program is implemented. The SA methodology is tested on a 32-bus distribution network with 2000 EVs, and the SA results are compared with a deterministic technique and particle swarm optimization results.
Resumo:
This work proposes a novel approach for a suitable orientation of antibodies (Ab) on an immunosensing platform, applied here to the determination of 8-hydroxy-2′-deoxyguanosine (8OHdG), a biomarker of oxidative stress that has been associated to chronic diseases, such as cancer. The anti-8OHdG was bound to an amine modified gold support through its Fc region after activation of its carboxylic functions. Non-oriented approaches of Ab binding to the platform were tested in parallel, in order to show that the presented methodology favored Ab/Ag affinity and immunodetection of the antigen. The immunosensor design was evaluated by quartz-crystal microbalance with dissipation, atomic force microscopy, electrochemical impedance spectroscopy (EIS) and square-wave voltammetry. EIS was also a suitable technique to follow the analytical behavior of the device against 8OHdG. The affinity binding between 8OHdG and the antibody immobilized in the gold modified platform increased the charge transfer resistance across the electrochemical set-up. The observed behavior was linear from 0.02 to 7.0 ng/mL of 8OHdG concentrations. The interference from glucose, urea and creatinine was found negligible. An attempt of application to synthetic samples was also successfully conducted. Overall, the presented approach enabled the production of suitably oriented Abs over a gold platform by means of a much simpler process than other oriented-Ab binding approaches described in the literature, as far as we know, and was successful in terms of analytical features and sample application.
Resumo:
HHV-6 is the etiological agent of Exanthem subitum which is considered the sixth most frequent disease in infancy. In immuno-compromised hosts, reactivation of latent HHV-6 infection may cause severe acute disease. We developed a Sybr Green Real Time PCR for HHV-6 and compared the results with nested conventional PCR. A 214 pb PCR derived fragment was cloned using pGEM-T easy from Promega system. Subsequently, serial dilutions were made in a pool of negative leucocytes from 10-6 ng/µL (equivalent to 2465.8 molecules/µL) to 10-9 (equivalent to 2.46 molecules/µL). Dilutions of the plasmid were amplified by Sybr Green Real Time PCR, using primers HHV3 (5' TTG TGC GGG TCC GTT CCC ATC ATA 3)'and HHV4 (5' TCG GGA TAG AAA AAC CTA ATC CCT 3') and by conventional nested PCR using primers HHV1 (outer): 5'CAA TGC TTT TCT AGC CGC CTC TTC 3'; HHV2 (outer): 5' ACA TCT ATA ATT TTA GAC GAT CCC 3'; HHV3 (inner) and HHV4 (inner) 3'. The detection threshold was determined by plasmid serial dilutions. Threshold for Sybr Green real time PCR was 24.6 molecules/µL and for the nested PCR was 2.46 molecules/µL. We chose the Real Time PCR for diagnosing and quantifying HHV-6 DNA from samples using the new Sybr Green chemistry due to its sensitivity and lower risk of contamination.
Resumo:
With the need to find an alternative way to mechanical and welding joints, and at the same time to overcome some limitations linked to these traditional techniques, adhesive bonds can be used. Adhesive bonding is a permanent joining process that uses an adhesive to bond the components of a structure. Composite materials reinforced with fibres are becoming increasingly popular in many applications as a result of a number of competitive advantages. In the manufacture of composite structures, although the fabrication techniques reduce to the minimum by means of advanced manufacturing techniques, the use of connections is still required due to the typical size limitations and design, technological and logistical aspects. Moreover, it is known that in many high performance structures, unions between composite materials with other light metals such as aluminium are required, for purposes of structural optimization. This work deals with the experimental and numerical study of single lap joints (SLJ), bonded with a brittle (Nagase Chemtex Denatite XNRH6823) and a ductile adhesive (Nagase Chemtex Denatite XNR6852). These are applied to hybrid joints between aluminium (AL6082-T651) and carbon fibre reinforced plastic (CFRP; Texipreg HS 160 RM) adherends in joints with different overlap lengths (LO) under a tensile loading. The Finite Element (FE) Method is used to perform detailed stress and damage analyses allowing to explain the joints’ behaviour and the use of cohesive zone models (CZM) enables predicting the joint strength and creating a simple and rapid design methodology. The use of numerical methods to simulate the behaviour of the joints can lead to savings of time and resources by optimizing the geometry and material parameters of the joints. The joints’ strength and failure modes were highly dependent on the adhesive, and this behaviour was successfully modelled numerically. Using a brittle adhesive resulted in a negligible maximum load (Pm) improvement with LO. The joints bonded with the ductile adhesive showed a nearly linear improvement of Pm with LO.
Resumo:
We increasingly face conservative surgery for rectal cancer and even the so called ‘wait and see’ approach, as far as 10–20% patients can reach a complete pathological response at the time of surgery. But what can we say to our patients about risks? Standard surgery with mesorectal excision gives a <2% local recurrence with a post operative death rate of 2–8% (may reach 30% at 6 months in those over 85), but low AR has some deterioration in bowel function and in low cancer a permanent stoma may be required. Also a long-term impact on urinary and sexual function is possible. Distant metastasis rate seem to be identical in the standard and conservative approach. It is difficult to evaluate conservative approach because a not clear standardization of surgery for low rectal cancer. Rullier et al tried to clarify, and they found identical results for recurrence (5–9%), disease free survival (70%) at 5y for coloanal anastomosis and intersphinteric resection. Other series have found local recurrence higher than with standard approach and functional results may be worse and, in some situations, salvage therapy is compromised or has more complications. In this context, functional outcomes are very important but most studies are incomplete in measuring bowel function in the context of conservative approach. In 2005 Temple et al made a survey of 122/184 patient after sphinter preserving surgery and found a 96.9% of incomplete evacuation, 94.4% clustering, 93.2% food affecting frequency, 91.8% gas incontinence and proposed a systematic evaluation with a specific questionnaire. In which concerns ‘Wait and see’ approach for complete clinical responders, it was first advocated by Habr Gama for tumors up to 7cm, with a low locoregional failure of 4.6%, 5y overall survival 96%, 72% for disease free survival; one fifth of patients failed in the first year; a Dutch trial had identical results but others had worse recurrence rates; in other series 25% of patients could not be salvaged even with APR; 30% have subsequent metastatic disease what seems equal for ‘wait and see’ and operated patients. In a recent review Glynne Jones considers that all the evaluated ‘wait and see’ studies are heterogeneous in staging, inclusion criteria, design and follow up after chemoradiation and that there is the suggestion that patients who progress while under observation fare worse than those resected. He proposes long-term observational studies with more uniform inclusion criteria. We are now facing a moment where we may be more aggressive in early cancer and neoadjuvant treatment to be more conservative in the subsequent treatment but we need a better stratification of patients, better evaluation of results and more clear prognostic markers.