994 resultados para PER method
Resumo:
This study was carried out with the aim of modeling in 2D, in plain strain, the movement of a soft cohesive soil around a pile, in order to enable the determination of stresses resulting along the pile, per unit length. The problem in study fits into the large deformations problem and can be due to landslide, be close of depth excavations, to be near of zones where big loads are applied in the soil, etc. In this study is used an constitutive Elasto-Plastic model with the failure criterion of Mohr-Coulomb to model the soil behavior. The analysis is developed considering the soil in undrained conditions. To the modeling is used the finite element program PLAXIS, which use the Updated Lagrangian - Finite Element Method (UL-FEM). In this work, special attention is given to the soil-pile interaction, where is presented with some detail the formulation of the interface elements and some studies for a better understand of his behavior. It is developed a 2-D model that simulates the effect of depth allowing the study of his influence in the stress distribution around the pile. The results obtained give an important base about how behaves the movement of the soil around a pile, about how work the finite element program PLAXIS and how is the stress distribution around the pile. The analysis demonstrate that the soil-structure interaction modeled with the UL-FEM and interface elements is more appropriate to small deformations problems.
Resumo:
Dissertação para a obtenção do grau de Mestre em Engenharia Electrotécnica Ramo de Energia
Resumo:
Hyperspectral imaging has become one of the main topics in remote sensing applications, which comprise hundreds of spectral bands at different (almost contiguous) wavelength channels over the same area generating large data volumes comprising several GBs per flight. This high spectral resolution can be used for object detection and for discriminate between different objects based on their spectral characteristics. One of the main problems involved in hyperspectral analysis is the presence of mixed pixels, which arise when the spacial resolution of the sensor is not able to separate spectrally distinct materials. Spectral unmixing is one of the most important task for hyperspectral data exploitation. However, the unmixing algorithms can be computationally very expensive, and even high power consuming, which compromises the use in applications under on-board constraints. In recent years, graphics processing units (GPUs) have evolved into highly parallel and programmable systems. Specifically, several hyperspectral imaging algorithms have shown to be able to benefit from this hardware taking advantage of the extremely high floating-point processing performance, compact size, huge memory bandwidth, and relatively low cost of these units, which make them appealing for onboard data processing. In this paper, we propose a parallel implementation of an augmented Lagragian based method for unsupervised hyperspectral linear unmixing on GPUs using CUDA. The method called simplex identification via split augmented Lagrangian (SISAL) aims to identify the endmembers of a scene, i.e., is able to unmix hyperspectral data sets in which the pure pixel assumption is violated. The efficient implementation of SISAL method presented in this work exploits the GPU architecture at low level, using shared memory and coalesced accesses to memory.
Resumo:
Remote hyperspectral sensors collect large amounts of data per flight usually with low spatial resolution. It is known that the bandwidth connection between the satellite/airborne platform and the ground station is reduced, thus a compression onboard method is desirable to reduce the amount of data to be transmitted. This paper presents a parallel implementation of an compressive sensing method, called parallel hyperspectral coded aperture (P-HYCA), for graphics processing units (GPU) using the compute unified device architecture (CUDA). This method takes into account two main properties of hyperspectral dataset, namely the high correlation existing among the spectral bands and the generally low number of endmembers needed to explain the data, which largely reduces the number of measurements necessary to correctly reconstruct the original data. Experimental results conducted using synthetic and real hyperspectral datasets on two different GPU architectures by NVIDIA: GeForce GTX 590 and GeForce GTX TITAN, reveal that the use of GPUs can provide real-time compressive sensing performance. The achieved speedup is up to 20 times when compared with the processing time of HYCA running on one core of the Intel i7-2600 CPU (3.4GHz), with 16 Gbyte memory.
Resumo:
Sustainable Construction, Materials and Practice, p. 426-432
Resumo:
Sulfadiazine is an antibiotic of the sulfonamide group and is used as a veterinary drug in fish farming. Monitoring it in the tanks is fundamental to control the applied doses and avoid environmental dissemination. Pursuing this goal, we included a novel potentiometric design in a flow-injection assembly. The electrode body was a stainless steel needle veterinary syringe of 0.8-mm inner diameter. A selective membrane of PVC acted as a sensory surface. Its composition, the length of the electrode, and other flow variables were optimized. The best performance was obtained for sensors of 1.5-cm length and a membrane composition of 33% PVC, 66% onitrophenyloctyl ether, 1% ion exchanger, and a small amount of a cationic additive. It exhibited Nernstian slopes of 61.0 mV decade-1 down to 1.0×10-5 mol L-1, with a limit of detection of 3.1×10-6 mol L-1 in flowing media. All necessary pH/ionic strength adjustments were performed online by merging the sample plug with a buffer carrier of 4-(2-hydroxyethyl)-1-piperazineethanesulfonic acid, pH 4.9. The sensor exhibited the advantages of a fast response time (less than 15 s), long operational lifetime (60 days), and good selectivity for chloride, nitrite, acetate, tartrate, citrate, and ascorbate. The flow setup was successfully applied to the analysis of aquaculture waters. The analytical results were validated against those obtained with liquid chromatography–tandem mass spectrometry procedures. The sampling rate was about 84 samples per hour and recoveries ranged from 95.9 to 106.9%.
Resumo:
An "in-house" RT-PCR method was developed that allows the simultaneous detection of the RNA of the Hepatitis C Virus (HCV) and an artificial RNA employed as an external control. Samples were analyzed in pools of 6-12 donations, each donation included in two pools, one horizontal and one vertical, permitting the immediate identification of a reactive donation, obviating the need for pool dismembering. The whole process took 6-8 hours per day and results were issued in parallel to serology. The method was shown to detect all six HCV genotypes and a sensitivity of 500 IU/mL was achieved (95% hit rate). Until July 2005, 139,678 donations were tested and 315 (0.23%) were found reactive for HCV-RNA. Except for five false-positives, all 310 presented the corresponding antibody as well, so the yield of NAT-only donations was zero, presenting a specificity of 99.83%. Detection of a window period donation, in the population studied, will probably demand testing of a larger number of donations. International experience is showing a rate of 1:200,000 - 1:500,000 of isolated HCV-RNA reactive donations.
Resumo:
Finfish pots have emerged as a “responsible” gear, when used in combination with conservational and technical measures to sustain fisheries. Previous trials in Irish waters have offered no published reported data and so three designs tested in the current study provide new information on this gear. The most successful traps in terms of fish catch were rigid steel framed rectangular pots used to target Conger eel. Although commercial yield was low (0.2 per trap haul), potential existed for a viable pot fishery. Deployment and storage of Norwegian floating pots was conducted with relative ease but performance in the water was poor resulting in loss of gear. Catch returns were notable even though effort was restricted as mega-faunal by-catch was a problem, which lead to ending this trial. From these initial trials it was evident that catch rates were low compared to established Norwegian fisheries (3.6 cod per pot), which resulted in the utilisation of pots, already established in the crustacean fishery, to find species readily accessible to pot capture. Although fished and designed differently, these gears provided an opportunity to establish the benefits of pot fishing to fish quality and to determine the effects on by-catch. The fishing effects of three catching methods (pots, angling and trawl) and the effects of air exposure on the physiological status of a common by-catch, the lesser spotted dogfish Scyliorhinus canícula (L.) were examined using a range of physiological biomarkers (plasma catecholamine, glucose, lactate, muscle pH and muscle lactate). Physiological responses of fish to an emersion stress regime resulted in a significant metabolic disturbance in groups, but may not have weakened the overall health of these fish, as signified in the revival of some metabolites. Plasma glucose and lactate concentrations did not however recovery to baseline levels indicating that to achieve an accurate profile, responses should be determined by a suite of biomarkers. Responses did not demonstrate that samples from the pots were significantly less stressed than for the other two methods; angling and trawling, which are in contrast to many other studies. Employment of finfish potting therefore in Irish waters needs further consideration before further promotion as a more responsible method to supplement or replace established techniques.
Resumo:
In this work we present a proposal for a course in translation from German into Spanish following the task based approach as known in second language acquisition. The aim is to improve the translation competence of translation students. We depart from the hypothesis that some students select inapropiate translation strategies when faced with certain translation problems leading them to translation errors. In order to avoid these translation errors originated by wrong application of such strategies we propose a didactic method which helps to prevent them by a) raising awareness of the different subcompetences required while translating, b) improving the ability to identify translation problems and relate them to the different subcompetences and c) enhancing the use of the most adequate strategy according to the characteristics of each problem. With regard to translation and how translation competence is acquired our work follows the communicative approach to translation theory as defended among others by Hatim & Mason (1990), Lörscher (1992) and Kiraly (1995), where translation is seen as a communicative activity which can be analized from a psycholinguistic perspective. In this sense we give operative definitions for what we understand by “translation problem”, “translation strategy”, “translation error”, “translation competence” and “translation”. Our approach to didactics adapts recent developments in Second Language Teaching within the communicative paradigm as is the task based approach by Nunan (1989) acquisition to translation. Fitting the recquirements of this pedagogic approach we present a planning for a translation course which is compatible with present translation studies.
Resumo:
Arran d’una part de la transposició a l’Estat espanyol de la Directiva 2002/91/CE sobre Eficiència Energètica d’Edificis mitjançant el Real Decret 47/2007, pel que s’aprova el Procediment bàsic per la certificació d’eficiència energètica d’edificis de nova construcció, la certificació energètica esdevé obligatòria per edificació nova, i es dóna de termini fins a 2009 per a l’obligatorietat en edificació existent. És en aquest buit de l’edificació existent on es presenta l’objectiu de l’estudi, que és precisament augmentar el coneixement i canvi d’actitud dels agents de l’habitatge social sobre solucions de la rehabilitació des d’una perspectiva de sostenibilitat ambiental, en el context de la certificació energètica per obra nova. Després d’un intens treball de recerca de dades, s’aplicà en un cas pràctic d’habitatge social la nova directiva sobre certificació energètica de l’edificació amb les eines oficials existents. S’aconseguí fer una avaluació energètica d’un habitatge com a eina de gestió per la definició d’estratègies, i solucions ambientals per aconseguir així una major eficiència dels mateixos. D’aquesta manera, s’ha demostrat el valor afegit de la certificació energètica, i les dades obtingudes de les diferents certificacions realitzades podran ajudar a desenvolupar eines i estratègies integrades d’aplicació de millores energètiques a nivell del parc d’edificis existent.
Resumo:
Durant les darreres dècades, i degut, principalment, a un canvi en els hàbits alimentaris, hi ha hagut un augment a nivell mundial de malalties cròniques (l’obesitat, malalties cardiovasculars, etc.). En els països mediterranis hi ha menys incidència d’aquestes malalties i sembla ser que això es deu a l’anomenada dieta mediterrània. La dieta mediterrània es caracteritza per una combinació d’oli d’oliva com a grassa principal, verdures, hortalisses i fruites en abundància, lleguminoses, fruits secs, formatges i iogurt, peix, pa, pasta, cereals i els seus derivats i un consum moderat de vi i carns. Aquest model alimentari, ric en tocoferols, fitosterols i fitoestanols que ajuden a reduir el contingut de colesterol en sang, fa que en les poblacions mediterrànies hi hagi menys incidència de malalties cardiovasculars. Aquests compostos inhibeixen el deteriorament oxidatiu dels olis, actuen com agent antipolimerització per olis de fregir. Tenen capacitat de reduir els nivells de colesterol, evitant la incidència de malalties cardiovasculars. Els fitoesterols y fitoestanols es poden trobar en forma lliure o esterificada amb àcids grassos, àcids fenòlics i glucosa. Els objectius d’ aquest treball han estat, primer en el desenvolupament de mètodes d'anàlisi ràpids, fiables i robusts dels tocoferols, fitoesterols i fitoestanols i la seva aplicació en fruits sec, oli de segó, oli de pinyol de raïm i productes que els continguin. El primer mètode va estar basat en la cromatografía líquida (HPLC-DAD) amb extracció en fase sòlida (SPE) com tècnica alternativa a la saponificació para la determinació de fitoesterols lliures. Aquest mètode va estar aplicada a mostres de bombons que contenia fitoesterols. El segon mètode va estar basat en la cromatografia de gasos (GCFID) amb aponificació i SPE per quantificar fitoesterols i fitoestanols lliures, esterificats i totals. En els documents annexos es descriuen a profunditat els mètodes desenvolupats.
Resumo:
Estudi elaborat a partir d’una estada al Politecnico de Milano, Itàlia, entre gener i juny del 2006. Un dels principals objectius de l’Enginyeria del Programari és automatitzar el màxim possible el procés de desenvolupament del programari, reduint costos mitjançant la generació automàtica del programari a partir de la seva especificació. Per assolir-ho, entre altres, cal resoldre el problema de la comprovació eficient de restriccions, que són una part fonamental de l’especificació del programari. Aquest és precisament l’àmbit en què s’està desenvolupant una tesi que presentarà un mètode que poden integrar totes les eines generadores de codi per tal d’assolir una implementació eficient de les restriccions d’integritat. En l’actual fase del projecte s’ha treballat per validar el mètode de la tesi, optimitzant-lo pel cas específic de les aplicacions web i estendre’l per poder tractar també aplicacions basades en workflows. Pel que fa a l’optimització del mètode per aplicacions web, s’han definit una sèrie de paràmetres que permeten configurar la implementació del mètode tenint en compte les necessitats específiques de rendiment de cada aplicació web en particular. Respecte als workflows (cada cop més populars i que s’usen com a definició d’alt nivell per a les aplicacions a desenvolupar) s’ha estudiat quins són els tipus de restriccions que impliquen i com després es pot aplicar el mètode de la tesi sobre aquestes restriccions per tal de generar de forma eficient també les aplicacions basades en workflows.
Resumo:
Projecte de recerca elaborat a partir d’una estada al Department for Feed and Food Hygiene del National Veterinary Institute, Noruega, entre novembre i desembre del 2006. Els grans de cereal poden estar contaminats amb diferents espècies de Fusarium capaces de produir metabolits secundaris altament tòxics com trichotecenes, fumonisines o moniliformines. La correcta identificació d’aquestes espècies és de gran importància per l’assegurament del risc en l’àmbit de la salut humana i animal. La identificació de Fusarium en base a la seva morfologia requereix coneixements taxonòmics i temps; la majoria dels mètodes moleculars permeten la identificació d’una única espècie diana. Per contra, la tecnologia de microarray ofereix l’anàlisi paral•lel d’un alt nombre de DNA dianes. En aquest treball, s’ha desenvolupat un array per a la identificació de les principals espècies de Fusarium toxigèniques del Nord i Sud d’Europa. S’ha ampliat un array ja existent, per a la detecció de les espècies de Fusarium productores de trichothecene i moniliformina (predominants al Nord d’Europa), amb l’addició de 18 sondes de DNA que permeten identificar les espècies toxigèniques més abundants al Sud d’Europa, les qual produeixen majoritàriament fumonisines. Les sondes de captura han estat dissenyades en base al factor d’elongació translació- 1 alpha (TEF-1alpha). L’anàlisi de les mostres es realitza mitjançant una única PCR que permet amplificar part del TEF-1alpha seguida de la hibridació al xip de Fusarium. Els resultats es visualitzen mitjançant un mètode de detecció colorimètric. El xip de Fusarium desenvolupat pot esdevenir una eina útil i de gran interès per a l’anàlisi de cereals presents en la cadena alimentària.
Resumo:
Proyecto de investigación realizado a partir de una estancia en el Centro Internacional de Métodos Computacionales en Ingeniería (CIMEC), Argentina, entre febrero y abril del 2007. La simulación numérica de problemas de mezclas mediante el Particle Finite Element Method (PFEM) es el marco de estudio de una futura tesis doctoral. Éste es un método desarrollado conjuntamente por el CIMEC y el Centre Internacional de Mètodos Numèrics en l'Enginyeria (CIMNE-UPC), basado en la resolución de las ecuaciones de Navier-Stokes en formulación Lagrangiana. El mallador ha sido implementado y desarrollado por Dr. Nestor Calvo, investigador del CIMEC. El desarrollo del módulo de cálculo corresponde al trabajo de tesis de la beneficiaria. La correcta interacción entre ambas partes es fundamental para obtener resultados válidos. En esta memoria se explican los principales aspectos del mallador que fueron modificados (criterios de refinamiento geométrico) y los cambios introducidos en el módulo de cálculo (librería PETSc, algoritmo predictor-corrector) durante la estancia en el CIMEC. Por último, se muestran los resultados obtenidos en un problema de dos fluidos inmiscibles con transferencia de calor.
Resumo:
Els sistemes dʼatenció mèdica en situacions de pèrdues humanes massives necessiten classificar un número molt elevat de víctimes en un temps limitat i amb pocs recursos disponibles. Els mètodes clàssics es basen en una etiqueta de triatge de paper on el personal dʼemergències anota lʼestat del pacient juntament amb una quantitat reduïda dʼinformació. En aquest projecte descrivim lʼanàlisi, disseny i implementació dʼinterfícies gràfiques per dispositius mòbils pel protocol de triatge START, per ser utilitzades pels equips dʼemergència. Els components del projecte inclouen un dispositiu portàtil Nokia N810 amb connexió GPS, i IDBlue, un lector dʼetiquetes RFID per Bluetooth.