28 resultados para ARN no traducido

em Universidad Politécnica de Madrid


Relevância:

20.00% 20.00%

Publicador:

Resumo:

El presente proyecto se centra en el estudio de la influencia que ejerce el contenido de humedad en la madera sobre mediciones realizadas mediante diversos ensayos no destructivos (NDT – Non Destructive Tests-). El objetivo es encontrar la relación entre el contenido de humedad de la madera de varias especies del género Pinus (Pinus nigra Arn, Pinus radiata D.Don. y Pinus sylvestris Ait.) y los resultados de diferentes NDT (penetrómetro, resistencia al arranque de tornillos y velocidad de propagación de ondas inducidas y ultrasonidos), y en caso de existir, tratar de elaborar un modelo o factor de corrección que nos permita tener en cuenta dicha influencia en futuros NDT.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La computación molecular es una disciplina que se ocupa del diseño e implementación de dispositivos para el procesamiento de información sobre un sustrato biológico, como el ácido desoxirribonucleico (ADN), el ácido ribonucleico (ARN) o las proteínas. Desde que Watson y Crick descubrieron en los años cincuenta la estructura molecular del ADN en forma de doble hélice, se desencadenaron otros descubrimientos como las enzimas que cortan el ADN o la reacción en cadena de la polimerasa (PCR), contribuyendo más que signi�cativamente a la irrupción de la tecnología del ADN recombinante. Gracias a esta tecnología y al descenso vertiginoso de los precios de secuenciación y síntesis del ADN, la computación biomolecular pudo abandonar su concepción puramente teórica. En 1994, Leonard Adleman logró resolver un problema de computación NP-completo (El Problema del Camino de Hamilton Dirigido) utilizando únicamente moléculas de ADN. La gran capacidad de procesamiento en paralelo ofrecida por las técnicas del ADN recombinante permitió a Adleman ser capaz de resolver dicho problema en tiempo polinómico, aunque a costa de un consumo exponencial de moléculas de ADN. Utilizando algoritmos similares al de �fuerza bruta� utilizado por Adleman se logró resolver otros problemas NP-completos (por ejemplo, el de Satisfacibilidad de Fórmulas Lógicas / SAT). Pronto se comprendió que la computación con biomolecular no podía competir en velocidad ni precisión con los ordenadores de silicio, por lo que su enfoque y objetivos se centraron en la resolución de problemas biológicos con aplicación biomédica, dejando de lado la resolución de problemas clásicos de computación. Desde entonces se han propuesto diversos modelos de dispositivos biomoleculares que, de forma autónoma (sin necesidad de un bio-ingeniero realizando operaciones de laboratorio), son capaces de procesar como entrada un sustrato biológico y proporcionar una salida también en formato biológico: procesadores que aprovechan la extensión de la Polimerasa, autómatas que funcionan con enzimas de restricción o con deoxiribozimas, circuitos de hibridación competitiva. Esta tesis presenta un conjunto de modelos de dispositivos de ácidos nucleicos escalables, sensibles al tiempo y energéticamente e�cientes, capaces de implementar diversas operaciones de computación lógica aprovechando el fenómeno de la hibridación competitiva del ADN. La capacidad implícita de estos dispositivos para aplicar reglas de inferencia como modus ponens, modus tollens, resolución o el silogismo hipotético tiene un gran potencial. Entre otras funciones, permiten representar implicaciones lógicas (o reglas del tipo SI/ENTONCES), como por ejemplo, �si se da el síntoma 1 y el síntoma 2, entonces estamos ante la enfermedad A�, o �si estamos ante la enfermedad B, entonces deben manifestarse los síntomas 2 y 3�. Utilizando estos módulos lógicos como bloques básicos de construcción, se pretende desarrollar sistemas in vitro basados en sensores de ADN, capaces de trabajar de manera conjunta para detectar un conjunto de síntomas de entrada y producir un diagnóstico de salida. La reciente publicación en la revista Science de un autómata biomolecular de diagnóstico, capaz de tratar las células cancerígenas sin afectar a las células sanas, es un buen ejemplo de la relevancia cientí�ca que este tipo de autómatas tienen en la actualidad. Además de las recién mencionadas aplicaciones en el diagnóstico in vitro, los modelos presentados también tienen utilidad en el diseño de biosensores inteligentes y la construcción de bases de datos con registros en formato biomolecular que faciliten el análisis genómico. El estudio sobre el estado de la cuestión en computación biomolecular que se presenta en esta tesis está basado en un artículo recientemente publicado en la revista Current Bioinformatics. Los nuevos dispositivos presentados en la tesis forman parte de una solicitud de patente de la que la UPM es titular, y han sido presentados en congresos internacionales como Unconventional Computation 2010 en Tokio o Synthetic Biology 2010 en París.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In recent years, challenged by the climate scenarios put forward by the IPCC and its potential impact on plant distribution, numerous predictive techniques -including the so called habitat suitability models (HSM)- have been developed. Yet, as the output of the different methods produces different distribution areas, developing validation tools are strong needs to reduce uncertainties. Focused in the Iberian Peninsula, we propose a palaeo-based method to increase the robustness of the HSM, by developing an ecological approach to understand the mismatches between the palaeoecological information and the projections of the HSMs. Here, we present the result of (1) investigating causal relationships between environmental variables and presence of Pinus sylvestris L. and P. nigra Arn. available from the 3rd Spanish Forest Inventory, (2) developing present and past presence-predictions through the MaxEnt model for 6 and 21 kyr BP, and (3) assessing these models through comparisons with biomized palaeoecological data available from the European Pollen Database for the Iberian Peninsula.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El cálculo de relaciones binarias fue creado por De Morgan en 1860 para ser posteriormente desarrollado en gran medida por Peirce y Schröder. Tarski, Givant, Freyd y Scedrov demostraron que las álgebras relacionales son capaces de formalizar la lógica de primer orden, la lógica de orden superior así como la teoría de conjuntos. A partir de los resultados matemáticos de Tarski y Freyd, esta tesis desarrolla semánticas denotacionales y operacionales para la programación lógica con restricciones usando el álgebra relacional como base. La idea principal es la utilización del concepto de semántica ejecutable, semánticas cuya característica principal es el que la ejecución es posible utilizando el razonamiento estándar del universo semántico, este caso, razonamiento ecuacional. En el caso de este trabajo, se muestra que las álgebras relacionales distributivas con un operador de punto fijo capturan toda la teoría y metateoría estándar de la programación lógica con restricciones incluyendo los árboles utilizados en la búsqueda de demostraciones. La mayor parte de técnicas de optimización de programas, evaluación parcial e interpretación abstracta pueden ser llevadas a cabo utilizando las semánticas aquí presentadas. La demostración de la corrección de la implementación resulta extremadamente sencilla. En la primera parte de la tesis, un programa lógico con restricciones es traducido a un conjunto de términos relacionales. La interpretación estándar en la teoría de conjuntos de dichas relaciones coincide con la semántica estándar para CLP. Las consultas contra el programa traducido son llevadas a cabo mediante la reescritura de relaciones. Para concluir la primera parte, se demuestra la corrección y equivalencia operacional de esta nueva semántica, así como se define un algoritmo de unificación mediante la reescritura de relaciones. La segunda parte de la tesis desarrolla una semántica para la programación lógica con restricciones usando la teoría de alegorías—versión categórica del álgebra de relaciones—de Freyd. Para ello, se definen dos nuevos conceptos de Categoría Regular de Lawvere y _-Alegoría, en las cuales es posible interpretar un programa lógico. La ventaja fundamental que el enfoque categórico aporta es la definición de una máquina categórica que mejora e sistema de reescritura presentado en la primera parte. Gracias al uso de relaciones tabulares, la máquina modela la ejecución eficiente sin salir de un marco estrictamente formal. Utilizando la reescritura de diagramas, se define un algoritmo para el cálculo de pullbacks en Categorías Regulares de Lawvere. Los dominios de las tabulaciones aportan información sobre la utilización de memoria y variable libres, mientras que el estado compartido queda capturado por los diagramas. La especificación de la máquina induce la derivación formal de un juego de instrucciones eficiente. El marco categórico aporta otras importantes ventajas, como la posibilidad de incorporar tipos de datos algebraicos, funciones y otras extensiones a Prolog, a la vez que se conserva el carácter 100% declarativo de nuestra semántica. ABSTRACT The calculus of binary relations was introduced by De Morgan in 1860, to be greatly developed by Peirce and Schröder, as well as many others in the twentieth century. Using different formulations of relational structures, Tarski, Givant, Freyd, and Scedrov have shown how relation algebras can provide a variable-free way of formalizing first order logic, higher order logic and set theory, among other formal systems. Building on those mathematical results, we develop denotational and operational semantics for Constraint Logic Programming using relation algebra. The idea of executable semantics plays a fundamental role in this work, both as a philosophical and technical foundation. We call a semantics executable when program execution can be carried out using the regular theory and tools that define the semantic universe. Throughout this work, the use of pure algebraic reasoning is the basis of denotational and operational results, eliminating all the classical non-equational meta-theory associated to traditional semantics for Logic Programming. All algebraic reasoning, including execution, is performed in an algebraic way, to the point we could state that the denotational semantics of a CLP program is directly executable. Techniques like optimization, partial evaluation and abstract interpretation find a natural place in our algebraic models. Other properties, like correctness of the implementation or program transformation are easy to check, as they are carried out using instances of the general equational theory. In the first part of the work, we translate Constraint Logic Programs to binary relations in a modified version of the distributive relation algebras used by Tarski. Execution is carried out by a rewriting system. We prove adequacy and operational equivalence of the semantics. In the second part of the work, the relation algebraic approach is improved by using allegory theory, a categorical version of the algebra of relations developed by Freyd and Scedrov. The use of allegories lifts the semantics to typed relations, which capture the number of logical variables used by a predicate or program state in a declarative way. A logic program is interpreted in a _-allegory, which is in turn generated from a new notion of Regular Lawvere Category. As in the untyped case, program translation coincides with program interpretation. Thus, we develop a categorical machine directly from the semantics. The machine is based on relation composition, with a pullback calculation algorithm at its core. The algorithm is defined with the help of a notion of diagram rewriting. In this operational interpretation, types represent information about memory allocation and the execution mechanism is more efficient, thanks to the faithful representation of shared state by categorical projections. We finish the work by illustrating how the categorical semantics allows the incorporation into Prolog of constructs typical of Functional Programming, like abstract data types, and strict and lazy functions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se hace un estudio del monte de origen repoblación. Su especie principal es Pinus pinaster Ait., la secundaria es Pinus sylvestris L. y tiene presencia de Pinus nigra Arn. que no estaba prevista en el proyecto de repoblación, pero probablemente apareciera por mezcla de semillas. En los años 40 se cambió el uso del monte de agrícola a forestal, claro indicio de la baja productividad del suelo para el cultivo de cereales; de esta forma se dio a los propietarios de las distintas parcelas la oportunidad de incluir sus propiedades en el consorcio existente entre la entonces llamada Diputación Provincial de Madrid y Patrimonio Forestal del Estado, de manera que contarían con el apoyo tanto técnico como económico de la Administración Pública para la gestión del mismo. Es una observación totalmente objetiva que no es un monte económicamente rentable. Desde el punto de vista ambiental, el monte supone una masa protectora para la conservación de suelo. También cuenta con varios enclavados dedicados al pasto, que conlleva el paso de ganado vacuno y lanar, lo que supone un efecto negativo para el monte. Aunque el monte sigue siendo de propiedad particular por su cercanía a la población de Zarzalejo es frecuente el uso recreativo. Esto puede ser origen de conflictos para los propietarios ya que el tránsito de personas puede generar daños o requerir de mantenimientos que generen más gastos, en una propiedad que como ya hemos apuntado, es deficitaria. En conclusión podía sugerirse inversión en obras que mejoren el uso recreativo contando con ayuda económica por parte de alguna administración pública.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction and motivation: A wide variety of organisms have developed in-ternal biomolecular clocks in order to adapt to cyclic changes of the environment. Clock operation involves genetic networks. These genetic networks have to be mod¬eled in order to understand the underlying mechanism of oscillations and to design new synthetic cellular clocks. This doctoral thesis has resulted in two contributions to the fields of genetic clocks and systems and synthetic biology, generally. The first contribution is a new genetic circuit model that exhibits an oscillatory behav¬ior through catalytic RNA molecules. The second and major contribution is a new genetic circuit model demonstrating that a repressor molecule acting on the positive feedback of a self-activating gene produces reliable oscillations. First contribution: A new model of a synthetic genetic oscillator based on a typical two-gene motif with one positive and one negative feedback loop is pre¬sented. The originality is that the repressor is a catalytic RNA molecule rather than a protein or a non-catalytic RNA molecule. This catalytic RNA is a ribozyme that acts post-transcriptionally by binding to and cleaving target mRNA molecules. This genetic clock involves just two genes, a mRNA and an activator protein, apart from the ribozyme. Parameter values that produce a circadian period in both determin¬istic and stochastic simulations have been chosen as an example of clock operation. The effects of the stochastic fluctuations are quantified by a period histogram and autocorrelation function. The conclusion is that catalytic RNA molecules can act as repressor proteins and simplify the design of genetic oscillators. Second and major contribution: It is demonstrated that a self-activating gene in conjunction with a simple negative interaction can easily produce robust matically validated. This model is comprised of two clearly distinct parts. The first is a positive feedback created by a protein that binds to the promoter of its own gene and activates the transcription. The second is a negative interaction in which a repressor molecule prevents this protein from binding to its promoter. A stochastic study shows that the system is robust to noise. A deterministic study identifies that the oscillator dynamics are mainly driven by two types of biomolecules: the protein, and the complex formed by the repressor and this protein. The main conclusion of this study is that a simple and usual negative interaction, such as degradation, se¬questration or inhibition, acting on the positive transcriptional feedback of a single gene is a sufficient condition to produce reliable oscillations. One gene is enough and the positive transcriptional feedback signal does not need to activate a second repressor gene. At the genetic level, this means that an explicit negative feedback loop is not necessary. Unlike many genetic oscillators, this model needs neither cooperative binding reactions nor the formation of protein multimers. Applications and future research directions: Recently, RNA molecules have been found to play many new catalytic roles. The first oscillatory genetic model proposed in this thesis uses ribozymes as repressor molecules. This could provide new synthetic biology design principles and a better understanding of cel¬lular clocks regulated by RNA molecules. The second genetic model proposed here involves only a repression acting on a self-activating gene and produces robust oscil¬lations. Unlike current two-gene oscillators, this model surprisingly does not require a second repressor gene. This result could help to clarify the design principles of cellular clocks and constitute a new efficient tool for engineering synthetic genetic oscillators. Possible follow-on research directions are: validate models in vivo and in vitro, research the potential of second model as a genetic memory, investigate new genetic oscillators regulated by non-coding RNAs and design a biosensor of positive feedbacks in genetic networks based on the operation of the second model Resumen Introduccion y motivacion: Una amplia variedad de organismos han desarro-llado relojes biomoleculares internos con el fin de adaptarse a los cambios ciclicos del entorno. El funcionamiento de estos relojes involucra redes geneticas. El mo delado de estas redes geneticas es esencial tanto para entender los mecanismos que producen las oscilaciones como para diseiiar nuevos circuitos sinteticos en celulas. Esta tesis doctoral ha dado lugar a dos contribuciones dentro de los campos de los circuitos geneticos en particular, y biologia de sistemas y sintetica en general. La primera contribucion es un nuevo modelo de circuito genetico que muestra un comportamiento oscilatorio usando moleculas de ARN cataliticas. La segunda y principal contribucion es un nuevo modelo de circuito genetico que demuestra que una molecula represora actuando sobre el lazo de un gen auto-activado produce oscilaciones robustas. Primera contribucion: Es un nuevo modelo de oscilador genetico sintetico basado en una tipica red genetica compuesta por dos genes con dos lazos de retroa-limentacion, uno positivo y otro negativo. La novedad de este modelo es que el represor es una molecula de ARN catalftica, en lugar de una protefna o una molecula de ARN no-catalitica. Este ARN catalitico es una ribozima que actua despues de la transcription genetica uniendose y cortando moleculas de ARN mensajero (ARNm). Este reloj genetico involucra solo dos genes, un ARNm y una proteina activadora, aparte de la ribozima. Como ejemplo de funcionamiento, se han escogido valores de los parametros que producen oscilaciones con periodo circadiano (24 horas) tanto en simulaciones deterministas como estocasticas. El efecto de las fluctuaciones es-tocasticas ha sido cuantificado mediante un histograma del periodo y la función de auto-correlacion. La conclusion es que las moleculas de ARN con propiedades cataliticas pueden jugar el misnio papel que las protemas represoras, y por lo tanto, simplificar el diseno de los osciladores geneticos. Segunda y principal contribucion: Es un nuevo modelo de oscilador genetico que demuestra que un gen auto-activado junto con una simple interaction negativa puede producir oscilaciones robustas. Este modelo ha sido estudiado y validado matematicamente. El modelo esta compuesto de dos partes bien diferenciadas. La primera parte es un lazo de retroalimentacion positiva creado por una proteina que se une al promotor de su propio gen activando la transcription. La segunda parte es una interaction negativa en la que una molecula represora evita la union de la proteina con el promotor. Un estudio estocastico muestra que el sistema es robusto al ruido. Un estudio determinista muestra que la dinamica del sistema es debida principalmente a dos tipos de biomoleculas: la proteina, y el complejo formado por el represor y esta proteina. La conclusion principal de este estudio es que una simple y usual interaction negativa, tal como una degradation, un secuestro o una inhibition, actuando sobre el lazo de retroalimentacion positiva de un solo gen es una condition suficiente para producir oscilaciones robustas. Un gen es suficiente y el lazo de retroalimentacion positiva no necesita activar a un segundo gen represor, tal y como ocurre en los relojes actuales con dos genes. Esto significa que a nivel genetico un lazo de retroalimentacion negativa no es necesario de forma explicita. Ademas, este modelo no necesita reacciones cooperativas ni la formation de multimeros proteicos, al contrario que en muchos osciladores geneticos. Aplicaciones y futuras lineas de investigacion: En los liltimos anos, se han descubierto muchas moleculas de ARN con capacidad catalitica. El primer modelo de oscilador genetico propuesto en esta tesis usa ribozimas como moleculas repre¬soras. Esto podria proporcionar nuevos principios de diseno en biologia sintetica y una mejor comprension de los relojes celulares regulados por moleculas de ARN. El segundo modelo de oscilador genetico propuesto aqui involucra solo una represion actuando sobre un gen auto-activado y produce oscilaciones robustas. Sorprendente-mente, un segundo gen represor no es necesario al contrario que en los bien conocidos osciladores con dos genes. Este resultado podria ayudar a clarificar los principios de diseno de los relojes celulares naturales y constituir una nueva y eficiente he-rramienta para crear osciladores geneticos sinteticos. Algunas de las futuras lineas de investigation abiertas tras esta tesis son: (1) la validation in vivo e in vitro de ambos modelos, (2) el estudio del potential del segundo modelo como circuito base para la construction de una memoria genetica, (3) el estudio de nuevos osciladores geneticos regulados por ARN no codificante y, por ultimo, (4) el rediseno del se¬gundo modelo de oscilador genetico para su uso como biosensor capaz de detectar genes auto-activados en redes geneticas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En los últimos quince años se ha producido una liberalización de los mercados eléctricos en los distintos países de ámbito occidental que ha ido acompañado de un incremento por la preocupación por la incidencia de las distintas tecnologías de generación en el entorno medioambiental. Ello se ha traducido en la aparición de un marco regulatorio más restrictivo sobre las tecnologías de generación fósiles, con mayor incidencia en las derivadas de productos petrolíferos y carbón. A nivel mundial han ido apareciendo cambios normativos relativos a las emisiones de distintos elementos contaminantes (CO2, SO2, NOx…), que hacen que en particular las centrales térmicas de carbón vean muy afectadas su rentabilidad y funcionamiento. Esta situación ha supuesto que la tecnología de generación eléctrica con carbón haya avanzado considerablemente en los últimos años (calderas supercríticas, sistemas de desulfuración, gasificación del carbón…). No obstante, el desarrollo de la generación con energías renovables, la generación con gas mediante centrales de ciclo combinado y la opinión social relativa a la generación con carbón, principalmente en Europa, suponen un serio obstáculo a la generación con carbón. Por consiguiente, se hace necesario buscar vías para optimizar la competitividad de las centrales de carbón y el camino más razonable es mejorar el margen esperado de estas plantas y en particular el coste de adquisición del carbón. Ello se hace aún más importante por el hecho de existir numerosas centrales de carbón y un elevado número de nuevos proyectos constructivos de centrales de carbón en países asiáticos. Por consiguiente, el objeto de la presente tesis doctoral se centra en definir una metodología para optimizar la compra de carbón, desde el punto de vista económico y técnico, con destino a su consumo en una central térmica, con ello reducir el coste del carbón consumido y mejorar su competitividad. También se enfoca a determinar que herramientas pueden ser utilizadas para optimizar la gestión del carbón después de su compra y con ello abrir la posibilidad de obtener márgenes adicionales para dicho carbón. De acuerdo con este objetivo, el autor de la presente Tesis Doctoral realiza tres aportaciones novedosas en el ámbito de la contratación de carbón térmico y su optimización posterior: - Evaluación de carbones para su adquisición considerando el efecto de la calidad del carbón en el coste de generación asociado a cada carbón ofertado. - Creación, desarrollo, implantación y utilización de una potente herramienta de planificación de Combustibles. Esta herramienta, está diseñada con el objeto de determinar la solución económica óptima de aprovisionamientos, consumos y niveles de existencias para un parque de generación con centrales de carbón y fuelóleo. - La extensión de una metodología contractual habitual en el mercado spot de Gas Natural Licuado, a la contratación spot de Carbón de Importación. Esta se basa en el desarrollo de Acuerdos Marcos de Compra/Venta de carbón, que por su flexibilidad permitan obtener resultados económicos adicionales después de la compra de un carbón. Abstract In the last fifteen years, a liberalization of the electrical markets has occurred in the western countries. This process has been accompanied by an increasing concern of the impact of the different generation technologies towards the environment. This has motivated a regulated framework restricting the use of fossil fuels, impacting a great deal in coal and oil based products. Worldwide, new legal changes have been arising related to the emissions of the different pollutants (CO2, SO2, NOx…). These changes have had a deep impact in the feasibility, profit and running of coal fired power plants. This situation has motivated the coal electrical generation technologies to move forward in an important way in the last few years (supercritical furnaces, desulphuration plants, coal gasification…). Nevertheless, the development of the renewable generation, the gas combined cycle generation and the social opinion related to the coal electrical generation, mainly in Europe, have created a serious obstacle to the generation of electricity by coal. Therefore it is necessary to look for new paths in order to optimize the competitiveness of the coal fired power plants and the most reasonable way is to improve the expected margin of these plants and particularly the coal purchase cost. All of the above needs to be taken into context with the large number of existing coal fired power plants and an important number of new projects in Asian countries. Therefore, the goal of the current doctoral dissertation is focused to define a methodology to be considered in order to optimize the coal purchase, from an economical and a technical point of view. This coal, destined for power plant consumption, permits the reduction of consumption coal cost and improves the plant’s competitiveness. This document is also focused to define what tools we can use to optimize the coal management after deal closing and therefore open the possibility to get further margins. According to this goal, the author of this doctoral dissertation provides three important new ideas in the ambit of contracting steam coal and the posterior optimization: - Evaluation of coal purchases, considering the effect of coal quality on the cost of generation associated with each type of coal offered. - The creation, development, deployment and use of a strong planning tool of fuels. This tool is designed for the purpose of determining the optimal economic solution of fuel supply, consumption and stock levels for a power generation portfolio using coal and fuel oil fired power plants. - The application of a common contractual methodology in the spot market of Liquid Natural Gas, for the contracting spot imported coal. This is based on the development of Framework Agreements for the Purchasing / Sale of coal, which because of its flexibility allows for the gain of additional financial results after the purchase of coal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Light detection and ranging (LiDAR) technology is beginning to have an impact on agriculture. Canopy volume and/or fruit tree leaf area can be estimated using terrestrial laser sensors based on this technology. However, the use of these devices may have different options depending on the resolution and scanning mode. As a consequence, data accuracy and LiDAR derived parameters are affected by sensor configuration, and may vary according to vegetative characteristics of tree crops. Given this scenario, users and suppliers of these devices need to know how to use the sensor in each case. This paper presents a computer program to determine the best configuration, allowing simulation and evaluation of different LiDAR configurations in various tree structures (or training systems). The ultimate goal is to optimise the use of laser scanners in field operations. The software presented generates a virtual orchard, and then allows the scanning simulation with a laser sensor. Trees are created using a hidden Markov tree (HMT) model. Varying the foliar structure of the orchard the LiDAR simulation was applied to twenty different artificially created orchards with or without leaves from two positions (lateral and zenith). To validate the laser sensor configuration, leaf surface of simulated trees was compared with the parameters obtained by LiDAR measurements: the impacted leaf area, the impacted total area (leaves and wood), and th impacted area in the three outer layers of leaves.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

SIMLIDAR is an application developed in Cþþ that generates an artificial orchard using a Lindenmayer system. The application simulates the lateral interaction between the artificial orchard and a laser scanner or LIDAR (Light Detection and Ranging). To best highlight the unique qualities of the LIDAR simulation, this work focuses on apple trees without leaves, i.e. the woody structure. The objective is to simulate a terrestrial laser sensor (LIDAR) when applied to different artificially created orchards and compare the simulated characteristics of trees with the parameters obtained with the LIDAR. The scanner is mounted on a virtual tractor and measures the distance between the origin of the laser beam and the nearby plant object. This measurement is taken with an angular scan in a plane which is perpendicular to the route of the virtual tractor. SIMLIDAR determines the distance measured in a bi-dimensional matrix N M, where N is the number of angular scans and M is the number of steps in the tractor route. In order to test the data and performance of SIMLIDAR, the simulation has been applied to 42 different artificial orchards. After previously defining and calculating two vegetative parameters (wood area and wood projected area) of the simulated trees, a good correlation (R2 ¼ 0.70e0.80) was found between these characteristics and the wood area detected (impacted) by the laser beam. The designed software can be valuable in horticulture for estimating biomass and optimising the pesticide treatments that are performed in winter.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El trabajo realizado ha pretendido desarrollar y caracterizar una solución de revestimiento continuo interior con características de barrera de vapor e higroscopicidad. El objetivo ha sido desarrollar una solución de revestimiento continuo interior, capaz de reducir el riesgo de condensación intersticial en los cerramientos, manteniendo la capacidad de regulación de la humedad del ambiente interior. ESTUDIO DE ANTECEDENTES 1 La condensación intersticial La condensación intersticial se produce cuando la presión de vapor sobrepasa la presión de vapor de saturación en una de las capas internas del cerramiento. El vapor de agua se transfiere de los locales de mayor presión de vapor a los de menor presión. Para la situación de condensación intersticial, en la estación de calentamiento, las presiones de vapor son más elevadas en el interior del edificio que en el exterior. Entonces existe una transferencia de vapor del interior hacia el exterior y es en ese trayecto cuando pueden producirse las condensaciones intersticiales si éste alcanza la temperatura de rocío. Las consecuencias de la condensación intersticial pueden ser varias, desde la degradación de los materiales, como la corrosión de elementos metálicos; la pudrición de productos orgánicos naturales, como la madera, variaciones dimensionales de las fábricas de ladrillo con posibilidad de deformación del cerramiento y de fisuración de los revestimientos continuos. Pueden también producirse fenómenos de corrosión física provocados por la congelación del agua en los elementos porosos del cerramiento. Los revestimientos continuos pueden también estar sujetos a vegetaciones parasitarias por el exterior del cerramiento o de hongos por el interior, por transferencia del agua condensada a las superficies del cerramiento. Los hongos pueden provocar enfermedades principalmente respiratorias o alergias, al alterar la calidad del aire. La condensación intersticial se produce principalmente en situaciones de bajas temperaturas y elevados grados de humedad especifica exterior. Pero las condiciones de temperatura y principalmente de humedad especifica interior tienen también gran influencia en esta situación patológica. Las condiciones de humedad relativa interior dependen de muchos factores como el tipo y uso del edificio, y en caso de vivienda, del número de ocupantes, de las actividades que se desarrollan, pero esencialmente de la temperatura interior y del grado de ventilación. Las soluciones constructivas también tienen influencia en el riesgo de condensaciones. Las soluciones de cerramientos con aislamientos por el interior y con capas impermeables al vapor por el exterior son las más problemáticas. En esta solución constructiva extrema, tenemos prácticamente todo el cerramiento cerca de las temperaturas exteriores, con gran concentración de vapor de agua. El tipo de aislamiento también es importante, los aislamientos con gran desequilibrio higrotérmico, como las lanas minerales, de fibra de madera, o de fibras textiles, caracterizados por el elevado aislamiento y la elevada permeabilidad al vapor, son los que presentan mayor riesgo. Éstos permiten el paso del vapor y producen un salto acentuado de la temperatura. Su colocación por el interior de los cerramientos incrementa aún más el riesgo de condensaciones. Estos materiales de aislamiento también se caracterizan por tener una menor energía primaria asociada a su fabricación. Por lo tanto merecen una atención especial en la búsqueda de soluciones sostenibles. Así mismo, también puede existir riesgo de condensaciones con aquellos aislamientos de menor permeabilidad al vapor, como los poliméricos o las espumas de vidrio, pero deficientemente aplicados, permitiendo el paso del vapor de agua por las juntas o en los encuentros con forjados, pilares o huecos. La condensación de agua en los aislamientos caracterizados por una elevada permeabilidad al vapor es la situación más problemática porque, además de poder conducir a la pudrición de aislamientos de origen orgánico (como los de fibra de madera), conduce a una disminución del aislamiento del cerramiento y al consecuente incremento del consumo de energía en la obtención del confort térmico. Existen un conjunto de reglas y de soluciones constructivas que pueden reducir el riesgo de condensaciones intersticiales como la colocación de materiales sucesivamente más permeables al vapor, o más aislantes, del interior al exterior. XXXIII Revestimientos exteriores discontinuos y ventilados y aislamientos aplicados por el exterior es la solución extrema de este principio. La aplicación de aislamientos impermeables al vapor es otra solución, siendo necesario que se garantice que las juntas de las placas del aislamiento sean estancas, así como los encuentros con los forjados, pilares y huecos. Otra solución es la aplicación de cerramientos dobles con cámara de aire ventilada, teniendo el cuidado de ventilar solamente la parte fría del cerramiento. Es necesario en estas situaciones, que se garantice que el aislamiento se encuentra aplicado en la cara exterior del ladrillo interior del cerramiento. También es importante controlar el grado de ventilación de la cámara para que no se produzca la pérdida de la resistencia térmica de la hoja de ladrillo exterior. La aplicación de barreras de vapor en la parte caliente del cerramiento es una solución que garantiza la reducción del flujo del vapor del interior hacia el exterior y consecuentemente contribuye a la reducción de la presión de vapor en su lado exterior y en la parte fría del cerramiento. 2 La normativa La normativa española, el Código Técnico de la Edificación de 2006, en su capítulo Ahorro de Energía, establece que no está permitida en ninguna situación, la condensación en el aislamiento. Todavía existiendo condensaciones en otras capas del cerramiento, en la estación de calentamiento, éstas no pueden ser mayores que la evaporación en la estación de enfriamiento. La misma normativa determina que si existe una barrera de vapor en la parte caliente del cerramiento no será necesario comprobar las condiciones anteriores. La normativa portuguesa, el Regulamento das Características do Comportamento Térmico dos Edifícios, de 2006, no tiene ninguna exigencia relativa a las condensaciones intersticiales. Sus autores defienden que en Portugal no es un fenómeno que pueda tener consecuencias graves en los elementos constructivos o en el consumo de energía. En la norma EN 13788 de 2001 están definidos los métodos más comunes de verificación de las condensaciones y de la evaporación y están basados en el Diagrama de Glaser. En base a esta norma es posible verificar el riesgo de condensaciones superficiales y la posibilidad de desarrollo de hongos en la superficie interior del cerramiento. Pero también permite evaluar el riesgo de condensaciones debido a la difusión de vapor de agua. En este método se considera que el agua incorporada en la construcción ha secado, y es aplicable en situaciones en que sean insignificantes los fenómenos de alteración de conductividad térmica con la humedad, la liberación y absorción de calor, alteración de las propiedades de los materiales con la humedad, succión capilar y transferencia de humedad líquida en los materiales, circulación de aire a través de grietas, y la capacidad higroscópica en los materiales. Me resulta extraño que la misma norma establezca que el método no debe ser utilizado para la comprobación de la existencia de condensaciones, sino solamente como método comparativo de diferentes soluciones constructivas o condiciones ambientales. Más recientemente, con la norma EN 15026 de 2007, se ha introducido una alteración en el método de verificación. Mientras que en base a la norma 13788 la verificación se realiza en régimen estacionario, y solamente considerando algunas propiedades de los materiales como la resistencia térmica (R) y el coeficiente de resistencia a la difusión de vapor de agua (μ), la norma EN 15026, determina que se realice en régimen variable y que otros fenómenos físicos sean considerados. Con respecto a la temperatura, el almacenamiento de calor en materiales secos o húmedos, la transferencia de calor con la transmitancia térmica dependiente de la cantidad de agua presente en los materiales, transferencia de calor latente por difusión de vapor de agua con cambio de fase. Con respecto a la humedad, el almacenamiento de humedad por adsorción y desorción de vapor de agua y fuerzas capilares. Transporte de humedad por difusión de vapor de agua, transporte de agua líquida por difusión de superficie y conducción capilar. 3 Barreras de vapor Las barreras de vapor se caracterizan por una reducida permeancia al vapor, que de acuerdo con la normativa española NBE 79 es inferior a 0,1g /MNs o resistencia superior a 10 MNs/g. (o permeancia inferior a 1,152 g/mmHg, o resistencia al vapor mayor que 0,86 mmHg∙m2∙día /g). Esta permeancia al vapor corresponde a una capa de aire de difusión equivalente (Sd) de 215 cm o 2,15 metros. XXXV Todos los materiales pueden alcanzar estos valores de resistencia al vapor siempre que se utilicen con grandes espesores, pero los que más interesan son los que puedan tener esa característica con pequeños espesores. Existen otras clasificaciones, como la del CSTC de la Bélgica que divide los materiales de acuerdo a su permeancia al vapor. Están definidas 4 categorías de barreras de vapor E1, E2, E3, E4. La categoría E1 para los materiales con - Sd entre 2 y 5 metros, E2 – con Sd entre 5 y 25 metros y 3 - con Sd entre 25 y 200 metros y finalmente E4 para valores de Sd superiores a 200 metros. Estos materiales pueden ser de diferentes tipos, y con diferentes aplicaciones. Las pinturas al esmalte o emulsiones bituminosas, los films de polietileno o de aluminio, y las membranas de betún o vinílicas son algunos ejemplos de productos con estas características y que se utilizan con ese fin. Su aplicación puede realizarse en la superficie interior del cerramiento como las pinturas al esmalte o en la cámara de aire como los otros tipos mencionados anteriormente. En todo caso deben ser colocados en la parte caliente del cerramiento, por el interior del aislamiento. Las pinturas al esmalte, los barnices, o las membranas vinílicas, cuando son aplicados sobre el revestimiento interior, presentan el problema de quitar la capacidad higroscópica del revestimiento, sea de yeso, mortero de cemento o incluso de madera. Las emulsiones de betún o las membranas de betún son generalmente aplicadas en la cara exterior de la hoja interior del cerramiento, cuando existe cámara de aire, por lo que necesitan ser aplicadas por el exterior del edificio y obligan a que la ejecución de la hoja de ladrillo de fuera sea hecha también por el exterior, con las condiciones de seguridad y de costo asociadas. Los films de aluminio o de polietileno presentan problemas de aplicación como la garantía de estanquidad, por no ser continuos, y por que el sistema de fijación poder no garantizarla. Las soluciones que parecen garantizar una mejor estanquidad y menor costo son las aplicaciones de barreras de vapor continuas y aplicadas por el interior del cerramiento, como la pintura al esmalte. Sin embargo, como ya se ha comentado con anterioridad, pueden reducir la capacidad higroscópica de los cerramientos y la inercia higroscópica de las construcciones. 4 La importancia de la capacidad higroscópica El agua actúa como un pequeño imán y es atraída por varios materiales en estado líquido o gaseoso. Muchos materiales son capaces de contener moléculas de vapor de aire, llamándose este fenómeno adsorción y ocurre en los materiales llamados hidrófilos. La capacidad de los materiales de variar su contenido de humedad con la humedad relativa del aire se llama capacidad higroscópica. La capacidad higroscópica de los materiales de revestimiento es importante por permitir la adsorción y desadsorción de agua en estado de vapor y así permitir la regulación de la humedad del ambiente interior, adsorbiendo cuando la humedad relativa del aire es elevada y desorbiendo cuando la humedad relativa es baja. De acuerdo con los datos del Fraunhofer Institut y para valores de humedad por unidad de volumen (Kg/m3), el revestimiento de yeso no es el producto que presenta una mejor capacidad higroscópica, comparado por ejemplo con los revocos de cemento. Para valores de humedad relativa del 50%, el revestimiento de yeso presenta valores de contenido de humedad de 3,6 g/m3, el revoco de cemento 9,66 g/m3, y el revestimiento acrílico de acabado de 2,7 g/m3. Para una humedad relativa del 95% y por tanto aún en el rango higroscópico, los valores para los mismos morteros son de 19 g/m3, 113,19 g/m3 y 34,55 g/m3, respectivamente. Para una humedad relativa del 100% y por tanto en el rango por encima de la saturación capilar, en la saturación máxima, los valores son de 400 g/m3, 280 g/m3 y 100 g/m3 respectivamente. Solo para valores de humedad relativa del 100% es posible verificar un contenido de humedad del revestimiento de yeso superior al del revoco de cemento. La inercia higroscópica permite que las variaciones de la humedad relativa del aire en una habitación, tenga una atenuación de los picos diarios pudiendo contribuir para el confort y para la disminución de los costos energéticos a él asociados. Puede también XXXVII tener un efecto a largo plazo traducido en alteraciones de las medias mensuales en los meses de inicio y de fin de ciclos estacionales, de variación de la humedad relativa. Estos son los fundamentos que han llevado al desarrollo de soluciones de revestimientos continuos interiores con características de barrera de vapor e higroscopicidad. ESTUDIO EXPERIMENTAL El estudio experimental consta de dos partes: - permeabilidad al vapor e capacidad higroscópica de materiales y productos - adherencia de revestimientos predosificados de yeso a capas impermeables al vapor. 1- Materiales y métodos I. Permeabilidad al vapor y capacidad higroscópica de materiales y productos El desarrollo de esta solución de revestimiento ha comenzado por el estudio de las características de permeabilidad al vapor y de capacidad higroscópica de los materiales y productos utilizados en los revestimientos continuos de cerramientos. Los primeros ensayos han sido realizados en el periodo de docencia del Curso de Doctorado en la asignatura de Aplicaciones Actuales de Conglomerantes Tradicionales, del Profesor Luis de Villanueva Domínguez, y han permitido el primer contacto con los métodos de ensayos y el conocimiento de las normas aplicables. En el trabajo de investigación realizado en la asignatura, se ha ensayado la permeabilidad al vapor e la capacidad higroscópica de morteros de revestimiento, de conglomerantes tradicionales Los materiales y productos ensayados, en ese primer trabajo experimental, han sido, mortero de escayola y cal aérea, yeso de proyectar, mortero de cal aérea y arena, mortero de cal hidráulica y arena, mortero de cemento y arena, mortero de cemento y arena con aditivos impermeabilizantes y morteros impermeabilizantes a base de cemento. En el periodo de investigación del Curso de Doctorado han sido ensayados otros materiales y productos. También con la orientación del Catedrático Luis de Villanueva Domínguez se ha desarrollado el Trabajo Tutelado en el cual se han ensayado materiales y productos de revestimiento continuo de conglomerantes no tradicionales, yesos puros con adiciones naturales, yesos de proyectar con adiciones sintéticas y capas peliculares de diferente origen. De los productos de origen sintético se ha ensayado la permeabilidad al vapor y capacidad higroscópica de estucos acrílicos de relleno (Matesica), estucos acrílicos de acabado (Matesica), mortero sintético de relleno/acabado para exterior o interior (Matesica), mortero sintético de acabado para exterior (Weber), mortero epoxi de relleno y acabado para interior (Gobbetto), morteros de agarre (BASF y Matesica), mortero de reparación de cemento (Weber), mortero de reparación de yeso (Weber). Se ha ensayado también la permeabilidad al vapor de capas peliculares continuas de diferentes orígenes, como aceite de linaza hervido, cera de abeja diluida en esencia de trementina, emulsión bituminosa (Shell), emulsión bituminosa con polímero (BASF), imprimación epoxídica con cemento (BASF), pintura epoxídica (Matesica), pintura anticarbonatación (BASF), estuco Veneciano de cal (La Calce de la Brenta), estuco Veneciano sintético (Gobbetto) e impermeabilización líquida (Weber). Han sido ensayadas también la permeabilidad al vapor y la capacidad higroscópica de yesos puros (portugueses) sin adiciones y con aditivos naturales (cal aérea hidratada 1/1, cola de pescado y cola de conejo). Los yesos de proyectar han sido ensayados sin adiciones y con adiciones de látex SBR (BASF), acrílico (Weber) y epoxi (Matesica). II Adherencia de revestimientos predosificados de yeso a capas impermeables al vapor Como ya se ha dicho anteriormente, hasta una humedad relativa por debajo del 95%, el revestimiento de yeso tiene una capacidad higroscópica inferior al revoco de cemento y al revestimiento acrílico de acabado. Se ha elegido, de acuerdo con el profesor Luis de Villanueva Domínguez, este producto como capa higroscópica del esquema de revestimiento. Las cuestiones de tradición cultural, de abundancia de materia prima en la Península Ibérica, esencialmente en España, y los menores costos energéticos asociados a su fabricación, determinan el origen de esta decisión. Para la producción de 1 m3 de XXXIX cemento son necesarios 12600 MJ, mientras que para 1 m3 de yeso son necesarios solamente 2640 MJ. Pero el yeso presenta otras características mejores que los morteros de cemento, como la menor densidad, menor conductividad térmica y menor efusividad térmica. La mejor capacidad de absorción de agua en la fase líquida por capilaridad, que el mortero de cemento, es otra de las ventajas de los revestimientos de yeso que en situaciones de condensación superficial interior puede evitar el goteo. El paso siguiente ha sido ensayar la adherencia de un revestimiento predosificado de yeso a las capas que han presentado característica de barrera de vapor con espesores hasta 6 mm, así como en aquellas en que los fabricantes recomiendan menores espesores, como el mortero epoxi de relleno y acabado y el mortero sintético de acabado. Se ha utilizado un revestimiento de yeso predosificado de aplicación manual, portugués. La elección de un producto de aplicación manual se ha debido a la dificultad de obtener la aplicación por proyección en el local donde se han hecho las muestras, el taller de la Faculdade de Arquitectura da Universidade Técnica de Lisboa. Se ha aplicado con espesor de 2 cm sobre las capas de aceite de linaza hervido, emulsión de bituminosa, imprimación epoxídica con cemento, pintura epoxídica, impermeabilización líquida, mortero epoxi de relleno y acabado, mortero sintético de acabado. Verificando que ninguno de los materiales que han presentado características de barrera de vapor hasta espesores de 0,6 mm proporcionaban una adherencia al revestimiento de yeso capaz de garantizar el cumplimento de todas las exigencias, se ha decidido elegir los materiales impermeables al vapor más finos y con diferentes orígenes para desarrollar los estudios de mejora de la adherencia. Ha sido necesario desarrollar un conjunto de experimentos con el objetivo de incrementar la adherencia del revestimiento de yeso a estos soportes no absorbentes. La adherencia de los revestimientos continuos de conglomerantes tradicionales, como el yeso sobre soportes absorbentes, se basa en una adherencia mecánica. En este caso los cristales de yeso se van a formar dentro de la red capilar del ladrillo cerámico o del hormigón. Aplicando una barrera de vapor sobre ellos, se elimina esta posibilidad por aplicarse una barrera entre la estructura porosa del soporte (ladrillo u hormigón) y el revestimiento de yeso. Se tiene que producir otro tipo de adherencia, la adherencia química. Esta adherencia se basa en los enlaces químicos, de tipo secundario, como los puentes de hidrógeno o las fuerzas bipolares de Van der Waals. Aunque este tipo de adherencia es menor que la que se produce sobre soportes absorbentes, puede alcanzar valores considerables. Los materiales impermeables al vapor elegidos han sido el aceite de linaza hervido, la emulsión bituminosa y la imprimación epoxi con cemento. A estos materiales de origen natural, artificial e sintético, han sido aplicadas capas intermedias de arena de sílice, mortero de cemento y arena, mortero de agarre y un puente de adherencia de acuerdo con las recomendaciones de Eurogypsum. La capa de arena ha sido aplicada con la última mano aún fresca, mientras que las otras capas intermedias han sido aplicadas con las capas impermeables al vapor ya secas. Las capas intermedias aplicadas han sido: - al aceite de linaza hervido - arena de sílice y puente de adherencia. - a la emulsión bituminosa - arena de sílice, mortero de cemento y arena 1:1 y puente de adherencia - a la capa de imprimación epoxídica con cemento - arena de sílice, mortero de agarre y puente de adherencia. El revestimiento de yeso utilizado ha sido un yeso predosificado de aplicación manual, de origen español, y se ha aplicado con un espesor de 2 centímetros. Para la capa intermedia de puente de adherencia y siguiendo la recomendación del fabricante, se ha añadido un látex de SBR (con relación látex/agua de 1/2) al revestimiento de yeso. Otra experimentación realizada ha sido la adición del látex SBR al revestimiento de yeso y su aplicación directamente sobre cada una de las capas impermeables al vapor, y a cada una de las capas intermedias aplicadas sobre las capas impermeables al vapor. XLI La aplicación del látex en las proporciones de 1/2, de relación látex/agua, puede cambiar algunas propiedades del revestimiento de yeso en pasta, en relación a su aplicación, o tiempo de inicio o fin de fraguado, e incluso tener influencia en el costo final del revestimiento. Puesto que la adherencia del revestimiento de yeso con adición del látex a la capa intermedia de puente de adherencia ha sido muy superior a las exigencias más estrictas, se ha realizado un ensayo, pero sin la adición del látex. Este ensayo se ha realizado aplicando el revestimiento de yeso sobre las capas de puente de adherencia anteriormente aplicadas sobre las capas impermeables al vapor, descritas con anterioridad. Se ha aplicado ahora un revestimiento de yeso predosificado también de aplicación manual, pero de origen portugués. Para garantizar el cumplimiento integral de la exigencia de adherencia de 0,5 MPa, se ha hecho otro ensayo con una menor adición de látex de SBR al yeso predosificado. Se ha aplicado el látex con una relación látex/agua de 1/3 y 1/4. 2 Resultados y discusión I. Permeabilidad al vapor y capacidad higroscópica de materiales y productos En el primer ensayo de permeabilidad al vapor se concluyó que ninguno de los productos ensayados puede constituir barrera de vapor en espesores hasta 2 cm. y que lo que ha presentado mayor resistividad al vapor ha sido el mortero impermeabilizante de capa fina. Tendría que tener un espesor próximo a los 14,12 cm para poder constituir barrera de vapor. En los ensayos de capacidad higroscópica, realizados solamente para humedades relativas del 50% y 95% a temperaturas de 23ºC, el mortero de escayola y cal aérea y el yeso de proyectar han presentado una capacidad higroscópica bastante elevada, pero como el secado ha sido realizado a 100º C (lo que no es la temperatura adecuada para los productos a base de yeso por poder éstos sufrir una deshidratación y un cambio en su constitución) los resultados no pueden ser considerados. El mortero de impermeabilización de capa fina también ha presentado una buena capacidad higroscópica, mejor que el mortero de cemento y arena, y éste mejor que el mortero de cal hidráulica y arena, y éste mejor que el mortero de cal aérea y arena. La adición de aditivos impermeabilizantes no ha cambiado significativamente esta característica. Como resultado de los segundos ensayos se ha concluido que existen diferentes materiales y productos que pueden constituir barrera de vapor con diferentes espesores. Los productos estuco acrílico de relleno, estuco sintético de acabado, mortero sintético de acabado para exterior, mortero epoxi de relleno y acabado, han presentado características de barrera de vapor con espesores hasta 2 cm, sin embargo, son espesores superiores a los recomendados por los fabricantes de los productos. De los productos peliculares, han constituido barrera de vapor, el aceite de linaza hervido (con valores muy próximos), la emulsión bituminosa sin polímero, la imprimación epoxídica con cemento, la pintura epoxídica y la impermeabilización líquida. Todos los demás productos ensayados no han presentado esa característica cuando aplicados en tres manos. Los yesos puros con adiciones naturales y los yesos de proyectar con adiciones sintéticas no han presentado características de barrera de vapor en espesores hasta dos centímetros. El mejor resultado ha sido el del yeso puro con adición de cola de pescado, que ha presentado característica de barrera de vapor con espesor de 16,32 cm. En cuanto a la capacidad higroscópica de los materiales y productos, el ensayo ha sido repetido recientemente con las mismas muestras, porque en el ensayo realizado para el Trabajo Tutelado no fue posible una correcta caracterización. En ese ensayo solo se han obtenido los valores de capacidad higroscópica para valores de humedad del 50 % ± 3 a temperatura de 23 ºC ± 2 por no disponerse de los medios necesarios para un estudio más completo. En el ensayo realizado recientemente en el Laboratório Nacional de Engenharia Civil de Portugal (LNEC), se ha utilizado una cámara climática, con control de temperatura y humedad relativa, y se han obtenido los valores de capacidad higroscópica para valores de humedad relativa del 25%, 50%, 75% y 95% a temperatura constante de 23º C. XLIII En ese último ensayo se ha verificado que para humedades relativas del 50 %, los yesos predosificados de aplicación manual, portugueses y españoles, tienen diferentes capacidades higroscópicas. Los yesos españoles han presentado una capacidad higroscópica de 0,2 % y el portugués de 0,05 %. La adición de látex de SRB no ha reducido la capacidad higroscópica del yeso predosificado español. Los valores se han mantenido próximos para las relaciones látex/agua de 1/4, 1/3 y 1/2, con 0,2 %. Para valores de capacidad higroscópica por volumen se ha verificado que la adición de látex incrementa la capacidad higroscópica, estableciéndose que los valores para el yeso español sin látex han sido de 2,2 g/dm3 y para los yesos con adición de látex han sido de cerca de 2,5 g/dm3. Para este valor de humedad relativa otros productos han presentado mayor capacidad higroscópica, como el yeso puro con cola de pescado con 5,1 g/dm3.Para morteros ensayados con espesores de 0,6 cm, el mortero de reparación de yeso ha presentado un valor de capacidad higroscópica de 4,1 g/dm3 y el mortero de agarre (BASF) ha presentado el valor de 4,6 g/dm3. Para valores de humedad relativa del 95 %, la capacidad higroscópica presentada por el yeso predosificado español ha sido de 1 % y por el portugués ha sido de 0,27 %. La adición de látex tampoco aquí ha alterado la capacidad higroscópica. Las pequeñas diferencia registradas pueden deberse al diferente tiempo en que se han realizado los pesajes, por existir ya mucha agua libre. Para valores de capacidad higroscópica por volumen se ha verificado que la adición de látex incrementa la capacidad higroscópica, estableciéndose que los valores para el yeso español sin látex han sido de 10,6 g/dm3 y para los yesos con adición de látex han sido de cerca de 11,60 g/dm3 para látex/agua de 1/4, 13,77 g/dm3 para látex/agua de 1/3 y 12,20 g/dm3 para látex/agua de 1/2. Para este valor de humedad relativa, otros productos han presentado mayor capacidad higroscópica, y superiores al yeso predosificado de aplicación manual español. El yeso predosificado de proyectar con adición de látex acrílico (Weber), con 14,1 g/dm3, el yeso puro con cola de pescado con 17,8 g/dm3, el yeso puro cal aérea hidratada con 18,3 g/dm3. Para los morteros ensayados con espesores de 0,6 cm, el mortero de agarre Matesica con valor 17,7 g/dm3, el mortero de reparación de yeso con valores de 31,2 g/dm3 y el mortero de agarre BASF con valores de 48,8 g/dm3. Este ultimo valor debería ser verificado por haberse podido producir un error en la cantidad de agua suministrada. XLIV II Adherencia de revestimientos predosificados de yeso a capas impermeables al vapor Realizado el ensayo de adherencia del revestimiento de yeso predosificado aplicado sobre las capas que han constituido barrera de vapor con espesor hasta 6 mm, se ha verificado que los valores requeridos por la norma europea EN 13279 de 2005, con valores de adherencia ≥ 0,1 MPa o rotura cohesiva por el soporte, solo no han sido satisfechos por la pintura epoxídica y por el revestimiento sintético de acabado. Todavía los valores de adherencia no han alcanzado los valores exigidos por las exigencias complementarias del Laboratório Nacional de Engenharia de Portugal (LNEC) o las exigencias españolas. Las exigencias del LNEC, determinan una adherencia ≥ 0,5 MPa, o una ruptura cohesiva. Las exigencias españolas determinan que la adherencia debe ser determinada por la rotura del revestimiento. La solución de revestimiento que mejor resultado ha presentado ha sido la del revestimiento predosificado de yeso aplicado sobre la capa de aceite de linaza hervido, con una adherencia de 0,324 MPa. También se ha ensayado la aplicación de una capa intermedia de mortero de agarre entre las capas impermeables al vapor de imprimación epoxídica y pintura epoxídica. Los resultados obtenidos han sido de 0,21 MPa y de 0,25 MPa respectivamente. De los valores obtenidos en el ensayo de adherencia del revestimiento de yeso predosificado a las capas peliculares elegidas que han constituido barrera de vapor cuando aplicadas en tres manos, solo algunas de las soluciones con adición de látex al yeso han cumplido las exigencias más estrictas. Éstas han sido las capas impermeables al vapor constituidas por emulsión bituminosa e imprimación epoxi con cemento. Las capas intermedias de arena de sílice sobre la emulsión bituminosa y sobre la imprimación epoxi también han cumplido. Las capas intermedias de mortero de cemento sobre emulsión bituminosa, y mortero de agarre sobre imprimación epoxi con cemento también han cumplido. El puente de adherencia sobre emulsión bituminosa e imprimación epoxídica con cemento, han presentado valores muy elevados de adherencia del revestimiento de XLV yeso. Los valores obtenidos han sido tres veces superiores a las exigencias más estrictas. Los valores obtenidos en el ensayo de adherencia del revestimiento de yeso predosificado sobre el puente adherencia aplicado sobre las capas peliculares impermeables al vapor han sido muy cercanos a la exigencia del Laboratório Nacional de Engenharia Civil de Portugal. Presentan una media de 0,456 MPa. Los valores más bajos han sido para la solución de capa impermeable al vapor constituida por aceite de linaza hervido, con el valor de 0,418 MPa. El valor más elevado ha sido para la solución de capa impermeable al vapor constituida por imprimación epoxídica con cemento, con el valor de adherencia de 0,484 MPa. Los valores obtenidos con las capas impermeables al vapor constituidas por aceite de linaza hervido han presentado roturas siempre adhesivas, o en su capa, pero con valores muy diferentes. Los valores de mayor adherencia se han producido con las capas de aceite con mayor tiempo de secado. En el ensayo de adherencia del revestimiento de yeso predosificado con adición de látex con relación agua/látex de 1/3 y 1/4, aplicado sobre el puente de adherencia, aplicado sobre la capa de imprimación epoxi se ha verificado que la solución con relación látex/agua de 1/4 ha superado la exigencia de 0,5 MPa en un 50 %. Esto resultado quiere decir que es posible aplicar una relación de látex/agua aún inferior. PRINCIPALES CONCLUSIONES Como principales conclusiones del estudio experimental podemos decir que es posible obtener un revestimiento continuo interior impermeable al vapor e higroscópico. Se pueden obtener con capas impermeables al vapor de aceite de linaza hervido (debidamente seco), emulsión bituminosa o con imprimación epoxídica con cemento, aplicadas directamente sobre el ladrillo. Como capa higroscópica se puede aplicar un revestimiento de yeso predosificado, no obstante sea menos higroscópico que un revestimiento de mortero de cemento y arena (hasta humedades relativas del 95%). La adherencia entre la capa impermeable al vapor y el revestimiento de yeso predosificado, puede conseguirse con un puente de adherencia entre las dos capas anteriormente descritas. Si la adherencia del yeso no fuera capaz de cumplir las exigencias más estrictas (0,5 MPa) puede añadirse un látex de SBR al yeso en una relación de látex agua de 1/4. Esa adición permite una adherencia un 50 % superior a las exigencias más estrictas, por lo que se pueden ensayar relaciones aún menores de L/A. Estas adiciones no restan capacidad higroscópica al revestimiento, pudiendo incluso incrementarla (para humedades relativas del 25% al 95%) con beneficio para la inercia higroscópica del edificio donde fuese aplicado. Con respecto a la influencia de la solución de revestimiento propuesta en el riesgo de condensaciones intersticiales, se puede decir que no ha sido posible observar una diferencia significativa en las simulaciones realizadas, entre la aplicación del revestimiento y su no aplicación. Las simulaciones han sido realizadas con la aplicación informática Wufi 5 Pro, que respeta la normativa más reciente relativa a las condensaciones intersticiales. Comparando con la solución tradicional de aplicación de barrera de vapor en la cámara de aire, tampoco se han verificado grandes diferencias. Cabe destacar que esta solución tradicional no ha presentado diferencias en relación a la no aplicación de barrera de vapor. Estas simulaciones contradicen lo comúnmente establecido hasta ahora, que es considerar que la aplicación de barreras de vapor en la parte caliente del cerramiento reduce considerablemente el riesgo de condensaciones intersticiales. Estas simulaciones han sido realizadas considerando que la fracción de lluvia adherida al cerramiento seria la correspondiente a la solución constructiva y a su inclinación. En la definición del componente pared del cerramiento no existe la posibilidad de colocar la capa de pintura exterior. Considerando la hipótesis de que con la capa de pintura exterior, no existe absorción de agua de lluvia, en esta solución constructiva, los valores obtenidos han cambiado considerablemente. El contenido total de agua en el elemento ha sido menor en la solución con barrera de vapor en el revestimiento (pico máximo de 1 Kg/m2), seguido de la solución de barrera de vapor en la cámara de aire (pico máximo de 1,4 Kg/m2) y esto menor que la solución sin barrera de vapor (pico máximo de 1,8 Kg/m2). El contenido de agua en la lana de roca también ha sido menor en la solución con barrera de vapor en el revestimiento interior (pico máximo de 1,15 %), seguido de la solución con barrera de vapor en la cámara de aire (pico máximo de 1,5 %). y esto menor que la solución sin barrera de vapor (pico máximo de 1,62 %).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Resumen: en este trabajo se presentan nuevas estrategias de enseñanza y aprendizaje a través de las nuevas tecnologías en su variante virtual a distancia (e-learning) implementadas en asignaturas relacionadas con la Geología. El objetivo básico fue acercar los aspectos geológicos a los estudiantes mediante el empleo de estas tecnologías. Se ha observado una mayor motivación y adquisición de conocimientos geológicos por parte del alumnado, que se ha traducido en una mejora en las calificaciones. Abstract: This paper deals with new teaching and learning approaches through the use of new technologies, mainly virtual distance learning (e-learning) in courses related to Geology. The main objective is to bring the geological aspects of Nature to students using these technologies. These new approaches have produced an increase in student motivation and acquisition of geological knowledge, accompanied by an improvement in their grades.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En las últimas décadas el mundo ha sufrido un aumento exponencial en la utilización de soluciones tecnológicas, lo que ha desembocado en la necesidad de medir situaciones o estados de los distintos objetos que nos rodean. A menudo, no es posible cablear determinados sensores por lo que ese aumento en la utilización de soluciones tecnológicas, se ha visto traducido en un aumento de la necesidad de utilización de sensórica sin cables para poder hacer telemetrías correctas. A nivel social, el aumento de la demografía mundial está estrechamente ligado al aumento de la necesidad de servicios tecnológicos, por lo que es lógico pensar que a más habitantes, más tecnología será consumida. El objetivo de este Proyecto Final de Carrera está basado en la utilización de diversos nodos o también llamados motas capaces de realizar transferencia de datos en modo sin cables, permitiendo así realizar una aplicación real que solvente problemas generados por el aumento de la densidad de población. En concreto se busca la realización de un sistema de aparcamiento inteligente para estacionamientos en superficie, ayudando por tanto a las tareas de ordenación vehicular dentro del marco de las Smart cities. El sistema está basado en el protocolo de comunicaciones 802.15.4 (ZigBee) cuyas características fundamentales radican en el bajo consumo de energía de los componentes hardware asociados. En primer lugar se realizará un Estado del Arte de las Redes Inalámbricas de Sensores, abordando tanto la arquitectura como el estándar Zigbee y finalmente los componentes XBee que se van a utilizar en este Proyecto. Seguidamente se realizará la algoritmia necesaria para el buen funcionamiento del sistema inteligente de estacionamiento y finalmente se realizará un piloto demostrador del correcto funcionamiento de la tecnología. ABSTRACT In the last decades the world has experienced an exponential increase in the use of technological solutions, which has resulted in the need to measure situations or states of the objects around us. Often, wired sensors cannot be used at many situations, so the increase in the use of technological solutions, has been translated into a increase of the need of using wireless sensors to make correct telemetries. At the social level, the increase in global demographics is closely linked to the increased need for technological services, so it is logical that more people, more technology will be consumed. The objective of this Final Project is based on the use of various nodes or so-called motes, capable of performing data transfer in wireless mode, thereby allowing performing a real application solving problems generated by the increase of population densities. Specifically looking for the realization of a smart outdoor parking system, thus helping to vehicular management tasks within the framework of the Smart Cities. The system is based on the communication protocol 802.15.4 (ZigBee) whose main characteristics lie in the low energy consumption associated to the hardware components. First there will be a State of the Art of Wireless Sensor Networks, addressing both architecture and finally the Zigbee standard XBee components to be used in this project. Then the necessary algorithms will be developed for the proper working of the intelligent parking system and finally there will be a pilot demonstrator validating the whole system.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La computación molecular es una disciplina que se ocupa del diseño e implementación de dispositivos para el procesamiento de información sobre un sustrato biológico, como el ácido desoxirribonucleico (ADN), el ácido ribonucleico (ARN) o las proteínas. Desde que Watson y Crick descubrieron en los años cincuenta la estructura molecular del ADN en forma de doble hélice, se desencadenaron otros descubrimientos, como las enzimas de restricción o la reacción en cadena de la polimerasa (PCR), contribuyendo de manera determinante a la irrupción de la tecnología del ADN recombinante. Gracias a esta tecnología y al descenso vertiginoso de los precios de secuenciación y síntesis del ADN, la computación biomolecular pudo abandonar su concepción puramente teórica. El trabajo presentado por Adleman (1994) logró resolver un problema de computación NP-completo (El Problema del Camino de Hamilton dirigido) utilizando únicamente moléculas de ADN. La gran capacidad de procesamiento en paralelo ofrecida por las técnicas del ADN recombinante permitió a Adleman ser capaz de resolver dicho problema en tiempo polinómico, aunque a costa de un consumo exponencial de moléculas de ADN. Utilizando algoritmos de fuerza bruta similares al utilizado por Adleman se logró resolver otros problemas NP-completos, como por ejemplo el de Satisfacibilidad de Fórmulas Lógicas / SAT (Lipton, 1995). Pronto se comprendió que la computación biomolecular no podía competir en velocidad ni precisión con los ordenadores de silicio, por lo que su enfoque y objetivos se centraron en la resolución de problemas con aplicación biomédica (Simmel, 2007), dejando de lado la resolución de problemas clásicos de computación. Desde entonces se han propuesto diversos modelos de dispositivos biomoleculares que, de forma autónoma (sin necesidad de un bio-ingeniero realizando operaciones de laboratorio), son capaces de procesar como entrada un sustrato biológico y proporcionar una salida también en formato biológico: procesadores que aprovechan la extensión de la polimerasa (Hagiya et al., 1997), autómatas que funcionan con enzimas de restricción (Benenson et al., 2001) o con deoxiribozimas (Stojanovic et al., 2002), o circuitos de hibridación competitiva (Yurke et al., 2000). Esta tesis presenta un conjunto de modelos de dispositivos de ácidos nucleicos capaces de implementar diversas operaciones de computación lógica aprovechando técnicas de computación biomolecular (hibridación competitiva del ADN y reacciones enzimáticas) con aplicaciones en diagnóstico genético. El primer conjunto de modelos, presentados en el Capítulo 5 y publicados en Sainz de Murieta and Rodríguez-Patón (2012b), Rodríguez-Patón et al. (2010a) y Sainz de Murieta and Rodríguez-Patón (2010), define un tipo de biosensor que usa hebras simples de ADN para codificar reglas sencillas, como por ejemplo "SI hebra-ADN-1 Y hebra-ADN-2 presentes, ENTONCES enfermedad-B". Estas reglas interactúan con señales de entrada (ADN o ARN de cualquier tipo) para producir una señal de salida (también en forma de ácido nucleico). Dicha señal de salida representa un diagnóstico, que puede medirse mediante partículas fluorescentes técnicas FRET) o incluso ser un tratamiento administrado en respuesta a un conjunto de síntomas. El modelo presentado en el Capítulo 5, publicado en Rodríguez-Patón et al. (2011), es capaz de ejecutar cadenas de resolución sobre fórmulas lógicas en forma normal conjuntiva. Cada cláusula de una fórmula se codifica en una molécula de ADN. Cada proposición p se codifica asignándole una hebra simple de ADN, y la correspondiente hebra complementaria a la proposición ¬p. Las cláusulas se codifican incluyendo distintas proposiciones en la misma hebra de ADN. El modelo permite ejecutar programas lógicos de cláusulas Horn aplicando múltiples iteraciones de resolución en cascada, con el fin de implementar la función de un nanodispositivo autónomo programable. Esta técnica también puede emplearse para resolver SAP sin ayuda externa. El modelo presentado en el Capítulo 6 se ha publicado en publicado en Sainz de Murieta and Rodríguez-Patón (2012c), y el modelo presentado en el Capítulo 7 se ha publicado en (Sainz de Murieta and Rodríguez-Patón, 2013c). Aunque explotan métodos de computación biomolecular diferentes (hibridación competitiva de ADN en el Capítulo 6 frente a reacciones enzimáticas en el 7), ambos modelos son capaces de realizar inferencia Bayesiana. Funcionan tomando hebras simples de ADN como entrada, representando la presencia o la ausencia de un indicador molecular concreto (una evidencia). La probabilidad a priori de una enfermedad, así como la probabilidad condicionada de una señal (o síntoma) dada la enfermedad representan la base de conocimiento, y se codifican combinando distintas moléculas de ADN y sus concentraciones relativas. Cuando las moléculas de entrada interaccionan con las de la base de conocimiento, se liberan dos clases de hebras de ADN, cuya proporción relativa representa la aplicación del teorema de Bayes: la probabilidad condicionada de la enfermedad dada la señal (o síntoma). Todos estos dispositivos pueden verse como elementos básicos que, combinados modularmente, permiten la implementación de sistemas in vitro a partir de sensores de ADN, capaces de percibir y procesar señales biológicas. Este tipo de autómatas tienen en la actualidad una gran potencial, además de una gran repercusión científica. Un perfecto ejemplo fue la publicación de (Xie et al., 2011) en Science, presentando un autómata biomolecular de diagnóstico capaz de activar selectivamente el proceso de apoptosis en células cancerígenas sin afectar a células sanas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las pruebas de software (Testing) son en la actualidad la técnica más utilizada para la validación y la evaluación de la calidad de un programa. El testing está integrado en todas las metodologías prácticas de desarrollo de software y juega un papel crucial en el éxito de cualquier proyecto de software. Desde las unidades de código más pequeñas a los componentes más complejos, su integración en un sistema de software y su despliegue a producción, todas las piezas de un producto de software deben ser probadas a fondo antes de que el producto de software pueda ser liberado a un entorno de producción. La mayor limitación del testing de software es que continúa siendo un conjunto de tareas manuales, representando una buena parte del coste total de desarrollo. En este escenario, la automatización resulta fundamental para aliviar estos altos costes. La generación automática de casos de pruebas (TCG, del inglés test case generation) es el proceso de generar automáticamente casos de prueba que logren un alto recubrimiento del programa. Entre la gran variedad de enfoques hacia la TCG, esta tesis se centra en un enfoque estructural de caja blanca, y más concretamente en una de las técnicas más utilizadas actualmente, la ejecución simbólica. En ejecución simbólica, el programa bajo pruebas es ejecutado con expresiones simbólicas como argumentos de entrada en lugar de valores concretos. Esta tesis se basa en un marco general para la generación automática de casos de prueba dirigido a programas imperativos orientados a objetos (Java, por ejemplo) y basado en programación lógica con restricciones (CLP, del inglés constraint logic programming). En este marco general, el programa imperativo bajo pruebas es primeramente traducido a un programa CLP equivalente, y luego dicho programa CLP es ejecutado simbólicamente utilizando los mecanismos de evaluación estándar de CLP, extendidos con operaciones especiales para el tratamiento de estructuras de datos dinámicas. Mejorar la escalabilidad y la eficiencia de la ejecución simbólica constituye un reto muy importante. Es bien sabido que la ejecución simbólica resulta impracticable debido al gran número de caminos de ejecución que deben ser explorados y a tamaño de las restricciones que se deben manipular. Además, la generación de casos de prueba mediante ejecución simbólica tiende a producir un número innecesariamente grande de casos de prueba cuando es aplicada a programas de tamaño medio o grande. Las contribuciones de esta tesis pueden ser resumidas como sigue. (1) Se desarrolla un enfoque composicional basado en CLP para la generación de casos de prueba, el cual busca aliviar el problema de la explosión de caminos interprocedimiento analizando de forma separada cada componente (p.ej. método) del programa bajo pruebas, almacenando los resultados y reutilizándolos incrementalmente hasta obtener resultados para el programa completo. También se ha desarrollado un enfoque composicional basado en especialización de programas (evaluación parcial) para la herramienta de ejecución simbólica Symbolic PathFinder (SPF). (2) Se propone una metodología para usar información del consumo de recursos del programa bajo pruebas para guiar la ejecución simbólica hacia aquellas partes del programa que satisfacen una determinada política de recursos, evitando la exploración de aquellas partes del programa que violan dicha política. (3) Se propone una metodología genérica para guiar la ejecución simbólica hacia las partes más interesantes del programa, la cual utiliza abstracciones como generadores de trazas para guiar la ejecución de acuerdo a criterios de selección estructurales. (4) Se propone un nuevo resolutor de restricciones, el cual maneja eficientemente restricciones sobre el uso de la memoria dinámica global (heap) durante ejecución simbólica, el cual mejora considerablemente el rendimiento de la técnica estándar utilizada para este propósito, la \lazy initialization". (5) Todas las técnicas propuestas han sido implementadas en el sistema PET (el enfoque composicional ha sido también implementado en la herramienta SPF). Mediante evaluación experimental se ha confirmado que todas ellas mejoran considerablemente la escalabilidad y eficiencia de la ejecución simbólica y la generación de casos de prueba. ABSTRACT Testing is nowadays the most used technique to validate software and assess its quality. It is integrated into all practical software development methodologies and plays a crucial role towards the success of any software project. From the smallest units of code to the most complex components and their integration into a software system and later deployment; all pieces of a software product must be tested thoroughly before a software product can be released. The main limitation of software testing is that it remains a mostly manual task, representing a large fraction of the total development cost. In this scenario, test automation is paramount to alleviate such high costs. Test case generation (TCG) is the process of automatically generating test inputs that achieve high coverage of the system under test. Among a wide variety of approaches to TCG, this thesis focuses on structural (white-box) TCG, where one of the most successful enabling techniques is symbolic execution. In symbolic execution, the program under test is executed with its input arguments being symbolic expressions rather than concrete values. This thesis relies on a previously developed constraint-based TCG framework for imperative object-oriented programs (e.g., Java), in which the imperative program under test is first translated into an equivalent constraint logic program, and then such translated program is symbolically executed by relying on standard evaluation mechanisms of Constraint Logic Programming (CLP), extended with special treatment for dynamically allocated data structures. Improving the scalability and efficiency of symbolic execution constitutes a major challenge. It is well known that symbolic execution quickly becomes impractical due to the large number of paths that must be explored and the size of the constraints that must be handled. Moreover, symbolic execution-based TCG tends to produce an unnecessarily large number of test cases when applied to medium or large programs. The contributions of this dissertation can be summarized as follows. (1) A compositional approach to CLP-based TCG is developed which overcomes the inter-procedural path explosion by separately analyzing each component (method) in a program under test, stowing the results as method summaries and incrementally reusing them to obtain whole-program results. A similar compositional strategy that relies on program specialization is also developed for the state-of-the-art symbolic execution tool Symbolic PathFinder (SPF). (2) Resource-driven TCG is proposed as a methodology to use resource consumption information to drive symbolic execution towards those parts of the program under test that comply with a user-provided resource policy, avoiding the exploration of those parts of the program that violate such policy. (3) A generic methodology to guide symbolic execution towards the most interesting parts of a program is proposed, which uses abstractions as oracles to steer symbolic execution through those parts of the program under test that interest the programmer/tester most. (4) A new heap-constraint solver is proposed, which efficiently handles heap-related constraints and aliasing of references during symbolic execution and greatly outperforms the state-of-the-art standard technique known as lazy initialization. (5) All techniques above have been implemented in the PET system (and some of them in the SPF tool). Experimental evaluation has confirmed that they considerably help towards a more scalable and efficient symbolic execution and TCG.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de este trabajo es evaluar la influencia de la utilización de una muestra de calentamiento sobre la respuesta emocional del consumidor. Para el estudio de la respuesta emocional del consumidor se ha traducido al español el léxico propuesto por King y Meiselman (2010) y se ha aplicado el método EsSense Profile propuesto por dichos autores, con un total de 38 términos. La prueba ha sido realizada por 69 consumidores sobre dos marcas de chocolate distintas. El orden de presentación se equilibró de forma que cada producto apareciese el mismo número de veces en la primera posición. Después de probar un producto, los consumidores evaluaban primero su aceptación mediante la escala hedónica de 9 puntos. Luego, describían cómo se sentían, puntuando cada uno de los sentimientos de la lista en una escala de 5 puntos desde “nada en absoluto” hasta “muchísimo”. Se observaron diferencias estadísticamente significativas en la respuesta del consumidor en función de la posición del producto. Tanto para la evaluación hedónica como para algunas emociones, la muestra evaluada en primer lugar presenta una puntuación más extrema que la otra, independientemente de cuál de las dos muestras se presente primero. Este estudio demuestra la importancia de usar una muestra de calentamiento en ese tipo de experimento para evitar el sesgo debido al orden de presentación. Además se comprueba que el método EsSense Profile se puede adaptar al español para describir la respuesta emocional de los consumidores.