43 resultados para independent random variables with a commondensity
Resumo:
La consola portátil Nintendo DS es una plataforma de desarrollo muy presente entre la comunidad de desarrolladores independientes, con una extensa y nutrida escena homebrew. Si bien las capacidades 2D de la consola están muy aprovechadas, dado que la mayor parte de los esfuerzos de los creadores amateur están enfocados en este aspecto, el motor 3D de ésta (el que se encarga de representar en pantalla modelos tridimensionales) no lo está de igual manera. Por lo tanto, en este proyecto se tiene en vista determinar las capacidades gráficas de la Nintendo DS. Para ello se ha realizado una biblioteca de funciones en C que permite aprovechar las posibilidades que ofrece la consola en el terreno 3D y que sirve como herramienta para la comunidad homebrew para crear aplicaciones 3D de forma sencilla, dado que se ha diseñado como un sistema modular y accesible. En cuanto al proceso de renderizado se han sacado varias conclusiones. En primer lugar se ha determinado la posibilidad de asignar varias componentes de color a un mismo vértice (color material reactivo a la iluminación, color por vértice directo y color de textura), tanto de forma independiente como simultáneamente, pudiéndose utilizar para aplicar diversos efectos al modelo, como iluminación pre-calculada o simulación de una textura mediante color por vértice, ahorrando en memoria de video. Por otro lado se ha implementado un sistema de renderizado multi-capa, que permite realizar varias pasadas de render, pudiendo, de esta forma, aplicar al modelo una segunda textura mezclada con la principal o realizar un efecto de reflexión esférica. Uno de los principales avances de esta herramienta con respecto a otras existentes se encuentra en el apartado de animación. El renderizador desarrollado permite por un lado animación por transformación, consistente en la animación de mallas o grupos de vértices del modelo mediante el movimiento de una articulación asociada que determina su posición y rotación en cada frame de animación. Por otro lado se ha implementado un sistema de animación por muestreo de vértices mediante el cual se determina la posición de éstos en cada instante de la animación, generando frame a frame las poses que componen el movimiento (siendo este último método necesario cuando no se puede animar una malla por transformación). Un mismo modelo puede contener diferentes esqueletos, animados independientemente entre sí, y cada uno de ellos tener definidas varias costumbres de animación que correspondan a movimientos contextuales diferentes (andar, correr, saltar, etc). Además, el sistema permite extraer cualquier articulación para asociar su transformación a un objeto estático externo y que éste siga el movimiento de la animación, pudiendo así, por ejemplo, equipar un objeto en la mano de un personaje. Finalmente se han implementado varios efectos útiles en la creación de escenas tridimensionales, como el billboarding (tanto esférico como cilíndrico), que restringe la rotación de un modelo para que éste siempre mire a cámara y así poder emular la apariencia de un objeto tridimensional mediante una imagen plana, ahorrando geometría, o emplearlo para realizar efectos de partículas. Por otra parte se ha implementado un sistema de animación de texturas por subimágenes que permite generar efectos de movimiento mediante imágenes, sin necesidad de transformar geometría. ABSTRACT. The Nintendo DS portable console has received great interest within the independent developers’ community, with a huge homebrew scene. The 2D capabilities of this console are well known and used since most efforts of the amateur creators has been focused on this point. However its 3D engine (which handles with the representation of three-dimensional models) is not equally used. Therefore, in this project the main objective is to assess the Nintendo DS graphic capabilities. For this purpose, a library of functions in C programming language has been coded. This library allows the programmer to take advantage of the possibilities that the 3D area brings. This way the library can be used by the homebrew community as a tool to create 3D applications in an easy way, since it has been designed as a modular and accessible system. Regarding the render process, some conclusions have been drawn. First, it is possible to assign several colour components to the same vertex (material colour, reactive to the illumination, colour per vertex and texture colour), independently and simultaneously. This feature can be useful to apply certain effects on the model, such as pre-calculated illumination or the simulation of a texture using colour per vertex, providing video memory saving. Moreover, a multi-layer render system has been implemented. This system allows the programmer to issue several render passes on the same model. This new feature brings the possibility to apply to the model a second texture blended with the main one or simulate a spherical reflection effect. One of the main advances of this tool over existing ones consists of its animation system. The developed renderer includes, on the one hand, transform animation, which consists on animating a mesh or groups of vertices of the model by the movement of an associated joint. This joint determines position and rotation of the mesh at each frame of the animation. On the other hand, this tool also implements an animation system by vertex sampling, where the position of vertices is determined at every instant of the animation, generating the poses that build up the movement (the latter method is mandatory when a mesh cannot be animated by transform). A model can contain multiple skeletons, animated independently, each of them being defined with several animation customs, corresponding to different contextual movements (walk, run, jump, etc). Besides, the system allows extraction of information from any joint in order to associate its transform to a static external object, which will follow the movement of the animation. This way, any object could be equipped, for example, on the hand of a character. Finally, some useful effects for the creation of three-dimensional scenes have been implemented. These effects include billboarding (both spherical and cylindrical), which constraints the rotation of a model so it always looks on the camera's direction. This feature can provide the ability to emulate the appearance of a three-dimensional model through a flat image (saving geometry). It can also be helpful in the implementation of particle effects. Moreover, a texture animation system using sub-images has also been implemented. This system allows the generation of movement by using images as textures, without having to transform geometry.
Resumo:
The possibility of application of structural reliability theory to the computation of the safety margins of excavated tunnels is presented. After a brief description of the existing procedures and the limitations of the safety coefficients such as they are usually defined, the proposed limit states are precised as well as the random variables and the applied methodology. Also presented are simple examples, some of them based in actual cases, and to end, some conclusions are established the most important one being the probability of using the method to solve the inverse problem of identification.
Resumo:
With the advent of cloud computing, many applications have embraced the ensuing paradigm shift towards modern distributed key-value data stores, like HBase, in order to benefit from the elastic scalability on offer. However, many applications still hesitate to make the leap from the traditional relational database model simply because they cannot compromise on the standard transactional guarantees of atomicity, isolation, and durability. To get the best of both worlds, one option is to integrate an independent transaction management component with a distributed key-value store. In this paper, we discuss the implications of this approach for durability. In particular, if the transaction manager provides durability (e.g., through logging), then we can relax durability constraints in the key-value store. However, if a component fails (e.g., a client or a key-value server), then we need a coordinated recovery procedure to ensure that commits are persisted correctly. In our research, we integrate an independent transaction manager with HBase. Our main contribution is a failure recovery middleware for the integrated system, which tracks the progress of each commit as it is flushed down by the client and persisted within HBase, so that we can recover reliably from failures. During recovery, commits that were interrupted by the failure are replayed from the transaction management log. Importantly, the recovery process does not interrupt transaction processing on the available servers. Using a benchmark, we evaluate the impact of component failure, and subsequent recovery, on application performance.
Resumo:
El comercio electrónico ha experimentado un fuerte crecimiento en los últimos años, favorecido especialmente por el aumento de las tasas de penetración de Internet en todo el mundo. Sin embargo, no todos los países están evolucionando de la misma manera, con un espectro que va desde las naciones pioneras en desarrollo de tecnologías de la información y comunicaciones, que cuentan con una elevado porcentaje de internautas y de compradores online, hasta las rezagadas de rápida adopción en las que, pese a contar con una menor penetración de acceso, presentan una alta tasa de internautas compradores. Entre ambos extremos se encuentran países como España que, aunque alcanzó hace años una tasa considerable de penetración de usuarios de Internet, no ha conseguido una buena tasa de transformación de internautas en compradores. Pese a que el comercio electrónico ha experimentado importantes aumentos en los últimos años, sus tasas de crecimiento siguen estando por debajo de países con características socio-económicas similares. Para intentar conocer las razones que afectan a la adopción del comercio por parte de los compradores, la investigación científica del fenómeno ha empleado diferentes enfoques teóricos. De entre todos ellos ha destacado el uso de los modelos de adopción, proveniente de la literatura de adopción de sistemas de información en entornos organizativos. Estos modelos se basan en las percepciones de los compradores para determinar qué factores pueden predecir mejor la intención de compra y, en consecuencia, la conducta real de compra de los usuarios. Pese a que en los últimos años han proliferado los trabajos de investigación que aplican los modelos de adopción al comercio electrónico, casi todos tratan de validar sus hipótesis mediante el análisis de muestras de consumidores tratadas como un único conjunto, y del que se obtienen conclusiones generales. Sin embargo, desde el origen del marketing, y en especial a partir de la segunda mitad del siglo XIX, se considera que existen diferencias en el comportamiento de los consumidores, que pueden ser debidas a características demográficas, sociológicas o psicológicas. Estas diferencias se traducen en necesidades distintas, que sólo podrán ser satisfechas con una oferta adaptada por parte de los vendedores. Además, por contar el comercio electrónico con unas características particulares que lo diferencian del comercio tradicional –especialmente por la falta de contacto físico entre el comprador y el producto– a las diferencias en la adopción para cada consumidor se le añaden las diferencias derivadas del tipo de producto adquirido, que si bien habían sido consideradas en el canal físico, en el comercio electrónico cobran especial relevancia. A la vista de todo ello, el presente trabajo pretende abordar el estudio de los factores determinantes de la intención de compra y la conducta real de compra en comercio electrónico por parte del consumidor final español, teniendo en cuenta el tipo de segmento al que pertenezca dicho comprador y el tipo de producto considerado. Para ello, el trabajo contiene ocho apartados entre los que se encuentran cuatro bloques teóricos y tres bloques empíricos, además de las conclusiones. Estos bloques dan lugar a los siguientes ocho capítulos por orden de aparición en el trabajo: introducción, situación del comercio electrónico, modelos de adopción de tecnología, segmentación en comercio electrónico, diseño previo del trabajo empírico, diseño de la investigación, análisis de los resultados y conclusiones. El capítulo introductorio justifica la relevancia de la investigación, además de fijar los objetivos, la metodología y las fases seguidas para el desarrollo del trabajo. La justificación se complementa con el segundo capítulo, que cuenta con dos elementos principales: en primer lugar se define el concepto de comercio electrónico y se hace una breve retrospectiva desde sus orígenes hasta la situación actual en un contexto global; en segundo lugar, el análisis estudia la evolución del comercio electrónico en España, mostrando su desarrollo y situación presente a partir de sus principales indicadores. Este apartado no sólo permite conocer el contexto de la investigación, sino que además permite contrastar la relevancia de la muestra utilizada en el presente estudio con el perfil español respecto al comercio electrónico. Los capítulos tercero –modelos de adopción de tecnologías– y cuarto –segmentación en comercio electrónico– sientan las bases teóricas necesarias para abordar el estudio. En el capítulo tres se hace una revisión general de la literatura de modelos de adopción de tecnología y, en particular, de los modelos de adopción empleados en el ámbito del comercio electrónico. El resultado de dicha revisión deriva en la construcción de un modelo adaptado basado en los modelos UTAUT (Unified Theory of Acceptance and Use of Technology, Teoría unificada de la aceptación y el uso de la tecnología) y UTAUT2, combinado con dos factores específicos de adopción del comercio electrónico: el riesgo percibido y la confianza percibida. Por su parte, en el capítulo cuatro se revisan las metodologías de segmentación de clientes y productos empleadas en la literatura. De dicha revisión se obtienen un amplio conjunto de variables de las que finalmente se escogen nueve variables de clasificación que se consideran adecuadas tanto por su adaptación al contexto del comercio electrónico como por su adecuación a las características de la muestra empleada para validar el modelo. Las nueve variables se agrupan en tres conjuntos: variables de tipo socio-demográfico –género, edad, nivel de estudios, nivel de ingresos, tamaño de la unidad familiar y estado civil–, de comportamiento de compra – experiencia de compra por Internet y frecuencia de compra por Internet– y de tipo psicográfico –motivaciones de compra por Internet. La segunda parte del capítulo cuatro se dedica a la revisión de los criterios empleados en la literatura para la clasificación de los productos en el contexto del comercio electrónico. De dicha revisión se obtienen quince grupos de variables que pueden tomar un total de treinta y cuatro valores, lo que deriva en un elevado número de combinaciones posibles. Sin embargo, pese a haber sido utilizados en el contexto del comercio electrónico, no en todos los casos se ha comprobado la influencia de dichas variables respecto a la intención de compra o la conducta real de compra por Internet; por este motivo, y con el objetivo de definir una clasificación robusta y abordable de tipos de productos, en el capitulo cinco se lleva a cabo una validación de las variables de clasificación de productos mediante un experimento previo con 207 muestras. Seleccionando sólo aquellas variables objetivas que no dependan de la interpretación personal del consumidores y que determinen grupos significativamente distintos respecto a la intención y conducta de compra de los consumidores, se obtiene un modelo de dos variables que combinadas dan lugar a cuatro tipos de productos: bien digital, bien no digital, servicio digital y servicio no digital. Definidos el modelo de adopción y los criterios de segmentación de consumidores y productos, en el sexto capítulo se desarrolla el modelo completo de investigación formado por un conjunto de hipótesis obtenidas de la revisión de la literatura de los capítulos anteriores, en las que se definen las hipótesis de investigación con respecto a las influencias esperadas de las variables de segmentación sobre las relaciones del modelo de adopción. Este modelo confiere a la investigación un carácter social y de tipo fundamentalmente exploratorio, en el que en muchos casos ni siquiera se han encontrado evidencias empíricas previas que permitan el enunciado de hipótesis sobre la influencia de determinadas variables de segmentación. El capítulo seis contiene además la descripción del instrumento de medida empleado en la investigación, conformado por un total de 125 preguntas y sus correspondientes escalas de medida, así como la descripción de la muestra representativa empleada en la validación del modelo, compuesta por un grupo de 817 personas españolas o residentes en España. El capítulo siete constituye el núcleo del análisis empírico del trabajo de investigación, que se compone de dos elementos fundamentales. Primeramente se describen las técnicas estadísticas aplicadas para el estudio de los datos que, dada la complejidad del análisis, se dividen en tres grupos fundamentales: Método de mínimos cuadrados parciales (PLS, Partial Least Squares): herramienta estadística de análisis multivariante con capacidad de análisis predictivo que se emplea en la determinación de las relaciones estructurales de los modelos propuestos. Análisis multigrupo: conjunto de técnicas que permiten comparar los resultados obtenidos con el método PLS entre dos o más grupos derivados del uso de una o más variables de segmentación. En este caso se emplean cinco métodos de comparación, lo que permite asimismo comparar los rendimientos de cada uno de los métodos. Determinación de segmentos no identificados a priori: en el caso de algunas de las variables de segmentación no existe un criterio de clasificación definido a priori, sino que se obtiene a partir de la aplicación de técnicas estadísticas de clasificación. En este caso se emplean dos técnicas fundamentales: análisis de componentes principales –dado el elevado número de variables empleadas para la clasificación– y análisis clúster –del que se combina una técnica jerárquica que calcula el número óptimo de segmentos, con una técnica por etapas que es más eficiente en la clasificación, pero exige conocer el número de clústeres a priori. La aplicación de dichas técnicas estadísticas sobre los modelos resultantes de considerar los distintos criterios de segmentación, tanto de clientes como de productos, da lugar al análisis de un total de 128 modelos de adopción de comercio electrónico y 65 comparaciones multigrupo, cuyos resultados y principales consideraciones son elaboradas a lo largo del capítulo. Para concluir, el capítulo ocho recoge las conclusiones del trabajo divididas en cuatro partes diferenciadas. En primer lugar se examina el grado de alcance de los objetivos planteados al inicio de la investigación; después se desarrollan las principales contribuciones que este trabajo aporta tanto desde el punto de vista metodológico, como desde los punto de vista teórico y práctico; en tercer lugar, se profundiza en las conclusiones derivadas del estudio empírico, que se clasifican según los criterios de segmentación empleados, y que combinan resultados confirmatorios y exploratorios; por último, el trabajo recopila las principales limitaciones de la investigación, tanto de carácter teórico como empírico, así como aquellos aspectos que no habiendo podido plantearse dentro del contexto de este estudio, o como consecuencia de los resultados alcanzados, se presentan como líneas futuras de investigación. ABSTRACT Favoured by an increase of Internet penetration rates across the globe, electronic commerce has experienced a rapid growth over the last few years. Nevertheless, adoption of electronic commerce has differed from one country to another. On one hand, it has been observed that countries leading e-commerce adoption have a large percentage of Internet users as well as of online purchasers; on the other hand, other markets, despite having a low percentage of Internet users, show a high percentage of online buyers. Halfway between those two ends of the spectrum, we find countries such as Spain which, despite having moderately high Internet penetration rates and similar socio-economic characteristics as some of the leading countries, have failed to turn Internet users into active online buyers. Several theoretical approaches have been taken in an attempt to define the factors that influence the use of electronic commerce systems by customers. One of the betterknown frameworks to characterize adoption factors is the acceptance modelling theory, which is derived from the information systems adoption in organizational environments. These models are based on individual perceptions on which factors determine purchase intention, as a mean to explain users’ actual purchasing behaviour. Even though research on electronic commerce adoption models has increased in terms of volume and scope over the last years, the majority of studies validate their hypothesis by using a single sample of consumers from which they obtain general conclusions. Nevertheless, since the birth of marketing, and more specifically from the second half of the 19th century, differences in consumer behaviour owing to demographic, sociologic and psychological characteristics have also been taken into account. And such differences are generally translated into different needs that can only be satisfied when sellers adapt their offer to their target market. Electronic commerce has a number of features that makes it different when compared to traditional commerce; the best example of this is the lack of physical contact between customers and products, and between customers and vendors. Other than that, some differences that depend on the type of product may also play an important role in electronic commerce. From all the above, the present research aims to address the study of the main factors influencing purchase intention and actual purchase behaviour in electronic commerce by Spanish end-consumers, taking into consideration both the customer group to which they belong and the type of product being purchased. In order to achieve this goal, this Thesis is structured in eight chapters: four theoretical sections, three empirical blocks and a final section summarizing the conclusions derived from the research. The chapters are arranged in sequence as follows: introduction, current state of electronic commerce, technology adoption models, electronic commerce segmentation, preliminary design of the empirical work, research design, data analysis and results, and conclusions. The introductory chapter offers a detailed justification of the relevance of this study in the context of e-commerce adoption research; it also sets out the objectives, methodology and research stages. The second chapter further expands and complements the introductory chapter, focusing on two elements: the concept of electronic commerce and its evolution from a general point of view, and the evolution of electronic commerce in Spain and main indicators of adoption. This section is intended to allow the reader to understand the research context, and also to serve as a basis to justify the relevance and representativeness of the sample used in this study. Chapters three (technology acceptance models) and four (segmentation in electronic commerce) set the theoretical foundations for the study. Chapter 3 presents a thorough literature review of technology adoption modelling, focusing on previous studies on electronic commerce acceptance. As a result of the literature review, the research framework is built upon a model based on UTAUT (Unified Theory of Acceptance and Use of Technology) and its evolution, UTAUT2, including two specific electronic commerce adoption factors: perceived risk and perceived trust. Chapter 4 deals with client and product segmentation methodologies used by experts. From the literature review, a wide range of classification variables is studied, and a shortlist of nine classification variables has been selected for inclusion in the research. The criteria for variable selection were their adequacy to electronic commerce characteristics, as well as adequacy to the sample characteristics. The nine variables have been classified in three groups: socio-demographic (gender, age, education level, income, family size and relationship status), behavioural (experience in electronic commerce and frequency of purchase) and psychographic (online purchase motivations) variables. The second half of chapter 4 is devoted to a review of the product classification criteria in electronic commerce. The review has led to the identification of a final set of fifteen groups of variables, whose combination offered a total of thirty-four possible outputs. However, due to the lack of empirical evidence in the context of electronic commerce, further investigation on the validity of this set of product classifications was deemed necessary. For this reason, chapter 5 proposes an empirical study to test the different product classification variables with 207 samples. A selection of product classifications including only those variables that are objective, able to identify distinct groups and not dependent on consumers’ point of view, led to a final classification of products which consisted on two groups of variables for the final empirical study. The combination of these two groups gave rise to four types of products: digital and non-digital goods, and digital and non-digital services. Chapter six characterizes the research –social, exploratory research– and presents the final research model and research hypotheses. The exploratory nature of the research becomes patent in instances where no prior empirical evidence on the influence of certain segmentation variables was found. Chapter six also includes the description of the measurement instrument used in the research, consisting of a total of 125 questions –and the measurement scales associated to each of them– as well as the description of the sample used for model validation (consisting of 817 Spanish residents). Chapter 7 is the core of the empirical analysis performed to validate the research model, and it is divided into two separate parts: description of the statistical techniques used for data analysis, and actual data analysis and results. The first part is structured in three different blocks: Partial Least Squares Method (PLS): the multi-variable analysis is a statistical method used to determine structural relationships of models and their predictive validity; Multi-group analysis: a set of techniques that allow comparing the outcomes of PLS analysis between two or more groups, by using one or more segmentation variables. More specifically, five comparison methods were used, which additionally gives the opportunity to assess the efficiency of each method. Determination of a priori undefined segments: in some cases, classification criteria did not necessarily exist for some segmentation variables, such as customer motivations. In these cases, the application of statistical classification techniques is required. For this study, two main classification techniques were used sequentially: principal component factor analysis –in order to reduce the number of variables– and cluster analysis. The application of the statistical methods to the models derived from the inclusion of the various segmentation criteria –for both clients and products–, led to the analysis of 128 different electronic commerce adoption models and 65 multi group comparisons. Finally, chapter 8 summarizes the conclusions from the research, divided into four parts: first, an assessment of the degree of achievement of the different research objectives is offered; then, methodological, theoretical and practical implications of the research are drawn; this is followed by a discussion on the results from the empirical study –based on the segmentation criteria for the research–; fourth, and last, the main limitations of the research –both empirical and theoretical– as well as future avenues of research are detailed.
Resumo:
El uso de refuerzos NSM‐FRP en estructuras de hormigón armado se ha incrementado considerablemente en los últimos años como método de refuerzo estructural. Los ensayos de arrancamiento en viga de los refuerzos NSM‐FRP permiten el estudio del comportamiento de la unión pegada. El principal objetivo del presente trabajo aborda la simulación numérica de este tipo de ensayos, con el propósito de caracterizar correctamente la adherencia entre las barras de NSM‐FRP y el hormigón. En una fase inicial se simuló un modelo bidimensional para conseguir evaluar y verificar el comportamiento de los elementos cohesivos y ver su comportamiento primero ante diferentes modelos de material y segundo ante un modo mixto de fallo, debido a la aplicación simultanea de carga axial y carga cortante. En una segunda fase se creó un modelo tridimensional para estudiar el arrancamiento de una barra de material compuesto insertada en hormigón, creando un modelo de material de hormigón y viendo el comportamiento cualitativo del sistema ante variaciones en los parámetros de los diferentes materiales. En la tercera fase, la más importante del presente trabajo, se abordó la simulación numérica del ensayo de arrancamiento en viga. Se simularon todos los componentes del ensayo y se evaluaron diferentes alternativas para representar la interfase NSM‐FRP ‐ hormigón, usando elementos cohesivos y diferentes distribuciones de los mismos en la interfase. Para conseguir representar lo más fielmente posible las condiciones del ensayo, se diseñó también un controlador PID que permite realizar las simulaciones numéricas mediante un control en desplazamientos, lo cual permite capturar más correctamente el comportamiento de reblandecimiento de la unión pegada. El controlador PID aplica técnicas de ingeniería de control para conseguir calcular a priori la amplitud necesaria del desplazamiento impuesto que provoque una evolución establecida en una variable interna del sistema. La variable usada para correlacionar los ensayos es la diferencia en desplazamientos entre dos puntos y se escoge una evolución lineal de la misma, pero en la tesis también se exponen los resultados de escoger otras posibles variables internas con diferentes evoluciones. Se compararon las simulaciones numéricas con resultados de mediciones experimentales previamente publicadas. Los resultados carga‐deslizamiento obtenidos encajan bien con los datos experimentales. El modelo propuesto es también capaz de predecir el modo de fallo en la interfase NSM‐FRP ‐ hormigón. Finalmente, también se han llevado a cabo estudios paramétricos, para evaluar la influencia de cada parámetro en los resultados. También se realizó un estudio cualitativo de cómo se comporta la unión pegada en cada momento de la simulación, mediante el uso macros y gráficas tridimensionales, para conseguir una mejor visualización y facilitar el análisis de los resultados. ABSTRACT The use of near‐surface mounted FRP reinforcement in reinforced concrete structures has seen a considerable increase in recent years as a strengthening method. Beam pull‐out tests for near‐surface reinforcement allow obtaining the local bond‐slip behavior of a bonded joint. The main objective of the current work deals with the three‐dimensional modeling of this kind of test with the purpose of characterizing suitably the mechanics of bond between FRP rods and concrete. In an initial stage, a two bidimensional in order to evaluate and to verify the behavior of the cohesive elements. Its behavior was evaluated first testing different material models and second testing the behavior when mixed mode failure appears, due to simultaneous axial and shear load. In a second stage a tridimensional model was created in order to study the pull‐out of an inserted beam of composite material in concrete. A concrete material model was created and the influence of each material parameter was studied qualitatively. The third part, the most relevant of the present work, the numerical simulation of the Beam Pull‐Out test was faced. All the parts of the Beam Pull‐Out test were included inthe simulation and different alternatives to represent the FRP bar – concrete interface have been evaluated, using cohesive elements and different distributions of them. In order to reproduce the test conditions more reliably, a PID controller has also been designed to conduct suitably the numerical tests in order to properly capture the softening branch of the load‐slip behaviour. The PID controller applies control techniques to calculate a priori the necessary amplitude of the load in order to achieve a given evolution through the simulation of an internal variable previously chosen. The variable used in order to correlate the simulation with the test results is the difference in displacements between two points and a linear evolution was chosen, but in the thesis the results of choosing other possible internal variables with different evolutions are also shown. The numerical FE simulations were compared with experimental measurements previously published. Load‐slip predictions compare well with the corresponding experimental data. The proposed model is also able to predict the failure mode at the FRP‐concrete interface. Some parametric studies have also been carried out, in order to evaluate the influence of each material parameter in the results. A qualitative study of the behaviour of the joint was also performed, using the results of the numeric simulations and through the use of macros and 3D graphs, the tensional state of each point of the joint can be visualized in each moment of the simulation.
Resumo:
La aparición de varias fotografías del Café Samt & Seide no publicadas hasta 2008 en las que se observaba la luz natural de la exposición; los planos a escala de la nave donde se realizó la exposición textil; y los croquis inéditos de la instalación de la seda localizados durante el transcurso de la Tesis Doctoral por el doctorando en el plano de la Sala de Cristal, han sido las principales aportaciones de la búsqueda documental que ha tenido por objeto el conocimiento espacial e interpretación gráfica del proyecto expositivo realizada durante el transcurso de la Tesis Doctoral para poder profundizar en el alcance de la propuesta protoarquitectónica y, a través de ella, en la obra y pensamiento de Mies van der Rohe. Material, espacio y color son elementos propuestos como capítulos que estructuran la disertación y que son empleados por Mies van der Rohe como factores de una nueva expresión espacial en la exposiciones como ensayos identificados con su idea de arquitectura. En el Café Samt & Seide, Mies van der Rohe y Lilly Reich proponen una sensibilidad en el empleo del material y color trasladada al espacio mediante una atmósfera rítmica y en movimiento de superficies abstraídas e iluminadas. La estructura visual de opuestos nace del doble material textil de la exposición desplegándose en un orden espacial y constructivo de elementos independientes iniciado en los apartamentos de la Colonia Weissenhof y Sala de Cristal de Stuttgart 1926-1927, y que será trasladado desde los espacios experimentales de 1927 a las series de mármoles y cristales del Pabellón Alemán 1928-1929. La síntesis intelectual (arte-ciencia-filosofía) guía el proceso de formalización y la técnica en una intención que será trasladada a su arquitectura en el empleo de la tecnología. La creatividad y repercusión de las vanguardias en la instalación muestra la voluntad integradora de la exposición y arquitectura como arte total. Los aspectos interpretativos de las artes plásticas, visuales y musicales se integran como criterios y sensibilidades aplicadas a las estructuras yuxtapuestas material, espacial y de color. Modernidad y tradición tectónica convergen en este espacio construido cuyas superficies cubren un armazón metálico oculto. La construcción mínima textil será incorporada como idea de forma en la futura construcción del pilar metálico, la pared flotante de sus viviendas y pabellones abiertos a la naturaleza, y la gran fachada tecnológica del espacio público de sus agrupaciones en la ciudad. El espacio total del Café Samt & Seide dentro de la gran nave de Berlín anticipa las exposiciones artísticas e industriales realizadas junto a Lilly Reich en el interior de las espaciosas salas de estructura metálica como instalaciones conceptuales de gravedad y luz antecedentes de los pabellones de grandes dimensiones y espacio universal. Arquitectura, construcción y lugar son integrados en la instalación por el principio estructural como propuesta de una idea de arquitectura que es desarrollada en las exposiciones. Oscilador y bastidor son construcciones escaladas dentro de la gran nave iluminada, expresando el conjunto un orden de partes que reflejan un todo integrado en la naturaleza y lo universal. Las múltiples relaciones espaciales, constructivas y conceptuales de la exposición con su arquitectura desvelan al Café Samt & Seide como un exponente y antecedente de su obra e idea a la que definió como una propuesta estructural. La estructura, entendida como un conjunto de valores culturales y medios técnicos, es el concepto con el que Mies van der Rohe identifica la síntesis intelectualtecnológica de su tiempo, constituyendo la finalidad de su expresión material, espacial y de color. ABSTRACT The unpublished pictures of the Café Samt & Seide appeared in 2008 in which the natural light in the exhibition can be seen; the scaled plan of the nave where the textile exhibition was held; and the unpublished sketches of the silk exhibition located by the doctoral candidate while preparing his dissertation have been the main input of the data search aiming at a better understanding of the space and a graphic interpretation of the exhibition project made by the doctoral candidate during the dissertation as a basic requirement to deepen in the scope of this protoarchitectural proposal and, though it, into Mies van der Rohe’s work and thinking. Material, space and colour are the elements put forward as the chapters structuring this dissertation and were used by Mies van der Rohe as factors of a new spatial expression in expositions as tests identified with his idea of architecture. In Café Samt & Seide, Mies van der Rohe and Lilly Reich present material and colour sensitivity transferred to space though a rhythmic and moving atmosphere made up by abstracted and lit surfaces. Such a visual grammar and oppositions unfolds into a space and constructive order of independent elements originated with the apartments of the Weissenhof Colony and Glass Room in Stuttgart 1926-1927, and which were transferred these test spaces 1927 to the series of marble and glass in the German Pavilion 1928-1929. The intellectual and formal will (art-science-philosophy) guides the technical expression, which is transferred to architecture through technology. The creativity and impact of avant-gardes in the installation reflects exhibition and architecture’s will to integrate as a Total Art. The interpretative aspects of plastic, visual and musical arts are part of a sensitivity applied to the overlapped structures of material, space and colour. Tectonic modernity and tradition converge in this space built with surfaces covering a hidden metal framework. The minimal textile construction is integrated as a shape idea in his subsequent construction of the metal pillar, floating wall in his housing and pavilions open to nature, and the great technological façade of the public space of his urban clusters. The total space of the exhibition inside the great nave in Berlin anticipates the artistic and industrial exhibitions done together with Lilly Reich inside the spacious Halls built with exposed metal structures as conceptual installation of gravity and light prior to the big-dimensioned pavilions and universal space. Architecture, construction and place are integrated by the structural principle. Oscillator and framework are scaled constructions integrated inside the great, lit nave, and the whole conveys order of its parts reflecting a whole integrated in nature and the universal. The many conceptual, space and constructive link of the textile exhibition to his European and American architecture add a greater knowledge of the time when Mies van der Rohe stated he gained a “new awareness” 1926, revealing Café Samt & Seide as a valuable example and the experimental precursor of his work and idea defined by himself as a “structural proposal”. The structure, understood as a set of cultural and material values expressed by architecture, is the notion used by Mies van der Rohe to identify the intellectual-technological synthesis as the idea of a time and which is the goal of its material, space and colour expression.
Resumo:
La producción y el transporte a obra de los productos cerámicos de carácter estructural suponen un importante consumo energético, que conlleva la emisión de gases de efecto invernadero a la atmósfera. El objetivo de la presente Tesis es demostrar la existencia de importantes diferencias en el valor del impacto ambiental asociado a los productos de cerámica estructural fabricados en España, y que estas diferencias podrían quedar cuantificadas y reflejadas mediante un análisis de Huella de Carbono y de la Energía Embebida. Se parte de la inexistencia en España, de base de datos contrastada y consensuada, que establezca las cargas medioambientales en función del tipo de producto cerámico a utilizar. Se realiza en la primera parte del estudio una revisión del estado actual de la Huella de Carbono y la Energía Embebida en el campo de los materiales de construcción, y más concretamente en el sector de la cerámica estructural, que sirve para acotar los límites del estudio y justificar el objeto de la Tesis. La investigación se acota a las etapas de producción y transporte a obra de los productos (estudio cuna a puerta con opciones), al considerar que son éstas, a priori, las que tienen una mayor incidencia en el comportamiento ambiental del producto. Siguiendo los pasos definidos en la normativa aplicable (definición del mapa de procesos – límites y alcance – inventario – cálculo y evaluación), se establece un método específico de identificación y cuantificación de las variables que determinan la Huella de Carbono y Energía Embebida de los productos cerámicos, en función de la tipología de producto. La información necesaria (inventario) se obtiene principalmente con recogida de datos “in situ” de fábricas de productos cerámicos, lo que garantiza que la información tratada en este estudio es de primer nivel. La información se complementa/contrasta con fuentes bibliográficas. Se determinan 6 variables con influencia global en el impacto ambiental, 44 variables principales y 39 secundarias, estableciendo las fórmulas de cálculo a partir de dichas variables. Los resultados de cálculo y evaluación determinan que, para unas mismas condiciones de fabricación, las diferencias entre productos cerámicos llegan hasta un 27% para la Huella de Carbono y un 35% para Energía Embebida. La relevancia que alcanza el impacto asociado al transporte del producto a obra puede llegar hasta un 40% del total. El método de cálculo y las fórmulas desarrolladas se integran en una hoja de cálculo, para el cálculo de Huella de Carbono y Energía Embebida de los productos cerámicos, que permite, a su vez, conocer la repercusión medioambiental que tiene la introducción de modificaciones o innovaciones en el proceso de producción o transporte a obra. Así mismo, el trabajo desarrollado ha servido para poner en relieve una serie de problemas y falta de información en el campo de la cerámica estructural y el medioambiente que pueden ser objeto de futuras líneas de investigación, tanto para el sector de la edificación como para la comunidad científica, pudiendo implementar la metodología desarrollada en otras investigaciones. Se considera que la investigación realizada y sus resultados suponen una aportación importante para conocer y reducir el impacto ambiental de los edificios, desde la perspectiva del ciclo de vida y considerando que el impacto ambiental de un edificio comienza desde el momento en que se extraen las materias primas para la fabricación de los materiales con los que se construyen los edificios. ABSTRACT The production and transport of structural ceramic products involves an important energy consumption, which leads to the emission of greenhouse gases into the atmosphere. The objective of the research is to demonstrate the existence of significant differences in the value of the environmental impact of structural ceramic products manufactured in Spain, and these differences could be quantified by the Carbon Footprint and Embodied Energy. It starts from the absence in Spain, of contrasted and agreed databases that establish the environmental loads depending on the type of ceramic product. In the first part of the study reviews the current state of the Carbon Footprint and Embedded Energy in the field of building materials, and more specifically in the field of structural ceramics, which serves to limit the scope of the study and justify the purpose of this Thesis. The Research is bounded to production and transportation stages of (cradle to gate with options), considering they are the stages that have a greater impact on the environmental performance of the product. Following the steps defined in applicable rules (definition of process map - boundaries and scope – inventory analysis- calculation and impact assessment), it sets a specific method for the identification and quantification of the variables that determine the Carbon Footprint and Embedded Energy of structural ceramic products, depending on the type of product. The information (inventory) is given mainly with a data collection in ceramic factories (and in a consultation with the manufactures of the products), ensuring that the information handled in this Thesis is a first rate data. It is established 6 variables with a global influence in the environmental impact, 44 primary and 39 secondary variables, establishing calculation formula from these variables. The results of calculation and assessment determined that, for same manufacturing conditions, the differences between ceramic products reach 27% for Carbon Footprint and 35% for Embodied Energy. The relevance that reaches the impact of transport can reach 40% of the total. The method of calculation and formulas developed are integrated into a simple calculation tool, excel base, to calculate the Carbon Footprint and Embodied Energy of structural ceramic products, which allows, know the environmental impact of changes or innovations in the production process or transport to work. The work also has served to find a problems and gaps in the field of structural ceramics and the environment that may well be the subject of future research, both for the building sector to the scientific community, implementing the methodology developed in other research. It is considered that the research and its results represent an important contribution to understand and reduce the environmental impact of buildings from the perspective of the life cycle, considering that the environmental impact of a building starts from the time that the raw materials are extracted for the manufacture of building materials.
Resumo:
Una apropiada evaluación de los márgenes de seguridad de una instalación nuclear, por ejemplo, una central nuclear, tiene en cuenta todas las incertidumbres que afectan a los cálculos de diseño, funcionanmiento y respuesta ante accidentes de dicha instalación. Una fuente de incertidumbre son los datos nucleares, que afectan a los cálculos neutrónicos, de quemado de combustible o activación de materiales. Estos cálculos permiten la evaluación de las funciones respuesta esenciales para el funcionamiento correcto durante operación, y también durante accidente. Ejemplos de esas respuestas son el factor de multiplicación neutrónica o el calor residual después del disparo del reactor. Por tanto, es necesario evaluar el impacto de dichas incertidumbres en estos cálculos. Para poder realizar los cálculos de propagación de incertidumbres, es necesario implementar metodologías que sean capaces de evaluar el impacto de las incertidumbres de estos datos nucleares. Pero también es necesario conocer los datos de incertidumbres disponibles para ser capaces de manejarlos. Actualmente, se están invirtiendo grandes esfuerzos en mejorar la capacidad de analizar, manejar y producir datos de incertidumbres, en especial para isótopos importantes en reactores avanzados. A su vez, nuevos programas/códigos están siendo desarrollados e implementados para poder usar dichos datos y analizar su impacto. Todos estos puntos son parte de los objetivos del proyecto europeo ANDES, el cual ha dado el marco de trabajo para el desarrollo de esta tesis doctoral. Por tanto, primero se ha llevado a cabo una revisión del estado del arte de los datos nucleares y sus incertidumbres, centrándose en los tres tipos de datos: de decaimiento, de rendimientos de fisión y de secciones eficaces. A su vez, se ha realizado una revisión del estado del arte de las metodologías para la propagación de incertidumbre de estos datos nucleares. Dentro del Departamento de Ingeniería Nuclear (DIN) se propuso una metodología para la propagación de incertidumbres en cálculos de evolución isotópica, el Método Híbrido. Esta metodología se ha tomado como punto de partida para esta tesis, implementando y desarrollando dicha metodología, así como extendiendo sus capacidades. Se han analizado sus ventajas, inconvenientes y limitaciones. El Método Híbrido se utiliza en conjunto con el código de evolución isotópica ACAB, y se basa en el muestreo por Monte Carlo de los datos nucleares con incertidumbre. En esta metodología, se presentan diferentes aproximaciones según la estructura de grupos de energía de las secciones eficaces: en un grupo, en un grupo con muestreo correlacionado y en multigrupos. Se han desarrollado diferentes secuencias para usar distintas librerías de datos nucleares almacenadas en diferentes formatos: ENDF-6 (para las librerías evaluadas), COVERX (para las librerías en multigrupos de SCALE) y EAF (para las librerías de activación). Gracias a la revisión del estado del arte de los datos nucleares de los rendimientos de fisión se ha identificado la falta de una información sobre sus incertidumbres, en concreto, de matrices de covarianza completas. Además, visto el renovado interés por parte de la comunidad internacional, a través del grupo de trabajo internacional de cooperación para evaluación de datos nucleares (WPEC) dedicado a la evaluación de las necesidades de mejora de datos nucleares mediante el subgrupo 37 (SG37), se ha llevado a cabo una revisión de las metodologías para generar datos de covarianza. Se ha seleccionando la actualización Bayesiana/GLS para su implementación, y de esta forma, dar una respuesta a dicha falta de matrices completas para rendimientos de fisión. Una vez que el Método Híbrido ha sido implementado, desarrollado y extendido, junto con la capacidad de generar matrices de covarianza completas para los rendimientos de fisión, se han estudiado diferentes aplicaciones nucleares. Primero, se estudia el calor residual tras un pulso de fisión, debido a su importancia para cualquier evento después de la parada/disparo del reactor. Además, se trata de un ejercicio claro para ver la importancia de las incertidumbres de datos de decaimiento y de rendimientos de fisión junto con las nuevas matrices completas de covarianza. Se han estudiado dos ciclos de combustible de reactores avanzados: el de la instalación europea para transmutación industrial (EFIT) y el del reactor rápido de sodio europeo (ESFR), en los cuales se han analizado el impacto de las incertidumbres de los datos nucleares en la composición isotópica, calor residual y radiotoxicidad. Se han utilizado diferentes librerías de datos nucleares en los estudios antreriores, comparando de esta forma el impacto de sus incertidumbres. A su vez, mediante dichos estudios, se han comparando las distintas aproximaciones del Método Híbrido y otras metodologías para la porpagación de incertidumbres de datos nucleares: Total Monte Carlo (TMC), desarrollada en NRG por A.J. Koning y D. Rochman, y NUDUNA, desarrollada en AREVA GmbH por O. Buss y A. Hoefer. Estas comparaciones demostrarán las ventajas del Método Híbrido, además de revelar sus limitaciones y su rango de aplicación. ABSTRACT For an adequate assessment of safety margins of nuclear facilities, e.g. nuclear power plants, it is necessary to consider all possible uncertainties that affect their design, performance and possible accidents. Nuclear data are a source of uncertainty that are involved in neutronics, fuel depletion and activation calculations. These calculations can predict critical response functions during operation and in the event of accident, such as decay heat and neutron multiplication factor. Thus, the impact of nuclear data uncertainties on these response functions needs to be addressed for a proper evaluation of the safety margins. Methodologies for performing uncertainty propagation calculations need to be implemented in order to analyse the impact of nuclear data uncertainties. Nevertheless, it is necessary to understand the current status of nuclear data and their uncertainties, in order to be able to handle this type of data. Great eórts are underway to enhance the European capability to analyse/process/produce covariance data, especially for isotopes which are of importance for advanced reactors. At the same time, new methodologies/codes are being developed and implemented for using and evaluating the impact of uncertainty data. These were the objectives of the European ANDES (Accurate Nuclear Data for nuclear Energy Sustainability) project, which provided a framework for the development of this PhD Thesis. Accordingly, first a review of the state-of-the-art of nuclear data and their uncertainties is conducted, focusing on the three kinds of data: decay, fission yields and cross sections. A review of the current methodologies for propagating nuclear data uncertainties is also performed. The Nuclear Engineering Department of UPM has proposed a methodology for propagating uncertainties in depletion calculations, the Hybrid Method, which has been taken as the starting point of this thesis. This methodology has been implemented, developed and extended, and its advantages, drawbacks and limitations have been analysed. It is used in conjunction with the ACAB depletion code, and is based on Monte Carlo sampling of variables with uncertainties. Different approaches are presented depending on cross section energy-structure: one-group, one-group with correlated sampling and multi-group. Differences and applicability criteria are presented. Sequences have been developed for using different nuclear data libraries in different storing-formats: ENDF-6 (for evaluated libraries) and COVERX (for multi-group libraries of SCALE), as well as EAF format (for activation libraries). A revision of the state-of-the-art of fission yield data shows inconsistencies in uncertainty data, specifically with regard to complete covariance matrices. Furthermore, the international community has expressed a renewed interest in the issue through the Working Party on International Nuclear Data Evaluation Co-operation (WPEC) with the Subgroup (SG37), which is dedicated to assessing the need to have complete nuclear data. This gives rise to this review of the state-of-the-art of methodologies for generating covariance data for fission yields. Bayesian/generalised least square (GLS) updating sequence has been selected and implemented to answer to this need. Once the Hybrid Method has been implemented, developed and extended, along with fission yield covariance generation capability, different applications are studied. The Fission Pulse Decay Heat problem is tackled first because of its importance during events after shutdown and because it is a clean exercise for showing the impact and importance of decay and fission yield data uncertainties in conjunction with the new covariance data. Two fuel cycles of advanced reactors are studied: the European Facility for Industrial Transmutation (EFIT) and the European Sodium Fast Reactor (ESFR), and response function uncertainties such as isotopic composition, decay heat and radiotoxicity are addressed. Different nuclear data libraries are used and compared. These applications serve as frameworks for comparing the different approaches of the Hybrid Method, and also for comparing with other methodologies: Total Monte Carlo (TMC), developed at NRG by A.J. Koning and D. Rochman, and NUDUNA, developed at AREVA GmbH by O. Buss and A. Hoefer. These comparisons reveal the advantages, limitations and the range of application of the Hybrid Method.
Resumo:
Over the past few years, the common practice within air traffic management has been that commercial aircraft fly by following a set of predefined routes to reach their destination. Currently, aircraft operators are requesting more flexibility to fly according to their prefer- ences, in order to achieve their business objectives. Due to this reason, much research effort is being invested in developing different techniques which evaluate aircraft optimal trajectory and traffic synchronisation. Also, the inefficient use of the airspace using barometric altitude overall in the landing and takeoff phases or in Continuous Descent Approach (CDA) trajectories where currently it is necessary introduce the necessary reference setting (QNH or QFE). To solve this problem and to permit a better airspace management born the interest of this research. Where the main goals will be to evaluate the impact, weakness and strength of the use of geometrical altitude instead of the use of barometric altitude. Moreover, this dissertation propose the design a simplified trajectory simulator which is able to predict aircraft trajectories. The model is based on a three degrees of freedom aircraft point mass model that can adapt aircraft performance data from Base of Aircraft Data, and meteorological information. A feature of this trajectory simulator is to support the improvement of the strategic and pre-tactical trajectory planning in the future Air Traffic Management. To this end, the error of the tool (aircraft Trajectory Simulator) is measured by comparing its performance variables with actual flown trajectories obtained from Flight Data Recorder information. The trajectory simulator is validated by analysing the performance of different type of aircraft and considering different routes. A fuel consumption estimation error was identified and a correction is proposed for each type of aircraft model. In the future Air Traffic Management (ATM) system, the trajectory becomes the fundamental element of a new set of operating procedures collectively referred to as Trajectory-Based Operations (TBO). Thus, governmental institutions, academia, and industry have shown a renewed interest for the application of trajectory optimisation techniques in com- mercial aviation. The trajectory optimisation problem can be solved using optimal control methods. In this research we present and discuss the existing methods for solving optimal control problems focusing on direct collocation, which has received recent attention by the scientific community. In particular, two families of collocation methods are analysed, i.e., Hermite-Legendre-Gauss-Lobatto collocation and the pseudospectral collocation. They are first compared based on a benchmark case study: the minimum fuel trajectory problem with fixed arrival time. For the sake of scalability to more realistic problems, the different meth- ods are also tested based on a real Airbus 319 El Cairo-Madrid flight. Results show that pseudospectral collocation, which has shown to be numerically more accurate and computa- tionally much faster, is suitable for the type of problems arising in trajectory optimisation with application to ATM. Fast and accurate optimal trajectory can contribute properly to achieve the new challenges of the future ATM. As atmosphere uncertainties are one of the most important issues in the trajectory plan- ning, the final objective of this dissertation is to have a magnitude order of how different is the fuel consumption under different atmosphere condition. Is important to note that in the strategic phase planning the optimal trajectories are determined by meteorological predictions which differ from the moment of the flight. The optimal trajectories have shown savings of at least 500 [kg] in the majority of the atmosphere condition (different pressure, and temperature at Mean Sea Level, and different lapse rate temperature) with respect to the conventional procedure simulated at the same atmosphere condition.This results show that the implementation of optimal profiles are beneficial under the current Air traffic Management (ATM).
Resumo:
Las rápidas y continuas transformaciones urbanas que experimentan las ciudades actuales han generado importantes cambios en la forma en que se vive, experimenta y percibe la vida en ellas. Estos procesos de transformación, a veces fruto del rápido crecimiento de los entornos urbanos, de su heterogeneidad, de sus dinámicas económicas, de la confrontación de las diferencias sociales de los habitantes o simplemente producto de nuevos usos en los entornos, han propiciado un creciente interés por comprender el efecto que un determinado contexto urbano tiene sobre el individuo y viceversa. O dicho de forma más general, se ha buscado comprender la relación entre el ser humano y el entorno. Así, más recientemente, la atención de muchos estudios se ha posado también en los patrones de uso de los espacios, los cuales van acompañados de una infinidad de cogniciones y valoraciones surgidas en los residentes producto de sus experiencias con el entorno construido. Dentro del desarrollo de estas investigaciones, han surgido una gran variedad de conceptos que han sido identificados por la trascendencia que tienen sobre el vínculo entre el individuo y el contexto, entre los cuales encontramos los conceptos de Identidad, Apropiación de lugar, Sentido de Comunidad y Satisfacción residencial. Este trabajo, tomando como base estos cuatro conceptos, se ha preocupado por comprender la forma en que éstos se relacionan con una serie de variables socio-demográficas, físico-urbanas y cognitivas en la dimensión urbana, con el propósito de valorar el poder de estos constructos —y las variables vinculadas— con los procesos de transformación urbana. La finalidad de la realización de dicho análisis se sustenta en poder identificar como estos factores son tomados en consideración en el urbanismo para así poder reconocer diversas opciones para mediar o incidir sobre estas variables desde las políticas públicas, la planificación urbana o el proyecto urbano. Esto pues, se parte del entendimiento de que la práctica urbanística tiene la opción de interceder sobre una serie de cuestiones que afectan directamente el bienestar y la calidad de vida de las personas, por lo cual su absoluto entendimiento sobre los efectos que fenómenos urbanos como éstos tienen sobre los entornos, es de gran transcendencia para la disciplina. Por tanto, esta investigación ha recopilado y analizado, mediante diferentes herramientas estadísticas, gran cantidad de datos provenientes de una encuesta realizada en un barrio de la ciudad de Madrid, que le han permitido identificar las variables que más peso tienen en los procesos urbanos que desembocan en una mayor Identificación, Apropiación, Sentido de Comunidad y Satisfacción Residencial en el individuo. Esta primera etapa, permitió posteriormente indagar, con ayuda de un panel de expertos urbanistas, sobre las posibilidades de la disciplina para mediar o interceder sobre esos aspectos, lo que nos permitió finalmente alcanzar algunos resultados y conclusiones que permiten valorar las opciones de las diferentes escalas de intervención urbana y los retos de cara al futuro de trabajos sobre esta temática. ABSTRACT The fast and continuous urban transformations that current major cities experience, have generated important changes in the way in which we live, experience and perceive life in them. These transformation processes, sometimes result of rapid growth of urban environments, of their heterogeneity, of their economic dynamics, of the confrontation of social differences amongst its population or just as a product of new ways environments are used, have led to a growing interest in understanding the effect that a given urban context has on the individual and vice versa. In other words, it’s sought to understand the relationship between human beings and the environment. Thus, more recently, the attention of many studies have also focused in the patterns of use of space, which are accompanied by a multitude of cognitions and valuations arising in residents product of their experiences with the built environment. Within the development of those investigations, there have been a great variety of concepts that have been identified due to the importance they have on the relationship between the individual and the context, among which are the concepts of identity, appropriation of place, sense of community and residential satisfaction. This work, based on these four concepts, has been concerned with understanding how they relate to a series of socio-demographic, physical and cognitive variables in an urban dimension, in order to assess the power of these constructs —and related variables— with urban transformation processes. The purpose of that analysis is based on being able to identify how these factors are taken into consideration in planning, in order to recognize different options to mediate or influence on these variables from public policies, urban planning or urban project. This then, is on the understanding that the planning practice has the option to intercede on a number of issues that directly affect the welfare and quality of life of people, so the absolute understanding of the effects of urban phenomena like these have over environments, is of great importance to the discipline. Therefore, this research has collected and analyzed, using different statistical tools, lots of data obtained from a survey performed in a neighborhood of the city of Madrid, which enabled it to identify the variables that have more weight in urban processes that lead in higher identification, appropriation, sense of community and residential satisfaction in the individual. This first step, then allows investigating, with the help of a panel of expert planners, on the possibility of the discipline to mediate or intercede on these aspects, which ultimately enabled us to achieve some results and conclusions that allow evaluating the options of different scales of urban intervention and challenges for the future of work on this subject.
Resumo:
En Cuba, las arvenses que afectan al cultivo de la caña de azúcar son una de las causas fundamentales de los bajos rendimientos agrícolas y su control constituye unas de las principales partidas de gastos. En general, se aplican los herbicidas, así como otros métodos de control, sin tener en cuenta el tipo de suelo y las características de estas plantas. Sobre el manejo de arvenses no existen trabajos de investigación que aborden aspectos de eficiencia energética de las producciones y daños al ambiente. Por lo antes señalado, el objetivo de esta investigación fue evaluar diversas tecnologías de manejo de arvenses en el cultivo de la caña de azúcar (Saccharum spp. híbrido), en cepas de primavera y retoño, en tres tipos de suelos, con el propósito de obtener producciones sustentables. El área de estudio se localizó en los campos de la Empresa Azucarera del municipio “Majibacoa”, provincia de Las Tunas (oriente de Cuba), que posee condiciones edafoclimáticas que abundan a lo largo del país. Los tres tipos de suelos más representativos son Fersialítico Pardo Rojizo ócrico, Pardo Mullido y Vertisol Crómico gléyco. En dicha área se han identificado 31 especies de arvenses, 16 de la clase Liliopsida y 15 de la Magnoliopsida. En un primer grupo de experimentos, se desarrollaron nueve ensayos de campo para evaluar la efectividad de herbicidas y mezclas de estos en el manejo de arvenses en el cultivo de la caña de azúcar, tanto en cepas de primavera como de retoño, en los tres tipos de suelos. Se establecieron parcelas de 80 m2 distribuidas en bloques al azar con cuatro réplicas. La efectividad se evaluó por medio del porcentaje de cobertura por arvenses y la fitotoxicidad provocada a las plantas de caña, teniendo en cuenta el coste asociado a cada tratamiento. En aplicaciones preemergentes en caña planta de primavera, el herbicida más eficiente fue el Isoxaflutole con dosis de 0,15; 0,20 y 0,25 kg.ha-1 de producto comercial (pc) en los suelos Fersialítico, Pardo y Vertisol respectivamente. En aplicaciones postemergentes tempranas la mezcla más eficiente fue la de Isoxaflutole + Ametrina +2,4-D con las dosis de Isoxaflutole citadas anteriormente. En aplicaciones preemergentes en cepa de retoño, el herbicida más eficiente fue el Isoxaflutole a dosis de 0,20 kg.ha-1 pc para el suelo Fersialítico y a 0,25 kg.ha-1 pc para los suelos Pardo y Vertisol. En un segundo grupo, se realizaron seis ensayos de campo distribuidos en dos fases. En la primera fase, se desarrollaron tres experimentos, uno por cada tipo de suelo, para evaluar la eficiencia de nueve tecnologías de manejo de arvenses (químicas y físicas combinadas) en cepa de primavera de caña de azúcar. En la siguiente fase, los tres ensayos restantes (uno por tipo de suelo) evaluaron tecnologías de manejo de arvenses durante dos ciclos de producción de caña de azúcar (etapa de primavera y retoño). En la etapa de primavera se aplicó la tecnología más eficiente de los tres experimentos anteriores y durante la etapa de retoño se evaluaron otras nueve tecnologías propias de este tipo de cepa. En estos experimentos los diferentes tratamientos se aplicaron en franjas distribuidas al azar con cuatro réplicas. En las tecnologías evaluadas se emplearon los herbicidas y mezclas que resultaron más eficientes en el primer grupo de experimentos. En cada caso, se evaluaron la eficiencia energética de la producción de azúcar y otros derivados, la resistencia a la penetración de los suelos, la carga contaminante hacia la atmósfera producto de la combustión del diésel y los beneficios al aplicar las diferentes tecnologías. En la primera fase (cepa de primavera), la tecnología con mejor resultado fue la aplicación preemergente de Isoxaflutole inmediatamente después de la plantación, seguida de descepe químico con Glufosinato de amonio, más labor con grada múltiple aproximadamente a los 80 días de la plantación y aplicación pre-cierre con Glufosinato de amonio. En la segunda fase (dos ciclos del cultivo), el mejor resultado se obtuvo cuando en la etapa de retoño se realizó una aplicación preemergente de Isoxaflutole, descepe químico con Glufosinato de amonio y aplicación pre-cierre con este mismo herbicida. En los tres tipos de suelos durante los dos ciclos, la eficiencia energética tuvo valores de 7,2 - 7,5, la resistencia a la penetración 1,2 - 1,5 MPa, la carga contaminante hacia la atmósfera fue de 63,3 - 64,9 kg.t-1 de caña cosechada y beneficios de 8.324 - 8.455 pesos cubanos por hectárea. Este estudio demuestra que un control eficiente de las arvenses debe tener en cuenta necesariamente el tipo de suelo. Así, en los Vertisoles, con mayor contenido en arcilla, se requieren mayores dosis de Isoxaflutole y la eficiencia energética de la producción es menor. La persistencia de ciertas arvenses, especialmente de la clase Liliopsida, requiere de un manejo integrado que incluya diferentes tipos de herbicidas. ABSTRACT In Cuba, weeds affecting the sugarcane are one of the main causes of low agricultural yields, and their control constitutes some of the main items of expenditure. In general, herbicides are applied, as well as other control methods, without keeping in mind the soil type and the characteristics of these plants. Moreover, weed control research approaching aspects about energy efficiency of the crop production, and environmental damages are missing. Hence, the objective of this investigation was to evaluate diverse technologies of weed handling in sugarcane (Saccharum spp. hybrid), both in spring cane plant and ratoon, in three types of soils, with the purpose of obtaining sustainable productions. The study area was located in the fields of the Sugar Enterprise of the Municipality "Majibacoa”, Las Tunas province (east of Cuba) that possesses ecological conditions that are plentiful along the country. The three more representative types of soils are Fersialitic, Brown, and Vertisol. In this area 31 weeds species have been identified, 16 of the Class Liliopsida and 15 of the Magnoliopsida. In a first group of experiments, nine field rehearsals were developed to evaluate the effectiveness of herbicides and mixtures of these for weed handling in sugarcane, in spring cane plants as well as in ratoon, in the three types of soils. Plots of 80 m-2 were distributed at random blocks with four replications. The effectiveness was evaluated by means of the covering percentage by weeds and the provoked toxicity to the cane plants, keeping in mind the cost associated to each treatment. In preemergence applications in spring cane plant, the most efficient herbicide was the Isoxaflutole with dose of 0.15; 0.20 and 0.25 kg.ha-1 of commercial product (pc) in the soils Fersialítico, Brown and Vertisol respectively. In early postemergence applications the most efficient mixture was that of Isoxaflutole + Ametrina + 2,4-D with the doses of Isoxaflutole mentioned previously. In preemergence applications in ratoon, the most efficient herbicide was the Isoxaflutole at dose of 0.20 kg.ha-1 pc for the soil Fersialític and to 0.25 kg. ha-1 pc for the Brown soil and Vertisol. In a second group, six field rehearsals distributed in two phases were carried out. In the first phase, three experiments were developed, one for each soil type, to evaluate the efficiency of nine technologies of weed handling in spring cane plant. In the following phase, the three remaining rehearsals (one for each soil type) diverse technologies of weed handling were evaluated during two cycles of sugarcane production (spring stage and ratoon). In the spring stage the most efficient technology in the three previous experiments was applied and during ratoon stage other nine technologies were evaluated. In these experiments the different treatments were applied in fringes distributed at random with four replicas. In the evaluated technologies the herbicides and mixtures were used selecting those that were more efficient in the first group of experiments. In each case, the energy efficiency of the sugar production and other derivatives, the soil penetration resistance, the polluting load toward the atmosphere product of the combustion, and the benefits when applying the different technologies were all evaluated. In the first phase (spring cane plant), the technology with better result was the preemergence application of Isoxaflutole immediately after the plantation, followed by chemical eradication with Ammonia Glufosinate, hoeing work with multiple tier approximately to the 80 days of the plantation and pre-closing application with Ammonia Glufosinate. In the second phase (two cycles of the cultivation), the best result was obtained when a preemergence application of Isoxaflutole was carried out in sprout's stage, chemical eradication with Ammonia Glufosinate and pre-closing application with this same herbicide. In the three types of soils during the two cycles, the energy efficiency achieved values of 7.2 to 7.5, the resistance to the penetration 1.2 - 1.5 MPa, the polluting load toward the atmosphere was of 63.3 - 64.9 kg.t-1 of the harvested cane and the obtained benefits of 8,324 - 8,455 Cuban pesos per hectare. This study demonstrates that an efficient control of the weeds should necessarily keep in mind the soil type. This way, in the Vertisols, with more clay content, bigger dose of Isoxaflutole is required and the energy efficiency of the production is smaller. The persistence of certain weeds, especially of the class Liliopsida, requires of an integrated handling him to include different types of herbicides.
Resumo:
En esta tesis se estudia cómo lograr el equilibrio entre dos fenómenos naturales que afectan a los huecos de fachadas: la iluminación natural y la ganancia solar. Es decir, el cómo, conseguir la optimización de la iluminación natural que se introduce a través de las ventanas existentes, sin realizar una laboriosa intervención de sustitución de las mismas y el cómo, conseguir la protección de la radiación solar directa de la zona acristalada, para evitar tanto las ganancias térmicas innecesarias como el deslumbramiento que afecta a la calidad lumínica de los recintos. Para el desarrollo esta investigación se ha propuesto una metodología de estudio dividida en dos fases: La primera, de Análisis y Diagnóstico, en la que se han de definir los estándares a cumplir y las variables con las que se evaluarán las bandejas. Y, la segunda, de Evaluación y Comprobación en la que se han de establecer los criterios de valoración y ponderación de cada variable. En la primera fase, se definirán las variables físico-ambientales, para lo que se seleccionarán algunas ciudades a estudiar, a las cuales se les estudiará las necesidades de confort térmico, se determinarán las dimensiones que deben tener las protecciones solares en esas ciudades, además se determinarán las actuaciones a realizar en los huecos de fachada según sea su posición en el plano vertical de la misma. Así mismo, se plantea hacer un análisis de casos reales, para lo que se caracterizarán desde el punto de vista lumínico algunas viviendas, realizando medidas “in situ” y comparando resultados con los que se obtienen de los programas de simulación, para seleccionar las viviendas en las que la realidad y la simulación se aproximen más, una de estas viviendas servirá de modelo en las simulaciones que se realizará en la segunda fase. También, en esta primera fase, mediante un modelo neutro, se estudiará el comportamiento térmico y lumínico del tamaño del hueco en el que se insertará la bandeja posteriormente, para luego estudiar la posición de la bandeja en el plano vertical de la ventana, desde el punto de vista ergonómico. Y finalmente se estudiará, el comportamiento térmico y lumínico del modelo con la bandeja ubicada a 40, 50 y 60cm del techo. En la segunda fase, se establecerá la valoración y ponderación de las variables con las que seleccionar la bandeja que mejor equilibre los aspectos térmicos y lumínicos, teniendo en cuenta estrategias pasivas de acondicionamiento ambiental, como favorecer las ganancias solares en invierno en horas diurnas y evitar las pérdidas de calor en horas nocturnas; y en verano implementar sistemas de sombreamiento en la zona acristalada para evitar las ganancias de calor; y, tanto en verano como en invierno, aprovechar la iluminación natural, para favorecer la iluminancia útil y evitar el deslumbramiento. Una vez definidos los criterios de valoración y ponderación se aplicará a la evaluación térmica y lumínica del modelo neutro con la bandeja, consiguiendo seleccionar la bandeja con mejor comportamiento. Posteriormente se comprobará la metodología de estudio desarrollada en el modelo seleccionado, se evaluará el comportamiento térmico y lumínico, con la incorporación de algunas alternativas de bandeja. Con esta investigación se quiere demostrar que mediante la aplicación de esta metodología de estudio, es posible evaluar y seleccionar bandejas que respondan a las necesidades requeridas en distintos casos de estudio, por lo que se considera que, la bandeja puede ser un elemento arquitectónico aplicable tanto en rehabilitación como en nueva construcción, de espacios en los que sea necesario mejorar sus condiciones lumínicas y térmicas simultáneamente. ABSTRACT This thesis studies how to balance two natural events that affect the window opening of facades: daylighting and solar gain. That is to say, how to achieve optimization of natural light that gets in through the existing windows, without making a laborious intervention of replacing them and how to get protection from direct solar radiation from the glass area, to avoid unnecessary heat gain and glare affecting the light quality of the enclosures. To develop this research, it has been proposed a methodology of study divided into two phases: First phase, Analysis and Diagnostics, in which the variables with which the light shelf are evaluated will be defined along with the standards the light shelves will meet. The second phase, Assessment and Verification, in which the assessment criteria and weighting of each variable will be established. In the first phase, the physical and environmental variables shall be defined, various cities will be selected to be studied, and in each the needs of thermal comfort will be determined along with the dimensions of shading devices in the cities. In addition the actions to be taken in the window opening of the façade will be determined, depending on their position in the vertical plane. An analysis of real cases will be undertaken, which will be characterized from the luminous point of view, performing "in situ" measurements and comparing results with those obtained from simulation programs, to select places/dwellings where reality and simulation are closer, one of these places/dwellings will be a model, in the simulations to perform at the second phase. Also, in this first phase, by a neutral model, the thermal and light behavior of the size of the window opening will be studied, in which the light shelf is inserted later, the position of the light shelf in the vertical plane of the window is studied, from an ergonomic point of view. And finally to study the thermal and light behavior of the model with the light shelf located at 40, 50 and 60cm from the ceiling. In the second phase, the evaluation and weighting of the variables will be established selecting the light shelf that best balances the thermal and daylighting aspects, taking into account passive environmental conditioning strategies; such as getting solar gains in winter during daylight hours, and preventing heat loss during the night hours; and in summer implementing shading systems in the glazing area to avoid heat gains. And in both summer and winter, taking advantage of natural lighting, to improve useful illuminance and avoid glare. Once defined, the evaluation criteria and weighting will be applied to thermal and daylighting evaluation to the neutral model with the light shelf, the best performing light shelf will be selected. The study methodology developed in the selected model will be verified the thermal and daylighting performance with the addition of some light shelf alternative will also be studied. With this research, we want to show that by applying this study methodology it is possible to evaluate and select the light shelf that meets the needs required in different case studies, so it is considered that the light shelf may be an applicable architectural element in both refurbishment and new construction of spaces where necessary to improve their daylighting and thermal conditions simultaneously.
Resumo:
Pinus pinaster Ait. es la conífera con mayor área de distribución en la Península Ibérica y es, a día de hoy, la única especie resinada en nuestro país. La inducción del flujo de resina al exterior para su recolección a través de distintos tipos de heridas ha sido practicada desde hace miles de años por distintas culturas. En todos los casos, las técnicas desarrolladas se basan en la estimulación del característico sistema de defensa de las pináceas. En los últimos siete años se viene observando una tendencia de incremento sustancial de la superficie resinada en España, acompañada por avances tecnológicos dirigidos a la mecanización y mejora de estimulantes. El aprovechamiento resinero se perfila como un sector estratégico en la generación de empleo rural y la conservación de ecosistemas. La industria resinera demanda métodos de extracción más eficaces, una selvicultura adecuada y actualizada, y condiciones laborales de los resineros más dignas con objeto de llegar a ser competitiva en el mercado internacional. Este trabajo se centra en ampliar el conocimiento sobre el sistema de defensa de P. pinaster, concretamente sobre las estructuras y procesos que pueden afectar a la producción de resina. Se analizan las relaciones entre las características anatómicas del xilema, destacando las relacionadas con los canales resiníferos, las variables dendrométricas y dasométricas de la masa y el flujo de resina (objetivo 1). Se estudia cómo estas relaciones son moduladas por las heridas de resinación dependiendo de la técnica de resinación aplicada (objetivo 2), el clima y el balance hídrico del suelo (objetivo 3). El material vegetal, las muestras de suelo y los datos de producción de resina y climáticos usados en esta tesis han sido recogidos en tres montes de utilidad pública; MUP 101 en Armuña, MUP 108 en Melque de Cercos y MUP 117 en Nieva (en esta última solo se recogieron los datos de producciones), todos ellos pinares monoespecíficos de P. pinaster localizados en la denominada Tierra de Pinares Segoviana. En los árboles de nuestro estudio se han aplicado cuatro métodos de resinación: método de pica de corteza con estimulante y método mecanizado con estimulante, ambos en sentido ascendente y descendente. En los trabajos realizados para el análisis de la influencia de la anatomía constitutiva en la producción de resina (objetivo 1) y el efecto del clima (objetivo 3), se obtuvieron muestras del xilema de 26 árboles resinados en Melque de Cercos y Armuña y 12 árboles control sin resinar. Para caracterizar los pies estudiados, se midió la altura, diámetro normal y porcentaje de copa viva. Las muestras de tejido fueron recogidas en una zona del tronco a una distancia del límite de la herida considerada en la bibliografía como no afectada (anatomía constitutiva). Para el análisis de las alteraciones anatómicas inducidas por la herida (objetivo 2), se recogieron muestras en ocho de los individuos en los que se habían realizado los distintos métodos de resinación descritos y en cinco árboles control. Se obtuvieron ocho muestras de tejido distribuidas en la parte superior, inferior, lateral y centro de la herida de cada uno de los árboles resinados. Para establecer las diferencias en la producción de resina según el método de resinación, se analizaron las producciones de 561 árboles resinados en 2012 con estos cuatro métodos en Nieva. Los principales resultados de estos trabajos muestran que la producción de resina está ligada al volumen de canales (axiales y radiales) y a la frecuencia de canales radiales existentes en el árbol antes de efectuar ninguna herida (sistema constitutivo). De esta manera, los árboles grandes productores de resina mostraron una red de canales más densa que aquellos con producciones medias. Una vez realizada la herida de resinación, observamos una disminución del ancho del anillo de crecimiento y del tamaño medio de los canales axiales a la vez que se incrementaba la frecuencia y área ocupada por mm2 de anillo de estos canales. Estos cambios perduraron en el árbol durante al menos tres años y fueron distintos dependiendo de la localización en el entorno de la herida y del método de resinación. Las respuestas más intensas a la herida se observaron el año siguiente a la realización de la misma, en dirección axial, para las distancias más próximas al límite de la herida y para los métodos de resinación en sentido ascendente. Además, se ha constatado que como consecuencia de las heridas de resinación se produjeron cambios en la anatomía del xilema en zonas alejadas de la herida, tanto en el año de la herida como años posteriores. Es decir, se observó una respuesta sistémica del árbol. Respecto al papel del clima como regulador de la respuesta del árbol, se ha evidenciado que la temperatura, la radiación y la ETP influyeron en la producción de resina, no solo durante la campaña de resinación, sino también durante los meses anteriores. El déficit hídrico favoreció la producción y la formación de canales axiales pero, a partir de un determinado umbral, esa relación se invirtió y las lluvias estivales incrementaron la producción. Algunas de estas variables climáticas se asociaron a cambios en el tamaño y frecuencia de las estructuras secretoras, las cuales posiblemente modulan la respuesta defensiva de la planta. La dendrometría del árbol (evaluada a través del diámetro normal, altura y porcentaje de copa viva), la densidad de la masa y el tipo de suelo influyeron en el potencial de producción de resina de P. pinaster. Árboles más vigorosos, parcelas con menores densidades y suelos con más capacidad para la retención de agua y nutrientes presentaron producciones mayores. Estos trabajos se complementan en anexos con una caracterización del sistema socio-ecológico del pinar en resinación. En ese trabajo se identifican sus potenciales servicios ecosistémicos y se evalúa su grado de vinculación con el aprovechamiento resinero con objeto de valorar su funcionalidad y aproximar una valoración económica de modo que sea posible apreciar la importancia económica de los mismos. Para concluir, podemos resaltar que son necesarios más trabajos de carácter científico para avanzar en la comprensión de los procesos anatómicos y fisiológicos que regulan la secreción de resina en P. pinaster y sus interacciones con el medio. Esto permitiría avances certeros hacia el desarrollo de métodos de extracción más eficaces, una selvicultura óptima, el reconocimiento de los beneficios socio-ecológicos y económicos del aprovechamiento y, de manera general, una bibliografía amplia y fiable para la consulta y desarrollo de futuras mejoras que posibiliten la reactivación y conservación de la resinación como aprovechamiento rentable. ABSTRACT Pinus pinaster Ait. is the most widespread conifer in Spain and is now the only species tapped for its oleoresin. External induction of resin secretion, based on the defense system of Pinus trees, has been performed by humans since Classical times through various methods. The socio-economic implication of this practice in Spain justifies a new approach to improve tapping methodology and understand the effects of this activity on the tree. In the last five years, sharp increases in the price of natural resins, accompanied by technological advances directed toward mechanization, have made resin tapping a strategic activity for rural development and forest conservation. The resin industry demands more efficient tapping methods and forest management plans as a way to increase competitiveness in a global market. In this way, this work focuses on the study of the defense system of P. pinaster, with the aim to understand the effects of anatomical and physiological characteristics and environmental conditions on resin yield. The relationships between anatomical variables -with special focus on resin canals-, dendrometric and dasometric variables, and resin yield will be evaluated (objective 1). The tapping wound effects (objective 2) and the intra- and inter-annual variability of climate conditions and soil water availability influence (objective 3) on resin yield will be also studied. The plant and soil material and the resin yield and climatic data used in this thesis have been collected in stands of three public forests of P. pinaster; Armuña, Melque de Cercos and Nieva, located in Segovia (Central Spain). Trees were tapped using two different methods: mechanized or traditional tool, in both upwards and downwards direction. Twenty-six tapped trees of contrasting resin yield classes and twelve non-tapped (control) trees, growing in two locations (Armuña y Melque de Cercos) with the same climate but different stand density and soil characteristics, were selected for studying the role of tree size, xylem anatomy at distal parts aside from the tapping wound (objective 1) and climate influence (objective 3) on resin yield. Concerning the tree defenses induced by the tapping wound (objective 2), the xylem of eight trees, tapped with the two described methods in both upwards and downwards direction, were analyzed. From each tapped tree, eight cores were collected at different locations and varying distances from the tapping wound. In each core, a histological analysis was made. Growth ring width, earlywood and latewood width, and axial canal frequency, area, mean size and location were measured. The effect of the tapping method on resin yield was assessed in 561 P. pinaster tapped trees in a stand in Nieva. In tissues not affected by the tapping wound, the frequency of radial resin canals and the total volume of resin canals were related to resin yield. The frequency of radial canals and the resin yield were strongly related to tree diameter and percentage of live crown. High area of axial resin canals per mm2 was related to high yielding trees, but only in the location with higher plant density and poorer soil quality. In tapped trees, an increase in axial canal frequency and area was found during the three years following the start of tapping activity, suggesting that canal formation is a systemic induced response to wounding. The highest mean annual resin yield was found using the traditional tool in upwards direction, which also induced the highest increase in axial canal frequency and area. The lowest yield was found for mechanized tapping, which showed no differences between the upwards and downwards directions. The strongest induction of systemic induced responses in terms of resin canal frequency and area was detected one year after tapping for upwards tapping. This suggests the involvement of signaling processes that spread mainly upwards, and the importance of adaptive processes as a defense against periodic insect attacks. Intra-annual variation in resin yield was strongly correlated with temperature, solar radiation, potential evapotranspiration and soil water deficit. Inter-annual variation in resin yield and resin canal abundance were correlated with temperature and water deficit in spring, but above a certain threshold of cumulated water deficit in summer rainfall favored resin yield. Under adverse climate scenarios where resource optimization is desirable, a reduced tapping season during the warmest months (June–September) would be advisable, assuming a very small production loss relative to traditional tapping season. Similarly, in years with a rainy summer and/or dry spring, a slightly longer tapping season could be suggested, as resin yield increases after these events. Tree diameter and percentage of live crown, and radial resin canal frequency could be useful criteria for estimating resin yields in P. pinaster. Vigorous trees in lower density stands and growing up in good quality soils will be the most productive. These conclusions could be applied to improve tapping management and breeding programs. These works are complemented with socio-ecological characterization, the identification of the main ecosystem services and an assessment of the possible economic impact derived from the tapping practice. To conclude, more scientific studies are necessary for understanding the anatomical and physiological processes behind resin synthesis and their interactions with the environment. This would afford further progresses towards an extensive and reliable bibliography and improved tapping methods and optimal selvicultural guide lines.