73 resultados para Esclerosis múltiple


Relevância:

10.00% 10.00%

Publicador:

Resumo:

El MC en baloncesto es aquel fenómeno relacionado con el juego que presenta unas características particulares determinadas por la idiosincrasia de un equipo y puede afectar a los protagonistas y por ende al devenir del juego. En la presente Tesis se ha estudiado la incidencia del MC en Liga A.C.B. de baloncesto y para su desarrollo en profundidad se ha planteado dos investigaciones una cuantitativa y otra cualitativa cuya metodología se detalla a continuación: La investigación cuantitativa se ha basado en la técnica de estudio del “Performance analysis”, para ello se han estudiado cuatro temporadas de la Liga A.C.B. (del 2007/08 al 2010/11), tal y como refleja en la bibliografía consultada se han tomado como momentos críticos del juego a los últimos cinco minutos de partidos donde la diferencia de puntos fue de seis puntos y todos los Tiempos Extras disputados, de tal manera que se han estudiado 197 momentos críticos. La contextualización del estudio se ha hecho en función de la variables situacionales “game location” (local o visitante), “team quality” (mejores o peores clasificados) y “competition” (fases de LR y Playoff). Para la interpretación de los resultados se han realizado los siguientes análisis descriptivos: 1) Análisis Discriminante, 2) Regresión Lineal Múltiple; y 3) Análisis del Modelo Lineal General Multivariante. La investigación cualitativa se ha basado en la técnica de investigación de la entrevista semiestructurada. Se entrevistaron a 12 entrenadores que militaban en la Liga A.C.B. durante la temporada 2011/12, cuyo objetivo ha sido conocer el punto de vista que tiene el entrenador sobre el concepto del MC y que de esta forma pudiera dar un enfoque más práctico basado en su conocimiento y experiencia acerca de cómo actuar ante el MC en el baloncesto. Los resultados de ambas investigaciones coinciden en señalar la importancia del MC sobre el resultado final del juego. De igual forma, el concepto en sí entraña una gran complejidad por lo que se considera fundamental la visión científica de la observación del juego y la percepción subjetiva que presenta el entrenador ante el fenómeno, para la cual los aspectos psicológicos de sus protagonistas (jugadores y entrenadores) son determinantes. ABSTRACT The Critical Moment (CM) in basketball is a related phenomenon with the game that has particular features determined by the idiosyncrasies of a team and can affect the players and therefore the future of the game. In this Thesis we have studied the impact of CM in the A.C.B. League and from a profound development two investigations have been raised, quantitative and qualitative whose methodology is as follows: The quantitative research is based on the technique of study "Performance analysis", for this we have studied four seasons in the A.C.B. League (2007/08 to 2010/11), and as reflected in the literature the Critical Moments of the games were taken from the last five minutes of games where the point spread was six points and all overtimes disputed, such that 197 critical moments have been studied. The contextualization of the study has been based on the situational variables "game location" (home or away), "team quality" (better or lower classified) and "competition" (LR and Playoff phases). For the interpretation of the results the following descriptive analyzes were performed: 1) Discriminant Analysis, 2) Multiple Linear Regression Analysis; and 3) Analysis of Multivariate General Linear Model. Qualitative research is based on the technique of investigation of a semi-structured interview. 12 coaches who belonged to the A.C.B. League were interviewed in seasons 2011/12, which aimed to determine the point of view that the coach has on the CM concept and thus could give a more practical approach based on their knowledge and experience about how to deal with the CM in basketball. The results of both studies agree on the importance of the CM on the final outcome of the game. Similarly, the concept itself is highly complex so the scientific view of the observation of the game is considered essential as well as the subjective perception the coach presents before the phenomenon, for which the psychological aspects of their characters (players and coaches) are crucial.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La predicción del valor de las acciones en la bolsa de valores ha sido un tema importante en el campo de inversiones, que por varios años ha atraído tanto a académicos como a inversionistas. Esto supone que la información disponible en el pasado de la compañía que cotiza en bolsa tiene alguna implicación en el futuro del valor de la misma. Este trabajo está enfocado en ayudar a un persona u organismo que decida invertir en la bolsa de valores a través de gestión de compra o venta de acciones de una compañía a tomar decisiones respecto al tiempo de comprar o vender basado en el conocimiento obtenido de los valores históricos de las acciones de una compañía en la bolsa de valores. Esta decisión será inferida a partir de un modelo de regresión múltiple que es una de las técnicas de datamining. Para llevar conseguir esto se emplea una metodología conocida como CRISP-DM aplicada a los datos históricos de la compañía con mayor valor actual del NASDAQ.---ABSTRACT---The prediction of the value of shares in the stock market has been a major issue in the field of investments, which for several years has attracted both academics and investors. This means that the information available in the company last traded have any involvement in the future of the value of it. This work is focused on helping an investor decides to invest in the stock market through management buy or sell shares of a company to make decisions with respect to time to buy or sell based on the knowledge gained from the historic values of the shares of a company in the stock market. This decision will be inferred from a multiple regression model which is one of the techniques of data mining. To get this out a methodology known as CRISP-DM applied to historical data of the company with the highest current value of NASDAQ is used.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A lo largo del presente trabajo se investiga la viabilidad de la descomposición automática de espectros de radiación gamma por medio de algoritmos de resolución de sistemas de ecuaciones algebraicas lineales basados en técnicas de pseudoinversión. La determinación de dichos algoritmos ha sido realizada teniendo en cuenta su posible implementación sobre procesadores de propósito específico de baja complejidad. En el primer capítulo se resumen las técnicas para la detección y medida de la radiación gamma que han servido de base para la confección de los espectros tratados en el trabajo. Se reexaminan los conceptos asociados con la naturaleza de la radiación electromagnética, así como los procesos físicos y el tratamiento electrónico que se hallan involucrados en su detección, poniendo de relieve la naturaleza intrínsecamente estadística del proceso de formación del espectro asociado como una clasificación del número de detecciones realizadas en función de la energía supuestamente continua asociada a las mismas. Para ello se aporta una breve descripción de los principales fenómenos de interacción de la radiación con la materia, que condicionan el proceso de detección y formación del espectro. El detector de radiación es considerado el elemento crítico del sistema de medida, puesto que condiciona fuertemente el proceso de detección. Por ello se examinan los principales tipos de detectores, con especial hincapié en los detectores de tipo semiconductor, ya que son los más utilizados en la actualidad. Finalmente, se describen los subsistemas electrónicos fundamentales para el acondicionamiento y pretratamiento de la señal procedente del detector, a la que se le denomina con el término tradicionalmente utilizado de Electrónica Nuclear. En lo que concierne a la espectroscopia, el principal subsistema de interés para el presente trabajo es el analizador multicanal, el cual lleva a cabo el tratamiento cualitativo de la señal, y construye un histograma de intensidad de radiación en el margen de energías al que el detector es sensible. Este vector N-dimensional es lo que generalmente se conoce con el nombre de espectro de radiación. Los distintos radionúclidos que participan en una fuente de radiación no pura dejan su impronta en dicho espectro. En el capítulo segundo se realiza una revisión exhaustiva de los métodos matemáticos en uso hasta el momento ideados para la identificación de los radionúclidos presentes en un espectro compuesto, así como para determinar sus actividades relativas. Uno de ellos es el denominado de regresión lineal múltiple, que se propone como la aproximación más apropiada a los condicionamientos y restricciones del problema: capacidad para tratar con espectros de baja resolución, ausencia del concurso de un operador humano (no supervisión), y posibilidad de ser soportado por algoritmos de baja complejidad capaces de ser instrumentados sobre procesadores dedicados de alta escala de integración. El problema del análisis se plantea formalmente en el tercer capítulo siguiendo las pautas arriba mencionadas y se demuestra que el citado problema admite una solución en la teoría de memorias asociativas lineales. Un operador basado en este tipo de estructuras puede proporcionar la solución al problema de la descomposición espectral deseada. En el mismo contexto, se proponen un par de algoritmos adaptativos complementarios para la construcción del operador, que gozan de unas características aritméticas especialmente apropiadas para su instrumentación sobre procesadores de alta escala de integración. La característica de adaptatividad dota a la memoria asociativa de una gran flexibilidad en lo que se refiere a la incorporación de nueva información en forma progresiva.En el capítulo cuarto se trata con un nuevo problema añadido, de índole altamente compleja. Es el del tratamiento de las deformaciones que introducen en el espectro las derivas instrumentales presentes en el dispositivo detector y en la electrónica de preacondicionamiento. Estas deformaciones invalidan el modelo de regresión lineal utilizado para describir el espectro problema. Se deriva entonces un modelo que incluya las citadas deformaciones como una ampliación de contribuciones en el espectro compuesto, el cual conlleva una ampliación sencilla de la memoria asociativa capaz de tolerar las derivas en la mezcla problema y de llevar a cabo un análisis robusto de contribuciones. El método de ampliación utilizado se basa en la suposición de pequeñas perturbaciones. La práctica en el laboratorio demuestra que, en ocasiones, las derivas instrumentales pueden provocar distorsiones severas en el espectro que no pueden ser tratadas por el modelo anterior. Por ello, en el capítulo quinto se plantea el problema de medidas afectadas por fuertes derivas desde el punto de vista de la teoría de optimización no lineal. Esta reformulación lleva a la introducción de un algoritmo de tipo recursivo inspirado en el de Gauss-Newton que permite introducir el concepto de memoria lineal realimentada. Este operador ofrece una capacidad sensiblemente mejorada para la descomposición de mezclas con fuerte deriva sin la excesiva carga computacional que presentan los algoritmos clásicos de optimización no lineal. El trabajo finaliza con una discusión de los resultados obtenidos en los tres principales niveles de estudio abordados, que se ofrecen en los capítulos tercero, cuarto y quinto, así como con la elevación a definitivas de las principales conclusiones derivadas del estudio y con el desglose de las posibles líneas de continuación del presente trabajo.---ABSTRACT---Through the present research, the feasibility of Automatic Gamma-Radiation Spectral Decomposition by Linear Algebraic Equation-Solving Algorithms using Pseudo-Inverse Techniques is explored. The design of the before mentioned algorithms has been done having into account their possible implementation on Specific-Purpose Processors of Low Complexity. In the first chapter, the techniques for the detection and measurement of gamma radiation employed to construct the spectra being used throughout the research are reviewed. Similarly, the basic concepts related with the nature and properties of the hard electromagnetic radiation are also re-examined, together with the physic and electronic processes involved in the detection of such kind of radiation, with special emphasis in the intrinsic statistical nature of the spectrum build-up process, which is considered as a classification of the number of individual photon-detections as a function of the energy associated to each individual photon. Fbr such, a brief description of the most important matter-energy interaction phenomena conditioning the detection and spectrum formation processes is given. The radiation detector is considered as the most critical element in the measurement system, as this device strongly conditions the detection process. Fbr this reason, the characteristics of the most frequent detectors are re-examined, with special emphasis on those of semiconductor nature, as these are the most frequently employed ones nowadays. Finally, the fundamental electronic subsystems for preaconditioning and treating of the signal delivered by the detector, classically addresed as Nuclear Electronics, is described. As far as Spectroscopy is concerned, the subsystem most interesting for the scope covered by the present research is the so-called Multichannel Analyzer, which is devoted to the cualitative treatment of the signal, building-up a hystogram of radiation intensity in the range of energies in which the detector is sensitive. The resulting N-dimensional vector is generally known with the ñame of Radiation Spectrum. The different radio-nuclides contributing to the spectrum of a composite source will leave their fingerprint in the resulting spectrum. Through the second chapter, an exhaustive review of the mathematical methods devised to the present moment to identify the radio-nuclides present in the composite spectrum and to quantify their relative contributions, is reviewed. One of the more popular ones is the so-known Múltiple Linear Regression, which is proposed as the best suited approach according to the constraints and restrictions present in the formulation of the problem, i.e., the need to treat low-resolution spectra, the absence of control by a human operator (un-supervision), and the possibility of being implemented as low-complexity algorithms amenable of being supported by VLSI Specific Processors. The analysis problem is formally stated through the third chapter, following the hints established in this context, and it is shown that the addressed problem may be satisfactorily solved under the point of view of Linear Associative Memories. An operator based on this kind of structures may provide the solution to the spectral decomposition problem posed. In the same context, a pair of complementary adaptive algorithms useful for the construction of the solving operator are proposed, which share certain special arithmetic characteristics that render them specially suitable for their implementation on VLSI Processors. The adaptive nature of the associative memory provides a high flexibility to this operator, in what refers to the progressive inclusión of new information to the knowledge base. Through the fourth chapter, this fact is treated together with a new problem to be considered, of a high interest but quite complex nature, as is the treatment of the deformations appearing in the spectrum when instrumental drifts in both the detecting device and the pre-acconditioning electronics are to be taken into account. These deformations render the Linear Regression Model proposed almost unuseful to describe the resulting spectrum. A new model including the drifts is derived as an extensión of the individual contributions to the composite spectrum, which implies a simple extensión of the Associative Memory, which renders this suitable to accept the drifts in the composite spectrum, thus producing a robust analysis of contributions. The extensión method is based on the Low-Amplitude Perturbation Hypothesis. Experimental practice shows that in certain cases the instrumental drifts may provoke severe distortions in the resulting spectrum, which can not be treated with the before-mentioned hypothesis. To cover also these less-frequent cases, through the fifth chapter, the problem involving strong drifts is treated under the point of view of Non-Linear Optimization Techniques. This reformulation carries the study to the consideration of recursive algorithms based on the Gauss-Newton methods, which allow the introduction of Feed-Back Memories, computing elements with a sensibly improved capability to decompose spectra affected by strong drifts. The research concludes with a discussion of the results obtained in the three main levéis of study considerad, which are presented in chapters third, fourth and fifth, toghether with the review of the main conclusions derived from the study and the outline of the main research lines opened by the present work.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta Tesis tiene como objetivo principal el desarrollo de métodos de identificación del daño que sean robustos y fiables, enfocados a sistemas estructurales experimentales, fundamentalmente a las estructuras de hormigón armado reforzadas externamente con bandas fibras de polímeros reforzados (FRP). El modo de fallo de este tipo de sistema estructural es crítico, pues generalmente es debido a un despegue repentino y frágil de la banda del refuerzo FRP originado en grietas intermedias causadas por la flexión. La detección de este despegue en su fase inicial es fundamental para prevenir fallos futuros, que pueden ser catastróficos. Inicialmente, se lleva a cabo una revisión del método de la Impedancia Electro-Mecánica (EMI), de cara a exponer sus capacidades para la detección de daño. Una vez la tecnología apropiada es seleccionada, lo que incluye un analizador de impedancias así como novedosos sensores PZT para monitorización inteligente, se ha diseñado un procedimiento automático basado en los registros de impedancias de distintas estructuras de laboratorio. Basándonos en el hecho de que las mediciones de impedancias son posibles gracias a una colocación adecuada de una red de sensores PZT, la estimación de la presencia de daño se realiza analizando los resultados de distintos indicadores de daño obtenidos de la literatura. Para que este proceso sea automático y que no sean necesarios conocimientos previos sobre el método EMI para realizar un experimento, se ha diseñado e implementado un Interfaz Gráfico de Usuario, transformando la medición de impedancias en un proceso fácil e intuitivo. Se evalúa entonces el daño a través de los correspondientes índices de daño, intentando estimar no sólo su severidad, sino también su localización aproximada. El desarrollo de estos experimentos en cualquier estructura genera grandes cantidades de datos que han de ser procesados, y algunas veces los índices de daño no son suficientes para una evaluación completa de la integridad de una estructura. En la mayoría de los casos se pueden encontrar patrones de daño en los datos, pero no se tiene información a priori del estado de la estructura. En este punto, se ha hecho una importante investigación en técnicas de reconocimiento de patrones particularmente en aprendizaje no supervisado, encontrando aplicaciones interesantes en el campo de la medicina. De ahí surge una idea creativa e innovadora: detectar y seguir la evolución del daño en distintas estructuras como si se tratase de un cáncer propagándose por el cuerpo humano. En ese sentido, las lecturas de impedancias se emplean como información intrínseca de la salud de la propia estructura, de forma que se pueden aplicar las mismas técnicas que las empleadas en la investigación del cáncer. En este caso, se ha aplicado un algoritmo de clasificación jerárquica dado que ilustra además la clasificación de los datos de forma gráfica, incluyendo información cualitativa y cuantitativa sobre el daño. Se ha investigado la efectividad de este procedimiento a través de tres estructuras de laboratorio, como son una viga de aluminio, una unión atornillada de aluminio y un bloque de hormigón reforzado con FRP. La primera ayuda a mostrar la efectividad del método en sencillos escenarios de daño simple y múltiple, de forma que las conclusiones extraídas se aplican sobre los otros dos, diseñados para simular condiciones de despegue en distintas estructuras. Demostrada la efectividad del método de clasificación jerárquica de lecturas de impedancias, se aplica el procedimiento sobre las estructuras de hormigón armado reforzadas con bandas de FRP objeto de esta tesis, detectando y clasificando cada estado de daño. Finalmente, y como alternativa al anterior procedimiento, se propone un método para la monitorización continua de la interfase FRP-Hormigón, a través de una red de sensores FBG permanentemente instalados en dicha interfase. De esta forma, se obtienen medidas de deformación de la interfase en condiciones de carga continua, para ser implementadas en un modelo de optimización multiobjetivo, cuya solución se haya por medio de una expansión multiobjetivo del método Particle Swarm Optimization (PSO). La fiabilidad de este último método de detección se investiga a través de sendos ejemplos tanto numéricos como experimentales. ABSTRACT This thesis aims to develop robust and reliable damage identification methods focused on experimental structural systems, in particular Reinforced Concrete (RC) structures externally strengthened with Fiber Reinforced Polymers (FRP) strips. The failure mode of this type of structural system is critical, since it is usually due to sudden and brittle debonding of the FRP reinforcement originating from intermediate flexural cracks. Detection of the debonding in its initial stage is essential thus to prevent future failure, which might be catastrophic. Initially, a revision of the Electro-Mechanical Impedance (EMI) method is carried out, in order to expose its capabilities for local damage detection. Once the appropriate technology is selected, which includes impedance analyzer as well as novel PZT sensors for smart monitoring, an automated procedure has been design based on the impedance signatures of several lab-scale structures. On the basis that capturing impedance measurements is possible thanks to an adequately deployed PZT sensor network, the estimation of damage presence is done by analyzing the results of different damage indices obtained from the literature. In order to make this process automatic so that it is not necessary a priori knowledge of the EMI method to carry out an experimental test, a Graphical User Interface has been designed, turning the impedance measurements into an easy and intuitive procedure. Damage is then assessed through the analysis of the corresponding damage indices, trying to estimate not only the damage severity, but also its approximate location. The development of these tests on any kind of structure generates large amounts of data to be processed, and sometimes the information provided by damage indices is not enough to achieve a complete analysis of the structural health condition. In most of the cases, some damage patterns can be found in the data, but none a priori knowledge of the health condition is given for any structure. At this point, an important research on pattern recognition techniques has been carried out, particularly on unsupervised learning techniques, finding interesting applications in the medicine field. From this investigation, a creative and innovative idea arose: to detect and track the evolution of damage in different structures, as if it were a cancer propagating through a human body. In that sense, the impedance signatures are used to give intrinsic information of the health condition of the structure, so that the same clustering algorithms applied in the cancer research can be applied to the problem addressed in this dissertation. Hierarchical clustering is then applied since it also provides a graphical display of the clustered data, including quantitative and qualitative information about damage. The performance of this approach is firstly investigated using three lab-scale structures, such as a simple aluminium beam, a bolt-jointed aluminium beam and an FRP-strengthened concrete specimen. The first one shows the performance of the method on simple single and multiple damage scenarios, so that the first conclusions can be extracted and applied to the other two experimental tests, which are designed to simulate a debonding condition on different structures. Once the performance of the impedance-based hierarchical clustering method is proven to be successful, it is then applied to the structural system studied in this dissertation, the RC structures externally strengthened with FRP strips, where the debonding failure in the interface between the FRP and the concrete is successfully detected and classified, proving thus the feasibility of this method. Finally, as an alternative to the previous approach, a continuous monitoring procedure of the FRP-Concrete interface is proposed, based on an FBGsensors Network permanently deployed within that interface. In this way, strain measurements can be obtained under controlled loading conditions, and then they are used in order to implement a multi-objective model updating method solved by a multi-objective expansion of the Particle Swarm Optimization (PSO) method. The feasibility of this last proposal is investigated and successfully proven on both numerical and experimental RC beams strengthened with FRP.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

¿Suministrarán las fuentes de energía renovables toda la energía que el mundo necesita algún día? Algunos argumentan que sí, mientras que otros dicen que no. Sin embargo, en algunas regiones del mundo, la producción de electricidad a través de fuentes de energía renovables ya está en una etapa prometedora de desarrollo en la que su costo de generación de electricidad compite con fuentes de electricidad convencionales, como por ejemplo la paridad de red. Este logro ha sido respaldado por el aumento de la eficiencia de la tecnología, la reducción de los costos de producción y, sobre todo, los años de intervenciones políticas de apoyo financiero. La difusión de los sistemas solares fotovoltaicos (PV) en Alemania es un ejemplo relevante. Alemania no sólo es el país líder en términos de capacidad instalada de sistemas fotovoltaicos (PV) en todo el mundo, sino también uno de los países pioneros donde la paridad de red se ha logrado recientemente. No obstante, podría haber una nube en el horizonte. La tasa de difusión ha comenzado a declinar en muchas regiones. Además, las empresas solares locales – que se sabe son importantes impulsores de la difusión – han comenzado a enfrentar dificultades para manejar sus negocios. Estos acontecimientos plantean algunas preguntas importantes: ¿Es ésta una disminución temporal en la difusión? ¿Los adoptantes continuarán instalando sistemas fotovoltaicos? ¿Qué pasa con los modelos de negocio de las empresas solares locales? Con base en el caso de los sistemas fotovoltaicos en Alemania a través de un análisis multinivel y dos revisiones literarias complementarias, esta tesis doctoral extiende el debate proporcionando riqueza múltiple de datos empíricos en un conocimiento de contexto limitado. El primer análisis se basa en la perspectiva del adoptante, que explora el nivel "micro" y el proceso social que subyace a la adopción de los sistemas fotovoltaicos. El segundo análisis es una perspectiva a nivel de empresa, que explora los modelos de negocio de las empresas y sus roles impulsores en la difusión de los sistemas fotovoltaicos. El tercero análisis es una perspectiva regional, la cual explora el nivel "meso", el proceso social que subyace a la adopción de sistemas fotovoltaicos y sus técnicas de modelado. Los resultados incluyen implicaciones tanto para académicos como políticos, no sólo sobre las innovaciones en energía renovable relativas a la paridad de red, sino también, de manera inductiva, sobre las innovaciones ambientales impulsadas por las políticas que logren la competitividad de costes. ABSTRACT Will renewable energy sources supply all of the world energy needs one day? Some argue yes, while others say no. However, in some regions of the world, the electricity production through renewable energy sources is already at a promising stage of development at which their electricity generation costs compete with conventional electricity sources’, i.e., grid parity. This achievement has been underpinned by the increase of technology efficiency, reduction of production costs and, above all, years of policy interventions of providing financial support. The diffusion of solar photovoltaic (PV) systems in Germany is an important frontrunner case in point. Germany is not only the top country in terms of installed PV systems’ capacity worldwide but also one of the pioneer countries where the grid parity has recently been achieved. However, there might be a cloud on the horizon. The diffusion rate has started to decline in many regions. In addition, local solar firms – which are known to be important drivers of diffusion – have started to face difficulties to run their businesses. These developments raise some important questions: Is this a temporary decline on diffusion? Will adopters continue to install PV systems? What about the business models of the local solar firms? Based on the case of PV systems in Germany through a multi-level analysis and two complementary literature reviews, this PhD Dissertation extends the debate by providing multiple wealth of empirical details in a context-limited knowledge. The first analysis is based on the adopter perspective, which explores the “micro” level and the social process underlying the adoption of PV systems. The second one is a firm-level perspective, which explores the business models of firms and their driving roles in diffusion of PV systems. The third one is a regional perspective, which explores the “meso” level, i.e., the social process underlying the adoption of PV systems and its modeling techniques. The results include implications for both scholars and policymakers, not only about renewable energy innovations at grid parity, but also in an inductive manner, about policy-driven environmental innovations that achieve the cost competiveness.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El principal objetivo de este trabajo es proporcionar una solución en tiempo real basada en visión estéreo o monocular precisa y robusta para que un vehículo aéreo no tripulado (UAV) sea autónomo en varios tipos de aplicaciones UAV, especialmente en entornos abarrotados sin señal GPS. Este trabajo principalmente consiste en tres temas de investigación de UAV basados en técnicas de visión por computador: (I) visual tracking, proporciona soluciones efectivas para localizar visualmente objetos de interés estáticos o en movimiento durante el tiempo que dura el vuelo del UAV mediante una aproximación adaptativa online y una estrategia de múltiple resolución, de este modo superamos los problemas generados por las diferentes situaciones desafiantes, tales como cambios significativos de aspecto, iluminación del entorno variante, fondo del tracking embarullado, oclusión parcial o total de objetos, variaciones rápidas de posición y vibraciones mecánicas a bordo. La solución ha sido utilizada en aterrizajes autónomos, inspección de plataformas mar adentro o tracking de aviones en pleno vuelo para su detección y evasión; (II) odometría visual: proporciona una solución eficiente al UAV para estimar la posición con 6 grados de libertad (6D) usando únicamente la entrada de una cámara estéreo a bordo del UAV. Un método Semi-Global Blocking Matching (SGBM) eficiente basado en una estrategia grueso-a-fino ha sido implementada para una rápida y profunda estimación del plano. Además, la solución toma provecho eficazmente de la información 2D y 3D para estimar la posición 6D, resolviendo de esta manera la limitación de un punto de referencia fijo en la cámara estéreo. Una robusta aproximación volumétrica de mapping basada en el framework Octomap ha sido utilizada para reconstruir entornos cerrados y al aire libre bastante abarrotados en 3D con memoria y errores correlacionados espacialmente o temporalmente; (III) visual control, ofrece soluciones de control prácticas para la navegación de un UAV usando Fuzzy Logic Controller (FLC) con la estimación visual. Y el framework de Cross-Entropy Optimization (CEO) ha sido usado para optimizar el factor de escala y la función de pertenencia en FLC. Todas las soluciones basadas en visión en este trabajo han sido probadas en test reales. Y los conjuntos de datos de imágenes reales grabados en estos test o disponibles para la comunidad pública han sido utilizados para evaluar el rendimiento de estas soluciones basadas en visión con ground truth. Además, las soluciones de visión presentadas han sido comparadas con algoritmos de visión del estado del arte. Los test reales y los resultados de evaluación muestran que las soluciones basadas en visión proporcionadas han obtenido rendimientos en tiempo real precisos y robustos, o han alcanzado un mejor rendimiento que aquellos algoritmos del estado del arte. La estimación basada en visión ha ganado un rol muy importante en controlar un UAV típico para alcanzar autonomía en aplicaciones UAV. ABSTRACT The main objective of this dissertation is providing real-time accurate robust monocular or stereo vision-based solution for Unmanned Aerial Vehicle (UAV) to achieve the autonomy in various types of UAV applications, especially in GPS-denied dynamic cluttered environments. This dissertation mainly consists of three UAV research topics based on computer vision technique: (I) visual tracking, it supplys effective solutions to visually locate interesting static or moving object over time during UAV flight with on-line adaptivity approach and multiple-resolution strategy, thereby overcoming the problems generated by the different challenging situations, such as significant appearance change, variant surrounding illumination, cluttered tracking background, partial or full object occlusion, rapid pose variation and onboard mechanical vibration. The solutions have been utilized in autonomous landing, offshore floating platform inspection and midair aircraft tracking for sense-and-avoid; (II) visual odometry: it provides the efficient solution for UAV to estimate the 6 Degree-of-freedom (6D) pose using only the input of stereo camera onboard UAV. An efficient Semi-Global Blocking Matching (SGBM) method based on a coarse-to-fine strategy has been implemented for fast depth map estimation. In addition, the solution effectively takes advantage of both 2D and 3D information to estimate the 6D pose, thereby solving the limitation of a fixed small baseline in the stereo camera. A robust volumetric occupancy mapping approach based on the Octomap framework has been utilized to reconstruct indoor and outdoor large-scale cluttered environments in 3D with less temporally or spatially correlated measurement errors and memory; (III) visual control, it offers practical control solutions to navigate UAV using Fuzzy Logic Controller (FLC) with the visual estimation. And the Cross-Entropy Optimization (CEO) framework has been used to optimize the scaling factor and the membership function in FLC. All the vision-based solutions in this dissertation have been tested in real tests. And the real image datasets recorded from these tests or available from public community have been utilized to evaluate the performance of these vision-based solutions with ground truth. Additionally, the presented vision solutions have compared with the state-of-art visual algorithms. Real tests and evaluation results show that the provided vision-based solutions have obtained real-time accurate robust performances, or gained better performance than those state-of-art visual algorithms. The vision-based estimation has played a critically important role for controlling a typical UAV to achieve autonomy in the UAV application.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El tiempo de concentración de una cuenca sigue siendo relativamente desconocido para los ingenieros. El procedimiento habitual en un estudio hidrológico es calcularlo según varias fórmulas escogidas entre las existentes para después emplear el valor medio obtenido. De esta media se derivan los demás resultados hidrológicos, resultados que influirán en el futuro dimensionamiento de las infraestructuras. Este trabajo de investigación comenzó con el deseo de conseguir un método más fiable y objetivo que permitiera obtener el tiempo de concentración. Dada la imposibilidad de poner en práctica ensayos hidrológicos en una cuenca física real, ya que no resulta viable monitorizar perfectamente la precipitación ni los caudales de salida, se planteó llevar a cabo los ensayos de forma simulada, con el empleo de modelos hidráulicos bidimensionales de lluvia directa sobre malla 2D de volúmenes finitos. De entre todos los disponibles, se escogió InfoWorks ICM, por su rapidez y facilidad de uso. En una primera fase se efectuó la validación del modelo hidráulico elegido, contrastando los resultados de varias simulaciones con la formulación analítica existente. Posteriormente, se comprobaron los valores de los tiempos de concentración obtenidos con las expresiones referenciadas en la bibliografía, consiguiéndose resultados muy satisfactorios. Una vez verificado, se ejecutaron 690 simulaciones de cuencas tanto naturales como sintéticas, incorporando variaciones de área, pendiente, rugosidad, intensidad y duración de las precipitaciones, a fin de obtener sus tiempos de concentración y retardo. Esta labor se realizó con ayuda de la aceleración del cálculo vectorial que ofrece la tecnología CUDA (Arquitectura Unificada de Dispositivos de Cálculo). Basándose en el análisis dimensional, se agruparon los resultados del tiempo de concentración en monomios adimensionales. Utilizando regresión lineal múltiple, se obtuvo una nueva formulación para el tiempo de concentración. La nueva expresión se contrastó con las formulaciones clásicas, habiéndose obtenido resultados equivalentes. Con la exposición de esta nueva metodología se pretende ayudar al ingeniero en la realización de estudios hidrológicos. Primero porque proporciona datos de manera sencilla y objetiva que se pueden emplear en modelos globales como HEC-HMS. Y segundo porque en sí misma se ha comprobado como una alternativa realmente válida a la metodología hidrológica habitual. Time of concentration remains still fairly imprecise to engineers. A normal hydrological study goes through several formulae, obtaining concentration time as the median value. Most of the remaining hydrologic results will be derived from this value. Those results will determine how future infrastructures will be designed. This research began with the aim to acquire a more reliable and objective method to estimate concentration times. Given the impossibility of carrying out hydrological tests in a real watershed, due to the difficulties related to accurate monitoring of rainfall and derived outflows, a model-based approach was proposed using bidimensional hydraulic simulations of direct rainfall over a 2D finite-volume mesh. Amongst all of the available software packages, InfoWorks ICM was chosen for its speed and ease of use. As a preliminary phase, the selected hydraulic model was validated, checking the outcomes of several simulations over existing analytical formulae. Next, concentration time values were compared to those resulting from expressions referenced in the technical literature. They proved highly satisfactory. Once the model was properly verified, 690 simulations of both natural and synthetic basins were performed, incorporating variations of area, slope, roughness, intensity and duration of rainfall, in order to obtain their concentration and lag times. This job was carried out in a reasonable time lapse with the aid of the parallel computing platform technology CUDA (Compute Unified Device Architecture). Performing dimensional analysis, concentration time results were isolated in dimensionless monomials. Afterwards, a new formulation for the time of concentration was obtained using multiple linear regression. This new expression was checked against classical formulations, obtaining equivalent results. The publication of this new methodology intends to further assist the engineer while carrying out hydrological studies. It is effective to provide global parameters that will feed global models as HEC-HMS on a simple and objective way. It has also been proven as a solid alternative to usual hydrology methodology.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En Cuba, las arvenses que afectan al cultivo de la caña de azúcar son una de las causas fundamentales de los bajos rendimientos agrícolas y su control constituye unas de las principales partidas de gastos. En general, se aplican los herbicidas, así como otros métodos de control, sin tener en cuenta el tipo de suelo y las características de estas plantas. Sobre el manejo de arvenses no existen trabajos de investigación que aborden aspectos de eficiencia energética de las producciones y daños al ambiente. Por lo antes señalado, el objetivo de esta investigación fue evaluar diversas tecnologías de manejo de arvenses en el cultivo de la caña de azúcar (Saccharum spp. híbrido), en cepas de primavera y retoño, en tres tipos de suelos, con el propósito de obtener producciones sustentables. El área de estudio se localizó en los campos de la Empresa Azucarera del municipio “Majibacoa”, provincia de Las Tunas (oriente de Cuba), que posee condiciones edafoclimáticas que abundan a lo largo del país. Los tres tipos de suelos más representativos son Fersialítico Pardo Rojizo ócrico, Pardo Mullido y Vertisol Crómico gléyco. En dicha área se han identificado 31 especies de arvenses, 16 de la clase Liliopsida y 15 de la Magnoliopsida. En un primer grupo de experimentos, se desarrollaron nueve ensayos de campo para evaluar la efectividad de herbicidas y mezclas de estos en el manejo de arvenses en el cultivo de la caña de azúcar, tanto en cepas de primavera como de retoño, en los tres tipos de suelos. Se establecieron parcelas de 80 m2 distribuidas en bloques al azar con cuatro réplicas. La efectividad se evaluó por medio del porcentaje de cobertura por arvenses y la fitotoxicidad provocada a las plantas de caña, teniendo en cuenta el coste asociado a cada tratamiento. En aplicaciones preemergentes en caña planta de primavera, el herbicida más eficiente fue el Isoxaflutole con dosis de 0,15; 0,20 y 0,25 kg.ha-1 de producto comercial (pc) en los suelos Fersialítico, Pardo y Vertisol respectivamente. En aplicaciones postemergentes tempranas la mezcla más eficiente fue la de Isoxaflutole + Ametrina +2,4-D con las dosis de Isoxaflutole citadas anteriormente. En aplicaciones preemergentes en cepa de retoño, el herbicida más eficiente fue el Isoxaflutole a dosis de 0,20 kg.ha-1 pc para el suelo Fersialítico y a 0,25 kg.ha-1 pc para los suelos Pardo y Vertisol. En un segundo grupo, se realizaron seis ensayos de campo distribuidos en dos fases. En la primera fase, se desarrollaron tres experimentos, uno por cada tipo de suelo, para evaluar la eficiencia de nueve tecnologías de manejo de arvenses (químicas y físicas combinadas) en cepa de primavera de caña de azúcar. En la siguiente fase, los tres ensayos restantes (uno por tipo de suelo) evaluaron tecnologías de manejo de arvenses durante dos ciclos de producción de caña de azúcar (etapa de primavera y retoño). En la etapa de primavera se aplicó la tecnología más eficiente de los tres experimentos anteriores y durante la etapa de retoño se evaluaron otras nueve tecnologías propias de este tipo de cepa. En estos experimentos los diferentes tratamientos se aplicaron en franjas distribuidas al azar con cuatro réplicas. En las tecnologías evaluadas se emplearon los herbicidas y mezclas que resultaron más eficientes en el primer grupo de experimentos. En cada caso, se evaluaron la eficiencia energética de la producción de azúcar y otros derivados, la resistencia a la penetración de los suelos, la carga contaminante hacia la atmósfera producto de la combustión del diésel y los beneficios al aplicar las diferentes tecnologías. En la primera fase (cepa de primavera), la tecnología con mejor resultado fue la aplicación preemergente de Isoxaflutole inmediatamente después de la plantación, seguida de descepe químico con Glufosinato de amonio, más labor con grada múltiple aproximadamente a los 80 días de la plantación y aplicación pre-cierre con Glufosinato de amonio. En la segunda fase (dos ciclos del cultivo), el mejor resultado se obtuvo cuando en la etapa de retoño se realizó una aplicación preemergente de Isoxaflutole, descepe químico con Glufosinato de amonio y aplicación pre-cierre con este mismo herbicida. En los tres tipos de suelos durante los dos ciclos, la eficiencia energética tuvo valores de 7,2 - 7,5, la resistencia a la penetración 1,2 - 1,5 MPa, la carga contaminante hacia la atmósfera fue de 63,3 - 64,9 kg.t-1 de caña cosechada y beneficios de 8.324 - 8.455 pesos cubanos por hectárea. Este estudio demuestra que un control eficiente de las arvenses debe tener en cuenta necesariamente el tipo de suelo. Así, en los Vertisoles, con mayor contenido en arcilla, se requieren mayores dosis de Isoxaflutole y la eficiencia energética de la producción es menor. La persistencia de ciertas arvenses, especialmente de la clase Liliopsida, requiere de un manejo integrado que incluya diferentes tipos de herbicidas. ABSTRACT In Cuba, weeds affecting the sugarcane are one of the main causes of low agricultural yields, and their control constitutes some of the main items of expenditure. In general, herbicides are applied, as well as other control methods, without keeping in mind the soil type and the characteristics of these plants. Moreover, weed control research approaching aspects about energy efficiency of the crop production, and environmental damages are missing. Hence, the objective of this investigation was to evaluate diverse technologies of weed handling in sugarcane (Saccharum spp. hybrid), both in spring cane plant and ratoon, in three types of soils, with the purpose of obtaining sustainable productions. The study area was located in the fields of the Sugar Enterprise of the Municipality "Majibacoa”, Las Tunas province (east of Cuba) that possesses ecological conditions that are plentiful along the country. The three more representative types of soils are Fersialitic, Brown, and Vertisol. In this area 31 weeds species have been identified, 16 of the Class Liliopsida and 15 of the Magnoliopsida. In a first group of experiments, nine field rehearsals were developed to evaluate the effectiveness of herbicides and mixtures of these for weed handling in sugarcane, in spring cane plants as well as in ratoon, in the three types of soils. Plots of 80 m-2 were distributed at random blocks with four replications. The effectiveness was evaluated by means of the covering percentage by weeds and the provoked toxicity to the cane plants, keeping in mind the cost associated to each treatment. In preemergence applications in spring cane plant, the most efficient herbicide was the Isoxaflutole with dose of 0.15; 0.20 and 0.25 kg.ha-1 of commercial product (pc) in the soils Fersialítico, Brown and Vertisol respectively. In early postemergence applications the most efficient mixture was that of Isoxaflutole + Ametrina + 2,4-D with the doses of Isoxaflutole mentioned previously. In preemergence applications in ratoon, the most efficient herbicide was the Isoxaflutole at dose of 0.20 kg.ha-1 pc for the soil Fersialític and to 0.25 kg. ha-1 pc for the Brown soil and Vertisol. In a second group, six field rehearsals distributed in two phases were carried out. In the first phase, three experiments were developed, one for each soil type, to evaluate the efficiency of nine technologies of weed handling in spring cane plant. In the following phase, the three remaining rehearsals (one for each soil type) diverse technologies of weed handling were evaluated during two cycles of sugarcane production (spring stage and ratoon). In the spring stage the most efficient technology in the three previous experiments was applied and during ratoon stage other nine technologies were evaluated. In these experiments the different treatments were applied in fringes distributed at random with four replicas. In the evaluated technologies the herbicides and mixtures were used selecting those that were more efficient in the first group of experiments. In each case, the energy efficiency of the sugar production and other derivatives, the soil penetration resistance, the polluting load toward the atmosphere product of the combustion, and the benefits when applying the different technologies were all evaluated. In the first phase (spring cane plant), the technology with better result was the preemergence application of Isoxaflutole immediately after the plantation, followed by chemical eradication with Ammonia Glufosinate, hoeing work with multiple tier approximately to the 80 days of the plantation and pre-closing application with Ammonia Glufosinate. In the second phase (two cycles of the cultivation), the best result was obtained when a preemergence application of Isoxaflutole was carried out in sprout's stage, chemical eradication with Ammonia Glufosinate and pre-closing application with this same herbicide. In the three types of soils during the two cycles, the energy efficiency achieved values of 7.2 to 7.5, the resistance to the penetration 1.2 - 1.5 MPa, the polluting load toward the atmosphere was of 63.3 - 64.9 kg.t-1 of the harvested cane and the obtained benefits of 8,324 - 8,455 Cuban pesos per hectare. This study demonstrates that an efficient control of the weeds should necessarily keep in mind the soil type. This way, in the Vertisols, with more clay content, bigger dose of Isoxaflutole is required and the energy efficiency of the production is smaller. The persistence of certain weeds, especially of the class Liliopsida, requires of an integrated handling him to include different types of herbicides.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objetivo: Este Trabajo Fin de Máster (TFM) analiza la importancia de la información poblacional en el análisis de datos de experimentos en IS. Por otro lado se intenta abordar un estudio sobre las posibles metodologías que se pueden usar para realizar dicho análisis. Contexto: El análisis se realiza sobre los resultados de un experimento llevado a cabo por el Grupo de Investigación de IS empírica de la UPM, cuyo objetivo es analizar el impacto que tiene el uso de TDD (Test Driven Development) sobre la calidad y la productividad del desarrollo software en comparación con el desarrollo tradicional TLD. Método de Investigación: Se analizan ocho variables demográficas frente a tres variables respuesta. Las metodologías o técnicas de análisis que se revisan son la Dicotomización, la Correlación de Pearson, la regresión lineal múltiple y la stepwise regression. Resultados: No se encuentran evidencias claras para afirmar que las variables demográficas influyen en los resultados de los experimentos. No obstante los resultados no son del todo concluyentes y queda abierta la investigación a realizarse con una muestra más amplia y representativa. En relación a la metodología de análisis aplicada, la dicotomización y la correlación de Pearson presentan deficiencias que se solventan con la regresión lineal múltiple y la stepwise regression. Conclusión: Resulta de vital importancia encontrar evidencias de la influencia de las características demográficas de los sujetos experimentales en el análisis de los datos experimentos en IS. Se ha encontrado un buen método para analizar esta influencia, pero falta replicar este análisis a más experimentos de IS para obtener resultados mejor fundados.---ABSTRACT---Objective: This Master's Thesis (TFM) discusses the importance of demographic data in the analysis of data from experiments in SE. On the other hand, it attempts to address a study of the possible methodologies that can be used to perform the analysis. Context: The analysis is performed on the results of an experiment conducted by the ESE Research Group of the UPM, aimed at analyzing the impact of the use of TDD (Test Driven Development) on quality and productivity, compared to traditional development TLD (Test Last Development). Research Method: Eight demographic variables were analyzed against three response variables. The methodologies and analysis techniques that are reviewed include dichotomization, Pearson correlation, multiple linear regression and stepwise regression. Results: There is not clear evidence to say that demographic variables influence the results of SE experiments. However the results are not conclusive, and are open to research with a broader and more representative sample. Regarding the applied analysis methodology, dichotomization and Pearson correlation have deficiencies that are solved with multiple linear regression and stepwise regression. Conclusion: It is very important to find evidence on the influence of demographic characteristics of subjects in the data analysis of SE experiments. We found a good way to analyze this influence, but is necessary replicate this analysis on more SE experiments to obtain sound results.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La participación de los jóvenes en los procesos de planificación urbana en Lisboa, Madrid y Fortaleza ha sido tema central de la presente tesis. Los principales objetivos perseguidos consisten en: caracterizar y analizar críticamente las dimensiones más importantes de la participación de jóvenes universitarios en los procesos participativos; aportar características de interés juvenil para un “modelo” de planificación urbana; elaborar directrices para el diseño de actuaciones en un proceso urbano participativo desde la perspectiva de los jóvenes; establecer el alcance de un instrumento urbano participativo reglamentado por el gobierno local entre los jóvenes; determinar si la percepción de los jóvenes universitarios acerca de las acciones del gobierno local tiene influencia en los procesos participativos. El universo estadístico de la muestra lo conforman la totalidad de 737 jóvenes universitarios encuestados en Lisboa, Madrid y Fortaleza. Que se distribuye en 104 encuestados en Lisboa, 329 en Madrid, y 304 en la ciudad de Fortaleza. El cuestionario contiene preguntas: abiertas, cerradas y mixtas. La mayor parte de las cuestiones son cerradas, y en cuanto a las opciones de respuesta: en muchas preguntas se ha aplicado, una escala tipo Likert, entre 1 y 4, siendo 4 el grado más alto (totalmente de acuerdo), y 1 el grado más bajo (nada de acuerdo), y para otras, una opción múltiple, con solamente una opción de respuesta. Se realizó un cuestionario de 31 preguntas en Lisboa, y tras su aplicación y obtención de resultados se revisó y mejoró obteniendo un cuestionario de 23 preguntas que fue aplicado en Madrid y Fortaleza. Se realizan análisis descriptivos, y algún análisis factorial en diversas preguntas del cuestionario, y se estudian diferencias en función de las variables sociodemográficas planteadas. Los resultados constatan que es muy baja la participación en los procesos institucionalizados por el gobierno local, en contrapartida es bastante alta en los procesos organizados por los ciudadanos. La información limita la participación de los jóvenes y ya que estos reconocen como motivación estar más y mejor informados y controlar y acompañar las acciones de su gobierno local. Por otra parte, desean participar en grupo en foros y debates presenciales. Los jóvenes madrileños consideran que las etapas más importantes en un proceso urbano participativo son: información, seguimiento y evaluación, mientras que para los jóvenes de Fortaleza son: Fiscalización, concienciación e información. Se ha verificado que desde la percepción de los jóvenes de Lisboa los ciudadanos son consultados en los procesos urbanos participativos y de acuerdo con los jóvenes de Madrid y Fortaleza los ciudadanos son dirigidos, influenciados y manipulados. Los problemas de carácter urbano no tienen una conceptualización clara y precisa entre los jóvenes universitarios y los problemas urbanos que más afectan la vida de los jóvenes universitarios son aparcamientos, contaminación y seguridad urbana. Sin embargo, los transportes son apuntados por los jóvenes universitarios de Lisboa, Madrid y Fortaleza. Además no saben identificar los problemas de su barrio. Así como de las causas y consecuencias y soluciones de los problemas urbanos. Eligen como mejor estrategia para desarrollar un proceso urbano participativo el acuerdo entre técnicos, población y el gobierno local. Los jóvenes universitarios de Fortaleza apuntan directrices para una planificación urbana con énfasis en la seguridad urbana, la sostenibilidad y la investigación, tecnología e innovación. Por otro lado, los jóvenes universitarios de Madrid perfilan tres “modelos” de planificación urbana: un “Modelo” socio-económica, un “Modelo” sostenible e innovadora y un “Modelo” de Planificación Urbana con énfasis en espacios públicos, entretenimiento, seguridad urbana y deporte. Los jóvenes universitarios rechazan la idea que la planificación urbana lleva en cuenta sus perspectivas y opiniones. Respeto al Presupuesto Participativo, el alcance de dicho proceso entre los jóvenes universitarios es extremamente bajo. Sin embargo, opinan que la aproximación entre ciudadanos, técnicos y gobierno en los procesos de Presupuesto Participativo mejora la rendición de cuentas. Además los jóvenes creen que dichos procesos conceden un poder moderado a los ciudadanos, y consideran que el poder concedido en los procesos urbanos influye directamente en el interés y empeño en participar. ABSTRACT Youth participation in urban planning processes in Lisbon, Madrid and Fortaleza is the main subject of this thesis. Our key goals are the following: characterising and critically analysing the most important dimensions of young university students’ participation in participative processes; providing features of interest for the young for an urban planning “model”; developing a variety of guidelines for designing actions in a participative urban process from the perspective of young people; analysing the impact upon the young of a participative urban instrument implemented by the local government; determining whether young university students’ perception of local government actions influences participative processes. The statistical universe of the sample comprises a total of 737 young university students who were surveyed in Lisbon, Madrid and Fortaleza, distributed as follows: 104 respondents in Lisbon, 329 in Madrid, and 304 in Fortaleza. The survey is made up of open-ended, closed-ended and mixed questions. Most questions are closed-ended. Regarding the answer options, a Likert-type scale has been used in many questions. The scale ranges from 1 to 4, 4 being the highest value (completely agree) and 1 the lowest (completely disagree). Besides, there are multiple-choice questions with only one possible answer. A 31- question survey was conducted in Lisbon. After the survey was run and the results were obtained, it was reviewed and improved. The improved version was a 23- question survey which was conducted in Madrid and Fortaleza. Descriptive analyses as well as some factorial analyses are carried out in several questions, and differences are studied depending on the socio-demographic variables involved. The results show that participation in processes implemented by local governments is very low. In contrast, participation is quite high in processes organised by citizens. Information limits youth participation, as young people point out that they are motivated by more and better information and by the possibility of monitoring and keeping track of their local government actions. They also wish to take part in face-to-face group forums and discussions. Young people from Madrid think that the most important stages in participative urban processes are information, follow-up and assessment, whereas young people from Fortaleza highlight tax matters, awareness and information. It has been confirmed that Lisbon youth perceive that citizens are consulted in participative urban processes. Youth from Madrid and Fortaleza, on the other hand, state that citizens are directed, influenced and manipulated. Young university students do not have a clear, precise concept of urban problems. Among these, they are most affected by car parks, pollution and urban safety, but the transport problem is pointed out by young university students from Lisbon, Madrid and Fortaleza. Furthermore, they cannot identify the problems in their neighbourhoods, nor are they able to specify the causes, consequences and solutions of urban problems. Their preferred strategy for developing a participative urban process is an agreement between technicians, the population and the local government. Young university students from Fortaleza suggest guidelines for an urban planning approach emphasising urban safety, sustainability and research, technology and innovation. Those from Madrid, for their part, outline three urban planning “models”: a socioeconomic “model”, a sustainable and innovative “model”, and an urban planning “model” with a focus on public areas, entertainment, urban safety and sport. Young university students disagree that urban planning takes their perspectives and views into account. Moreover, the impact of the Participative Budget upon their lives is extremely low. In their opinion, however, closer collaboration between citizens, technicians and governments in Participative Budget processes promotes accountability. The young also think that these processes give moderate power to citizens, and in their view the power that can be exerted in urban processes directly influences the interest in participating and the will to do so.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El análisis determinista de seguridad (DSA) es el procedimiento que sirve para diseñar sistemas, estructuras y componentes relacionados con la seguridad en las plantas nucleares. El DSA se basa en simulaciones computacionales de una serie de hipotéticos accidentes representativos de la instalación, llamados escenarios base de diseño (DBS). Los organismos reguladores señalan una serie de magnitudes de seguridad que deben calcularse en las simulaciones, y establecen unos criterios reguladores de aceptación (CRA), que son restricciones que deben cumplir los valores de esas magnitudes. Las metodologías para realizar los DSA pueden ser de 2 tipos: conservadoras o realistas. Las metodologías conservadoras utilizan modelos predictivos e hipótesis marcadamente pesimistas, y, por ello, relativamente simples. No necesitan incluir un análisis de incertidumbre de sus resultados. Las metodologías realistas se basan en hipótesis y modelos predictivos realistas, generalmente mecanicistas, y se suplementan con un análisis de incertidumbre de sus principales resultados. Se les denomina también metodologías BEPU (“Best Estimate Plus Uncertainty”). En ellas, la incertidumbre se representa, básicamente, de manera probabilista. Para metodologías conservadores, los CRA son, simplemente, restricciones sobre valores calculados de las magnitudes de seguridad, que deben quedar confinados en una “región de aceptación” de su recorrido. Para metodologías BEPU, el CRA no puede ser tan sencillo, porque las magnitudes de seguridad son ahora variables inciertas. En la tesis se desarrolla la manera de introducción de la incertidumbre en los CRA. Básicamente, se mantiene el confinamiento a la misma región de aceptación, establecida por el regulador. Pero no se exige el cumplimiento estricto sino un alto nivel de certidumbre. En el formalismo adoptado, se entiende por ello un “alto nivel de probabilidad”, y ésta corresponde a la incertidumbre de cálculo de las magnitudes de seguridad. Tal incertidumbre puede considerarse como originada en los inputs al modelo de cálculo, y propagada a través de dicho modelo. Los inputs inciertos incluyen las condiciones iniciales y de frontera al cálculo, y los parámetros empíricos de modelo, que se utilizan para incorporar la incertidumbre debida a la imperfección del modelo. Se exige, por tanto, el cumplimiento del CRA con una probabilidad no menor a un valor P0 cercano a 1 y definido por el regulador (nivel de probabilidad o cobertura). Sin embargo, la de cálculo de la magnitud no es la única incertidumbre existente. Aunque un modelo (sus ecuaciones básicas) se conozca a la perfección, la aplicación input-output que produce se conoce de manera imperfecta (salvo que el modelo sea muy simple). La incertidumbre debida la ignorancia sobre la acción del modelo se denomina epistémica; también se puede decir que es incertidumbre respecto a la propagación. La consecuencia es que la probabilidad de cumplimiento del CRA no se puede conocer a la perfección; es una magnitud incierta. Y así se justifica otro término usado aquí para esta incertidumbre epistémica: metaincertidumbre. Los CRA deben incorporar los dos tipos de incertidumbre: la de cálculo de la magnitud de seguridad (aquí llamada aleatoria) y la de cálculo de la probabilidad (llamada epistémica o metaincertidumbre). Ambas incertidumbres pueden introducirse de dos maneras: separadas o combinadas. En ambos casos, el CRA se convierte en un criterio probabilista. Si se separan incertidumbres, se utiliza una probabilidad de segundo orden; si se combinan, se utiliza una probabilidad única. Si se emplea la probabilidad de segundo orden, es necesario que el regulador imponga un segundo nivel de cumplimiento, referido a la incertidumbre epistémica. Se denomina nivel regulador de confianza, y debe ser un número cercano a 1. Al par formado por los dos niveles reguladores (de probabilidad y de confianza) se le llama nivel regulador de tolerancia. En la Tesis se razona que la mejor manera de construir el CRA BEPU es separando las incertidumbres, por dos motivos. Primero, los expertos defienden el tratamiento por separado de incertidumbre aleatoria y epistémica. Segundo, el CRA separado es (salvo en casos excepcionales) más conservador que el CRA combinado. El CRA BEPU no es otra cosa que una hipótesis sobre una distribución de probabilidad, y su comprobación se realiza de forma estadística. En la tesis, los métodos estadísticos para comprobar el CRA BEPU en 3 categorías, según estén basados en construcción de regiones de tolerancia, en estimaciones de cuantiles o en estimaciones de probabilidades (ya sea de cumplimiento, ya sea de excedencia de límites reguladores). Según denominación propuesta recientemente, las dos primeras categorías corresponden a los métodos Q, y la tercera, a los métodos P. El propósito de la clasificación no es hacer un inventario de los distintos métodos en cada categoría, que son muy numerosos y variados, sino de relacionar las distintas categorías y citar los métodos más utilizados y los mejor considerados desde el punto de vista regulador. Se hace mención especial del método más utilizado hasta el momento: el método no paramétrico de Wilks, junto con su extensión, hecha por Wald, al caso multidimensional. Se decribe su método P homólogo, el intervalo de Clopper-Pearson, típicamente ignorado en el ámbito BEPU. En este contexto, se menciona el problema del coste computacional del análisis de incertidumbre. Los métodos de Wilks, Wald y Clopper-Pearson requieren que la muestra aleatortia utilizada tenga un tamaño mínimo, tanto mayor cuanto mayor el nivel de tolerancia exigido. El tamaño de muestra es un indicador del coste computacional, porque cada elemento muestral es un valor de la magnitud de seguridad, que requiere un cálculo con modelos predictivos. Se hace especial énfasis en el coste computacional cuando la magnitud de seguridad es multidimensional; es decir, cuando el CRA es un criterio múltiple. Se demuestra que, cuando las distintas componentes de la magnitud se obtienen de un mismo cálculo, el carácter multidimensional no introduce ningún coste computacional adicional. Se prueba así la falsedad de una creencia habitual en el ámbito BEPU: que el problema multidimensional sólo es atacable desde la extensión de Wald, que tiene un coste de computación creciente con la dimensión del problema. En el caso (que se da a veces) en que cada componente de la magnitud se calcula independientemente de los demás, la influencia de la dimensión en el coste no se puede evitar. Las primeras metodologías BEPU hacían la propagación de incertidumbres a través de un modelo sustitutivo (metamodelo o emulador) del modelo predictivo o código. El objetivo del metamodelo no es su capacidad predictiva, muy inferior a la del modelo original, sino reemplazar a éste exclusivamente en la propagación de incertidumbres. Para ello, el metamodelo se debe construir con los parámetros de input que más contribuyan a la incertidumbre del resultado, y eso requiere un análisis de importancia o de sensibilidad previo. Por su simplicidad, el modelo sustitutivo apenas supone coste computacional, y puede estudiarse exhaustivamente, por ejemplo mediante muestras aleatorias. En consecuencia, la incertidumbre epistémica o metaincertidumbre desaparece, y el criterio BEPU para metamodelos se convierte en una probabilidad simple. En un resumen rápido, el regulador aceptará con más facilidad los métodos estadísticos que menos hipótesis necesiten; los exactos más que los aproximados; los no paramétricos más que los paramétricos, y los frecuentistas más que los bayesianos. El criterio BEPU se basa en una probabilidad de segundo orden. La probabilidad de que las magnitudes de seguridad estén en la región de aceptación no sólo puede asimilarse a una probabilidad de éxito o un grado de cumplimiento del CRA. También tiene una interpretación métrica: representa una distancia (dentro del recorrido de las magnitudes) desde la magnitud calculada hasta los límites reguladores de aceptación. Esta interpretación da pie a una definición que propone esta tesis: la de margen de seguridad probabilista. Dada una magnitud de seguridad escalar con un límite superior de aceptación, se define el margen de seguridad (MS) entre dos valores A y B de la misma como la probabilidad de que A sea menor que B, obtenida a partir de las incertidumbres de A y B. La definición probabilista de MS tiene varias ventajas: es adimensional, puede combinarse de acuerdo con las leyes de la probabilidad y es fácilmente generalizable a varias dimensiones. Además, no cumple la propiedad simétrica. El término margen de seguridad puede aplicarse a distintas situaciones: distancia de una magnitud calculada a un límite regulador (margen de licencia); distancia del valor real de la magnitud a su valor calculado (margen analítico); distancia desde un límite regulador hasta el valor umbral de daño a una barrera (margen de barrera). Esta idea de representar distancias (en el recorrido de magnitudes de seguridad) mediante probabilidades puede aplicarse al estudio del conservadurismo. El margen analítico puede interpretarse como el grado de conservadurismo (GC) de la metodología de cálculo. Utilizando la probabilidad, se puede cuantificar el conservadurismo de límites de tolerancia de una magnitud, y se pueden establecer indicadores de conservadurismo que sirvan para comparar diferentes métodos de construcción de límites y regiones de tolerancia. Un tópico que nunca se abordado de manera rigurosa es el de la validación de metodologías BEPU. Como cualquier otro instrumento de cálculo, una metodología, antes de poder aplicarse a análisis de licencia, tiene que validarse, mediante la comparación entre sus predicciones y valores reales de las magnitudes de seguridad. Tal comparación sólo puede hacerse en escenarios de accidente para los que existan valores medidos de las magnitudes de seguridad, y eso ocurre, básicamente en instalaciones experimentales. El objetivo último del establecimiento de los CRA consiste en verificar que se cumplen para los valores reales de las magnitudes de seguridad, y no sólo para sus valores calculados. En la tesis se demuestra que una condición suficiente para este objetivo último es la conjunción del cumplimiento de 2 criterios: el CRA BEPU de licencia y un criterio análogo, pero aplicado a validación. Y el criterio de validación debe demostrarse en escenarios experimentales y extrapolarse a plantas nucleares. El criterio de licencia exige un valor mínimo (P0) del margen probabilista de licencia; el criterio de validación exige un valor mínimo del margen analítico (el GC). Esos niveles mínimos son básicamente complementarios; cuanto mayor uno, menor el otro. La práctica reguladora actual impone un valor alto al margen de licencia, y eso supone que el GC exigido es pequeño. Adoptar valores menores para P0 supone menor exigencia sobre el cumplimiento del CRA, y, en cambio, más exigencia sobre el GC de la metodología. Y es importante destacar que cuanto mayor sea el valor mínimo del margen (de licencia o analítico) mayor es el coste computacional para demostrarlo. Así que los esfuerzos computacionales también son complementarios: si uno de los niveles es alto (lo que aumenta la exigencia en el cumplimiento del criterio) aumenta el coste computacional. Si se adopta un valor medio de P0, el GC exigido también es medio, con lo que la metodología no tiene que ser muy conservadora, y el coste computacional total (licencia más validación) puede optimizarse. ABSTRACT Deterministic Safety Analysis (DSA) is the procedure used in the design of safety-related systems, structures and components of nuclear power plants (NPPs). DSA is based on computational simulations of a set of hypothetical accidents of the plant, named Design Basis Scenarios (DBS). Nuclear regulatory authorities require the calculation of a set of safety magnitudes, and define the regulatory acceptance criteria (RAC) that must be fulfilled by them. Methodologies for performing DSA van be categorized as conservative or realistic. Conservative methodologies make use of pessimistic model and assumptions, and are relatively simple. They do not need an uncertainty analysis of their results. Realistic methodologies are based on realistic (usually mechanistic) predictive models and assumptions, and need to be supplemented with uncertainty analyses of their results. They are also termed BEPU (“Best Estimate Plus Uncertainty”) methodologies, and are typically based on a probabilistic representation of the uncertainty. For conservative methodologies, the RAC are simply the restriction of calculated values of safety magnitudes to “acceptance regions” defined on their range. For BEPU methodologies, the RAC cannot be so simple, because the safety magnitudes are now uncertain. In the present Thesis, the inclusion of uncertainty in RAC is studied. Basically, the restriction to the acceptance region must be fulfilled “with a high certainty level”. Specifically, a high probability of fulfillment is required. The calculation uncertainty of the magnitudes is considered as propagated from inputs through the predictive model. Uncertain inputs include model empirical parameters, which store the uncertainty due to the model imperfection. The fulfillment of the RAC is required with a probability not less than a value P0 close to 1 and defined by the regulator (probability or coverage level). Calculation uncertainty is not the only one involved. Even if a model (i.e. the basic equations) is perfectly known, the input-output mapping produced by the model is imperfectly known (unless the model is very simple). This ignorance is called epistemic uncertainty, and it is associated to the process of propagation). In fact, it is propagated to the probability of fulfilling the RAC. Another term used on the Thesis for this epistemic uncertainty is metauncertainty. The RAC must include the two types of uncertainty: one for the calculation of the magnitude (aleatory uncertainty); the other one, for the calculation of the probability (epistemic uncertainty). The two uncertainties can be taken into account in a separate fashion, or can be combined. In any case the RAC becomes a probabilistic criterion. If uncertainties are separated, a second-order probability is used; of both are combined, a single probability is used. On the first case, the regulator must define a level of fulfillment for the epistemic uncertainty, termed regulatory confidence level, as a value close to 1. The pair of regulatory levels (probability and confidence) is termed the regulatory tolerance level. The Thesis concludes that the adequate way of setting the BEPU RAC is by separating the uncertainties. There are two reasons to do so: experts recommend the separation of aleatory and epistemic uncertainty; and the separated RAC is in general more conservative than the joint RAC. The BEPU RAC is a hypothesis on a probability distribution, and must be statistically tested. The Thesis classifies the statistical methods to verify the RAC fulfillment in 3 categories: methods based on tolerance regions, in quantile estimators and on probability (of success or failure) estimators. The former two have been termed Q-methods, whereas those in the third category are termed P-methods. The purpose of our categorization is not to make an exhaustive survey of the very numerous existing methods. Rather, the goal is to relate the three categories and examine the most used methods from a regulatory standpoint. Special mention deserves the most used method, due to Wilks, and its extension to multidimensional variables (due to Wald). The counterpart P-method of Wilks’ is Clopper-Pearson interval, typically ignored in the BEPU realm. The problem of the computational cost of an uncertainty analysis is tackled. Wilks’, Wald’s and Clopper-Pearson methods require a minimum sample size, which is a growing function of the tolerance level. The sample size is an indicator of the computational cost, because each element of the sample must be calculated with the predictive models (codes). When the RAC is a multiple criteria, the safety magnitude becomes multidimensional. When all its components are output of the same calculation, the multidimensional character does not introduce additional computational cost. In this way, an extended idea in the BEPU realm, stating that the multi-D problem can only be tackled with the Wald extension, is proven to be false. When the components of the magnitude are independently calculated, the influence of the problem dimension on the cost cannot be avoided. The former BEPU methodologies performed the uncertainty propagation through a surrogate model of the code, also termed emulator or metamodel. The goal of a metamodel is not the predictive capability, clearly worse to the original code, but the capacity to propagate uncertainties with a lower computational cost. The emulator must contain the input parameters contributing the most to the output uncertainty, and this requires a previous importance analysis. The surrogate model is practically inexpensive to run, so that it can be exhaustively analyzed through Monte Carlo. Therefore, the epistemic uncertainty due to sampling will be reduced to almost zero, and the BEPU RAC for metamodels includes a simple probability. The regulatory authority will tend to accept the use of statistical methods which need a minimum of assumptions: exact, nonparametric and frequentist methods rather than approximate, parametric and bayesian methods, respectively. The BEPU RAC is based on a second-order probability. The probability of the safety magnitudes being inside the acceptance region is a success probability and can be interpreted as a fulfillment degree if the RAC. Furthermore, it has a metric interpretation, as a distance (in the range of magnitudes) from calculated values of the magnitudes to acceptance regulatory limits. A probabilistic definition of safety margin (SM) is proposed in the thesis. The same from a value A to other value B of a safety magnitude is defined as the probability that A is less severe than B, obtained from the uncertainties if A and B. The probabilistic definition of SM has several advantages: it is nondimensional, ranges in the interval (0,1) and can be easily generalized to multiple dimensions. Furthermore, probabilistic SM are combined according to the probability laws. And a basic property: probabilistic SM are not symmetric. There are several types of SM: distance from a calculated value to a regulatory limit (licensing margin); or from the real value to the calculated value of a magnitude (analytical margin); or from the regulatory limit to the damage threshold (barrier margin). These representations of distances (in the magnitudes’ range) as probabilities can be applied to the quantification of conservativeness. Analytical margins can be interpreted as the degree of conservativeness (DG) of the computational methodology. Conservativeness indicators are established in the Thesis, useful in the comparison of different methods of constructing tolerance limits and regions. There is a topic which has not been rigorously tackled to the date: the validation of BEPU methodologies. Before being applied in licensing, methodologies must be validated, on the basis of comparisons of their predictions ad real values of the safety magnitudes. Real data are obtained, basically, in experimental facilities. The ultimate goal of establishing RAC is to verify that real values (aside from calculated values) fulfill them. In the Thesis it is proved that a sufficient condition for this goal is the conjunction of 2 criteria: the BEPU RAC and an analogous criterion for validation. And this las criterion must be proved in experimental scenarios and extrapolated to NPPs. The licensing RAC requires a minimum value (P0) of the probabilistic licensing margin; the validation criterion requires a minimum value of the analytical margin (i.e., of the DG). These minimum values are basically complementary; the higher one of them, the lower the other one. The regulatory practice sets a high value on the licensing margin, so that the required DG is low. The possible adoption of lower values for P0 would imply weaker exigence on the RCA fulfillment and, on the other hand, higher exigence on the conservativeness of the methodology. It is important to highlight that a higher minimum value of the licensing or analytical margin requires a higher computational cost. Therefore, the computational efforts are also complementary. If medium levels are adopted, the required DG is also medium, and the methodology does not need to be very conservative. The total computational effort (licensing plus validation) could be optimized.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El consumo mundial, impulsor del desarrollo y crecimiento económico de los pueblos, no ha sido igual para todas las naciones, ya que sus efectos han sido diferentes para los ciudadanos de los países del Norte y los del Sur, principalmente por dos razones: una, porque han originado complejos y diferentes estilos de vida y aspiraciones, lo que ha originado grandes diferencias entre los individuos de unos y otros países, y, dos, por su falta de valores sociales y éticos. Ante esta situación, la sociedad en su conjunto debe tomar conciencia de este hecho, y a través de un consumo responsable y de un mayor conocimiento de las relaciones comerciales entre los pueblos, debe optar por consumir productos elaborados bajo criterios de justicia y equidad. Para ayudar a alcanzar estos objetivos de equidad, solidaridad, justicia y ética, nació el Comercio Justo, que, en el caso de España, llegó con veinte años de retraso en la década de los ochenta. Aunque a día de hoy sus ventas crecen a un buen ritmo, siguen siendo inferiores al resto de los países europeos, por cuatro razones: (1) el desconocimiento que la mayoría de los potenciales consumidores tienen de este movimiento social; (2) la dificultad de acceder a los productos que comercializan; (3) el poco impulso que se ofrece desde las Administraciones Públicas; y, (4) porque hay pocas investigaciones en las que se haya analizado el Comercio Justo desde la perspectiva de la demanda, lo que ha implicado que no haya un conocimiento profundo sobre los consumidores de este tipo de productos y sobre sus motivaciones de compra. En base a todo lo expuesto, el presente trabajo se concibe como un estudio exploratorio, que tiene como objetivo principal analizar el perfil de los consumidores y no consumidores de productos de Comercio Justo, sus motivaciones de compra y no compra, así como las variables que influyen en la intención de compra futura, tanto en el segmento de consumidores actuales, como en el segmento de no consumidores de este tipo de productos. Para la realización de este trabajo, se ha utilizado, por una parte, una metodología cualitativa, que ha permitido acceder a la información sobre las opiniones y actitudes que intervienen en los procesos de decisión de compra; y, por otra, una metodología cuantitativa, a través de una encuesta online dirigida a 6.500 individuos, que ha permitido tener información, a través de sendos análisis descriptivos univariante y bivariante, de los individuos encuestados sobre el objeto del estudio. Para validar los modelos y contrastar las hipótesis planteadas, se ha utilizado el análisis de fiabilidad y validación de las escalas de medición seleccionadas (Alpha de Cronbach); el análisis factorial exploratorio, para comprobar la dimensionalidad y validez convergente de las escalas de medida; el análisis factorial confirmatorio, para validar la idoneidad de los modelos de medida propuestos; la regresión logística, para comprobar la validez del modelo general de la probabilidad de la compra o no compra de productos de Comercio Justo; y la regresión lineal múltiple, para comprobar la validez de los modelos específicos de intención de compra futura en los segmentos de compradores y de no compradores. Para realizar todos estos análisis, se han utilizado las herramientas informáticas SPSS v21 y AMOS. Las principales conclusiones del trabajo son: (1) que se deben establecer unos criterios claros que definan quién es quién en el movimiento de Comercio Justo, sus fines, sus objetivos, los productos que comercializan, así como su funcionamiento y desarrollo en España; (2) que, a pesar de las grandes ventajas y posibilidades del Comercio Justo, hay una falta de demanda de estos productos por parte de los consumidores responsables, debido principalmente a la falta de información-comunicación sobre el propio movimiento, y, muy especialmente, a la falta de información sobre los productos, los canales de comercialización, las políticas de precios, las políticas de comunicación, etc., y a la necesidad de que estos productos estén accesibles en los lugares donde los consumidores hacen su compra habitual; y (3) que el Comercio Justo español debe afrontar una serie de desafíos, como son la coordinación entre las diferentes organizaciones que participan en su desarrollo; la sensibilización de los consumidores; la creación de una imagen de marca que defina de una manera clara y sencilla qué es el Comercio Justo; la orientación al cliente y no al producto; y extender la red de comercialización de productos de Comercio Justo a los canales donde los consumidores hacen su compra habitualmente. ABSTRACT Global consumption, the driver of economic growth and development of nations, is not the same for all countries, since its effects have been different on people coming from the North or the South. This is due mainly to two reasons: firstly, because they have developed complex and different lifestyles and aspirations, which have led to significant differences between individuals of one country and another and secondly, because they lack social and ethical values. Given this situation, society as a whole should be aware of this fact, and through responsible consumption and a greater knowledge of trade relations between countries, should opt for consuming products produced with criteria of justice and equity. Fair Trade began as a way to help reach these goals of equity, solidarity, justice and ethics. In the case of Spain it did not start until 20 years later, in the eighties. Although today sales of Fair Trade products are growing at a good rate, they are still below that of other European countries, for four reasons: (1) unawareness of this social movement; (2) the difficult access to these products; (3) insufficient government support; (4) the limited research carried out to analyse Fair Trade from the perspective of demand, resulting in a lack of knowledge about this type of consumer and their purchasing motivations. Based on the above, the present study is designed as an exploratory investigation, aimed at analyzing the profile of consumers and non-consumers of Fair Trade, their motivations for buying and not buying, as well as the variables which influence future purchase intention in both the current consumer segment, and the non-user segment of such products. To carry out this study we have used, on the one hand, a qualitative methodology, to obtain information about the views and attitudes involved in the purchase decision process; and on the other, a quantitative methodology, through an online survey of 6,500 individuals, which provided information through two separate univariate and bivariate descriptive analysis, of the individuals interviewed about the object of this study. To validate the models and contrast hypotheses, we have used the reliability analysis and validation of the selected measurement scales (Cronbach's Alpha); exploratory factor analysis to verify the dimensionality and convergent validity of the measurement scales; confirmatory factor analysis to validate the adequacy of the models of measurement proposed; logistic regression, to verify the validity of the general model of the probability of buying or not buying Fair Trade products; and multiple linear regression to test the validity of specific models in future purchase intention in the segments of buyers and non-buyers. To carry out these analyses, we used SPSS v21 software tools and AMOS. The principal conclusions of the investigation are: (1) the need to establish clear criteria which define who is who in the Fair Trade movement, its goals, objectives, the products they sell, as well as its operation and development in Spain; (2) that despite the great advantages and possibilities of Fair Trade, there is a lack of demand for these products by responsible consumers, mainly due to the lack of information-communication about the movement itself, and especially on the range of products, sales channels, pricing policies, communication policies, etc., and the need for these products to be available in places where consumers make their usual purchase; and (3) that Spanish Fair Trade must address a number of challenges such as: coordination between the different organizations involved in trade development; consumer awareness; creation of a brand image that defines in a clear and simple way what Fair Trade is; focus on the customer rather than the product; and expansion of the network of Fair Trade sales outlets to include the channels where consumers usually make their purchases.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La fase de establecimiento del regenerado es un proceso crítico para el desarrollo posterior de la masa tanto por las elevadas tasas de mortalidad que habitualmente lleva asociadas, como por proporcionar el material de partida del que van a disponer las fases subsiguientes. Las restricciones a la germinación y establecimiento de la regeneración del pino silvestre varían enormemente entre las distintas regiones de su extensa área de distribución geográfica. La región Mediterránea constituye un hábitat marginal de la especie en el que las condiciones ecológicas son muy diferentes a las del grueso de su área de distribución. Frente a otras limitaciones (frío, luz, encharcamiento…), en el entorno mediterráneo la tasa de mortalidad parece estar asociada a las condiciones micrometeorológicas del período estival - particularmente, a la sequía -, así como a la presencia excesiva de ganado o ungulados silvestres. No obstante, la mayoría de la información disponible sobre el proceso de regeneración de la especie procede del centro y norte de Europa, por lo que no es de aplicación directa en nuestra región, en la que los estudios de este tipo son mucho más escasos. El presente trabajo pretende contribuir a paliar esta relativa escasez a través del estudio del proceso de regeneración natural en el monte “Cabeza de Hierro”, masa irregular por bosquetes de pino silvestre, paradigma de gestión sostenible y uso múltiple. En este entorno, se pretende caracterizar y cuantificar tanto el proceso de germinación y supervivencia de la especie como la influencia de la cobertura vegetal (estratos arbóreo, arbustivo y herbáceo, y capa de restos vegetales) en su desarrollo. Se persigue así mismo analizar el efecto de la compactación del suelo sobre la persistencia de la masa y contrastar y comparar la eficacia de dos tratamientos edáficos de ayuda a la regeneración: escarificado y decapado+acaballonado. Con este fin se han planteado dos diseños experimentales consistentes en sendas redes de muestreo (Red de Muestreo I o RM I y Red de Muestreo II o RM II) integradas, respectivamente, por 192 y 24 parcelas de 1,5x1,5 m ubicadas bajo distintas condiciones de cobertura vegetal. Sobre una parte de estas parcelas (1/4 en la Red de Muestreo I; 1/2 en la Red de Muestreo II) se han aplicado tratamientos de ayuda a la regeneración (RM I: escarificado; RM II: decapado+acaballonado) y, tras llevar a cabo siembras controladas al inicio del período vegetativo, se han practicado controles periódicos de germinación y supervivencia durante uno (RM II) y tres años consecutivos (RM I). Se han realizado así mismo mediciones complementarias de variables micrometeorológicas, espesura, recubrimiento superficial del suelo y compactación. Los resultados obtenidos a partir de las experiencias realizadas en el monte objeto de estudio permiten concluir que, en relación con el proceso de regeneración natural de la especie en este tipo masa y entorno: 1) la regeneración del pino silvestre durante el primer período vegetativo presenta una tasa de éxito muy baja (1,4% de los sembrados), provocada por una elevada mortalidad durante el primer período estival (>92%) subsiguiente a una germinación de en torno al 17% de las semillas viables que llegan al suelo; 2) la mortalidad sigue siendo elevada hasta el tercer período vegetativo, en que comienza a reducirse significativamente hasta alcanzar el 45%; 3) la cobertura vegetal influye significativamente tanto en el proceso de germinación como en el de supervivencia, aunque ambos procesos presentan una baja correlación linear que pone de manifiesto que los lugares idóneos para la germinación no siempre son los más adecuados para la supervivencia; 4) la escarificación del suelo mejora las tasas iniciales de germinación y supervivencia, pero empeora la tasa de supervivencia posterior (años 2 y 3), por lo que su efecto a medio plazo no resulta significativo; 5) el decapado+acaballonado presenta mejores resultados que el escarificado durante el primer verano, aunque sólo resulta efectivo en condiciones intermedias de espesura de masa; 6) la compactación edáfica no resulta limitante para la productividad ni la persistencia de la masa considerada. ABSTRACT Seedling establishment is critical for later stand progress because it involves high mortality rates and the surviving saplings constitute the starting material for all the subsequent stages. Restrictions for Scots pine germination and seedling survival may vary greatly across its geographical range, as it is widely distributed within north latitudes. Mediterranean region is a marginal sector within this species range and its ecological conditions differ greatly from those of the bulk of the area. Mortality rates in Mediterranean environments seem to be related to summer weather (mainly drought) and high livestock stocking rather than to cold, light or flooding. Most available information on scots pine regeneration process comes from north European experiences and is not transferable to Spanish forests, whereas studies on Mediterranean region are much scarcer. The present work aims at broadening Scots pine regeneration knowledge within Mediterranean region by analyzing its establishment process in the “Cabeza de Hierro” forest: a Scots pine uneven-aged forest at blocklevel scale, exemplary managed for multi-services purpose. Germination and surviving processes are to be characterized and quantified as to vegetation cover both in trees, shrubs, grass and litter strata. Soil compaction effects on forest sustainability are also assessed and the efficacy of some site preparation techniques on regeneration success is tested and compared (scarification vs. scalping+mounding). Two sampling networks comprising respectively 198 (SN I) and 24 plots (SN II) of 1.5x1.5m have been established over a wide range of vegetal cover conditions within the forest. Soil preparation techniques have been applied only to some of the sampling points; namely, 1 out of 4 plots have been scarified within Sampling Network I , while 1 out of 2 plots have been object of scalping & mounding within Sampling Network II. After localized sowing prior to growing season, germination and surviving have been periodically sampled for either one (SN II) or three years (SN I). Supplementary measures for micrometeorological variables, stand density, ground vegetal cover and compaction have also been carried out. Results obtained for the studied forest lead to the following insights regarding Scots pine natural regeneration process within this sort of forest and environment: 1) seedling establishment success rate is quite low (0,15% of sowing seeds), due to high mortality during the first summer (>92%), following a prior 17% rate of germination over viable seeds reaching the soil; 2) mortality rate remains high until the third year after emergence and then decreases to the 50% of surviving; 3) although vegetal cover significantly affects both seedling germination and survival, lineal correlation between those two processes is rather low, which may indicate that places fit for emergence are not necessarily suitable for summer surviving; 4) soil scarification improves both germination and survival during the first growing season, but it is associated to higher mortality rates during the next two years; hence it has no significant medium term effect; 5) scalping & mounding treatment is more effective than scarification concerning establishment improving during the first summer; but its effects are only significant under intermediate stand density levels; 6) soil compaction does not restrict either forest productivity or persistence, despite the area’s long history of high livestock stocking rates and mechanized logging.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis doctoral presenta el desarrollo, verificación y aplicación de un método original de regionalización estadística para generar escenarios locales de clima futuro de temperatura y precipitación diarias, que combina dos pasos. El primer paso es un método de análogos: los "n" días cuya configuración atmosférica de baja resolución es más parecida a la del día problema, se seleccionan de un banco de datos de referencia del pasado. En el segundo paso, se realiza un análisis de regresión múltiple sobre los "n" días más análogos para la temperatura, mientras que para la precipitación se utiliza la distribución de probabilidad de esos "n" días análogos para obtener la estima de precipitación. La verificación de este método se ha llevado a cabo para la España peninsular y las Islas Baleares. Los resultados muestran unas buenas prestaciones para temperatura (BIAS cerca de 0.1ºC y media de errores absolutos alrededor de 1.9ºC); y unas prestaciones aceptables para la precipitación (BIAS razonablemente bajo con una media de -18%; error medio absoluto menor que para una simulación de referencia (la persistencia); y una distribución de probabilidad simulada similar a la observada según dos test no-paramétricos de similitud). Para mostrar la aplicabilidad de la metodología desarrollada, se ha aplicado en detalle en un caso de estudio. El método se aplicó a cuatro modelos climáticos bajo diferentes escenarios futuros de emisiones de gases de efecto invernadero, para la región de Aragón, produciendo así proyecciones futuras de precipitación y temperaturas máximas y mínimas diarias. La fiabilidad de la técnica de regionalización fue evaluada de nuevo para el caso de estudio mediante un proceso de verificación. Para determinar la capacidad de los modelos climáticos para simular el clima real, sus simulaciones del pasado (la denominada salida 20C3M) se regionalizaron y luego se compararon con el clima observado (los resultados son bastante robustos para la temperatura y menos concluyentes para la precipitación). Las proyecciones futuras a escala local presentan un aumento significativo durante todo el siglo XXI de las temperaturas máximas y mínimas para todos los futuros escenarios de emisiones considerados. Las simulaciones de precipitación presentan mayores incertidumbres. Además, la aplicabilidad práctica del método se demostró también mediante su utilización para producir escenarios climáticos futuros para otros casos de estudio en los distintos sectores y regiones del mundo. Se ha prestado especial atención a una aplicación en Centroamérica, una región que ya está sufriendo importantes impactos del cambio climático y que tiene un clima muy diferente. ABSTRACT This doctoral thesis presents the development, verification and application of an original downscaling method for daily temperature and precipitation, which combines two statistical approaches. The first step is an analogue approach: the “n” days most similar to the day to be downscaled are selected. In the second step, a multiple regression analysis using the “n” most analogous days is performed for temperature, whereas for precipitation the probability distribution of the “n” analogous days is used to obtain the amount of precipitation. Verification of this method has been carried out for the Spanish Iberian Peninsula and the Balearic Islands. Results show good performance for temperature (BIAS close to 0.1ºC and Mean Absolute Errors around 1.9ºC); and an acceptable skill for precipitation (reasonably low BIAS with a mean of - 18%, Mean Absolute Error lower than for a reference simulation, i.e. persistence, and a well-simulated probability distribution according to two non-parametric tests of similarity). To show the applicability of the method, a study case has been analyzed. The method was applied to four climate models under different future emission scenarios for the region of Aragón, thus producing future projections of daily precipitation and maximum and minimum temperatures. The reliability of the downscaling technique was re-assessed for the study case by a verification process. To determine the ability of the climate models to simulate the real climate, their simulations of the past (the 20C3M output) were downscaled and then compared with the observed climate – the results are quite robust for temperature and less conclusive for the precipitation. The downscaled future projections exhibit a significant increase during the entire 21st century of the maximum and minimum temperatures for all the considered future emission scenarios. Precipitation simulations exhibit greater uncertainties. Furthermore, the practical applicability of the method was demonstrated also by using it to produce future climate scenarios for some other study cases in different sectors and regions of the world. Special attention was paid to an application of the method in Central America, a region that is already suffering from significant climate change impacts and that has a very different climate from others where the method was previously applied.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta investigación surge a raíz de la experiencia profesional del autor, maestro especialista de Educación Física en el C.E.I.P. “Alhambra” de Madrid, cuando de manera progresiva, aprecia que el tenis de mesa puede ser un deporte muy interesante de desarrollar en las sesiones de Educación Física y de promover dentro de los tiempos de recreo. El autor cree que este deporte desarrolla una serie de objetivos motrices, afectivos, cognitivos y sociales que pueden contribuir a la adquisición de las competencias básicas y al desarrollo integral de los alumnos. Es entonces cuando recibe formación sobre el deporte de tenis de mesa y busca los medios necesarios de financiación para que se dote al centro del material necesario. Así la Junta municipal del distrito de Fuencarral-El Pardo instala en el patio del colegio tres mesas de exterior y, con los recursos del colegio y la ayuda de la Asociación de padres y madres (AMPA), se consiguen cinco mesas de interior plegables y todo el material necesario (redes, raquetas, pelotas, etc.). Tras introducir este deporte desde 3º a 6º de Educación Primaria promueve un campeonato en el colegio cuyo índice de participación ronda el 90% del alumnado, estos resultados crean al autor ciertas incertidumbres que son la motivación y punto de partida para realizar esta investigación que analice si la práctica del tenis de mesa puede resultar idónea en la etapa de Educación Primaria. Introducción La legislación actual en materia de educación, Ley Orgánica 2/2006, de 3 de mayo, de Educación (LOE) modificada por la Ley Orgánica 8/2013, de 9 de diciembre, para la mejora de la calidad educativa. (LOMCE), otorga una gran relevancia al deporte en general. "El deporte es una actividad saludable, divertida y formativa que puede tener profundos beneficios no sólo para su salud y su bienestar sino también para el desarrollo personal integral físico, psicológico y psicosocial del niño, además de sobre su desarrollo deportivo" (Pradas, 2009, p. 151), es pues, un momento idóneo para analizar qué deportes se practican en los colegios o por qué se practican unos más que otros. "El tenis de mesa además de ser un deporte para todos, se presenta como un juego atractivo, en donde su práctica resulta muy divertida a cualquier edad, tanto para niños como para adultos, principalmente porque presenta unas reglas de juego simples, no encerrando peligro alguno para la integridad física de sus practicantes durante su juego" (Pradas, 2009, p. 83). Es un deporte que "está abierto a todos, sin distinción de edad o sexo, tanto como deporte de alto nivel como de práctica familiar o social" (Gatien, 1993, p. 16). No obstante, "son escasas las obras sobre tenis de mesa. Pocos libros, tanto de divulgación como de reflexión sobre el tenis de mesa, adornan los estantes de las librerías y las bibliotecas" (Erb, 1999, p.14) y añade “así pues, el medio escolar padece de falta de obras explicativas y pedagógicas referidas a este tema" (Erb, 1999, p.14 ) En particular, se pretenden conseguir cinco objetivos divididos en tres categorías (el centro, el profesorado y el deporte. • A nivel de Centro: - Conocer el porcentaje de colegios que disponen de espacios y materiales adecuados para la práctica del tenis de mesa, así como identificar, de las distintas Direcciones de Área Territoriales (DAT), cuál tiene los colegios mejor dotados tanto en instalaciones como en materiales para desarrollar programas de promoción del tenis de mesa. - Averiguar las posibles causas por las que el tenis de mesa no se practica tanto como otros deportes, analizando los impedimentos que limitan la implantación del tenis de mesa como un deporte habitual en los centros de Educación Primaria. Analizar la opinión del profesorado en cuanto a los materiales y las instalaciones necesarios para el tenis de mesa. • A nivel de profesorado: - Analizar el nivel de conocimiento que tienen los profesionales que imparten la asignatura de Educación Física sobre el tenis de mesa, así como sus necesidades para incluir unidades didácticas de tenis de mesa en sus programaciones didácticas. - Conocer el perfil de profesor ideal que recomienda la utilización del tenis de mesa y averiguar el interés del profesorado por recibir formación específica del tenis de mesa. • A nivel de deporte: - Analizar la opinión de los profesionales sobre la idoneidad del tenis de mesa en la Educación Primaria atendiendo a los objetivos que persigue, a las competencias que desarrolla, a los contenidos, criterios de evaluación y estándares de aprendizaje que se pueden trabajar y a las lesiones que se producen. Metodología La investigación se caracterizó por utilizar una metodología inductiva, al surgir de la experiencia profesional del autor, también fue transversal al analizar la realidad en un momento concreto y de tipo cuantitativa. La población objeto de estudio fue la totalidad de los colegios públicos de la Comunidad de Madrid, siendo los profesores de Educación Física los encargados de facilitar los datos solicitados. Estos datos se obtuvieron utilizando como instrumento de toma de datos el cuestionario auto administrado con preguntas cerradas de opción múltiple previamente validado por un panel de 5 expertos. Las variables indirectas fueron: el género del profesorado, la edad del profesorado, la experiencia profesional y el tipo de destino. El proceso de la toma de datos supuso un lapso de tiempo de 3 meses, desde mayo de 2015 hasta julio de 2015, en este tiempo hubo dos fases de recogida de datos, una online a través del correo electrónico institucional de los colegios públicos de la Comunidad de Madrid y otra “in situ” con cuestionarios de lápiz y papel. En cuanto a los datos que se obtuvieron, sobre una población de 798 colegios, se consiguió una muestra de 276, esto supuso una tasa de respuesta del 34,59%, asumiendo la situación más desfavorable posible (p=q) y un nivel de confianza del 95%, para el total de los 276 cuestionarios cumplimentados, el error máximo fue del ±4,78%. Resultados En cuanto a los resultados obtenidos, se establecieron de acuerdo a tres dimensiones: A nivel de Centro, a nivel de Profesorado y a nivel del Deporte y pretendieron averiguar si se alcanzaron los cinco objetivos planteados. Tras el análisis de los resultados, se apreció que los colegios públicos de la Comunidad de Madrid disponían de las suficientes instalaciones para el tenis de mesa, en cambio, faltaban materiales específicos y formación por parte del profesorado, así como recursos didácticos y un programa de promoción del tenis de mesa. Se apreció un manifiesto interés por parte del profesorado en recibir formación específica de tenis de mesa pues la mayoría recomendaba la utilización del tenis de mesa dentro de la asignatura de Educación Física en Educación Primaria. Por último, los resultados mostraron la cantidad de objetivos motrices, afectivos, cognitivos y sociales que desarrolla el tenis de mesa así como su contribución a la adquisición de las competencias básicas y al objetivo “k” de la Educación Primaria, que indica “Valorar la higiene y la salud, conocer y respetar el cuerpo humano, y utilizar la Educación Física y el deporte como medios para favorecer el desarrollo personal y social”, además, se mostró el bajo índice de lesiones que provoca. Discusión y conclusiones El tenis de mesa es un deporte idóneo para ser practicado y enseñado en la asignatura de Educación Física en la etapa de Educación Primaria debido a la gran cantidad de contenidos que son susceptibles de ser trabajados a través de este deporte y debido a la gran cantidad de valores, individuales y sociales que se pueden fomentar con la práctica del tenis de mesa. Las causas de que hasta ahora, el tenis de mesa no sea un deporte practicado de forma habitual en los colegios públicos de la Comunidad de Madrid a pesar de trabajar muchos contenidos específicos de la asignatura de Educación Física puede deberse a factores externos al deporte del tenis de mesa y susceptibles de ser solucionados con una adecuada inversión en materiales específicos, formación del profesorado y recursos didácticos. Si se dota a los centros de los materiales y recursos didácticos necesarios y dando formación al profesorado, éste introduciría unidades didácticas de tenis de mesa dentro de sus programaciones anuales. La federación española y madrileña de tenis de mesa, deberían desarrollar un programa de promoción dotando de materiales y recursos a los centros, tal y como lo han hecho otras federaciones como la de voleibol, bádminton o de baloncesto, entre otras. ABSTRACT This research arises from the professional experience of the author, specialized teacher of physical education in the CEIP "Alhambra" in Madrid, where progressively, appreciates that table tennis can be a very interesting sport to develop in physical education sessions and promote within the playtimes. The author believes that this sport develops a range of motor, affective, cognitive and social objectives that can contribute to the acquisition of basic skills and the integral development of students. It is then when receives training on the sport of table tennis and seeks ways of funding in order to outfit the center with necessary equipment. The Municipal District of Fuencarral-El Pardo installed three outdoor tables in the schoolyard and with the resources of the school and the support of the Association of Parents (AMPA), five indoor folding tables are achieved as well as all the necessary material (nets, rackets, balls, etc.). After introduce the sport from 3rd to 6th grade of primary education, promotes a championship in the school where the participation rate is around 90% of students, these results create the uncertainties to the author that are the motivation and starting point for this research to analyze whether the practice of table tennis can be ideal at the stage of primary education. Introduction The current legislation on education, Organic Law 2/2006 of 3 May, on Education (LOE) as amended by Organic Law 8/2013, of December 9, to improve educational quality (LOMCE), attaches great importance to the sport in general, "Sport is a healthy, funny and educational activity that can have great benefits not only for their health and well-being but also for the physical, psychological and psychosocial comprehensive personal child development besides on their sports development "(Pradas, 2009, p. 151), is therefore an ideal moment to analyze which sports are practiced in schools or why are practiced some more than others. "The table tennis as well as being a sport for everyone, is presented as an attractive game, where its practice is funny at any age, both children and adults, mainly because it has simple game rules, not enclosing danger for the physical integrity of its practitioners during their game" (Pradas, 2009, p. 83). It is a sport that is "open to all, regardless of age or sex, as high-level sport, as family or social practice" (Gatien, 1993, p. 16). However, "there are few books on table tennis. Few books, both reflexion or popularization about table tennis, adorn the shelves of bookstores and libraries." (Erb, 1999, p.14) and add "So, the school environment suffers from lack of explanatory and educational work related to this issue." (Erb, 1999, p.14) In particular, it is intended to achieve the following objectives within the Community of Madrid: • To determine the percentage of schools that have spaces and materials suitable for practicing table tennis and identify, from the different Directorates of Land Area (DAT), which has the best equipped schools in both facilities and materials to develop programs to promote table tennis. • Find out the possible causes that explained why table tennis is not practiced as much as other sports, analyzing impediments that limit the implementation of table tennis as a regular sport in primary schools. Analyze the opinion of teachers in terms of materials and facilities needed for table tennis. • Analyze the level of knowledge about table tennis among professionals who teach the subject of Physical Education and their needs to include teaching units about table tennis in their teaching programs. • Knowing the profile of the ideal teacher who recommends the use of table tennis and figure out the interest of teachers to receive specific training of table tennis. • Analyze the professional opinion on the suitability of table tennis in Primary Education taking into account the objectives pursued, to develop the skills, content, evaluation criteria and learning standards that can work and injuries involved. Methodology The investigation was characterized by using an inductive methodology, arising from the professional experience of the author, was also transverse to analyze reality in a particular time and quantitative type. The population under study were all the state schools in Madrid region, being the physical education teachers responsible for providing the requested data. These data were obtained using as data collection instrument a self-administered questionnaire with multiple choice questions, because it facilitates the analysis thereof. In terms of obtained data, on a population of 798 schools, a sample of 276 was achieved, this represented a response rate of 34.59%, assuming the worst case scenario (p = q) and a level 95% confidence for the total of the 276 completed questionnaires, the maximum error was ± 4.78%. Results In terms of the results, they were set according to three dimensions: center level, professorate level and Sport level and trying to find out whether the five objectives were achieved. After analyzing the results, it was found that schools possessed sufficient facilities for table tennis, however, lacked specific materials and training by teachers, as well as teaching resources and a program to promote table tennis. A clear interest was noticed by teachers in order to receive specific training in table tennis since most recommended the use of table tennis in the subject of physical education in primary education. Finally, the results proved the number of motor, affective, cognitive and social objectives developed by table tennis and its contribution to the acquisition of basic skills and the objective "k" of primary education, in addition to the low rate of injury it causes. Discussion and conclusions Table tennis is an ideal sport to be practiced and taught in the subject of Physical Education in Primary Education due to the large amount of content that are likely to be worked through this sport and due to the large number of individual and social values that can foster the practice of table tennis. The causes of that so far, table tennis is not a sport practiced regularly in schools despite working many specific contents of the subject of Physical Education may be due to factors outside the sport of table tennis and subject to solved with adequate investment in specific materials, teacher training and educational resources. By endowing the centers with the necessary teaching materials and resources and providing training to teachers, they would introduce teaching units of table tennis within their annual programs. Madrid and the Spanish Federation of table tennis should develop a promotional program by endowing materials and resources to the centers, as did other federations such as badminton and basketball, among others.