47 resultados para Kernel estimator and ROC-GLM methodology


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Análisis de múltiples grabaciones de las cuatro baladas y los cuatro scherzos de Chopin realizadas por diversos intérpretes. El objetivo del proyecto será determinar las diferencias objetivas existentes entre las diferentes ejecuciones y respecto a una partitura de referencia. OBJETIVOS: Analizar las grabaciones realizadas de obras de Chopin atendiendo a criterios objetivos como el tempo y la dinámica. MÉTODO Y FASES DEL TRABAJO: Se realizará un estudio diferencial para determinar las variaciones de parámetros objetivos existentes en las diferentes grabaciones respecto a una, que será tomada como referencia, mediante herramientas informáticas. MEDIOS: Se utilizarán versiones digitalizadas de las grabaciones y la edición crítica de Jan Ekier (National Edition) de las partituras. Para la realización del análisis se recurrirá al software SonicVisualiser desarrollado por el Centre for Digital Music (Queen Mary, University of London) en conjunto con los plugins destinados al análisis temporal y espectral disponibles. Así mismo, serán utilizadas otras herramientas desarrolladas durante el Mazurka's Project realizado por el Research Centre for the History and Analysis of Recorded Music para facilitar la visualización de datos en el presente documento. OBJETIVE: To analyze several records from Chopin’s repertoire, according to objective criteria like tempi and dynamics evolution. METHODOLOGY: A differential analysis is going to be made to determine how this criterion differs from every digitalized record to another one stabilized in advance as model. In order to do so, we’ll use software tools as well as auditions to get the best detail. MEDIA: Digital editions of the recordings and the critical edition by Prof. Jan Ekier music scores have been used. We’ve chosen the software tool SonicVisualiser developed by Centre for Digital Music (Queen Mary, University of London) in conjunction with some of the temporal and spectral plugins available for this platform as our main analysis tool. We’ve also used some other tools developed by the Research Centre for the History and Analysis of Recorded Music to appropriately display some important information in the present document.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The purpose of this work is to provide a description of the heavy rainfall phenomenon on statistical tools from a Spanish region. We want to quantify the effect of the climate change to verify the rapidity of its evolution across the variation of the probability distributions. Our conclusions have special interest for the agrarian insurances, which may make estimates of costs more realistically. In this work, the analysis mainly focuses on: The distribution of consecutive days without rain for each gauge stations and season. We estimate density Kernel functions and Generalized Pareto Distribution (GPD) for a network of station from the Ebro River basin until a threshold value u. We can establish a relation between distributional parameters and regional characteristics. Moreover we analyze especially the tail of the probability distribution. These tails are governed by law of power means that the number of events n can be expressed as the power of another quantity x : n(x) = x? . ? can be estimated as the slope of log-log plot the number of events and the size. The most convenient way to analyze n(x) is using the empirical probability distribution. Pr(X mayor que x) ? x-?. The distribution of rainfall over percentile of order 0.95 from wet days at the seasonal scale and in a yearly scale with the same treatment of tails than in the previous section.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La modelización es un proceso por el que se obtienen modelos de los procesos del ´mundo real´ mediante la utilización de simplificaciones. Sin embargo, las estimaciones obtenidas con el modelo llevan implícitas incertidumbre que se debe evaluar. Mediante un análisis de sensibilidad se puede mejorar la confianza en los resultados, sin embargo, este paso a veces no se realiza debido básicamente al trabajo que lleva consigo este tipo de análisis. Además, al crear un modelo, hay que mantener un equilibrio entre la obtención de resultados lo más exactos posible mediante un modelo lo más sencillo posible. Por ello, una vez creado un modelo, es imprescindible comprobar si es necesario o no incluir más procesos que en un principio no se habían incluido. Los servicios ecosistémicos son los procesos mediante los cuales los ecosistemas mantienen y satisfacen el bienestar humano. La importancia que los servicios ecosistémicos y sus beneficios asociados tienen, junto con la necesidad de realizar una buena gestión de los mismos, han estimulado la aparición de modelos y herramientas para cuantificarlos. InVEST (Integrated Valuation of Ecosystem Services and Tradoffs) es una de estas herramientas específicas para calcular servicios eco-sistémicos, desarrollada por Natural Capital Project (Universidad de Stanford, EEUU). Como resultado del creciente interés en calcular los servicios eco-sistémicos, se prevé un incremento en la aplicación del InVEST. La investigación desarrollada en esta Tesis pretende ayudar en esas otras importantes fases necesarias después de la creación de un modelo, abarcando los dos siguientes trabajos. El primero es la aplicación de un análisis de sensibilidad al modelo en una cuenca concreta mediante la metodología más adecuada. El segundo es relativo a los procesos dentro de la corriente fluvial que actualmente no se incluyen en el modelo mediante la creación y aplicación de una metodología que estudiara el papel que juegan estos procesos en el modelo InVEST de retención de nutrientes en el área de estudio. Los resultados de esta Tesis contribuirán a comprender la incertidumbre involucrada en el proceso de modelado. También pondrá de manifiesto la necesidad de comprobar el comportamiento de un modelo antes de utilizarlo y en el momento de interpretar los resultados obtenidos. El trabajo en esta Tesis contribuirá a mejorar la plataforma InVEST, que es una herramienta importante en el ámbito de los servicios de los ecosistemas. Dicho trabajo beneficiará a los futuros usuarios de la herramienta, ya sean investigadores (en investigaciones futuras), o técnicos (en futuros trabajos de toma de decisiones o gestión ecosistemas). ABSTRACT Modeling is the process to idealize real-world situations through simplifications in order to obtain a model. However, model estimations lead to uncertainties that have to be evaluated formally. The role of the sensitivity analysis (SA) is to assign model output uncertainty based on the inputs and can increase confidence in model, however, it is often omitted in modelling, usually as a result of the growing effort it involves. In addition, the balance between accuracy and simplicity is not easy to assess. For this reason, when a model is developed, it is necessary to test it in order to understand its behavior and to include, if necessary, more complexity to get a better response. Ecosystem services are the conditions and processes through which natural ecosystems, and their constituent species, sustain and fulfill human life. The relevance of ecosystem services and the need to better manage them and their associated benefits have stimulated the emergence of models and tools to measure them. InVEST, Integrated Valuation of Ecosystem Services and Tradoffs, is one of these ecosystem services-specific tools developed by the Natural Capital Project (Stanford University, USA). As a result of the growing interest in measuring ecosystem services, the use of InVEST is anticipated to grow exponentially in the coming years. However, apart from model development, making a model involves other crucial stages such as its evaluation and application in order to validate estimations. The work developed in this thesis tries to help in this relevant and imperative phase of the modeling process, and does so in two different ways. The first one is to conduct a sensitivity analysis of the model, which consists in choosing and applying a methodology in an area and analyzing the results obtained. The second is related to the in-stream processes that are not modeled in the current model, and consists in creating and applying a methodology for testing the streams role in the InVEST nutrient retention model in a case study, analyzing the results obtained. The results of this Thesis will contribute to the understanding of the uncertainties involved in the modeling process. It will also illustrate the need to check the behavior of every model developed before putting them in production and illustrate the importance of understanding their behavior in terms of correctly interpreting the results obtained in light of uncertainty. The work in this thesis will contribute to improve the InVEST platform, which is an important tool in the field of ecosystem services. Such work will benefit future users, whether they are researchers (in their future research), or technicians (in their future work in ecosystem conservation or management decisions).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Como ya es conocido, los profesores de Matemáticas utilizamos los ejemplos como recursos de aprendizaje para enseñar algún contenido matemático concreto, de modo que las generalizaciones y abstracciones sean más fácilmente entendidas por los alumnos, pasando de lo concreto a lo abstracto, como otra forma de enseñar y practicar en Matemáticas. Esta metodología de trabajo se ve potenciada por el uso de dispositivos móviles llamados mobile-learning (m-learning) o educación móvil (educación-m), en español. Siguiendo esta línea de trabajo, se ha realizado el workshop de cónicas que se presenta en este artículo, empleando estas nuevas tecnologías (TIC) y con el objetivo de desarrollar aprendizajes activos en Geometría a través de la resolución de problemas en los primeros cursos de Grado en las ingenierías. ABSTRACT: As it is already known, math teachers, use examples as learning resources, to teach some specific math contents, so that generalizations and abstractions are more easily understood by students, from concrete to abstract, as another way of Mathematics teaching and training. This methodology is enhanced by the use of mobile devices, called mobile-learning (m-learning) o “educación móvil” (educación-m), in Spanish. Following this strategy, the workshop of conic sections shown in this paper has been carried out, using these new technologies (ICT) and in order to develop active learning in Geometry through problem-solving at the first years of engineering degrees.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The Privacy by Design approach to systems engineering introduces privacy requirements in the early stages of development, instead of patching up a built system afterwards. However, 'vague', 'disconnected from technology', or 'aspirational' are some terms employed nowadays to refer to the privacy principles which must lead the development process. Although privacy has become a first-class citizen in the realm of non-functional requirements and some methodological frameworks help developers by providing design guidance, software engineers often miss a solid reference detailing which specific, technical requirements they must abide by, and a systematic methodology to follow. In this position paper, we look into a domain that has already successfully tackled these problems -web accessibility-, and propose translating their findings into the realm of privacy requirements engineering, analyzing as well the gaps not yet covered by current privacy initiatives.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El trabajo que se presenta a continuación desarrolla un modelo para calcular la distancia semántica entre dos oraciones representadas por grafos UNL. Este problema se plantea en el contexto de la traducción automática donde diferentes traductores pueden generar oraciones ligeramente diferentes partiendo del mismo original. La medida de distancia que se propone tiene como objetivo proporcionar una evaluación objetiva sobre la calidad del proceso de generación del texto. El autor realiza una exploración del estado del arte sobre esta materia, reuniendo en un único trabajo los modelos propuestos de distancia semántica entre conceptos, los modelos de comparación de grafos y las pocas propuestas realizadas para calcular distancias entre grafos conceptuales. También evalúa los pocos recursos disponibles para poder experimentar el modelo y plantea una metodología para generar los conjuntos de datos que permitirían aplicar la propuesta con el rigor científico necesario y desarrollar la experimentación. Utilizando las piezas anteriores se propone un modelo novedoso de comparación entre grafos conceptuales que permite utilizar diferentes algoritmos de distancia entre conceptos y establecer umbrales de tolerancia para permitir una comparación flexible entre las oraciones. Este modelo se programa utilizando C++, se alimenta con los recursos a los que se ha hecho referencia anteriormente, y se experimenta con un conjunto de oraciones creado por el autor ante la falta de otros recursos disponibles. Los resultados del modelo muestran que la metodología y la implementación pueden conducir a la obtención de una medida de distancia entre grafos UNL con aplicación en sistemas de traducción automática, sin embargo, la carencia de recursos y de datos etiquetados con los que validar el algoritmo requieren un esfuerzo previo importante antes de poder ofrecer resultados concluyentes.---ABSTRACT---The work presented here develops a model to calculate the semantic distance between two sentences represented by their UNL graphs. This problem arises in the context of machine translation where different translators can generate slightly different sentences from the same original. The distance measure that is proposed aims to provide an objective evaluation on the quality of the process involved in the generation of text. The author carries out an exploration of the state of the art on this subject, bringing together in a single work the proposed models of semantic distance between concepts, models for comparison of graphs and the few proposals made to calculate distances between conceptual graphs. It also assesses the few resources available to experience the model and presents a methodology to generate the datasets that would be needed to develop the proposal with the scientific rigor required and to carry out the experimentation. Using the previous parts a new model is proposed to compute differences between conceptual graphs; this model allows the use of different algorithms of distance between concepts and is parametrized in order to be able to perform a flexible comparison between the resulting sentences. This model is implemented in C++ programming language, it is powered with the resources referenced above and is experienced with a set of sentences created by the author due to the lack of other available resources. The results of the model show that the methodology and the implementation can lead to the achievement of a measure of distance between UNL graphs with application in machine translation systems, however, lack of resources and of labeled data to validate the algorithm requires an important effort to be done first in order to be able to provide conclusive results.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Las Field-Programmable Gate Arrays (FPGAs) SRAM se construyen sobre una memoria de configuración de tecnología RAM Estática (SRAM). Presentan múltiples características que las hacen muy interesantes para diseñar sistemas empotrados complejos. En primer lugar presentan un coste no-recurrente de ingeniería (NRE) bajo, ya que los elementos lógicos y de enrutado están pre-implementados (el diseño de usuario define su conexionado). También, a diferencia de otras tecnologías de FPGA, pueden ser reconfiguradas (incluso en campo) un número ilimitado de veces. Es más, las FPGAs SRAM de Xilinx soportan Reconfiguración Parcial Dinámica (DPR), la cual permite reconfigurar la FPGA sin interrumpir la aplicación. Finalmente, presentan una alta densidad de lógica, una alta capacidad de procesamiento y un rico juego de macro-bloques. Sin embargo, un inconveniente de esta tecnología es su susceptibilidad a la radiación ionizante, la cual aumenta con el grado de integración (geometrías más pequeñas, menores tensiones y mayores frecuencias). Esta es una precupación de primer nivel para aplicaciones en entornos altamente radiativos y con requisitos de alta confiabilidad. Este fenómeno conlleva una degradación a largo plazo y también puede inducir fallos instantáneos, los cuales pueden ser reversibles o producir daños irreversibles. En las FPGAs SRAM, los fallos inducidos por radiación pueden aparecer en en dos capas de arquitectura diferentes, que están físicamente superpuestas en el dado de silicio. La Capa de Aplicación (o A-Layer) contiene el hardware definido por el usuario, y la Capa de Configuración contiene la memoria de configuración y la circuitería de soporte. Los fallos en cualquiera de estas capas pueden hacer fracasar el sistema, lo cual puede ser ás o menos tolerable dependiendo de los requisitos de confiabilidad del sistema. En el caso general, estos fallos deben gestionados de alguna manera. Esta tesis trata sobre la gestión de fallos en FPGAs SRAM a nivel de sistema, en el contexto de sistemas empotrados autónomos y confiables operando en un entorno radiativo. La tesis se centra principalmente en aplicaciones espaciales, pero los mismos principios pueden aplicarse a aplicaciones terrenas. Las principales diferencias entre ambas son el nivel de radiación y la posibilidad de mantenimiento. Las diferentes técnicas para la gestión de fallos en A-Layer y C-Layer son clasificados, y sus implicaciones en la confiabilidad del sistema son analizados. Se proponen varias arquitecturas tanto para Gestores de Fallos de una capa como de doble-capa. Para estos últimos se propone una arquitectura novedosa, flexible y versátil. Gestiona las dos capas concurrentemente de manera coordinada, y permite equilibrar el nivel de redundancia y la confiabilidad. Con el objeto de validar técnicas de gestión de fallos dinámicas, se desarrollan dos diferentes soluciones. La primera es un entorno de simulación para Gestores de Fallos de C-Layer, basado en SystemC como lenguaje de modelado y como simulador basado en eventos. Este entorno y su metodología asociada permite explorar el espacio de diseño del Gestor de Fallos, desacoplando su diseño del desarrollo de la FPGA objetivo. El entorno incluye modelos tanto para la C-Layer de la FPGA como para el Gestor de Fallos, los cuales pueden interactuar a diferentes niveles de abstracción (a nivel de configuration frames y a nivel físico JTAG o SelectMAP). El entorno es configurable, escalable y versátil, e incluye capacidades de inyección de fallos. Los resultados de simulación para algunos escenarios son presentados y comentados. La segunda es una plataforma de validación para Gestores de Fallos de FPGAs Xilinx Virtex. La plataforma hardware aloja tres Módulos de FPGA Xilinx Virtex-4 FX12 y dos Módulos de Unidad de Microcontrolador (MCUs) de 32-bits de propósito general. Los Módulos MCU permiten prototipar Gestores de Fallos de C-Layer y A-Layer basados en software. Cada Módulo FPGA implementa un enlace de A-Layer Ethernet (a través de un switch Ethernet) con uno de los Módulos MCU, y un enlace de C-Layer JTAG con el otro. Además, ambos Módulos MCU intercambian comandos y datos a través de un enlace interno tipo UART. Al igual que para el entorno de simulación, se incluyen capacidades de inyección de fallos. Los resultados de pruebas para algunos escenarios son también presentados y comentados. En resumen, esta tesis cubre el proceso completo desde la descripción de los fallos FPGAs SRAM inducidos por radiación, pasando por la identificación y clasificación de técnicas de gestión de fallos, y por la propuesta de arquitecturas de Gestores de Fallos, para finalmente validarlas por simulación y pruebas. El trabajo futuro está relacionado sobre todo con la implementación de Gestores de Fallos de Sistema endurecidos para radiación. ABSTRACT SRAM-based Field-Programmable Gate Arrays (FPGAs) are built on Static RAM (SRAM) technology configuration memory. They present a number of features that make them very convenient for building complex embedded systems. First of all, they benefit from low Non-Recurrent Engineering (NRE) costs, as the logic and routing elements are pre-implemented (user design defines their connection). Also, as opposed to other FPGA technologies, they can be reconfigured (even in the field) an unlimited number of times. Moreover, Xilinx SRAM-based FPGAs feature Dynamic Partial Reconfiguration (DPR), which allows to partially reconfigure the FPGA without disrupting de application. Finally, they feature a high logic density, high processing capability and a rich set of hard macros. However, one limitation of this technology is its susceptibility to ionizing radiation, which increases with technology scaling (smaller geometries, lower voltages and higher frequencies). This is a first order concern for applications in harsh radiation environments and requiring high dependability. Ionizing radiation leads to long term degradation as well as instantaneous faults, which can in turn be reversible or produce irreversible damage. In SRAM-based FPGAs, radiation-induced faults can appear at two architectural layers, which are physically overlaid on the silicon die. The Application Layer (or A-Layer) contains the user-defined hardware, and the Configuration Layer (or C-Layer) contains the (volatile) configuration memory and its support circuitry. Faults at either layers can imply a system failure, which may be more ore less tolerated depending on the dependability requirements. In the general case, such faults must be managed in some way. This thesis is about managing SRAM-based FPGA faults at system level, in the context of autonomous and dependable embedded systems operating in a radiative environment. The focus is mainly on space applications, but the same principles can be applied to ground applications. The main differences between them are the radiation level and the possibility for maintenance. The different techniques for A-Layer and C-Layer fault management are classified and their implications in system dependability are assessed. Several architectures are proposed, both for single-layer and dual-layer Fault Managers. For the latter, a novel, flexible and versatile architecture is proposed. It manages both layers concurrently in a coordinated way, and allows balancing redundancy level and dependability. For the purpose of validating dynamic fault management techniques, two different solutions are developed. The first one is a simulation framework for C-Layer Fault Managers, based on SystemC as modeling language and event-driven simulator. This framework and its associated methodology allows exploring the Fault Manager design space, decoupling its design from the target FPGA development. The framework includes models for both the FPGA C-Layer and for the Fault Manager, which can interact at different abstraction levels (at configuration frame level and at JTAG or SelectMAP physical level). The framework is configurable, scalable and versatile, and includes fault injection capabilities. Simulation results for some scenarios are presented and discussed. The second one is a validation platform for Xilinx Virtex FPGA Fault Managers. The platform hosts three Xilinx Virtex-4 FX12 FPGA Modules and two general-purpose 32-bit Microcontroller Unit (MCU) Modules. The MCU Modules allow prototyping software-based CLayer and A-Layer Fault Managers. Each FPGA Module implements one A-Layer Ethernet link (through an Ethernet switch) with one of the MCU Modules, and one C-Layer JTAG link with the other. In addition, both MCU Modules exchange commands and data over an internal UART link. Similarly to the simulation framework, fault injection capabilities are implemented. Test results for some scenarios are also presented and discussed. In summary, this thesis covers the whole process from describing the problem of radiationinduced faults in SRAM-based FPGAs, then identifying and classifying fault management techniques, then proposing Fault Manager architectures and finally validating them by simulation and test. The proposed future work is mainly related to the implementation of radiation-hardened System Fault Managers.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La modelización es un proceso por el que se obtienen modelos de los procesos del ´mundo real´ mediante la utilización de simplificaciones. Sin embargo, las estimaciones obtenidas con el modelo llevan implícitas incertidumbre que se debe evaluar. Mediante un análisis de sensibilidad se puede mejorar la confianza en los resultados, sin embargo, este paso a veces no se realiza debido básicamente al trabajo que lleva consigo este tipo de análisis. Además, al crear un modelo, hay que mantener un equilibrio entre la obtención de resultados lo más exactos posible mediante un modelo lo más sencillo posible. Por ello, una vez creado un modelo, es imprescindible comprobar si es necesario o no incluir más procesos que en un principio no se habían incluido. Los servicios ecosistémicos son los procesos mediante los cuales los ecosistemas mantienen y satisfacen el bienestar humano. La importancia que los servicios ecosistémicos y sus beneficios asociados tienen, junto con la necesidad de realizar una buena gestión de los mismos, han estimulado la aparición de modelos y herramientas para cuantificarlos. InVEST (Integrated Valuation of Ecosystem Services and Tradoffs) es una de estas herramientas específicas para calcular servicios eco-sistémicos, desarrollada por Natural Capital Project (Universidad de Stanford, EEUU). Como resultado del creciente interés en calcular los servicios eco-sistémicos, se prevé un incremento en la aplicación del InVEST. La investigación desarrollada en esta Tesis pretende ayudar en esas otras importantes fases necesarias después de la creación de un modelo, abarcando los dos siguientes trabajos. El primero es la aplicación de un análisis de sensibilidad al modelo en una cuenca concreta mediante la metodología más adecuada. El segundo es relativo a los procesos dentro de la corriente fluvial que actualmente no se incluyen en el modelo mediante la creación y aplicación de una metodología que estudiara el papel que juegan estos procesos en el modelo InVEST de retención de nutrientes en el área de estudio. Los resultados de esta Tesis contribuirán a comprender la incertidumbre involucrada en el proceso de modelado. También pondrá de manifiesto la necesidad de comprobar el comportamiento de un modelo antes de utilizarlo y en el momento de interpretar los resultados obtenidos. El trabajo en esta Tesis contribuirá a mejorar la plataforma InVEST, que es una herramienta importante en el ámbito de los servicios de los ecosistemas. Dicho trabajo beneficiará a los futuros usuarios de la herramienta, ya sean investigadores (en investigaciones futuras), o técnicos (en futuros trabajos de toma de decisiones o gestión ecosistemas). ABSTRACT Modeling is the process to idealize real-world situations through simplifications in order to obtain a model. However, model estimations lead to uncertainties that have to be evaluated formally. The role of the sensitivity analysis (SA) is to assign model output uncertainty based on the inputs and can increase confidence in model, however, it is often omitted in modelling, usually as a result of the growing effort it involves. In addition, the balance between accuracy and simplicity is not easy to assess. For this reason, when a model is developed, it is necessary to test it in order to understand its behavior and to include, if necessary, more complexity to get a better response. Ecosystem services are the conditions and processes through which natural ecosystems, and their constituent species, sustain and fulfill human life. The relevance of ecosystem services and the need to better manage them and their associated benefits have stimulated the emergence of models and tools to measure them. InVEST, Integrated Valuation of Ecosystem Services and Tradoffs, is one of these ecosystem services-specific tools developed by the Natural Capital Project (Stanford University, USA). As a result of the growing interest in measuring ecosystem services, the use of InVEST is anticipated to grow exponentially in the coming years. However, apart from model development, making a model involves other crucial stages such as its evaluation and application in order to validate estimations. The work developed in this thesis tries to help in this relevant and imperative phase of the modeling process, and does so in two different ways. The first one is to conduct a sensitivity analysis of the model, which consists in choosing and applying a methodology in an area and analyzing the results obtained. The second is related to the in-stream processes that are not modeled in the current model, and consists in creating and applying a methodology for testing the streams role in the InVEST nutrient retention model in a case study, analyzing the results obtained. The results of this Thesis will contribute to the understanding of the uncertainties involved in the modeling process. It will also illustrate the need to check the behavior of every model developed before putting them in production and illustrate the importance of understanding their behavior in terms of correctly interpreting the results obtained in light of uncertainty. The work in this thesis will contribute to improve the InVEST platform, which is an important tool in the field of ecosystem services. Such work will benefit future users, whether they are researchers (in their future research), or technicians (in their future work in ecosystem conservation or management decisions).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Numerosos estudiantes ven el estudio como algo aburrido, se sienten desmotivados. El docente no puede limitarse a aceptar la situación como un espectador. Es nuestra realidad y de la misma forma que cada estudiante debe responsabilizarse de su propia educación, los profesores tenemos que responsabilizarnos de cambiar ese sentimiento. Para ello se analizará en primer lugar el significado del término motivación y cuáles son los factores en los que los profesores podemos influir. Se verá que una de las formas de intervención es la innovación, por lo que también se analizará el vocablo y se discutirá qué constituye innovación y qué no. Por tanto, el docente se enfrenta a diario con la necesidad de encontrar nuevas formas de enseñar, que capten la atención de los alumnos. Se dice que no hay nada nuevo bajo el sol; sin embargo, hay que ser capaz de encontrar nuevos usos a con recursos que ya existen. Con el presente trabajo se pretende dar respuesta a esa necesidad. Se plantea el uso de una metodología que propone una innovación continua que consiste en establecer un paralelismo entre un relato o una historia y una unidad didáctica de la asignatura de Tecnología. Como historia se ha escogido la conocida película “La Guerra de las Galaxias” y el curso de referencia será el primer curso de Educación Secundaria Obligatoria (1º E.S.O.). En concreto se presenta un material adaptado con fotografías de la película, ejemplos inspirados en la saga y otras adaptaciones educativas. Con ello se consigue una sorpresa continua para el estudiante y así mantener su atención, facilitando su aprendizaje. Se tiene hecho parte del camino, aunque no todo. En este punto, se hace necesario introducir algunas medidas suplementarias, que refuercen y complementen esta metodología y que nos impidan apartarnos del objetivo pretendido: que los alumnos aprendan de manera significativa. ¿Quién dijo que estudiar es aburrido? A number of students see studying as something boring. The teacher cannot be a spectator. It is our reality and, so on one hand, the student has the responsibility of building his education and on the other, the teacher must change that feeling. In order to this, the term motivation will be analysed, and also which are the related aspects in which we have some influence. One of those ways of intervention is motivation. It is for that word, innovation will be analysed as well, discussing what innovation is and what is not. Therefore, teachers face, day by day, the need of finding new ways of teaching for students to pay attention in classes. As people say, there is nothing new under the sun; however, new uses for existing resources are required. This paper pretends to solve that problem. A continuous innovating methodology is set, consisting in establishing a parallelism between a story or tale and a didactic unit in Technology subject. As a story, the well-known film “Star Wars” is chosen, and as a reference course, the first course of Educación Secundaria Obligatoria (1st E.S.O.). Specifically, we introduce an adapted material with pictures from the movie, saga inspired examples and, some other educational adaptations. With it, students are continuously surprised and their attention grabbed, making his learning easier. Part of the problem is solved, but there is a long way to go. At this point, some supplementary steps are needed, in order to enforce and complement this methodology, and to avoid getting far away from the attempted objective: students learning in a significant way. Who said studying is annoying?

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Los sistemas de adquisición de datos utilizados en los diagnósticos de los dispositivos de fusión termonuclear se enfrentan a importantes retos planteados en los dispositivos de pulso largo. Incluso en los dispositivos de pulso corto, en los que se analizan los datos después de la descarga, existen aún una gran cantidad de datos sin analizar, lo cual supone que queda una gran cantidad de conocimiento por descubrir dentro de las bases de datos existentes. En la última década, la comunidad de fusión ha realizado un gran esfuerzo para mejorar los métodos de análisis off‐line para mejorar este problema, pero no se ha conseguido resolver completamente, debido a que algunos de estos métodos han de resolverse en tiempo real. Este paradigma lleva a establecer que los dispositivos de pulso largo deberán incluir dispositivos de adquisición de datos con capacidades de procesamiento local, capaces de ejecutar avanzados algoritmos de análisis. Los trabajos de investigación realizados en esta tesis tienen como objetivo determinar si es posible incrementar la capacidad local de procesamiento en tiempo real de dichos sistemas mediante el uso de GPUs. Para ello durante el trascurso del periodo de experimentación realizado se han evaluado distintas propuestas a través de casos de uso reales elaborados para algunos de los dispositivos de fusión más representativos como ITER, JET y TCV. Las conclusiones y experiencias obtenidas en dicha fase han permitido proponer un modelo y una metodología de desarrollo para incluir esta tecnología en los sistemas de adquisición para diagnósticos de distinta naturaleza. El modelo define no sólo la arquitectura hardware óptima para realizar dicha integración, sino también la incorporación de este nuevo recurso de procesamiento en los Sistemas de Control de Supervisión y Adquisición de Datos (SCADA) utilizados en la comunidad de fusión (EPICS), proporcionando una solución completa. La propuesta se complementa con la definición de una metodología que resuelve las debilidades detectadas, y permite trazar un camino de integración de la solución en los estándares hardware y software existentes. La evaluación final se ha realizado mediante el desarrollo de un caso de uso representativo de los diagnósticos que necesitan adquisición y procesado de imágenes en el contexto del dispositivo internacional ITER, y ha sido testeada con éxito en sus instalaciones. La solución propuesta en este trabajo ha sido incluida por la ITER IO en su catálogo de soluciones estándar para el desarrollo de sus futuros diagnósticos. Por otra parte, como resultado y fruto de la investigación de esta tesis, cabe destacar el acuerdo llevado a cabo con la empresa National Instruments en términos de transferencia tecnológica, lo que va a permitir la actualización de los sistemas de adquisición utilizados en los dispositivos de fusión. ABSTRACT Data acquisition systems used in the diagnostics of thermonuclear fusion devices face important challenges due to the change in the data acquisition paradigm needed for long pulse operation. Even in shot pulse devices, where data is mainly analyzed after the discharge has finished , there is still a large amount of data that has not been analyzed, therefore producing a lot of buried knowledge that still lies undiscovered in the data bases holding the vast amount of data that has been generated. There has been a strong effort in the fusion community in the last decade to improve the offline analysis methods to overcome this problem, but it has proved to be insufficient unless some of these mechanisms can be run in real time. In long pulse devices this new paradigm, where data acquisition devices include local processing capabilities to be able to run advanced data analysis algorithms, will be a must. The research works done in this thesis aim to determining whether it is possible to increase local capacity for real‐time processing of such systems by using GPUs. For that, during the experimentation period, various proposals have been evaluated through use cases developed for several of the most representative fusion devices, ITER, JET and TCV. Conclusions and experiences obtained have allowed to propose a model, and a development methodology, to include this technology in systems for diagnostics of different nature. The model defines not only the optimal hardware architecture for achieving this integration, but also the incorporation of this new processing resource in one of the Systems of Supervision Control and Data Acquisition (SCADA) systems more relevant at the moment in the fusion community (EPICS), providing a complete solution. The final evaluation has been performed through a use case developed for a generic diagnostic requiring image acquisition and processing for the international ITER device, and has been successfully tested in their premises. The solution proposed in this thesis has been included by the ITER IO in his catalog of standard solutions for the development of their future diagnostics. This has been possible thanks to the technologic transfer agreement signed with xi National Instruments which has permitted us to modify and update one of their core software products targeted for the acquisition systems used in these devices.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El ruido de ocio que se produce hoy en día, es un problema de salud y de bienestar en la vida de las personas. Sin embargo, no existen modelos que ayuden a prever los problemas que puedan ocasionar. Este proyecto es el primer paso en la creación de estos modelos, centrándose en terrazas y veladores. Los objetivos principales del proyecto son la creación de una base de datos de ruidos de terrazas y la definición de una metodología para la estimación de la potencia que emiten. Para alcanzar estos objetivos, será necesario, en primer lugar, seleccionar una serie de terrazas en las que llevar a cabo las mediciones, definir el método de cálculo y llevar a cabo las mismas. Cuando se alcanza este punto, llega el momento de estudiar los distintos escenarios que han tenido lugar durante la etapa de medidas para poder simularlos en un software de estimación acústica que sea capaz de recrearlos. Si se siguen estos pasos, se podrá saber cuáles son los valores de potencia acústica de las terrazas estudiadas así como las características de emisión de ruido. Creada la base de datos y definida la metodología para la estimación de potencia acústica emitida por terrazas, se analizan los resultados llegando a la conclusión de que el nivel de potencia acústica depende del número de personas en la terraza y las mesas ocupadas, aunque es difícil ver la relación exacta. También se llega a la conclusión de que las terrazas suelen tener un nivel estable de potencia acústica que tiene un valor promedio de entre 76dBA y 78dBA. ABSTRACT. Nowadays, leisure noise is a health and wellness problem in the lives of people. However, there are no models that help anticipate problems that may arise. This project is the first step to creating these models, focusing on terraces. The main objectives are the creation of a database of noise made by terraces and the definition of a methodology for estimating the noise level. To achieve these objectives, it is necessary, first, selecting a series of terraces where measure, define the calculation method and perform the measures. When this point is reached, it is time to study the different scenarios that have taken place during the period of measures to simulate them with an acoustic estimation software that is able to recreate them. If you follow these steps, you will know the values of sound power of the terraces studied as well as noise emission characteristics. Created the database and defined the methodology for estimation of acoustic power emitted by terraces, you can see that the sound power level depends on the number of people on the terrace and tables occupied, although it is difficult see the exact relationship. You also can conclude that the terraces usually have a stable sound power level which has an average value of between 76 dBA and 78dBA.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta investigación surge a raíz de la experiencia profesional del autor, maestro especialista de Educación Física en el C.E.I.P. “Alhambra” de Madrid, cuando de manera progresiva, aprecia que el tenis de mesa puede ser un deporte muy interesante de desarrollar en las sesiones de Educación Física y de promover dentro de los tiempos de recreo. El autor cree que este deporte desarrolla una serie de objetivos motrices, afectivos, cognitivos y sociales que pueden contribuir a la adquisición de las competencias básicas y al desarrollo integral de los alumnos. Es entonces cuando recibe formación sobre el deporte de tenis de mesa y busca los medios necesarios de financiación para que se dote al centro del material necesario. Así la Junta municipal del distrito de Fuencarral-El Pardo instala en el patio del colegio tres mesas de exterior y, con los recursos del colegio y la ayuda de la Asociación de padres y madres (AMPA), se consiguen cinco mesas de interior plegables y todo el material necesario (redes, raquetas, pelotas, etc.). Tras introducir este deporte desde 3º a 6º de Educación Primaria promueve un campeonato en el colegio cuyo índice de participación ronda el 90% del alumnado, estos resultados crean al autor ciertas incertidumbres que son la motivación y punto de partida para realizar esta investigación que analice si la práctica del tenis de mesa puede resultar idónea en la etapa de Educación Primaria. Introducción La legislación actual en materia de educación, Ley Orgánica 2/2006, de 3 de mayo, de Educación (LOE) modificada por la Ley Orgánica 8/2013, de 9 de diciembre, para la mejora de la calidad educativa. (LOMCE), otorga una gran relevancia al deporte en general. "El deporte es una actividad saludable, divertida y formativa que puede tener profundos beneficios no sólo para su salud y su bienestar sino también para el desarrollo personal integral físico, psicológico y psicosocial del niño, además de sobre su desarrollo deportivo" (Pradas, 2009, p. 151), es pues, un momento idóneo para analizar qué deportes se practican en los colegios o por qué se practican unos más que otros. "El tenis de mesa además de ser un deporte para todos, se presenta como un juego atractivo, en donde su práctica resulta muy divertida a cualquier edad, tanto para niños como para adultos, principalmente porque presenta unas reglas de juego simples, no encerrando peligro alguno para la integridad física de sus practicantes durante su juego" (Pradas, 2009, p. 83). Es un deporte que "está abierto a todos, sin distinción de edad o sexo, tanto como deporte de alto nivel como de práctica familiar o social" (Gatien, 1993, p. 16). No obstante, "son escasas las obras sobre tenis de mesa. Pocos libros, tanto de divulgación como de reflexión sobre el tenis de mesa, adornan los estantes de las librerías y las bibliotecas" (Erb, 1999, p.14) y añade “así pues, el medio escolar padece de falta de obras explicativas y pedagógicas referidas a este tema" (Erb, 1999, p.14 ) En particular, se pretenden conseguir cinco objetivos divididos en tres categorías (el centro, el profesorado y el deporte. • A nivel de Centro: - Conocer el porcentaje de colegios que disponen de espacios y materiales adecuados para la práctica del tenis de mesa, así como identificar, de las distintas Direcciones de Área Territoriales (DAT), cuál tiene los colegios mejor dotados tanto en instalaciones como en materiales para desarrollar programas de promoción del tenis de mesa. - Averiguar las posibles causas por las que el tenis de mesa no se practica tanto como otros deportes, analizando los impedimentos que limitan la implantación del tenis de mesa como un deporte habitual en los centros de Educación Primaria. Analizar la opinión del profesorado en cuanto a los materiales y las instalaciones necesarios para el tenis de mesa. • A nivel de profesorado: - Analizar el nivel de conocimiento que tienen los profesionales que imparten la asignatura de Educación Física sobre el tenis de mesa, así como sus necesidades para incluir unidades didácticas de tenis de mesa en sus programaciones didácticas. - Conocer el perfil de profesor ideal que recomienda la utilización del tenis de mesa y averiguar el interés del profesorado por recibir formación específica del tenis de mesa. • A nivel de deporte: - Analizar la opinión de los profesionales sobre la idoneidad del tenis de mesa en la Educación Primaria atendiendo a los objetivos que persigue, a las competencias que desarrolla, a los contenidos, criterios de evaluación y estándares de aprendizaje que se pueden trabajar y a las lesiones que se producen. Metodología La investigación se caracterizó por utilizar una metodología inductiva, al surgir de la experiencia profesional del autor, también fue transversal al analizar la realidad en un momento concreto y de tipo cuantitativa. La población objeto de estudio fue la totalidad de los colegios públicos de la Comunidad de Madrid, siendo los profesores de Educación Física los encargados de facilitar los datos solicitados. Estos datos se obtuvieron utilizando como instrumento de toma de datos el cuestionario auto administrado con preguntas cerradas de opción múltiple previamente validado por un panel de 5 expertos. Las variables indirectas fueron: el género del profesorado, la edad del profesorado, la experiencia profesional y el tipo de destino. El proceso de la toma de datos supuso un lapso de tiempo de 3 meses, desde mayo de 2015 hasta julio de 2015, en este tiempo hubo dos fases de recogida de datos, una online a través del correo electrónico institucional de los colegios públicos de la Comunidad de Madrid y otra “in situ” con cuestionarios de lápiz y papel. En cuanto a los datos que se obtuvieron, sobre una población de 798 colegios, se consiguió una muestra de 276, esto supuso una tasa de respuesta del 34,59%, asumiendo la situación más desfavorable posible (p=q) y un nivel de confianza del 95%, para el total de los 276 cuestionarios cumplimentados, el error máximo fue del ±4,78%. Resultados En cuanto a los resultados obtenidos, se establecieron de acuerdo a tres dimensiones: A nivel de Centro, a nivel de Profesorado y a nivel del Deporte y pretendieron averiguar si se alcanzaron los cinco objetivos planteados. Tras el análisis de los resultados, se apreció que los colegios públicos de la Comunidad de Madrid disponían de las suficientes instalaciones para el tenis de mesa, en cambio, faltaban materiales específicos y formación por parte del profesorado, así como recursos didácticos y un programa de promoción del tenis de mesa. Se apreció un manifiesto interés por parte del profesorado en recibir formación específica de tenis de mesa pues la mayoría recomendaba la utilización del tenis de mesa dentro de la asignatura de Educación Física en Educación Primaria. Por último, los resultados mostraron la cantidad de objetivos motrices, afectivos, cognitivos y sociales que desarrolla el tenis de mesa así como su contribución a la adquisición de las competencias básicas y al objetivo “k” de la Educación Primaria, que indica “Valorar la higiene y la salud, conocer y respetar el cuerpo humano, y utilizar la Educación Física y el deporte como medios para favorecer el desarrollo personal y social”, además, se mostró el bajo índice de lesiones que provoca. Discusión y conclusiones El tenis de mesa es un deporte idóneo para ser practicado y enseñado en la asignatura de Educación Física en la etapa de Educación Primaria debido a la gran cantidad de contenidos que son susceptibles de ser trabajados a través de este deporte y debido a la gran cantidad de valores, individuales y sociales que se pueden fomentar con la práctica del tenis de mesa. Las causas de que hasta ahora, el tenis de mesa no sea un deporte practicado de forma habitual en los colegios públicos de la Comunidad de Madrid a pesar de trabajar muchos contenidos específicos de la asignatura de Educación Física puede deberse a factores externos al deporte del tenis de mesa y susceptibles de ser solucionados con una adecuada inversión en materiales específicos, formación del profesorado y recursos didácticos. Si se dota a los centros de los materiales y recursos didácticos necesarios y dando formación al profesorado, éste introduciría unidades didácticas de tenis de mesa dentro de sus programaciones anuales. La federación española y madrileña de tenis de mesa, deberían desarrollar un programa de promoción dotando de materiales y recursos a los centros, tal y como lo han hecho otras federaciones como la de voleibol, bádminton o de baloncesto, entre otras. ABSTRACT This research arises from the professional experience of the author, specialized teacher of physical education in the CEIP "Alhambra" in Madrid, where progressively, appreciates that table tennis can be a very interesting sport to develop in physical education sessions and promote within the playtimes. The author believes that this sport develops a range of motor, affective, cognitive and social objectives that can contribute to the acquisition of basic skills and the integral development of students. It is then when receives training on the sport of table tennis and seeks ways of funding in order to outfit the center with necessary equipment. The Municipal District of Fuencarral-El Pardo installed three outdoor tables in the schoolyard and with the resources of the school and the support of the Association of Parents (AMPA), five indoor folding tables are achieved as well as all the necessary material (nets, rackets, balls, etc.). After introduce the sport from 3rd to 6th grade of primary education, promotes a championship in the school where the participation rate is around 90% of students, these results create the uncertainties to the author that are the motivation and starting point for this research to analyze whether the practice of table tennis can be ideal at the stage of primary education. Introduction The current legislation on education, Organic Law 2/2006 of 3 May, on Education (LOE) as amended by Organic Law 8/2013, of December 9, to improve educational quality (LOMCE), attaches great importance to the sport in general, "Sport is a healthy, funny and educational activity that can have great benefits not only for their health and well-being but also for the physical, psychological and psychosocial comprehensive personal child development besides on their sports development "(Pradas, 2009, p. 151), is therefore an ideal moment to analyze which sports are practiced in schools or why are practiced some more than others. "The table tennis as well as being a sport for everyone, is presented as an attractive game, where its practice is funny at any age, both children and adults, mainly because it has simple game rules, not enclosing danger for the physical integrity of its practitioners during their game" (Pradas, 2009, p. 83). It is a sport that is "open to all, regardless of age or sex, as high-level sport, as family or social practice" (Gatien, 1993, p. 16). However, "there are few books on table tennis. Few books, both reflexion or popularization about table tennis, adorn the shelves of bookstores and libraries." (Erb, 1999, p.14) and add "So, the school environment suffers from lack of explanatory and educational work related to this issue." (Erb, 1999, p.14) In particular, it is intended to achieve the following objectives within the Community of Madrid: • To determine the percentage of schools that have spaces and materials suitable for practicing table tennis and identify, from the different Directorates of Land Area (DAT), which has the best equipped schools in both facilities and materials to develop programs to promote table tennis. • Find out the possible causes that explained why table tennis is not practiced as much as other sports, analyzing impediments that limit the implementation of table tennis as a regular sport in primary schools. Analyze the opinion of teachers in terms of materials and facilities needed for table tennis. • Analyze the level of knowledge about table tennis among professionals who teach the subject of Physical Education and their needs to include teaching units about table tennis in their teaching programs. • Knowing the profile of the ideal teacher who recommends the use of table tennis and figure out the interest of teachers to receive specific training of table tennis. • Analyze the professional opinion on the suitability of table tennis in Primary Education taking into account the objectives pursued, to develop the skills, content, evaluation criteria and learning standards that can work and injuries involved. Methodology The investigation was characterized by using an inductive methodology, arising from the professional experience of the author, was also transverse to analyze reality in a particular time and quantitative type. The population under study were all the state schools in Madrid region, being the physical education teachers responsible for providing the requested data. These data were obtained using as data collection instrument a self-administered questionnaire with multiple choice questions, because it facilitates the analysis thereof. In terms of obtained data, on a population of 798 schools, a sample of 276 was achieved, this represented a response rate of 34.59%, assuming the worst case scenario (p = q) and a level 95% confidence for the total of the 276 completed questionnaires, the maximum error was ± 4.78%. Results In terms of the results, they were set according to three dimensions: center level, professorate level and Sport level and trying to find out whether the five objectives were achieved. After analyzing the results, it was found that schools possessed sufficient facilities for table tennis, however, lacked specific materials and training by teachers, as well as teaching resources and a program to promote table tennis. A clear interest was noticed by teachers in order to receive specific training in table tennis since most recommended the use of table tennis in the subject of physical education in primary education. Finally, the results proved the number of motor, affective, cognitive and social objectives developed by table tennis and its contribution to the acquisition of basic skills and the objective "k" of primary education, in addition to the low rate of injury it causes. Discussion and conclusions Table tennis is an ideal sport to be practiced and taught in the subject of Physical Education in Primary Education due to the large amount of content that are likely to be worked through this sport and due to the large number of individual and social values that can foster the practice of table tennis. The causes of that so far, table tennis is not a sport practiced regularly in schools despite working many specific contents of the subject of Physical Education may be due to factors outside the sport of table tennis and subject to solved with adequate investment in specific materials, teacher training and educational resources. By endowing the centers with the necessary teaching materials and resources and providing training to teachers, they would introduce teaching units of table tennis within their annual programs. Madrid and the Spanish Federation of table tennis should develop a promotional program by endowing materials and resources to the centers, as did other federations such as badminton and basketball, among others.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El sector energético, en España en particular, y de forma similar en los principales países de Europa, cuenta con una significativa sobrecapacidad de generación, debido al rápido y significativo crecimiento de las energías renovables en los últimos diez años y la reducción de la demanda energética, como consecuencia de la crisis económica. Esta situación ha hecho que las centrales térmicas de generación de electricidad, y en concreto los ciclos combinados de gas, operen con un factor de utilización extremadamente bajo, del orden del 10%. Además de la reducción de ingresos, esto supone para las plantas trabajar continuamente fuera del punto de diseño, provocando una significativa pérdida de rendimiento y mayores costes de explotación. En este escenario, cualquier contribución que ayude a mejorar la eficiencia y la condición de los equipos, es positivamente considerada. La gestión de activos está ganando relevancia como un proceso multidisciplinar e integrado, tal y como refleja la reciente publicación de las normas ISO 55000:2014. Como proceso global e integrado, la gestión de activos requiere el manejo de diversos procesos y grandes volúmenes de información, incluso en tiempo real. Para ello es necesario utilizar tecnologías de la información y aplicaciones de software. Esta tesis desarrolla un concepto integrado de gestión de activos (Integrated Plant Management – IPM) aplicado a centrales de ciclo combinado y una metodología para estimar el beneficio aportado por el mismo. Debido a las incertidumbres asociadas a la estimación del beneficio, se ha optado por un análisis probabilístico coste-beneficio. Así mismo, el análisis cuantitativo se ha completado con una validación cualitativa del beneficio aportado por las tecnologías incorporadas al concepto de gestión integrada de activos, mediante una entrevista realizada a expertos del sector de generación de energía. Los resultados del análisis coste-beneficio son positivos, incluso en el desfavorable escenario con un factor de utilización de sólo el 10% y muy prometedores para factores de utilización por encima del 30%. ABSTRACT The energy sector particularly in Spain, and in a similar way in Europe, has a significant overcapacity due to the big growth of the renewable energies in the last ten years, and it is seriously affected by the demand decrease due to the economic crisis. That situation has forced the thermal plants and in particular, the combined cycles to operate with extremely low annual average capacity factors, very close to 10%. Apart from the incomes reduction, working in out-of-design conditions, means getting a worse performance and higher costs than expected. In this scenario, anything that can be done to improve the efficiency and the equipment condition is positively received. Asset Management, as a multidisciplinary and integrated process, is gaining prominence, reflected in the recent publication of the ISO 55000 series in 2014. Dealing Asset Management as a global, integrated process needs to manage several processes and significant volumes of information, also in real time, that requires information technologies and software applications to support it. This thesis proposes an integrated asset management concept (Integrated Plant Management-IPM) applied to combined cycle power plants and develops a methodology to assess the benefit that it can provide. Due to the difficulties in getting deterministic benefit estimation, a statistical approach has been adopted for the cot-benefit analysis. As well, the quantitative analysis has been completed with a qualitative validation of the technologies included in the IPM and their contribution to key power plant challenges by power generation sector experts. The cost- benefit analysis provides positive results even in the negative scenario of annual average capacity factor close to 10% and is promising for capacity factors over 30%.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Es, en el encuentro de los edificios con el terreno, donde el suelo como realidad se transforma en cualidad arquitectónica. La presente tesis aborda el estudio del plano del suelo, haciendo una revisión crítica de la arquitectura como mecanismo de pensamiento proyectual. Este análisis se enmarca a partir de los años sesenta, por considerar que es cuando comienza a evidenciarse la ruptura respecto a la herencia del Movimiento Moderno. Es entonces cuando la arquitectura marca un punto de inflexión, y empiezan a surgir diferentes actitudes metodológicas respecto al suelo, totalmente nuevas. Las clásicas acciones de encuentro como posar, elevar o enterrar fueron poco a poco sustituidas por otras más complejas como plegar, inclinar o esponjar. Utilizando como marco de restricción los encuentros o desencuentros del objeto arquitectónico con el terreno, se analiza el suelo como estrategia arquitectónica tratando de demostrar como su manipulación puede ser una eficaz herramienta con la que establecer relaciones específicas con el lugar. La capacidad que presenta el suelo, como elemento arquitectónico, de explorar y modificar las características de cada entorno, hacen de esta superficie una eficiente forma de contextualización. Por tanto, la manipulación del suelo que aquí se plantea, opera transcodificando los elementos específicos de cada lugar y actúa como estrategia arquitectónica que pone en relación al edificio con el contexto, modificando las particularidades formales de dicho plano. Frente a la tendencia que reduce la expresión arquitectónica a una simple apariencia formal autónoma, se plantea la manipulación del plano del suelo como mecanismo de enraizamiento con el lugar, enfatizando para ello la condición terrestre de la arquitectura. El plano del suelo es el que ata al edificio mediante la gravedad a la corteza terrestre. En realidad se trata de realzar el carácter mediador del suelo en la arquitectura, definiendo para ello el establecimiento de elementos comunes entre realidades distintas, potenciando el valor del suelo como herramienta que puede transcodificar el entorno, trasformando su datos en elementos arquitectónicos concretos. En este proceso de traducción de información, el suelo pasa de ser un objeto pasivo a ser uno operativo, convirtiéndose en parte activa de las acciones que sobre él se ejercen. La tesis tiene también como propósito demostrar cómo, la clave de la rápida evolución que el suelo como estrategia arquitectónica ha sufrido en los últimos años, mucho debe a la expansión del suelo en otras artes como en la escultura, y mas concretamente en el landart. Surgen entonces nuevas disciplinas, en las que se propone la comprensión del lugar en los proyectos desarrollando una visión integral del mundo natural, convirtiéndolo en un tejido viviente y conector que pone en relación las actividades que sustenta. También encontramos en Utzon, y sus plataformas geológicas, al precursor de la importancia que más tarde se le daría al plano del suelo en la arquitectura, ya que inicia cierta actitud crítica, que hizo avanzar hacia una arquitectura más expresiva que requería nuevos mecanismos que la relacionasen con el suelo que los soportaba, proponiendo con sus plataformas una transformación infraestructural del suelo. Con su interpretación transcultural de las estructuras espaciales arquetípicas mayas, chinas y japonesas, irá enriqueciendo el panorama arquitectónico, adquiriendo de este modo más valor el contexto que acabará por ser entendido de forma más compleja. Los proyectos de arquitectura en muchas ocasiones se han convertido en territorios propicios de especulación donde construir teoría arquitectónica. Desde este contexto se analizan cuatro estrategias de suelo a través del estudio de cuatro posiciones arquitectónicas muy significativas desde el punto de vista de la manipulación del plano del suelo, que construyen una interesante metodología proyectual con la que operar. Los casos de estudio, propuestos son; la Terminal Pasajeros (1996-2002) en Yokohama del estudio FOA, la Casa de la Música (1999-2005) de OMA en Oporto, el Memorial Judío (1998-2005) de Berlín de Peter Eisenman, y por último el Museo MAXXI (1998-2009) de Zaha Hadid en Roma. Descubrir las reglas, referencias y metodologías que cada uno nos propone, nos permite descubrir cuáles son los principales posicionamientos en relación al proyecto y su relación con el lugar. Las propuestas aquí expuestas abordan una nueva forma de entender el suelo, que hizo avanzar a la arquitectura hacia nuevos modos de encuentro con el terreno. Nos permite también establecer cuáles son las principales aportaciones arquitectónicas del suelo, como estrategia arquitectónica, que han derivado en su reformulación. Dichas contribuciones abren nuevas formas de abordar la arquitectura basadas en el movimiento y en la flexibilidad funcional, o en la superposición de flujos de información y circulación. También plantean nuevas vías desdibujando la figura contra el fondo, y refuerzan la idea del suelo como plataforma infraestructural que ya había sido enunciada por Utzon. Se trata en definitiva de proponer la exploración de la superficie del suelo como el elemento más revelador de las formas emergentes del espacio. ABSTRACT Where the building hits the ground, it is where the latter as reality becomes architectural quality. This thesis presents the study of the ground plane, making a critical review of architecture as a mechanism of projectual thought. This analysis starts from the sixties, because it is when the break begins to be demonstrated with regard to the inheritance of the Modern Movement. It is then when architecture marks a point of inflexion, and different, completely new methodological attitudes to the ground start to emerge. The classic meeting action like place, raise or bury are gradually replaced by more complex operations such as fold, bend or fluff up. Framing it within the meetings or disagreements between architectural object and ground, we analyzed it as architectural strategy trying to show how handling can be an effective tool to establish a specific relationship with the place. The capacity ground has, as an architectural element, to explore and modify the characteristics of each environment, makes this area an efficient tool for contextualization. Therefore, the manipulation of ground that is analyzed here, operates transcoding the specifics of each place and acts as architectural strategy that relates to the building with the context, modifying the structural peculiarities of such plane. Opposite to the reductive tendency of the architectural expression to a simple formal autonomous appearance, the manipulation of the ground plane is considered as a rooting mechanism place that emphasises the earthly condition of architecture. The ground plane is the one that binds the building by gravity to the earth’s crust. In fact, it tries to study the mediating character of the ground in architecture, defining for it to establish commonalities among different realities, enhancing the value of the ground as a tool that can transcode the environment, transforming its data into specific architectural elements. In this process of translating information, the ground goes from being a liability, to become active part of the actions exerted on the object. The thesis also tries to demonstrate how the key of the rapid evolution that the ground likes architectural strategy has gone through recently, much due to its use expansion in other arts such as sculpture. New disciplines arise then, in which one proposes the local understanding in the projects, developing an integral vision of the natural world and turning it into an element linking the activities it supports. We also find in Utzon, and his geological platforms, the precursor of the importance that later would be given to the ground plane in architecture, since it initiates a certain critical attitude, which advances towards a more expressive architecture, with new mechanisms that relate to the ground that it sits in, proposing with its platforms an infrastructural transformation of the ground. With his transcultural interpretation of the spatial archetypal structures, he will enrich the architectural discourse, making the context become understood in more complex ways. Architectural projects in many cases have become territories prone to architectural theory speculation. Within this context, four strategies are analyzed through the study of four very significant architectural positions, from the point of view of handling the ground plane, and the project methodology within which to operate. The case studies analyzed are; Passenger Terminal (1996-2002) in Yokohama from FOA, The House of the music (1999-2005) the OMA in Oporto, The Jew monument (1998-2005) in Berlin the Peter Eisenman, and finally the MAXXI Museum (1998-2009) the Zaha Hadid in Rome. Discovering the rules, references and methodologies that each of those offer, it allows to discover what the main positions are regarding the building and its relationship with the place where it is located. The proposals exposed here try to shed a different light on the ground, which architecture advancing in new ways on how meet it. The crossing of the different studied positions, allows us to establish what the main contributions of ground as architectural strategy are. Such contributions open up new approaches to architecture based on movement and functional flexibility, overlapping information flow and circulation, consider new ways that blur the figure against the background, and reinforce the idea of ground as infrastructural platform, already raised by Utzon. Summarizing, it tries to propose the exploration of the ground plane as the most revealing form of spatial exploration.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El proceso de proyecto, llevado a cabo por Juan O’Gorman, para proyectar y construir más de veinticinco Escuelas Primarias en el Distrito Federal en menos de seis meses en 1932, necesariamente debió regirse por una metodología que permitiera conseguirlo. Esta investigación plantea la existencia de un método de proyecto que engloba toda la arquitectura de la etapa funcionalista de O’Gorman. Se considera la metodología, denominada en esta tesis Sistema Modular de las Escuelas Primarias, como un procedimiento proyectual evolutivo, conseguido a través de una investigación y experimentación continua. Inicia en 1929 con la realización de dos proyectos de vivienda particular, continúa con la génesis de un esquema de modulación que surge en unos proyectos de vivienda colectiva, se perfecciona en los proyectos de Escuelas Primarias del D.F. introduciendo criterios de estandarización y culmina con la adaptación a diversas circunstancias geométricas y climáticas que define la ubicación, en los casos concretos de la Escuela Vocacional Industrial de Tolsá y Tresguerras y la Escuela Primaria de Tampico en 1934. Este planteamiento destaca el valor de la obra funcionalista de aquel joven arquitecto, no sólo por lo novedoso que este nuevo lenguaje supuso en el México neo-colonial de los años 30, sino especialmente por la importancia que significó para la arquitectura mexicana contemporánea, la sistematización de procesos de proyecto -modulación y estandarización- para abordar una arquitectura inexistente en la época -la arquitectura social- de manera moderna y eficiente. La metodología empleada en la tesis implica la catalogación y mapeado de las Escuelas Primarias del D.F., lo cual aporta documentación original inédita. ABSTRACT The project process, carried out by Juan O’Gorman, to design and build more than twenty five elementary schools in less than six months in Mexico City in 1932, must have necessarily been governed by a thorough methodology in order to achieve this. This research posits the existence of a project method that encompasses all the architecture of O’Gorman’s functionalist stage. The methodology, known as “Modular System of Elementary Schools” in this thesis, is regarded as an evolutionary proyectual process, achieved through continuous research and experimentation. This methodology, which started in 1929 with the completion of two projects of private dwellings, continued with the creation of a modulation scheme arising from collective housing projects, later perfected in the Elementary School projects of Mexico City by introducing standardization criteria. Finally, it culminated in the adaptation to various geometric and climatic circumstances defined by the location, in the specific cases of the Industrial Vocational School of Tolsá and Tresguerras and Tampico’s Elementary School in 1934. This approach highlights the value of the young architect’s functionalist work, not only for the novelty of this new language in the neo-colonial Mexico of the 1930s, but especially because of the importance it meant to contemporary Mexican architecture, the systematization of project processes, -modulation and standardization- and addressing a nonexistent ‘social architecture’ at the time in a modern and efficient way. The methodology used in this thesis involves cataloging and mapping O’Gorman’s Elementary Schools in Mexico City, which provides unprecedented original documentation.