14 resultados para análisis estático

em Universidad Politécnica de Madrid


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tesis doctoral se enmarca dentro de la computación con membranas. Se trata de un tipo de computación bio-inspirado, concretamente basado en las células de los organismos vivos, en las que se producen múltiples reacciones de forma simultánea. A partir de la estructura y funcionamiento de las células se han definido diferentes modelos formales, denominados P sistemas. Estos modelos no tratan de modelar el comportamiento biológico de una célula, sino que abstraen sus principios básicos con objeto de encontrar nuevos paradigmas computacionales. Los P sistemas son modelos de computación no deterministas y masivamente paralelos. De ahí el interés que en los últimos años estos modelos han suscitado para la resolución de problemas complejos. En muchos casos, consiguen resolver de forma teórica problemas NP-completos en tiempo polinómico o lineal. Por otra parte, cabe destacar también la aplicación que la computación con membranas ha tenido en la investigación de otros muchos campos, sobre todo relacionados con la biología. Actualmente, una gran cantidad de estos modelos de computación han sido estudiados desde el punto de vista teórico. Sin embargo, el modo en que pueden ser implementados es un reto de investigación todavía abierto. Existen varias líneas en este sentido, basadas en arquitecturas distribuidas o en hardware dedicado, que pretenden acercarse en lo posible a su carácter no determinista y masivamente paralelo, dentro de un contexto de viabilidad y eficiencia. En esta tesis doctoral se propone la realización de un análisis estático del P sistema, como vía para optimizar la ejecución del mismo en estas plataformas. Se pretende que la información recogida en tiempo de análisis sirva para configurar adecuadamente la plataforma donde se vaya a ejecutar posteriormente el P sistema, obteniendo como consecuencia una mejora en el rendimiento. Concretamente, en esta tesis se han tomado como referencia los P sistemas de transiciones para llevar a cabo el estudio de dicho análisis estático. De manera un poco más específica, el análisis estático propuesto en esta tesis persigue que cada membrana sea capaz de determinar sus reglas activas de forma eficiente en cada paso de evolución, es decir, aquellas reglas que reúnen las condiciones adecuadas para poder ser aplicadas. En esta línea, se afronta el problema de los estados de utilidad de una membrana dada, que en tiempo de ejecución permitirán a la misma conocer en todo momento las membranas con las que puede comunicarse, cuestión que determina las reglas que pueden aplicarse en cada momento. Además, el análisis estático propuesto en esta tesis se basa en otra serie de características del P sistema como la estructura de membranas, antecedentes de las reglas, consecuentes de las reglas o prioridades. Una vez obtenida toda esta información en tiempo de análisis, se estructura en forma de árbol de decisión, con objeto de que en tiempo de ejecución la membrana obtenga las reglas activas de la forma más eficiente posible. Por otra parte, en esta tesis se lleva a cabo un recorrido por un número importante de arquitecturas hardware y software que diferentes autores han propuesto para implementar P sistemas. Fundamentalmente, arquitecturas distribuidas, hardware dedicado basado en tarjetas FPGA y plataformas basadas en microcontroladores PIC. El objetivo es proponer soluciones que permitan implantar en dichas arquitecturas los resultados obtenidos del análisis estático (estados de utilidad y árboles de decisión para reglas activas). En líneas generales, se obtienen conclusiones positivas, en el sentido de que dichas optimizaciones se integran adecuadamente en las arquitecturas sin penalizaciones significativas. Summary Membrane computing is the focus of this doctoral thesis. It can be considered a bio-inspired computing type. Specifically, it is based on living cells, in which many reactions take place simultaneously. From cell structure and operation, many different formal models have been defined, named P systems. These models do not try to model the biological behavior of the cell, but they abstract the basic principles of the cell in order to find out new computational paradigms. P systems are non-deterministic and massively parallel computational models. This is why, they have aroused interest when dealing with complex problems nowadays. In many cases, they manage to solve in theory NP problems in polynomial or lineal time. On the other hand, it is important to note that membrane computing has been successfully applied in many researching areas, specially related to biology. Nowadays, lots of these computing models have been sufficiently characterized from a theoretical point of view. However, the way in which they can be implemented is a research challenge, that it is still open nowadays. There are some lines in this way, based on distributed architectures or dedicated hardware. All of them are trying to approach to its non-deterministic and parallel character as much as possible, taking into account viability and efficiency. In this doctoral thesis it is proposed carrying out a static analysis of the P system in order to optimize its performance in a computing platform. The general idea is that after data are collected in analysis time, they are used for getting a suitable configuration of the computing platform in which P system is going to be performed. As a consequence, the system throughput will improve. Specifically, this thesis has made use of Transition P systems for carrying out the study in static analysis. In particular, the static analysis proposed in this doctoral thesis tries to achieve that every membrane can efficiently determine its active rules in every evolution step. These rules are the ones that can be applied depending on the system configuration at each computational step. In this line, we are going to tackle the problem of the usefulness states for a membrane. This state will allow this membrane to know the set of membranes with which communication is possible at any time. This is a very important issue in determining the set of rules that can be applied. Moreover, static analysis in this thesis is carried out taking into account other properties such as membrane structure, rule antecedents, rule consequents and priorities among rules. After collecting all data in analysis time, they are arranged in a decision tree structure, enabling membranes to obtain the set of active rules as efficiently as possible in run-time system. On the other hand, in this doctoral thesis is going to carry out an overview of hardware and software architectures, proposed by different authors in order to implement P systems, such as distributed architectures, dedicated hardware based on PFGA, and computing platforms based on PIC microcontrollers. The aim of this overview is to propose solutions for implementing the results of the static analysis, that is, usefulness states and decision trees for active rules. In general, conclusions are satisfactory, because these optimizations can be properly integrated in most of the architectures without significant penalties.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

España cuenta con un vasto catálogo de patrimonio edificado en obra de fábrica, tanto en el ámbito religioso como en el civil, que recorre un largo camino histórico desde épocas grecorromanas hasta principios del siglo XX. A lo largo de todos estos siglos, la introducción de nuevos materiales como el hormigón o el acero desplazaron el uso del ladrillo y de la piedra en estructuras a situaciones muy puntuales, lo que llevó durante mucho tiempo al olvido de las técnicas propias de estos materiales y a la ausencia de desarrollo de ensayos y estudios sobre ellos. De hecho, no se trata de una situación únicamente española, sino generalizada a nivel internacional. Todo esto, unido a la dificultad de caracterizar convenientemente los materiales componentes y la interfaz, a la gran variedad de patologías que pueden afectar a las fábricas y a la actuación de cargas de largo periodo de retorno, ha provocado que los arquitectos e ingenieros actuales carezcan de herramientas y de un marco normativo adecuados a la hora de aproximarse a este tipo de edificios. La consecuencia directa ha sido la profusión de ejemplos de intervenciones erróneas en los edificios históricos, tanto desde el punto de vista estructural como estético. Se hace, pues, perentorio desarrollar métodos de cálculo y de investigación que proporcionen las herramientas necesarias para ello y devuelvan el interés profesional y académico hacia la obra de fábrica entendida como material estructural. A raíz de lo expuesto anteriormente, el objeto de este trabajo es el de analizar el comportamiento estático de un edificio histórico desde varios puntos de vista: - La caracterización de los materiales. - El comportamiento de los elementos estructurales aislados. - El comportamiento del sistema estructural, tanto en su configuración actual como en su evolución a lo largo de las diversas reformas sufridas. - Las patologías observadas y la adecuación de los cálculos realizados a las mismas. La intención es la de establecer pautas de estudio y herramientas aplicables a otros edificios y situaciones, pero sin propósito de generalización. La metodología utilizada es la del Cálculo Límite o Rígido-plástico, de tipo I, basado en hallar la línea de acción de los empujes en el interior de la fábrica, y que será definido más adelante. Se ha escogido este método porque aúna la economía de medios y la necesidad de pocos datos, fundamentalmente geométricos, con el aporte de información muy valiosa sobre el nivel de cargas y el modo en que responde la estructura. Se renuncia desde el principio a realizar análisis de tipo II y tipo III, por considerar que resultan excesivamente laboriosos en comparación con la información que se busca. Además, de las propias líneas de empuje obtenidas se pueden inferir, que no determinar, tensiones y deformaciones en el edificio, especialmente a través del procedimiento de cálculo utilizado en la asignatura Conservación y Rehabilitación de Estructuras Históricas, de este máster, impartida por el profesor D. Javier León González, por el que se obtiene, no una trayectoria de empujes, sino todas las posibles a través de una serie de valores límites. Para este trabajo se ha elegido la Iglesia Parroquial de Nuestra Señora de la Oliva, de Lebrija, provincia de Sevilla, por varios motivos. De un lado, se trata de un edificio encuadrado en un momento histórico, el de la conquista castellana de los territorios de Al-Ándalus, en el que se construyen numerosos edificios religiosos y civiles con los que comparte muchas de sus características. Por otro lado, y dentro del mismo contexto, sus particularidades lo convierten en un ejemplo claramente diferenciado y catálogo de soluciones constructivas y estructurales. Por último, se trata de una construcción que ha ido evolucionando en el tiempo, aportando lenguajes y técnicas diferentes, pero que conviven en gran armonía, sin que haya perdido su unicidad en ningún momento (salvo por pequeños elementos en mi opinión disonantes) desde el núcleo original de tipo mudéjar alfonsí (s. XIII) hasta la construcción de su torre campanario en el s. XVIII, pasando por ampliaciones y modificaciones en los siglos XIV a XVII. El ámbito de este trabajo se limita al núcleo mudéjar original junto con la ampliación renacentista del salón principal. Se excluyen por tanto la sacristía y dependencias anexas, la torre campanario y los patios, por ser elementos independientes del resto del conjunto.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

El Análisis de Consumo de Recursos o Análisis de Coste trata de aproximar el coste de ejecutar un programa como una función dependiente de sus datos de entrada. A pesar de que existen trabajos previos a esta tesis doctoral que desarrollan potentes marcos para el análisis de coste de programas orientados a objetos, algunos aspectos avanzados, como la eficiencia, la precisión y la fiabilidad de los resultados, todavía deben ser estudiados en profundidad. Esta tesis aborda estos aspectos desde cuatro perspectivas diferentes: (1) Las estructuras de datos compartidas en la memoria del programa son una pesadilla para el análisis estático de programas. Trabajos recientes proponen una serie de condiciones de localidad para poder mantener de forma consistente información sobre los atributos de los objetos almacenados en memoria compartida, reemplazando éstos por variables locales no almacenadas en la memoria compartida. En esta tesis presentamos dos extensiones a estos trabajos: la primera es considerar, no sólo los accesos a los atributos, sino también los accesos a los elementos almacenados en arrays; la segunda se centra en los casos en los que las condiciones de localidad no se cumplen de forma incondicional, para lo cual, proponemos una técnica para encontrar las precondiciones necesarias para garantizar la consistencia de la información acerca de los datos almacenados en memoria. (2) El objetivo del análisis incremental es, dado un programa, los resultados de su análisis y una serie de cambios sobre el programa, obtener los nuevos resultados del análisis de la forma más eficiente posible, evitando reanalizar aquellos fragmentos de código que no se hayan visto afectados por los cambios. Los analizadores actuales todavía leen y analizan el programa completo de forma no incremental. Esta tesis presenta un análisis de coste incremental, que, dado un cambio en el programa, reconstruye la información sobre el coste del programa de todos los métodos afectados por el cambio de forma incremental. Para esto, proponemos (i) un algoritmo multi-dominio y de punto fijo que puede ser utilizado en todos los análisis globales necesarios para inferir el coste, y (ii) una novedosa forma de almacenar las expresiones de coste que nos permite reconstruir de forma incremental únicamente las funciones de coste de aquellos componentes afectados por el cambio. (3) Las garantías de coste obtenidas de forma automática por herramientas de análisis estático no son consideradas totalmente fiables salvo que la implementación de la herramienta o los resultados obtenidos sean verificados formalmente. Llevar a cabo el análisis de estas herramientas es una tarea titánica, ya que se trata de herramientas de gran tamaño y complejidad. En esta tesis nos centramos en el desarrollo de un marco formal para la verificación de las garantías de coste obtenidas por los analizadores en lugar de analizar las herramientas. Hemos implementado esta idea mediante la herramienta COSTA, un analizador de coste para programas Java y KeY, una herramienta de verificación de programas Java. De esta forma, COSTA genera las garantías de coste, mientras que KeY prueba la validez formal de los resultados obtenidos, generando de esta forma garantías de coste verificadas. (4) Hoy en día la concurrencia y los programas distribuidos son clave en el desarrollo de software. Los objetos concurrentes son un modelo de concurrencia asentado para el desarrollo de sistemas concurrentes. En este modelo, los objetos son las unidades de concurrencia y se comunican entre ellos mediante llamadas asíncronas a sus métodos. La distribución de las tareas sugiere que el análisis de coste debe inferir el coste de los diferentes componentes distribuidos por separado. En esta tesis proponemos un análisis de coste sensible a objetos que, utilizando los resultados obtenidos mediante un análisis de apunta-a, mantiene el coste de los diferentes componentes de forma independiente. Abstract Resource Analysis (a.k.a. Cost Analysis) tries to approximate the cost of executing programs as functions on their input data sizes and without actually having to execute the programs. While a powerful resource analysis framework on object-oriented programs existed before this thesis, advanced aspects to improve the efficiency, the accuracy and the reliability of the results of the analysis still need to be further investigated. This thesis tackles this need from the following four different perspectives. (1) Shared mutable data structures are the bane of formal reasoning and static analysis. Analyses which keep track of heap-allocated data are referred to as heap-sensitive. Recent work proposes locality conditions for soundly tracking field accesses by means of ghost non-heap allocated variables. In this thesis we present two extensions to this approach: the first extension is to consider arrays accesses (in addition to object fields), while the second extension focuses on handling cases for which the locality conditions cannot be proven unconditionally by finding aliasing preconditions under which tracking such heap locations is feasible. (2) The aim of incremental analysis is, given a program, its analysis results and a series of changes to the program, to obtain the new analysis results as efficiently as possible and, ideally, without having to (re-)analyze fragments of code that are not affected by the changes. During software development, programs are permanently modified but most analyzers still read and analyze the entire program at once in a non-incremental way. This thesis presents an incremental resource usage analysis which, after a change in the program is made, is able to reconstruct the upper-bounds of all affected methods in an incremental way. To this purpose, we propose (i) a multi-domain incremental fixed-point algorithm which can be used by all global analyses required to infer the cost, and (ii) a novel form of cost summaries that allows us to incrementally reconstruct only those components of cost functions affected by the change. (3) Resource guarantees that are automatically inferred by static analysis tools are generally not considered completely trustworthy, unless the tool implementation or the results are formally verified. Performing full-blown verification of such tools is a daunting task, since they are large and complex. In this thesis we focus on the development of a formal framework for the verification of the resource guarantees obtained by the analyzers, instead of verifying the tools. We have implemented this idea using COSTA, a state-of-the-art cost analyzer for Java programs and KeY, a state-of-the-art verification tool for Java source code. COSTA is able to derive upper-bounds of Java programs while KeY proves the validity of these bounds and provides a certificate. The main contribution of our work is to show that the proposed tools cooperation can be used for automatically producing verified resource guarantees. (4) Distribution and concurrency are today mainstream. Concurrent objects form a well established model for distributed concurrent systems. In this model, objects are the concurrency units that communicate via asynchronous method calls. Distribution suggests that analysis must infer the cost of the diverse distributed components separately. In this thesis we propose a novel object-sensitive cost analysis which, by using the results gathered by a points-to analysis, can keep the cost of the diverse distributed components separate.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

. Este proyecto tiene por objeto el desarrollo y la implantación de un sistema de optimización económica de instalaciones de producción de Régimen Especial, en una compañía eléctrica que representa a este tipo de instalaciones para su participación en los distintos mercados de electricidad. Inicialmente, se analizarán las opciones de participación en los distintos mercados de cada tecnología, en función de la legislación a la que pudieran estar acogidas las instalaciones del Régimen Especial; según tamaño y tipología de instalaciones, características o combustibles utilizados. En segundo lugar, se estudiará la relación entre dichas instalaciones y los distintos organismos reguladores del mercado; la Comisión Nacional de la Energía, el Ministerio de Industria y Turismo, Red Eléctrica de España y el Operador del mercado eléctrico. Posteriormente, se realizará un modelo de análisis estático de la situación actual de los mercados eléctricos, su estructura y funcionamiento, obteniendo para cada tipo de instalación el escenario de optimización de base, a partir del cual se podrá desarrollar el modelo dinámico que permitirá conocer en cualquier momento cuál será la mejor opción técnico-económica para cada tipo de instalación, optimizando así el presupuesto de las instalaciones objeto del estudio. Finalmente, este modelo se implementará en los sistemas de la compañía eléctrica, como una herramienta que permitirá asegurar la optimización en tiempo real a las instalaciones a las que representa en el mercado, optimizando sus propios costes a través de la implementación de este sistema automático y logrando así maximizar los ingresos de la compañía eléctrica. ABSTRACT DEVELOPMENT OF A SYSTEM OF ECONOMIC OPTIMIZATION FOR PLANTS OF SPECIAL REGIME. This project takes as an object the development and the implantation of a system of economic optimization of facilities of production of Special Regime, in an electrical company that it represents to this type of facilities for his participation in the different markets of electricity. Initially, there will be analyzed the options of participation in the different markets of every technology, depending on the legislation to which there could be received the facilities of the Special Regime; according to size and typology of facilities, characteristics or used fuels. Secondly, the relation will be studied between the above mentioned facilities and the different regulatory organisms of the market; the National Commission of the Energy, the Department of Industry and Tourism, Electrical Network of Spain and the Operator of the electrical market. Later, there will carry out a model of static analysis of the current situation of the electrical markets, his structure and functioning, obtaining for every type of installation the scene of base optimization, from which there will be able to develop the dynamic model who will allow to know at any time which will be the best technical - economic option for every type of installation, optimizing this way the budget of the facilities I object of the study. Finally, this model will be implemented in the systems of the electrical company, as a tool that will allow to assure the real time optimization to the facilities to which it represents on the market, optimizing his own costs across the implementation of this automatic system and managing this way to maximize the income of the electrical company.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Existen situaciones para las que los resultados de interés corresponden a una zona pequeña de la estructura en comparación con su totalidad. La utilización de elementos infinitos constituye la posibilidad que evita un esfuerzo excesivo de cálculo. Esta idea se aplica en este artículo al análisis estático de la flexión de placas, desarrollando un elemento finito rectangular con un lado situado a distancia infinita. La función de decrecimiento de los movimientos en el interior del elemento es exponencial con un parámetro cuyo valor se determina mediante minimización de la energía potencial total. Se presentan resultados obtenidos con el elemento, contrastando su bondad y eficacia en comparación con un cálculo convencional. Se comentan finalmente distintas extensiones posibles del elemento.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

El proyecto UPMSat2 aborda el desarrollo de un micro-satélite que se usará como una plataforma de demostración tecnológica. La mayor parte del proyecto se desarrolla en el Instituto Ignacio de la Riva de la Universidad Politécnica de Madrid, con la colaboración de empresas del sector del espacio. La labor del grupo STRAST se centra en el desarrollo del software de vuelo y del sector de tierra del satélite. Este Trabajo Fin de Grado trata del desarrollo de algunos componentes del software embarcado en el satélite. Los componentes desarrollados son: Manager, Platform y ADCS. El Manager está encargado de dirigir el funcionamiento del satélite y, en concreto, de su modo de operación. El Platform se encarga de monitorizar el estado del satélite, para comprobar que el funcionamiento de los componentes de hardware es el adecuado. Finalmente, el ADCS (Attitude Determination and Control System) trata de asegurar que la posición del satélite, respecto a la tierra, es la adecuada. El desarrollo de este trabajo parte de un diseño existente, creado por alumnos previamente. El trabajo realizado ha consistido en mejorarlos con funcionalidad adicional y realizar una integración de estos subsistemas. El resultado es un sistema operativo, que incluye unas pruebas preliminares. Un trabajo futuro será la realización de pruebas exhaustivas,para validar el funcionamiento de los subsistemas desarrollados. El desarrollo de software se ha basado en un conjunto de tecnologías habituales en los sistemas empotrados de alta integridad. El diseño se ha realizado con la herramienta TASTE, que permite el uso de AADL. El lenguaje Ada se ha utilizado para la implementación, ya que es adecuado para este tipo de sistemas. En concreto, se ha empleado un subconjunto seguro del lenguaje para poder realizar análisis estático y para incrementar la predecibilidad de su comportamiento. La concurrencia se basa en el modelo de Ravenscar,que es conforme con los métodos de análisis de respuesta.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La riqueza de propiedades y posibilidades de movimiento que se derivan de la columna vertebral tomadas en su conjunto son las causas que me han estimulado, para intentar buscar más respuestas, a todas mis actuales incógnitas, que en este presente trabajo pretendo contestar, con los medios de que dispongo, y en la medida que mejor pueda. La tarea, sé de antemano que no es fácil, y no menos corta, debida a la aparente complejidad, pero creo que apoyándome en una apropiada metodología, y centrándome, única y exclusivamente en los puntos que me interesan, puedo lograr los pasos que me lleven a los objetivos finales que persigo. Después de recopilar todos los datos posibles de anatomía, que hacían referencia al raquis, me llevó un cierto tiempo, hasta llegar al ordenamiento de todas las ideas que había adquirido. Esto me hizo llegar a la conclusión de que el planteamiento más adecuado, sería, por un lado un estudio anatómico desde un punto de vista descriptivo de las diferentes partes y elementos que constituyen el eje del cuerpo, para por otro lado y posteriormente, entender mejor las distintas propiedades y funciones mecánicas de este eje raquídeo. Para realizar este trabajo hemos consultado y estudiado numerosas publicaciones de autores, anatomistas prestigiosos tanto clásicos como modernos, tratando de condensar sus teorías o sus exposiciones, que hacen referencia al tema elegido. Todo cuanto queda resumido creemos que contiene interés para cualquier profesor de Educación Física y Deportes. Mi intención no ha sido nunca sacar unas conclusiones prácticas nuevas no descubiertas; y si el de haber empleado un medio o camino a seguir que yo creo conveniente aplicarlo para obtener los datos que persigo, de este raquis tomado en conjunto. Precisamente por este enfoque de abordar el tema en conjunto, he tenido que hacer continuas citas entre los diferentes puntos del sumario,puesto que es muy difícil separar los diferentes aspectos o puntos tomados en cada apartado debido a su constante interrelación. El principal aspecto de la columna vertebral que estudiaremos es su increíble y contradictoria, doble función estótico-dinámica. Intentaremos pues en el contenido de este trabajo, adentrarnos lo más posible en el estudio de esta doble función para su mejor comprensión. Con el deseo de exponer el tema de una manera lo más racional posible, he dividido el estudio en seis capítulos. El primero en el que nos encontramos, es una breve introducción y visión en conjunto del tema. En el segundo hago una síntesis de la formación y del desarrollo de la columna vertebral, que creo de sumo interés debido a su tardío y largo proceso de osificación y formación. En el tercer capítulo realizo una descripción anatómica de todo el raquis que creo de absoluta necesidad para la comprensión de los siguientes apartados. Posteriormente se describe el raquis en conjunto, , funciones, curvaturas, movilidad, así como un breve análisis de movimientos. El quinto capítulo estudia la postura muy atrayente a mi modo de ver, derivada de la evolución de la estación bípeda, asi como algunas consideraciones muy generales de las lesiones de columna debido a su numerosa, cuantía, y por último, hago una síntesis general asi como unas conclusiones finales. Para finalizar quiero manifestar mi profundo agradecimiento al Profesor de Anatomía Dr. Anitua Solano por su entera ayuda, sin su dirección no hubiera sido posible la realización de este trabajo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El objetivo de la presente tesis doctoral es el desarrollo e implementación de un sistema para mejorar la metodología de extracción de la información geométrica necesaria asociada a los procesos de documentación de entidades de interés patrimonial, a partir de la información proporcionada por el empleo de sensores láser, tanto aéreos como terrestres. Para ello, inicialmente se realiza una presentación y justificación de los antecedentes y la problemática en el registro de información geométrica para el patrimonio, detallando todos aquellos sistemas de registro y análisis de la información geométrica utilizados en la actualidad. Este análisis permitirá realizar la comparación con los sistemas de registro basados en técnicas láser, aportando sugerencias de utilización para cada caso concreto. Posteriormente, se detallan los sistemas de registro basados en técnicas láser, comenzando por los sensores aerotransportados y concluyendo con el análisis pormenorizado de los sensores terrestres, tanto en su aplicación en modo estático como móvil. Se exponen las características técnicas y funcionamiento de cada uno de ellos, así como los ámbitos de aplicación y productos generados. Se analizan las fuentes de error que determinan la precisión que puede alcanzar el sistema. Tras la exposición de las características de los sistemas LiDAR, se detallan los procesos a realizar con los datos extraídos para poder generar la información necesaria para los diferentes tipos de objetos analizados. En esta exposición, se hace hincapié en los posibles riesgos que pueden ocurrir en algunas fases delicadas y se analizarán los diferentes algoritmos de filtrado y clasificación de los puntos, fundamentales en el procesamiento de la información LiDAR. Seguidamente, se propone una alternativa para optimizar los modelos de procesamiento existentes, basándose en el desarrollo de algoritmos nuevos y herramientas informáticas que mejoran el rendimiento en la gestión de la información LiDAR. En la implementación, se han tenido en cuenta características y necesidades particulares de la documentación de entidades de interés patrimonial, así como los diferentes ámbitos de utilización del LiDAR, tanto aéreo como terrestre. El resultado es un organigrama de las tareas a realizar desde la nube de puntos LiDAR hasta el cálculo de los modelos digitales del terreno y de superficies. Para llevar a cabo esta propuesta, se han desarrollado hasta 19 algoritmos diferentes que comprenden implementaciones para el modelado en 2.5D y 3D, visualización, edición, filtrado y clasificación de datos LiDAR, incorporación de información de sensores pasivos y cálculo de mapas derivados, tanto raster como vectoriales, como pueden ser mapas de curvas de nivel y ortofotos. Finalmente, para dar validez y consistencia a los desarrollos propuestos, se han realizado ensayos en diferentes escenarios posibles en un proceso de documentación del patrimonio y que abarcan desde proyectos con sensores aerotransportados, proyectos con sensores terrestres estáticos a media y corta distancia, así como un proyecto con un sensor terrestre móvil. Estos ensayos han permitido definir los diferentes parámetros necesarios para el adecuado funcionamiento de los algoritmos propuestos. Asimismo, se han realizado pruebas objetivas expuestas por la ISPRS para la evaluación y comparación del funcionamiento de algoritmos de clasificación LiDAR. Estas pruebas han permitido extraer datos de rendimiento y efectividad del algoritmo de clasificación presentado, permitiendo su comparación con otros algoritmos de prestigio existentes. Los resultados obtenidos han constatado el funcionamiento satisfactorio de la herramienta. Esta tesis está enmarcada dentro del proyecto Consolider-Ingenio 2010: “Programa de investigación en tecnologías para la valoración y conservación del patrimonio cultural” (ref. CSD2007-00058) realizado por el Consejo Superior de Investigaciones Científicas y la Universidad Politécnica de Madrid. ABSTRACT: The goal of this thesis is the design, development and implementation of a system to improve the extraction of useful geometric information in Heritage documentation processes. This system is based on information provided by laser sensors, both aerial and terrestrial. Firstly, a presentation of recording geometric information for Heritage processes is done. Then, a justification of the background and problems is done too. Here, current systems for recording and analyzing the geometric information are studied. This analysis will perform the comparison with the laser system techniques, providing suggestions of use for each specific case. Next, recording systems based on laser techniques are detailed. This study starts with airborne sensors and ends with terrestrial ones, both in static and mobile application. The technical characteristics and operation of each of them are described, as well as the areas of application and generated products. Error sources are also analyzed in order to know the precision this technology can achieve. Following the presentation of the LiDAR system characteristics, the processes to generate the required information for different types of scanned objects are described; the emphasis is on the potential risks that some steps can produce. Moreover different filtering and classification algorithms are analyzed, because of their main role in LiDAR processing. Then, an alternative to optimize existing processing models is proposed. It is based on the development of new algorithms and tools that improve the performance in LiDAR data management. In this implementation, characteristics and needs of the documentation of Heritage entities have been taken into account. Besides, different areas of use of LiDAR are considered, both air and terrestrial. The result is a flowchart of tasks from the LiDAR point cloud to the calculation of digital terrain models and digital surface models. Up to 19 different algorithms have been developed to implement this proposal. These algorithms include implementations for 2.5D and 3D modeling, viewing, editing, filtering and classification of LiDAR data, incorporating information from passive sensors and calculation of derived maps, both raster and vector, such as contour maps and orthophotos. Finally, in order to validate and give consistency to the proposed developments, tests in different cases have been executed. These tests have been selected to cover different possible scenarios in the Heritage documentation process. They include from projects with airborne sensors, static terrestrial sensors (medium and short distances) to mobile terrestrial sensor projects. These tests have helped to define the different parameters necessary for the appropriate functioning of the proposed algorithms. Furthermore, proposed tests from ISPRS have been tested. These tests have allowed evaluating the LiDAR classification algorithm performance and comparing it to others. Therefore, they have made feasible to obtain performance data and effectiveness of the developed classification algorithm. The results have confirmed the reliability of the tool. This investigation is framed within Consolider-Ingenio 2010 project titled “Programa de investigación en tecnologías para la valoración y conservación del patrimonio cultural” (ref. CSD2007-00058) by Consejo Superior de Investigaciones Científicas and Universidad Politécnica de Madrid.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El presente proyecto lleva a cabo un análisis de la viabilidad de la estructura geológica Villameriel, situada en la provincia de Palencia, para el almacenamiento geológico profundo de CO2. Las dos medidas determinadas para su análisis serán la determinación de la cantidad de CO2 que se puede inyectar en la formación y el comportamiento del mismo en su interior durante los próximos 100 años. Para calcular estas medidas utilizamos la simulación numérica, a través de dos programas de SCHLUMBERGER. El primero, PETREL, diseñando un modelo estático que escenifique las propiedades del medio geológico lo más real posible, llamado modelo estático. El segundo, ECLIPSE300, que simula el comportamiento del fluido según entra en la formación y a lo largo de todo el período de estudio. Como conclusión final llevaremos a cabo un estudio económico que analice el potencial que tiene este proyecto para llevarse a cabo en la sociedad en la que nos encontramos ahora mismo ABSTRACT This project analyzes the viability of Villameriel geological structure, which is situated in Palencia, Spain. There will be two measures to probe it. The first will be to calculate how much amount of CO2 can be stored in this structure, and second will be to see how the CO2 behaves inside the first 100 years. In order to obtain the answers from these questions, Schlumberger programs are used specifically PETREL and ECLIPSE300. This programs work with numerical methods and they simulate a static model and a dynamic model. Static model is created in order to build a geological model with the same properties than in the real life. Dynamic model works to obtain the maximum amount of CO2 that it can be introduced inside storage formation and to know how CO2 will move inside the first 100 years. At the end, an economic study will be done with the objective to know if it would cost money, if there would be profits or no.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El cerebro humano es probablemente uno de los sistemas más complejos a los que nos enfrentamos en la actualidad, si bien es también uno de los más fascinantes. Sin embargo, la compresión de cómo el cerebro organiza su actividad para llevar a cabo tareas complejas es un problema plagado de restos y obstáculos. En sus inicios la neuroimagen y la electrofisiología tenían como objetivo la identificación de regiones asociadas a activaciones relacionadas con tareas especificas, o con patrones locales que variaban en el tiempo dada cierta actividad. Sin embargo, actualmente existe un consenso acerca de que la actividad cerebral tiene un carácter temporal multiescala y espacialmente extendido, lo que lleva a considerar el cerebro como una gran red de áreas cerebrales coordinadas, cuyas conexiones funcionales son continuamente creadas y destruidas. Hasta hace poco, el énfasis de los estudios de la actividad cerebral funcional se han centrado en la identidad de los nodos particulares que forman estas redes, y en la caracterización de métricas de conectividad entre ellos: la hipótesis subyacente es que cada nodo, que es una representación mas bien aproximada de una región cerebral dada, ofrece a una única contribución al total de la red. Por tanto, la neuroimagen funcional integra los dos ingredientes básicos de la neuropsicología: la localización de la función cognitiva en módulos cerebrales especializados y el rol de las fibras de conexión en la integración de dichos módulos. Sin embargo, recientemente, la estructura y la función cerebral han empezado a ser investigadas mediante la Ciencia de la Redes, una interpretación mecánico-estadística de una antigua rama de las matemáticas: La teoría de grafos. La Ciencia de las Redes permite dotar a las redes funcionales de una gran cantidad de propiedades cuantitativas (robustez, centralidad, eficiencia, ...), y así enriquecer el conjunto de elementos que describen objetivamente la estructura y la función cerebral a disposición de los neurocientíficos. La conexión entre la Ciencia de las Redes y la Neurociencia ha aportado nuevos puntos de vista en la comprensión de la intrincada anatomía del cerebro, y de cómo las patrones de actividad cerebral se pueden sincronizar para generar las denominadas redes funcionales cerebrales, el principal objeto de estudio de esta Tesis Doctoral. Dentro de este contexto, la complejidad emerge como el puente entre las propiedades topológicas y dinámicas de los sistemas biológicos y, específicamente, en la relación entre la organización y la dinámica de las redes funcionales cerebrales. Esta Tesis Doctoral es, en términos generales, un estudio de cómo la actividad cerebral puede ser entendida como el resultado de una red de un sistema dinámico íntimamente relacionado con los procesos que ocurren en el cerebro. Con este fin, he realizado cinco estudios que tienen en cuenta ambos aspectos de dichas redes funcionales: el topológico y el dinámico. De esta manera, la Tesis está dividida en tres grandes partes: Introducción, Resultados y Discusión. En la primera parte, que comprende los Capítulos 1, 2 y 3, se hace un resumen de los conceptos más importantes de la Ciencia de las Redes relacionados al análisis de imágenes cerebrales. Concretamente, el Capitulo 1 está dedicado a introducir al lector en el mundo de la complejidad, en especial, a la complejidad topológica y dinámica de sistemas acoplados en red. El Capítulo 2 tiene como objetivo desarrollar los fundamentos biológicos, estructurales y funcionales del cerebro, cuando éste es interpretado como una red compleja. En el Capítulo 3, se resumen los objetivos esenciales y tareas que serán desarrolladas a lo largo de la segunda parte de la Tesis. La segunda parte es el núcleo de la Tesis, ya que contiene los resultados obtenidos a lo largo de los últimos cuatro años. Esta parte está dividida en cinco Capítulos, que contienen una versión detallada de las publicaciones llevadas a cabo durante esta Tesis. El Capítulo 4 está relacionado con la topología de las redes funcionales y, específicamente, con la detección y cuantificación de los nodos mas importantes: aquellos denominados “hubs” de la red. En el Capítulo 5 se muestra como las redes funcionales cerebrales pueden ser vistas no como una única red, sino más bien como una red-de-redes donde sus componentes tienen que coexistir en una situación de balance funcional. De esta forma, se investiga cómo los hemisferios cerebrales compiten para adquirir centralidad en la red-de-redes, y cómo esta interacción se mantiene (o no) cuando se introducen fallos deliberadamente en la red funcional. El Capítulo 6 va un paso mas allá al considerar las redes funcionales como sistemas vivos. En este Capítulo se muestra cómo al analizar la evolución de la topología de las redes, en vez de tratarlas como si estas fueran un sistema estático, podemos caracterizar mejor su estructura. Este hecho es especialmente relevante cuando se quiere tratar de encontrar diferencias entre grupos que desempeñan una tarea de memoria, en la que las redes funcionales tienen fuertes fluctuaciones. En el Capítulo 7 defino cómo crear redes parenclíticas a partir de bases de datos de actividad cerebral. Este nuevo tipo de redes, recientemente introducido para estudiar las anormalidades entre grupos de control y grupos anómalos, no ha sido implementado nunca en datos cerebrales y, en este Capítulo explico cómo hacerlo cuando se quiere evaluar la consistencia de la dinámica cerebral. Para concluir esta parte de la Tesis, el Capítulo 8 se centra en la relación entre las propiedades topológicas de los nodos dentro de una red y sus características dinámicas. Como mostraré más adelante, existe una relación entre ellas que revela que la posición de un nodo dentro una red está íntimamente correlacionada con sus propiedades dinámicas. Finalmente, la última parte de esta Tesis Doctoral está compuesta únicamente por el Capítulo 9, el cual contiene las conclusiones y perspectivas futuras que pueden surgir de los trabajos expuestos. En vista de todo lo anterior, espero que esta Tesis aporte una perspectiva complementaria sobre uno de los más extraordinarios sistemas complejos frente a los que nos encontramos: El cerebro humano. ABSTRACT The human brain is probably one of the most complex systems we are facing, thus being a timely and fascinating object of study. Characterizing how the brain organizes its activity to carry out complex tasks is highly non-trivial. While early neuroimaging and electrophysiological studies typically aimed at identifying patches of task-specific activations or local time-varying patterns of activity, there has now been consensus that task-related brain activity has a temporally multiscale, spatially extended character, as networks of coordinated brain areas are continuously formed and destroyed. Up until recently, though, the emphasis of functional brain activity studies has been on the identity of the particular nodes forming these networks, and on the characterization of connectivity metrics between them, the underlying covert hypothesis being that each node, constituting a coarse-grained representation of a given brain region, provides a unique contribution to the whole. Thus, functional neuroimaging initially integrated the two basic ingredients of early neuropsychology: localization of cognitive function into specialized brain modules and the role of connection fibres in the integration of various modules. Lately, brain structure and function have started being investigated using Network Science, a statistical mechanics understanding of an old branch of pure mathematics: graph theory. Network Science allows endowing networks with a great number of quantitative properties, thus vastly enriching the set of objective descriptors of brain structure and function at neuroscientists’ disposal. The link between Network Science and Neuroscience has shed light about how the entangled anatomy of the brain is, and how cortical activations may synchronize to generate the so-called functional brain networks, the principal object under study along this PhD Thesis. Within this context, complexity appears to be the bridge between the topological and dynamical properties of biological systems and, more specifically, the interplay between the organization and dynamics of functional brain networks. This PhD Thesis is, in general terms, a study of how cortical activations can be understood as the output of a network of dynamical systems that are intimately related with the processes occurring in the brain. In order to do that, I performed five studies that encompass both the topological and the dynamical aspects of such functional brain networks. In this way, the Thesis is divided into three major parts: Introduction, Results and Discussion. In the first part, comprising Chapters 1, 2 and 3, I make an overview of the main concepts of Network Science related to the analysis of brain imaging. More specifically, Chapter 1 is devoted to introducing the reader to the world of complexity, specially to the topological and dynamical complexity of networked systems. Chapter 2 aims to develop the biological, topological and functional fundamentals of the brain when it is seen as a complex network. Next, Chapter 3 summarizes the main objectives and tasks that will be developed along the forthcoming Chapters. The second part of the Thesis is, in turn, its core, since it contains the results obtained along these last four years. This part is divided into five Chapters, containing a detailed version of the publications carried out during the Thesis. Chapter 4 is related to the topology of functional networks and, more specifically, to the detection and quantification of the leading nodes of the network: the hubs. In Chapter 5 I will show that functional brain networks can be viewed not as a single network, but as a network-of-networks, where its components have to co-exist in a trade-off situation. In this way, I investigate how the brain hemispheres compete for acquiring the centrality of the network-of-networks and how this interplay is maintained (or not) when failures are introduced in the functional network. Chapter 6 goes one step beyond by considering functional networks as living systems. In this Chapter I show how analyzing the evolution of the network topology instead of treating it as a static system allows to better characterize functional networks. This fact is especially relevant when trying to find differences between groups performing certain memory tasks, where functional networks have strong fluctuations. In Chapter 7 I define how to create parenclitic networks from brain imaging datasets. This new kind of networks, recently introduced to study abnormalities between control and anomalous groups, have not been implemented with brain datasets and I explain in this Chapter how to do it when evaluating the consistency of brain dynamics. To conclude with this part of the Thesis, Chapter 8 is devoted to the interplay between the topological properties of the nodes within a network and their dynamical features. As I will show, there is an interplay between them which reveals that the position of a node in a network is intimately related with its dynamical properties. Finally, the last part of this PhD Thesis is composed only by Chapter 9, which contains the conclusions and future perspectives that may arise from the exposed results. In view of all, I hope that reading this Thesis will give a complementary perspective of one of the most extraordinary complex systems: The human brain.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Desde hace ya varias décadas la praxis de la ecología ha venido reconociendo la necesidad de estudiar los múltiples sistemas de interacción del ser humano, como especie viva, y su entorno. Entidades espaciales como el paisaje geográfico son empleadas para delimitar sistemas territoriales operados por la sociedad, precisando campos concretos de su acción física, biológica y cultural. La ecología aborda así el conocimiento científico del territorio como asentamiento humano, rastrea sus patrones espaciales y analiza su compleja estructura funcional. En ese contexto, la transferencia de herramientas e instrumentos desde la ecología al ámbito proyectivo posee ya un bagaje de más de cinco décadas. Cada vez con más frecuencia el proyecto emplea parámetros, inventarios, fórmulas, indicadores y tecnologías que tratan de dar una respuesta ambientalmente adecuada a los condicionantes de contorno, por ejemplo aprovechando las condiciones climáticas en la optimización energética o proponiendo programas de usos del suelo que eviten perturbaciones en ecosistemas de interés. Con todo, en el momento presente surgen voces que, ante el dominio indiscutible de los enfoques netamente deterministas, tratan de recordar que los principios del pensamiento ecológico van más allá del mero control cuantitativo de los procesos biofísicos. Recuerdan que la etología demostró a principios del XX que el ser humano, como ser consciente, inviste una relación de intimidad con su entorno que supera tales perspectivas: a través de la correspondencia entre percepción y significación, entre lo físico y lo psíquico, entre interioridad y exterioridad, las personas abrazan la plenitud de aquello que les rodea en un acto de profunda conciliación afectiva. De tal ligadura de intimidad depende, sí o sí, y en toda su profundidad, la aceptación humana del entorno construido. A través de la noción de ambiente [Umwelt] se demuestra que la relación del hombre con su entorno es inseparable, bidireccional y coordinada y, por lo tanto, desde una posición coherente, la experiencia del espacio puede ser examinada a partir de la reciprocidad que constituyen, en continuidad, la persona y el lugar. De esta forma, la tesis dirige su objetivo principal a explorar y considerar, desde el proyecto, el significado y la influencia de la experiencia ambiental del espacio construido en la vida humana. Es más que probable que buena parte de los problemas de desafección del hombre con los paisajes transformados de su contemporaneidad tenga que ver con que tanto las intensidades de la experiencia y percepción humana, como la potestad interpretativa de sus productos culturales, incluyendo la arquitectura, han sido fuertemente reducidas. Ante este problema, la investigación toma como hipótesis la oportunidad que ofrece el pensamiento ecológico de reformular la experiencia estética como un acto de conocimiento, como un evento donde se da el encuentro físico y se construyen significados, donde se sancionan valores sociales y se mira hacia el futuro. Se ha de señalar que la presente tesis doctoral arranca en el Laboratorio de Paisaje del Grupo de Investigación Paisaje Cultural de la Universidad Politécnica de Madrid dirigido por Concha Lapayese y Darío Gazapo, y por tanto hace suyos para el estado del arte los principales conceptos e ideas bajo los que el trabajo teórico y práctico del grupo se viene orientando desde hace años: la consideración del paisaje como acontecimiento; la oscilación de la interpretación entre un paisaje específico y un paisaje genérico en un mundo globalizado; el reconocimiento de la experiencia estética del paisaje como una toma de conciencia social; y en definitiva, la reivindicación de la interioridad en el proyecto contemporáneo. La investigación profundiza en una línea de oportunidad que se abre al promover lo que se ha llamado un conocimiento por lo sentido como estrategia ambiental que permite contrarrestar mitos profundamente arraigados en las estructuras sociales. El primer paso en ese recorrido sería explorar ecológicamente el aporte de la experiencia estética; esto es, su consideración como forma de conocimiento específico. Resultaría pertinente impulsar la idea de la inmersión en el paisaje como fenómeno experiencial, sensual y corporal, y enfrentar, desde ahí, el problema de la aceptación social de lo nuevo y lo trasformado de acuerdo con el momento actual. La exploración sobre la afectividad en el ambiente no es, en cualquier caso, un asunto nuevo. Sin pretensiones de historiografía, dos momentos del siglo XX concentran el interés de la investigación. La primera se corresponde fundamentalmente con la segunda década del siglo, en relación a una serie de influencias que desde los avances científicos determinaron singulares aventuras del arte más experimental. La segunda se posiciona en el entorno de 1970, época en la que es conocido el interés que despertaron las cuestiones ambientales. En ambos casos se han estudiado aportaciones que desvelan conceptos determinantes en la definición de la experiencia estética como un evento de adquisición de conocimiento por lo sentido. Es conveniente adelantar el rol de centralidad que para la investigación tiene el concepto de energía, tal como el propio título subraya. La energía como realidad material y sensible es el sustrato que permite navegar por el principio de unidad epistemológica que subyace al pensamiento ecológico. Sus continuas referencias simbólicas, físicas y metafóricas entre los artistas estudiados no son un mero recurso iconográfico: mantienen inherente el principio de continuidad ambiental en el cual el ser humano y la inmensidad del cosmos navegan indisociables. Un discurso unificado y consistente sobre los aportes de la experiencia estética enfocada como forma de conocimiento por lo sentido hila la lectura histórica, conceptual y práctica de toda la investigación. Con ello se alcanza a hilvanar un diagrama conceptual, modelo de análisis proyectivo, que recoge ideas científicas, filosóficas y proyectivas. De alguna manera, el diagrama trata de dibujar, desde los principios del pensamiento ecológico, la correlación de continuidad que, vacilante, tensa, sutil y frágil se desplaza incesante e irresuelta entre interioridad y exterioridad. ABSTRACT Over the last few decades ecological practice has come to acknowledge a need for studying the multiple systems of interaction between the human being - inasmuch as it is a living species - and its environment. Spatial entities such as the geographic notion of landscape have been used to delimitate the territorial systems operated by society and to describe in detail specific fields of its physical, biological and cultural action. Ecology has thus managed to address the scientific knowledge of the territory as a human settlement, tracking its spatial patterns and analysing its complex functional structure. In this context, the transfer of tools and instruments from the field of ecology to that of design has a tradition already going back more than fifty years. Increasingly more often, design makes use of parameters, inventories, formulas, indicators and technologies to give an environmentally sound response to contour conditions: for instance, taking advantage of the local climate for the optimisation of energy consumption or proposing land uses that avoid disturbing valuable ecosystems. Yet in the present day some voices have arisen that, against the uncontested domination of purely positivistic approaches, are trying to draw attention to the fact that the principles of ecological thought go beyond mere quantitative control of biophysical processes. They point out that, in the early 20th century, ethology proved that the human being, as a conscious entity, invests itself into a relationship of intimacy with its environment that surpasses such perspectives: through the correspondences between perception and signification, between physical and psychological or between inside and outside, people embrace the entirety of their surroundings in an action of deep affective conciliation. It is on this link of intimacy that - fully and unquestionably - human acceptance of the built environment depends. Through the notion of environment [Umwelt] it can be proven that the relationship between the human being and its environment is inseparable, bidirectional and coordinated; and that, therefore, from a coherent position the experience of space can be examined through the reciprocity constituted continuously by person and place. Thus, the main goal in this thesis is to explore and acknowledge, from the standpoint of design, the meaning and influence of the environmental experience in human life. It is extremely likely that many of the issues with mankind’s alienation from the transformed landscapes of the present day arise from the fact that both the intensity of human perception and experience and the interpretive capacity of its cultural products –including architecture - have been greatly reduced. Facing this issue, research has taken as hypothesis the opportunity offered by ecological thought of reformulating aesthetic experience as an act of knowledge – as an event where physical encounter takes place and meanings are constructed; where social values are sanctioned and the path towards the future is drawn. This notwithstanding, the present thesis began in the Landscape Laboratory of the Technical University of Madrid Cultural Landscape Research Group (GIPC-UPM), led by Concha Lapayese and Darío Gazapo; and has therefore appropriated for its state of the art the main concepts and ideas that have been orienting the practical and theoretical work of the latter: the understanding of landscape as an event, the oscillation of interpretation between a specific and a generic landscape within a globalised world; the acknowledgement of the aesthetic experience of landscape as a way of acquiring social awareness; and, all in all, a vindication of interiority in contemporary design. An exploration has been made of the line of opportunity that is opened when promoting what has been termed knowledge through the senses as an environmental strategy allowing to counter myths deeply rooted in social structures. The first step in this path would be an ecological exploration of the contribution of the aesthetic experience; that is, its consideration as a type of specific knowledge. It would be pertinent to further the idea of immersion into the landscape as an experiential, sensual and corporeal phenomenon and, from that point, to face the issue of social acceptance of what is new and transformed according to the values of the present day. The exploration of affectivity in the environment is not, at any rate, a new topic. Without aspiring to make a history of it, we can mark two points in the 20th century that have concentrated the interest of this research. The first coincides with the second decade of the century and relates to a number of influences that, arising from scientific progress, determined the singular adventures of the more experimental tendencies in art. The second is centred around 1970: a period in which the interest drawn by environmental matters is well known. In both cases, contributions have been studied that reveal crucial concepts in defining the aesthetic experience as an event for the acquisition of knowledge through the senses. It is necessary to highlight the role of centrality that the concept of energy has throughout this research, as is evident even in its title. Energy as a material, sensitive reality is the substrate making it possible to navigate through the principle of epistemological unity underlying ecological thought. The continuous symbolic, physical and metaphorical references to it among the artists studied here are not a mere iconographic source: they remind of the inherency of the principle of environmental continuity within which the human being and the immensity of cosmos travel indissociably. A unified, consistent discourse on the contributions of the aesthetic experience addressed as knowledge through the senses weaves together the historic, conceptual and practical reading of the whole research. With it, a conceptual diagram is constructed – a model of design analysis – gathering together scientific, philosophical and design ideas. Somehow, the diagram tries to draw from the principles of ecological thought the correlation of continuity that, vacillating, tense, subtle and fragile, shifts incessantly and unresolved between interiority and exteriority.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El principal objetivo de esta tesis es verificar que las bolsas biodegradables de copoliéster (PBAT) con base de almidón (UNE 13432: 2001) alcanzan los niveles de degradación y desintegración requeridos para su certificación (%D= ≥ 90%), medido en condiciones reales de compostaje industrial. Para lograr mayor representatividad, los ensayos se han realizado en dos plantas de tratamiento de residuos urbanos en las que se aplican las técnicas de compostaje más comunes en el ámbito europeo y nacional, pila y túnel, mediante el compostaje de la FORSU. Se llevaron a cabo dos tipos de ensayos. Por un lado se realizó un ensayo escala de laboratorio (ISO 14855), orientado como indicador de la biodegradabilidad del polímero en el formato bolsa comercializado. Por otro lado, se desarrollaron una batería de ensayos realizados en dos plantas de compostaje de residuos urbanos: el Centro de Tratamiento de Residuos de Torija (Ávila), que realiza el compostaje mediante pila volteada, y el Centro de Tratamiento de Residuos de Arenas de San Pedro (Ávila), que realiza el compostaje en túnel. Para la obtención de resultados se han contrastado parámetros como el porcentaje de biodegradación (%B), el porcentaje de desintegración (%D), degradación superficial de las muestras, calidad de la FORSU inicial (caracterizaciones y análisis físico-químico) y calidad del MB final (análisis físico-químico e IG). Atendiendo al objetivo general se demuestra que las bolsas de copoliéster con base de almidón certificadas (UNE EN 13432:2001) han alcanzado el 94,37% ± 0,007% de desintegración en la planta de compostaje de FORSU con pila volteada; y el 86,36% ± 0,151% en la planta de compostaje de FORSU con túnel estático. A pesar de la aparente diferencia, el resultado del análisis concluye que no existen diferencias estadísticamente significativas entre técnicas de compostaje. La presencia de impropios y el contendido de metales pesados en la FORSU no han influido en la desintegración de las bolsas de estudio. En cambio, se ha detectado una influencia estadísticamente significativa entre el contenido de materia orgánica total y de nutrientes de la FORSU y el porcentaje de desintegración de las muestras. No se detectado una relación estadísticamente significativa entre la presencia de bolsas de estudio en las concentraciones definidas, y la calidad del MB, medido mediante el análisis físico-químico, microbiológico y el IG del MB. La concentración de los metales pesados en la mayoría de las muestras de material bioestabilizado cumplió con los límites establecidos para la categoría A, aplicable al “compost” procedente de la fracción orgánica recogida de forma separada según el RD 506/2013 de productos fertilizantes. También se detectó fitotoxicidad alta (FA) según la metodología y criterios de valoración definidos. Esta fitotoxicidad no está relacionada con la presencia de las bolsas de estudio sino con la calidad de la FORSU de partida y/o con los productos liberados durante el proceso de compostaje. ABSTRACT The main objective of this thesis is to verify that the copolyester (PBAT) starch based (UNE 13432: 2001) biodegradable bags reach levels of degradation and disintegration required for it´s certification (% D = ≥ 90%), measured in terms of real industrial composting. The tests were performed at two municipal solid waste (MSW) treatment plants, where the most common composting techniques applied at European and national level were represented, windrow and tunnel. Two types of tests were carried out: First, a laboratory scale test (ISO 14855), as an indicator of the polymer biodegradation of the commercialized bag format. Second, a battery of tests was conducted at two MSW composting plants, Waste Treatment Center of Torija (Guadalajara), that makes compost by turned pile, and the Waste Treatment Center of Arenas de San Pedro (Ávila), where makes compost by static tunnel. To obtain the results, the parameters such as the biodegradation percentage (% B), the disintegration percentage (% D), surface degradation of the samples, the initial quality of FORSU (characterizations and physico-chemical analysis) and bioestabilithated material (MB) quality (physico-chemical analysis and IG) have been compared. In reference to the general aim It shows that the copolyester starch based certified (UNE-EN 13432) bags have reached 94.37% ± 0.007% of disintegration in the composting turned pile; and 86.36% ± 0.151% in the static tunnel. Despite the apparent difference, the result of the analysis concludes that there are no statistically significant differences between composting techniques. The presence of non-compostable materials and the heavy metals content in the FORSU has not affected in the disintegration of the bags. Instead, It has been detected a statistically significant influence over the total organic matter content and nutrient content in the FORSU and the samples disintegration percentage. A statistically significant relationship between the bag presence in the defined concentrations and the quality of MB measured by physical-chemical analysis, microbiological analysis and IG of the MB is not detected. The concentration of heavy metals in most MB samples was within the limits of A-Class, applicable to "compost" from organic waste collected separately according to RD 506/2013 of fertilizers. High phytotoxicity (FA) was also detected according to the methodology and evaluation defined. The phytotoxicity is not related to the presence of bags but it is with the FORSU initial quality and/or with the products released during the composting process.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Es de todos conocida la preponderancia de que gozaron las actividades deportivas en la civilización griega. En ninguna época que nos precediera se prestó tanta atención a las manifestaciones deportivas como en la sociedad helena, en estrecha relación con el arte o vida contemplativa. Hemos pretendido conocer qué era y qué significa el deporte en este período de la Antigüedad Clásica, a través del estudio de la cerámica griega como fuente imprescindible en el tema que nos ocupa. La cerámica, si bien no goza del valor estético y artístico de las artes mayores, si supone, en cambio, un testimonio inigualable de las costumbres y formas de vida de los griegos. En concreto y referente al tema deportivo, no se conoce ninguna otra manifestación artística que represente más y mejor que la cerámica griega las manifestaciones deportivas del hombre. Es notorio el interés que todas las historias deportivas han prestado y prestan por este capítulo importante de la historia de la humanidad. Sin embargo, nos ha llamado la atención el hecho de que en estas obras se encontrara ausente un pormenorizado estudio, en cuanto al tema deportivo, de los vasos griegos existentes en los museos españoles. En este sentido, hemos tomado como objeto de nuestra investigación los fondos de cerámica griega del Museo Arqueológico Nacional como museo más representativo de España. El presente trabajo consta, en primer lugar, de una exposición de los diferentes períodos en que podemos clasificar la cerámica griega y la descripción de sus más importantes caracteres estilísticos y artísticos. En segundo lugar, hemos pretendido dar a conocer los distintos tipos de vasos, según las formas, más usuales entre los griegos. En la segunda parte, hemos abordado con mayor amplitud y, también, con detalle la clasificación de los recipientes según los temas deportivos representados en su superficie. En un segundo tomo recogemos un valioso material fotográfico para complementar el estudio realizado.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La capacidad de ejecutar una buena técnica es un factor importante en deportes de alto componente estético como es la Gimnasia Rítmica. Los saltos específicos de este deporte son elementos que lo caracterizan, debido a la muestra de flexibilidad y belleza estética que aportan a la gimnasta. Pero el qué nos hace tener una técnica de ejecución óptima para lograr la máxima calidad de salto es algo que se puede descubrir mediante el estudio y el análisis de la técnica que nos proporcionan los diferentes métodos de la Biomecánica Deportiva. De este modo, el objetivo del siguiente trabajo es la aplicación en el ámbito del Alto Rendimiento Deportivo de un método de análisis, basado en la Biomecánica Deportiva, con el propósito de valorar el rendimiento en saltos específicos de Gimnasia Rítmica. Para su desarrollo, el estudio se concretó en observar y analizar el Salto Zancada (Split Jump o Grand jetté).