954 resultados para Geometría y Topología
Resumo:
Copia digital: Biblioteca Valenciana, 2011
Resumo:
Dado que es difícil imaginar en el futuro una sociedad moderna donde la energía no juegue un papel fundamental y puesto que numerosos estudios han demostrado que el ritmo actual de consumo de combustibles es insostenible y perjudicial para la vida del planeta, es fundamental concienciar a la humanidad de que un cambio de tendencia no solo es necesario sino que es imperativo. No se trata de erradicar por completo el uso de fuentes de carácter fósil, pues en muchos países es su principal o incluso su única forma de obtener energía, sino de avanzar hacia un equilibrio en la generación, para lo que será vital permitir el desarrollo de energías limpias, aumentar la eficiencia de la tecnología y reducir el consumo. En este contexto se ha decidido construir un rotor eólico de pequeñas dimensiones que servirá como herramienta de estudio para alumnos de ingeniería. Para diseñar la turbina se ha desarrollado un modelo de programación informática que, basado en conceptos aerodinámicos, permite calcular la geometría de las palas en función de unas condiciones iniciales, estimar la potencia del rotor y obtener sus curvas de funcionamiento. Uno de los principales problemas de la tecnología eólica es su alta variabilidad, por ello se ha implementado un sistema de regulación de velocidad; se trata de un mecanismo que actúa sobre la orientación de las palas y permite regular la potencia de un generador eléctrico acoplado al rotor. Los aerogeneradores actuales recurren a este tipo de sistemas para tratar de suavizar los desequilibrios de potencia que puedan producir las ráfagas de viento. Se ha recurrido a un software de diseño asistido por ordenador para dibujar tanto el rotor como el sistema de regulación de velocidad. La mayoría de las piezas del rotor se han fabricado con ayuda de una impresora 3D, otras, las metálicas, se han tallado en aluminio mediante un torno. Aunque el programa informático que realiza los cálculos aerodinámicos devuelve datos teóricos a cerca del comportamiento del rotor, se ha creído necesario probar el molino mediante ensayos de laboratorio a fin de obtener un resultado más realista.Abstract Given that it’s difficult to imagine any modern society in the future where energy does not play a crucial role, and as many studies have shown that the actual rate of fuel consumption is unsustainable and harmful to life on the planet, it is essential to raise mankind’s awareness that a change in the current trend is not only necessary, but is also imperative. It is not a question of completely eradicating the use of fossil fuels, as in many countries they are the main or even the only way of generating energy, but rather working towards a balance in generation. To do so it is vital to encourage the development of clean energies, increase technological efficiency and reduce consumption. In view of this we have decided to build a small scale wind turbine rotor which can be used as a study tool for engineering students. To design the turbine a software programme was developed based on aerodynamic concepts, which allows us to calculate the geometry of the blades depending on certain initial conditions, estimate the power of the turbine, and obtain performance curves. One of the main issues with wind technology is its high variability, and therefore we implemented a speed regulation system consisting of a mechanism that varies the orientation of the blades and thus allows us to regulate the power of an electric generator attached to the turbine. Current wind powered generators use this type of system to try to smooth out spikes in power that may be caused by gusts of wind. We have used CAD software to design both the turbine itself and the speed regulation system. Most of the turbine parts have been manufactured with the aid of a 3D printer, while the other metallic parts have been turned on made a lathe in aluminum. Although the software programme which calculates the aerodynamics provide us theoretical data about the operation of the rotor. We consider it necessary to test the wind turbine in a lab to obtain more accurate results.
Resumo:
El análisis de los accidentes tipo LOCA o MSLB en una contención PWR-W normalmente se simulan con la opción de volúmenes de control con parámetros agrupados en GOTHIC, ya que es lo que hasta ahora se ha considerado adecuado para el análisis de licencia. Sin embargo, para el estudio de detalle del comportamiento termo-hidráulico de cada recinto de la contención, podría ser más adecuado contar con un modelo tridimensional que representase más fielmente la geometría de la contención. El objetivo de la primera fase del proyecto de investigación de CNAT y la UPM es la construcción de varios modelos tridimensionales detallados con el código GOTHIC 8.0 de los edificios de contención de una planta tipo PWR-W y KWU, correspondientes a la Central Nuclear de Almaraz (CNA) y Trillo (CNT) respectivamente.
Resumo:
El análisis de las diferentes alternativas en la planificación y diseño de corredores y trazados de carreteras debe basarse en la correcta definición de variables territoriales que sirvan como criterios para la toma de decisión y esto requiere un análisis ambiental preliminar de esas variables de calidad. En España, los estudios de viabilidad de nuevas carreteras y autovías están asociados a una fase del proceso de decisión que se corresponde con el denominado Estudio Informativo, el cual establece condicionantes físicos, ambientales, de uso del suelo y culturales que deben ser considerados en las primeras fases de la definición del trazado de un corredor de carretera. Así, la metodología más frecuente es establecer diferentes niveles de capacidad de acogida del territorio en el área de estudio con el fin de resumir las variables territoriales en mapas temáticos y facilitar el proceso de trazado de las alternativas de corredores de carretera. El paisaje es un factor limitante a tener en cuenta en la planificación y diseño de carreteras y, por tanto, deben buscarse trazados más sostenibles en relación con criterios estéticos y ecológicos del mismo. Pero este factor no es frecuentemente analizado en los Estudios Informativos e incluso, si es considerado, los estudios específicos de la calidad del paisaje (estético y ecológico) y de las formas del terreno no incorporan las recomendaciones de las guías de trazado para evitar o reducir los impactos en el paisaje. Además, los mapas de paisaje que se generan en este tipo de estudios no se corresponden con la escala de desarrollo del Estudio Informativo (1:5.000). Otro déficit común en planificación de corredores y trazados de carreteras es que no se tiene en cuenta la conectividad del paisaje durante el proceso de diseño de la carretera para prevenir la afección a los corredores de fauna existentes en el paisaje. Este déficit puede originar un posterior efecto barrera en los movimientos dispersivos de la fauna y la fragmentación de sus hábitats debido a la ocupación parcial o total de las teselas de hábitats con importancia biológica para la fauna (o hábitats focales) y a la interrupción de los corredores de fauna que concentran esos movimientos dispersivos de la fauna entre teselas. El objetivo principal de esta tesis es mejorar el estudio del paisaje para prevenir su afección durante el proceso de trazado de carreteras, facilitar la conservación de los corredores de fauna (o pasillos verdes) y la localización de medidas preventivas y correctoras en términos de selección y cuantificación de factores de idoneidad a fin de reducir los impactos visuales y ecológicos en el paisaje a escala local. Concretamente, la incorporación de valores cuantitativos y bien justificados en el proceso de decisión permite incrementar la transparencia en el proceso de diseño de corredores y trazados de carreteras. Con este fin, se han planteado cuatro preguntas específicas en esta investigación (1) ¿Cómo se seleccionan y evalúan los factores territoriales limitantes para localizar una nueva carretera por los profesionales españoles de planificación del territorio en relación con el paisaje? (2) ¿Cómo pueden ser definidos los corredores de fauna a partir de factores del paisaje que influyen en los movimientos dispersivos de la fauna? (3) ¿Cómo pueden delimitarse y evaluarse los corredores de fauna incluyendo el comportamiento parcialmente errático en los movimientos dispersivos de la fauna y el efecto barrera de los elementos antrópicos a una escala local? (4) ¿Qué y cómo las recomendaciones de diseño de carreteras relacionadas con el paisaje y las formas del terreno pueden ser incluidas en un modelo de Sistemas de Información Geográfica (SIG) para ayudar a los ingenieros civiles durante el proceso de diseño de un trazado de carreteras bajo el punto de vista de la sostenibilidad?. Esta tesis doctoral propone nuevas metodologías que mejoran el análisis visual y ecológico del paisaje utilizando indicadores y modelos SIG para obtener alternativas de trazado que produzcan un menor impacto en el paisaje. Estas metodologías fueron probadas en un paisaje heterogéneo con una alta tasa de densidad de corzo (Capreolus capreolus L.), uno de los grandes mamíferos más atropellados en la red de carreteras españolas, y donde está planificada la construcción de una nueva autovía que atravesará la mitad del área de distribución del corzo. Inicialmente, se han analizado las variables utilizadas en 22 estudios de proyectos de planificación de corredores de carreteras promovidos por el Ministerio de Fomento entre 2006 y 2008. Estas variables se agruparon según condicionantes físicos, ambientales, de usos del suelo y culturales con el fin de comparar los valores asignados de capacidad de acogida del territorio a cada variable en los diferentes estudios revisados. Posteriormente, y como etapa previa de un análisis de conectividad, se construyó un mapa de resistencia de los movimientos dispersivos del corzo en base a la literatura y al juicio de expertos. Usando esta investigación como base, se le asignó un valor de resistencia a cada factor seleccionado para construir la matriz de resistencia, ponderándolo y combinándolo con el resto de factores usando el proceso analítico jerárquico y los operadores de lógica difusa como métodos de análisis multicriterio. Posteriormente, se diseñó una metodología SIG para delimitar claramente la extensión física de los corredores de fauna de acuerdo a un valor umbral de ancho geométrico mínimo, así como la existencia de múltiples potenciales conexiones entre cada par de teselas de hábitats presentes en el paisaje estudiado. Finalmente, se realizó un procesado de datos Light Detection and Ranging (LiDAR) y un modelo SIG para calcular la calidad del paisaje (estético y ecológico), las formas del terreno que presentan características similares para trazar una carretera y la acumulación de vistas de potenciales conductores y observadores de los alrededores de la nueva vía. Las principales contribuciones de esta investigación al conocimiento científico existente en el campo de la evaluación del impacto ambiental en relación al diseño de corredores y trazados de carreteras son cuatro. Primero, el análisis realizado de 22 Estudios Informativos de planificación de carreteras reveló que los métodos aplicados por los profesionales para la evaluación de la capacidad de acogida del territorio no fue suficientemente estandarizada, ya que había una falta de uniformidad en el uso de fuentes cartográficas y en las metodologías de evaluación de la capacidad de acogida del territorio, especialmente en el análisis de la calidad del paisaje estético y ecológico. Segundo, el análisis realizado en esta tesis destaca la importancia de los métodos multicriterio para estructurar, combinar y validar factores que limitan los movimientos dispersivos de la fauna en el análisis de conectividad. Tercero, los modelos SIG desarrollados Generador de alternativas de corredores o Generator of Alternative Corridors (GAC) y Eliminador de Corredores Estrechos o Narrow Corridor Eraser (NCE) pueden ser aplicados sistemáticamente y sobre una base científica en análisis de conectividad como una mejora de las herramientas existentes para la comprensión el paisaje como una red compuesta por nodos y enlaces interconectados. Así, ejecutando los modelos GAC y NCE de forma iterativa, pueden obtenerse corredores alternativos con similar probabilidad de ser utilizados por la fauna y sin que éstos presenten cuellos de botella. Cuarto, el caso de estudio llevado a cabo de prediseño de corredores y trazado de una nueva autovía ha sido novedoso incluyendo una clasificación semisupervisada de las formas del terreno, filtrando una nube de puntos LiDAR e incluyendo la nueva geometría 3D de la carretera en el Modelo Digital de Superficie (MDS). El uso combinado del procesamiento de datos LiDAR y de índices y clasificaciones geomorfológicas puede ayudar a los responsables encargados en la toma de decisiones a evaluar qué alternativas de trazado causan el menor impacto en el paisaje, proporciona una visión global de los juicios de valor más aplicados y, en conclusión, define qué medidas de integración paisajística correctoras deben aplicarse y dónde. ABSTRACT The assessment of different alternatives in road-corridor planning and layout design must be based on a number of well-defined territorial variables that serve as decision-making criteria, and this requires a high-quality preliminary environmental analysis of those quality variables. In Spain, feasibility studies for new roads and motorways are associated to a phase of the decision procedure which corresponds with the one known as the Informative Study, which establishes the physical, environmental, land-use and cultural constraints to be considered in the early stages of defining road corridor layouts. The most common methodology is to establish different levels of Territorial Carrying Capacity (TCC) in the study area in order to summarize the territorial variables on thematic maps and facilitate the tracing process of road-corridor layout alternatives. Landscape is a constraint factor that must be considered in road planning and design, and the most sustainable layouts should be sought based on aesthetic and ecological criteria. However this factor is not often analyzed in Informative Studies and even if it is, baseline studies on landscape quality (aesthetic and ecological) and landforms do not usually include the recommendations of road tracing guides designed to avoid or reduce impacts on the landscape. The resolution of the landscape maps produced in this type of studies does not comply with the recommended road design scale (1:5,000) in the regulations for the Informative Study procedure. Another common shortcoming in road planning is that landscape ecological connectivity is not considered during road design in order to avoid affecting wildlife corridors in the landscape. In the prior road planning stage, this issue could lead to a major barrier effect for fauna dispersal movements and to the fragmentation of their habitat due to the partial or total occupation of habitat patches of biological importance for the fauna (or focal habitats), and the interruption of wildlife corridors that concentrate fauna dispersal movements between patches. The main goal of this dissertation is to improve the study of the landscape and prevent negative effects during the road tracing process, and facilitate the preservation of wildlife corridors (or green ways) and the location of preventive and corrective measures by selecting and quantifying suitability factors to reduce visual and ecological landscape impacts at a local scale. Specifically the incorporation of quantitative and well-supported values in the decision-making process provides increased transparency in the road corridors and layouts design process. Four specific questions were raised in this research: (1) How are territorial constraints selected and evaluated in terms of landscape by Spanish land-planning practitioners before locating a new road? (2) How can wildlife corridors be defined based on the landscape factors influencing the dispersal movements of fauna? (3) How can wildlife corridors be delimited and assessed to include the partially erratic movements of fauna and the barrier effect of the anthropic elements at a local scale? (4) How recommendations of road design related to landscape and landforms can be included in a Geographic Information System (GIS) model to aid civil engineers during the road layout design process and support sustainable development? This doctoral thesis proposes new methodologies that improve the assessment of the visual and ecological landscape character using indicators and GIS models to obtain road layout alternatives with a lower impact on the landscape. These methodologies were tested on a case study of a heterogeneous landscape with a high density of roe deer (Capreolus capreolus L.) –one of the large mammals most commonly hit by vehicles on the Spanish road network– and where a new motorway is planned to pass through the middle of their distribution area. We explored the variables used in 22 road-corridor planning projects sponsored by the Ministry of Public Works between 2006 and 2008. These variables were grouped into physical, environmental, land-use and cultural constraints for the purpose of comparing the TCC values assigned to each variable in the various studies reviewed. As a prior stage in a connectivity analysis, a map of resistance to roe deer dispersal movements was created based on the literature and experts judgment. Using this research as a base, each factor selected to build the matrix was assigned a resistance value and weighted and combined with the rest of the factors using the analytic hierarchy process (AHP) and fuzzy logic operators as multicriteria assessment (MCA) methods. A GIS methodology was designed to clearly delimit the physical area of wildlife corridors according to a geometric threshold width value, and the multiple potential connections between each pair of habitat patches in the landscape. A Digital Surface Model Light Detection and Ranging (LiDAR) dataset processing and a GIS model was performed to determine landscape quality (aesthetic and ecological) and landforms with similar characteristics for the road layout, and the cumulative viewshed of potential drivers and observers in the area surrounding the new motorway. The main contributions of this research to current scientific knowledge in the field of environmental impact assessment for road corridors and layouts design are four. First, the analysis of 22 Informative Studies on road planning revealed that the methods applied by practitioners for assessing the TCC were not sufficiently standardized due to the lack of uniformity in the cartographic information sources and the TCC valuation methodologies, especially in the analysis of the aesthetic and ecological quality of the landscape. Second, the analysis in this dissertation highlights the importance of multicriteria methods to structure, combine and validate factors that constrain wildlife dispersal movements in the connectivity analysis. Third, the “Generator of Alternative Corridors (GAC)” and “Narrow Corridor Eraser (NCE)” GIS models developed can be applied systematically and on a scientific basis in connectivity analyses to improve existing tools and understand landscape as a network composed of interconnected nodes and links. Thus, alternative corridors with similar probability of use by fauna and without bottlenecks can be obtained by iteratively running GAC and NCE models. Fourth, our case study of new motorway corridors and layouts design innovatively included semi-supervised classification of landforms, filtering of LiDAR point clouds and new 3D road geometry on the Digital Surface Model (DSM). The combined used of LiDAR data processing and geomorphological indices and classifications can help decision-makers assess which road layouts produce lower impacts on the landscape, provide an overall insight into the most commonly applied value judgments, and in conclusion, define which corrective measures should be applied in terms of landscaping, and where.
Resumo:
La Tesis decodifica una selección de veinte proyectos representativos de Sejima-SANAA, desde su primer proyecto construido, la Casa Platform I, 1987, hasta el Centro Rolex, 2010, año en que Sejima y Nishizawa –SANAA- reciben el Premio Pritzker. De los veinte proyectos once son de Sejima: Casa Platform I, Casa Platform II, Residencia de Mujeres, Casa N, Pachinco Parlor I, Villa en el Bosque, Comisaría en Chofu, Casa Y, Apartamentos en Gifu, Edificio de equipamientos en la Expo Tokio 96, Pachinko Parlor III; y nueve de SANAA: edificio Multimedia en Oogaki, estudio de viviendas metropolitanas,Park Café en Koga, De Kunstlinie en Almere, Museo de Kanazawa, Pabellón de Toledo, Escuela de Zollverein, Casa Flor y Centro Rolex. La decodificación lee la obra de Sejima-SANAA a la inversa para ‘reconstruir’, en un ejercicio de simulación ficticia, una versión verosímil y coherente de los que podrían haber sido sus procesos proyectuales; podrían, porque los verdaderos son imposibles de dilucidar. Los que se proponen se pretenden exclusivamente verosímiles y plausibles. Con ello se pretende contribuir al entendimiento y comprensión de la arquitectura de Sejima-SANAA y, tangencialmente y en menor medida, a la teoría sobre el ejercicio proyectual arquitectónico. La decodificación se centra en dos aspectos concretos: la forma arquitectónica y el papel proyectual de la estructura portante. Ambas decodificaciones se extienden inevitablemente a otros aspectos relacionados, como, por ejemplo, la naturaleza del espacio arquitectónico. El procedimiento de investigación partió de una descripción objetiva y pormenorizada de los significantes formales y estructurales de cada proyecto desde su propia configuración física y geométrica. Esa descripción ‘objetiva’, llevada al límite, permitió que afloraran estructuras conceptuales y lógicas subyacentes de cada proyecto. Unida a interpretación crítica, –mediante su relación y confrontación con otras arquitecturas y otros modos de hacer conocidos- permitió trazar la reconstitución ficticia que persigue la decodificación. Ese trabajo se materializó en veinte ensayos críticos y se acompañó de un conjunto de otros textos sobre temas sugeridos o reclamados por el proceso de investigación. El conjunto de todos esos textos constituye el material de trabajo de la tesis. A partir de ahí, con una visión de conjunto, la tesis identifica una trayectoria de estrategias formales y una trayectoria de estrategias proyectuales relacionadas con lo portante. Juntas conforman el grueso de la tesis que se expone en los cuatro capítulos centrales. Los precede un capítulo introductorio que expone el recorrido biográfico de K. Sejima y la trayectoria profesional de Sejima-SANAA; y los siguen de unos textos transversales sobre forma, lugar y espacio. La tesis termina con una síntesis de sus conclusiones. Las estrategias formales se exponen en tres capítulos. El primero, ‘Primeras estrategias formales’ agrupa proyectos de la primera etapa de Sejima. El segundo capítulo está dedicado enteramente al proyecto de los apartamentos en Gifu, 1994-98, que según esta tesis, supuso un importante punto de inflexión en la trayectoria de Sejima; tanto el tercer capítulo lleva por nombre ‘Estrategias formales después de Gifu’ y recoge los proyectos que le siguieron. Las ‘Primeras estrategias formales’, varias y balbucientes, se mueven en general en torno a dos modos o procedimientos de composición, bien conocidos: por partes y sistemático. Éste última inicia en la trayectoria de SANAA un aspecto que va a ser relevante de aquí en adelante: entender el proyecto como propuesta genérica en la que, más allá de su realidad específica y tangible, subyace una lógica, en cada proyecto la suya, extrapolable a otros lugares, otras dimensiones, incluso otros programas: cada proyecto podría dar lugar a otros proyectos de la misma familia. La composición sistemática incluye, entre otros, la Casa Platform II, basada en la definición de un elemento constructivo, y la formulación de unas leyes de repetición y de posibles modos de agrupación. Incluye también la Residencia de Mujeres Saishunkan Seiyaku- proyecto que lanzó a Sejima a la fama internacional-, que también sería un sistema, pero distinto: basado en la repetición regular de una serie de elementos a lo largo de una directriz generando un hipotético contenedor infinito del que el proyecto sería tan solo un fragmento. La estrategia formal del edificio de Gifu ahondaría en la voluntad genérica del proyecto, adoptando la lógica de un juego. El proyecto sería una partida del juego, pero no la única posible, podrían jugarse otras. Esta hipótesis del juego está verificada en ‘El Juego de Gifu’ que - tras formular el juego identificando sus elementos (tablero y fichas), reglas y procedimientos- juega una partida: la que habría dado lugar al edificio proyectado por Sejima. Gifu extiende el concepto de ‘repetir’ un elemento constructivo a la de repetir un patrón espacial, lo que conlleva: la desvinculación entre forma y función; y un nuevo concepto de flexibilidad, que deja de referirse al uso flexible del edificio construido para pertenecer al momento proyectual en que se asignan funciones específicas a los patrones espaciales. Esta tesis propone que esa asignación de funciones sería uno de los últimos eslabones del proceso proyectual, algo opuesto a la premisa moderna de “la forma sigue a la función”. Las estrategias formales ‘Después de Gifu’ tienen también lógicas de juego, pero cada estrategia responde a un juego distinto, como dejan entrever sus nombres: ‘Tableros de Juego’, que con distintos grados de madurez estaría presente en varios proyectos; ‘Elementos de Catálogo’ en el Museo de Kanazawa; ‘Forma apriorística’, en la Casa Flor y ‘Repetición de una situación topológica’, en el Centro Rolex. Todas esas estrategias, o juegos, mantienen aspectos comunes relativos a la forma arquitectónica, precisamente los aspectos Gifu: la repetición aplicada al patrón espacial, y lo que conlleva: desvinculación entre forma y función y la nueva acepción de flexibilidad. ‘Tableros de Juego’ consiste en configurar cada sistema de proyecto (estructura, cerramientos, particiones y mobiliario) eligiendo elementos ofrecidos por una geometría de base, en cada proyecto la suya, en general reticular: intersecciones, líneas, módulos. Cada sistema se configura, en principio, sin relación de subordinación con cualquiera de los demás; cuando esa subordinación es ineludible, el juego determina que el sistema portante no puede materializar el orden geométrico de base, lo que se traduce en que no ejerce el papel dominante. Por lo tanto, ‘Tableros de Juego’ transgrede la lógica de la planta libre moderna: la estructura ni refleja ni revela el orden de base y los sistemas no respetan las relaciones de subordinación jerárquica y encadenada que aquella determinaba. Esta estrategia de ‘Tableros de juego’ deriva en soluciones y proyectos formales muy distintos: los proyectos de Oogaki y Park Café, que presentarían ‘Tableros de Juego’ incipientes; De Kunstlinie en Almere y la Escuela de Zollverein, que presentarían una consolidación de esta estrategia; y el Pabellón de Vidrio de Toledo que resultaría de la subversión de la estrategia. Este último proyecto, además, lleva el concepto de repetición más allá del elemento constructivo y del patrón espacial (que en este caso tiene forma de burbuja) parar acabar afectando a la propia experiencia del espectador, que esté donde esté, siempre tiene la sensación de estar en el mismo sitio. Esta tesis denomina a ese espacio repetitivo como ‘espacio mantra’. La estrategia ‘Elementos de Catálogo’ se ilustra con el Museo de Kanazawa. Su lógica parte de la definición de una serie de elementos, muy pocos, y se basa en el ingente número de posibles combinaciones entre sí. Gifu habría anunciado el catalogo de elementos en la caracterización de sus patrones espaciales. La estrategia ‘Forma Apriorística’ se ilustra con la Casa Flor. La decisión sobre el tipo de forma -en este caso la de una ameba- estaría al principio del proceso proyectual, lo que no quiere decir que sea una forma arbitraria: la forma de la ameba lleva implícita la repetición de un patrón espacial (el seudópodo) y una apoteosis del concepto de repetición que, alcanzando la experiencia espacial, da lugar a un espacio repetitivo o mantra. El ‘Espacio Mantra’ es uno de los leitmotivs, que se emplean como argumento en la última estrategia formal que la Tesis decodifica: el Centro Rolex. Con respecto a la estructura portante, la tesis identifica y traza una trayectoria de cinco estrategias proyectuales: preeminencia, ocultación, disolución, desaparición y desvirtuación. --Ocultación, reduce el papel dominante de la estructura. Al principio es una ocultación literal, casi un tapado de los elementos estructurales, como en Gifu; luego se hace más sofisticada, como la ocultación por camuflaje o la paradójica ocultación por multiplicación de Park Café. --La disolución merma la condición dominante de la estructura que en lugar de configurarse como sistema unitario u homogéneo se fragmenta en varios subsistemas. --La desaparición se refiere a estructuras que desaparecen como sistemas propios y autónomos, a proyectos en los que la función portante es desempeñada por otros sistemas como el de las particiones. La desaparición culmina con la Casa Flor, cuyo perímetro ejerce la función portante y además es transparente, está desmaterializado: la estructura se ha hecho invisible, ha desaparecido. --La desvirtuación se refiere a estructuras que sí se presentan como sistemas propios y autónomos, pero dejan de tener un papel preeminente por cuanto no materializan el orden de base: esta estrategia es correlativa a la estrategia formal ‘Tableros de juego’. Las conclusiones de la tesis están en la propia organización de la tesis: la identificación de las estrategias. Aún así, y como epílogos, se exponen seis. Las dos primeras subrayan el hilo conductor del trabajo realizado, que radica en la cualidad genérica de las estrategias proyectuales en Sejima-SANAA. Las cuatro siguientes dilucidan hasta qué punto hay, en sus proyectos, rasgos o significantes formales y/o estructurales que sean a su vez señales características del panorama arquitectónico contemporáneo; y plantean la pregunta estrella: ¿hay algunos que, apuntando más lejos, supongan aportaciones originales? --Como aportaciones originales la tesis destaca: la identificación entre el ideal genérico y proyecto concreto; y la propuesta de un espacio nuevo, híbrido, una suerte de estadio intermedio entre el espacio subdividido y compartimentado de la tradición y el continuo moderno. --Como síntomas de contemporaneidad se destacan: respecto de la forma, la traslación de la especificidad formal de la parte al conjunto; y respecto de la estructura, la tendencia contemporánea a hacer estructuras cada vez más ligeras y livianas, que tienden a lo evanescente. Ésta última, la tendencia al evanescencia estructural, podría tener la condición de aportación original, no en vano la desaparición de la estructura lleva la evanescencia hacia sus últimas consecuencias, y en el caso de estructuras con presencia física, hace que dejen de ser el sistema ordenador orquestador del proceso proyectual. ABSTRACT The Thesis decodes a selection of twenty representative Sejima-SANAA projects, from the first one built, the Platform I House in 1987, to the Rolex Center in 2010, year in which Sejima and Nishizawa –SANAA- received the Pritzker Prize. Eleven projects are from Sejima: Platform I, Platform II, Saishunkan Seiyaku Women´s Dormitory, N- House, Pachinco Parlor I, Villa in the Forest, Policy Box at Chofu Station, Y-House, Gifu Kitigata Apartment, World City Expo ´96 Facilities Building, Pachinko Parlor III; and nine from SANAA: Multimedia Workshop in Ogaki, Metropolitan Housing Studies, Park Café in Koga, De Kunstlinie in Almere, Kanazawa Museum, Glass Pavilion at the Toledo Museum of Art, Zollverein School, Flower House and the Rolex Center. This decoding reads the Sejima-SANAA’s projects inversely aiming ‘to reconstruct', in a fictitious simulation exercise, a likely and coherent version of what her/their projectual processes ‘could’ have been; ‘could’, because the true ones are impossible to explain. The ones proposed here pretend only to be likely and reasonable. By so doing the Thesis tries to contribute to the understanding and comprehension of Sejima-SANAA architecture and, tangentially and to a lesser extent, to the theory of architectural projects exercise. Decoding centers in two specific aspects: architectural form, and projectual role of the load bearing structure. Both decodes inevitably extend to other related aspects such as, for example, the nature of space. The research procedure begun by carrying out an objective and detailed description of the formal and structural signifiers of each project; looking at them from their physical and geometric configuration. Taken to the limit, the ‘objective’ descriptions allowed the conceptual structures and underlying logics of each project to arise. Together with critical interpretations, which related and confronted them with other architectures and well-known projectual working ways, it became possible to outline and trace the intended fictitious reconstruction decodes. The descriptive analytical work materialized in twenty critical essays, and was accompanied by a set of other essays on subjects suggested or demanded by the research process. Together, all those texts were the material basis on which thesis work was built. Looking at the whole and taking it from there, the thesis identifies two related projectual trajectories: a trajectory of formal strategies and a trajectory of strategies having to do with structural systems and components. Both, together, constitute the bulk of the thesis, as presented in the four central chapters. Preceding them there is an introductory chapter outlining the biographical path of Kazuyo Sejima and the professional trajectory of Sejima-SANAA. And following them there is another one containing transversal texts on form, place and space. The thesis ends with a synthesis on conclusions. The formal strategies are displayed in three chapters. The first one, `Early formal strategies' groups the first phase projects by Sejima. The second one, ‘Formal strategies of Gifu’s paradigm’, is entirely dedicated to the Gifu apartments project, 1994-98, which according to this thesis meant an important inflexion point in Sejima’s trajectory; so much so that the third chapter is named `Formal strategies after Gifu' and gathers the selected projects that followed it. The ‘Early formal strategies', diverse and tentative, move in general around two well-known projectual composition methods ‘composition by parts’, and ‘systematic composition’. This last one –systematic composition- begins and leads in SANAA’s trajectory an aspect which will remain relevant from here on: the understanding of the project as if it were an specific instance of a generic proposal in which -below and beyond the project tangible reality- there lays a logic that could be applicable at other places, for other dimensions, even with other programs; from each project, other projects of the same family could rise. The set of projects using this systematic composition method include, among others, the ‘Platform II House, based on the definition of a constructive element and of rules having to do with its replicas and their possible groupings. It also includes the Saishunkan Seiyaku Women Residence -project that launched Sejima to international fame- that could also be seen as a system, but of a different kind: a system based on the regular repetition of a series of elements along a directive line, thus generating a hypothetical infinite container of which the project would be only a fragment. The formal strategy of the Gifu apartments building would push further towards the generic project concept, adopting the logic of a game. The project would be a bout, a round, one play…, but not the only possible one; others could be played. The thesis confirms this game hypothesis -after having formulated `The Game of Gifu' and identified its elements (board, chips, rules and procedures)- playing the one play from which the building as projected by Sejima would have raised. Gifu extends the concept of ‘repeating a constructive element’ to that of ‘repeating a space pattern element’, and to what it implies: the decoupling of form and function, leading to a new concept of flexibility that no longer refers to the flexible use of the constructed building but to the projectual moment at which the specific functions are assigned to the space patterns. This thesis proposes that this allocation of functions would be one of the last steps in projectual process, quite opposite from the modern premise: “form follows function”. The Formal strategies after Gifu do also have a game logic; but, as their names reveal, each strategy responds to a different game: ‘Game Boards’, present with different maturity levels in several projects; ‘Elements from a Catalogue’, in the Kanazawa Museum; ‘Aprioristic Form’, in the Flower House; and ‘Repetition of a topologic situation', in the Rolex Center. All of these strategies, or games, maintain common aspects having to do with architectural form; aspects that were already present, precisely, in Gifu: repetition of space pattern units, uncoupling of form and function, and a new meaning of flexibility. -`Game Boards’ consists on setting up a base geometry -each project his, generally reticular- and give form to each project system (structure, closings, partitions and furniture) by choosing elements -intersections, lines, modules- it offers. Each project system is formed, in principle, with no subordinated relation with any of the others; when subordination is unavoidable, the game rules determine that the load bearing structural system may not be the one to materialize the base geometric order, which means that it does not exert the dominant role. Therefore, ‘Game Boards' transgresses the Modern logic, because the structure neither reflects nor reveals the base order, and because the systems do not respect any of the hierarchic and chained subordination relations that the ‘free plan’ called for. ‘Game Boards' leads to quite different solutions and formal projects: the Oogaki and Park Coffee projects show incipient Game Boards; The Almere Kunstlinie and the Zollverein School present consolidations of this strategy; and the Toledo’s Glass Pavilion results from subverting the strategy. In addition, the Toledo project takes the repetition concept beyond that of using a constructive element and a space pattern element (in this case with a bubble form) to end up affecting the personal experience of the spectator, who, wherever he is, feels to always be in the same place. This thesis denominates that repetitive space as ‘Mantra space '. -‘Elements from a Catalogue’ is shown with the Kanazawa Museum. Its logic starts from the definition of a series of elements, very few, and it is based on the huge number of possible combinations among them. The ‘Elements from a Catalogue’ approach was announced in the Gifu project when characterizing its space pattern elements. -Aprioristic Form' is illustrated by the Flower House. The decision on the type of form -in this case the form of an amoeba- would be the beginning of the projectual process, but it does not mean it is arbitrary form: the amoeba form implies repeating a space pattern (pseudopodia) and an apotheosis of the repetition concept: embracing the space experience, it gives rise to a repetitive or mantra space. ‘Mantra Space’ is one of leitmotivs used as an argument in the last formal strategy Thesis decodes: the Rolex Center. With respect to the ‘Projectual strategies of the load bearing structure’, the thesis finds and traces a trajectory of five projectual strategies: ‘preeminence, concealment, dissolution, disappearance and desvirtuación’. --Preeminence is present in Sejima’s first works in which she resorts to structures which have a dominant preeminent role in the project in so far as they impersonate the greater scale and/or materialize the base geometric order. In later works that preeminence will be inverted, the projects aiming towards its opposite: lighter, slighter, smaller structures. -Concealment reduces the dominant role of the structure. At the outset concealment is literal, almost hiding the structural elements, as in Gifu; soon it will become more sophisticated, such as the concealment by camouflage or the paradoxical concealment by multiplication in the Koga Park Café. -Dissolution diminishes the dominant condition of the structure: instead of its’ being configured as unitary or homogenous system is fragmented in several subsystems. -Disappearance talks about structures that fade away as self referred and independent systems; projects in which the load bearing function is carried out by other systems such as the set of partitions. Disappearance reaches its zenith at the Flower House, whose perimeter functions structurally being, in addition, transparent, immaterial: its structure has become invisible, has disappeared. -Desvirtuación talks about structures that do appear like independent self-systems, but which that do not longer have a preeminent paper, inasmuch as they do not materialize the base order. This strategy correlates with the ‘Game Boards’ formal strategy. The thesis conclusions are show by the organization of the thesis itself: its identification of the different strategies. Even so, as epilogues, the thesis exposes six ‘Conclusions’. The first two emphasize the leading thread of the work done, rooted in the generic quality of the Sejima-SANAA projectual strategies. The following four expound to what extent their projects show features, or formal and/or structural signifiers, which also are or can be read as characteristic signals of the contemporary architectonic panorama, and raise the key question: aiming farther, may some of them be taken as original contributions? -As original contributions the conclusions highlight: the identification between the generic ideal and the concrete project; and the proposal of a new, hybrid space, kind of an intermediate stage between the traditional subdivided compartmented space and the continuous modern. -As symptoms of contemporaneousness: in relation to the form it highlights the transferring of the formal specificity from the part to the whole; and in relation to the structure, it underscore the contemporary tendency towards lighter and growingly slimmer structures, tending to the evanescent. This last one, the tendency towards structural evanescence, could have condition of being an original contribution, not in vain it carries the structural disappearance towards its last consequences; and in the case of structures with physical presence, it makes them to cease being the ordering system orchestrating the projectual process.
Resumo:
En el presente proyecto se propone una nueva zonificación sísmica para América Central, a partir de la cual se ha realizado el cálculo de peligrosidad sísmica a nivel regional. Dicha zonificación y el posterior cálculo de peligrosidad desarrollado se presentan como actualización de los resultados del estudio previo desarrollado para la región (Benito et al., 2012), realizando asimismo la comparación entre los resultados de ambos estudios. En primer lugar se ha realizado la revisión de la zonificación existente, modificando la geometría de algunas zonas en base al conocimiento generado en los últimos años sobre todo en lo que se refiere a la geometría de la subducción,que varía de ángulo a lo largo de la trinchera Mesoamericana. Ello conlleva, a su vez, cambios en la sismicidad asignada a las zonas corticales y de subducción interfase. Los cambios y ajustes entre zonas se realizaron contando con el consenso de diferentes expertos en la materia y en colaboración con el Dr. Guillermo Alvarado, vulcanólogo del Instituto Costarricense de Electricidad (ICE), que desarrolló una estancia en Madrid, para trabajar con el Grupo de Investigación de Ingeniería Sísmica de la UPM (GIIS) en noviembre de 2014. Para la propuesta de nueva zonificación, se ha partido del catálogo sísmico depurado hasta 2011, completo y homogeneizado a magnitud momento, Mw. Dicho catálogo recoge una gran actividad sísmica y fue confeccionado dentro del proyecto RESIS II, en el cual participó el Grupo de Ingeniería Sísmica. Se ha seleccionado de dicho catálogo la sismicidad registrada en las nuevas zonas sismogenéticas propuestas y se han calculado los parámetros sísmicos de cada zona: la tasa acumulada de ocurrencia de terremotos, la magnitud máxima y el parámetro beta. Se ha considerado que la sismicidad se ajusta al modelo de recurrencia de Gutenberg-Richter, el cual establece una proporción constante entre el número de sismos grandes y pequeños para una determinada zona. Para la estimación de los parámetros sísmicos se ha utilizado el software Expel, desarrollado por el Grupo de Investigación de Ingeniería Sísmica de la UPM. Utilizando las zonas sismogenéticas propuestas y sus parámetros sísmicos,se ha calculado la amenaza sísmica en toda la región de Centroamérica, evaluada en cada punto como la probabilidad de que el movimiento del suelo exceda valores de aceleración prefijados, y obteniendo así la curva de peligrosidad en puntos de una malla cubriendo la región de estudio. Los cálculos han sido realizados empleando el software específico de peligrosidad sísmica CRISIS 2014. Los resultados se presentan en mapas de peligrosidad obtenidos para diferentes periodos de retorno en términos de aceleración pico (PGA), así como de otras aceleraciones espectrales SA (T) para diversos periodos estructurales T en el rango de 0,1 a 2 s. Para el diseño de los mapas se ha utilizado el software ArcGIS 10.1. Adicionalmente, se ha realizado un análisis de sensibilidad en los resultados ante diferentes propuestas de profundidad de la zonificación interfase,estudiando así el impacto de dichos cambios en los parámetros sísmicos de las zonas y en los resultados del cálculo de la peligrosidad. Finalmente, se han comparado los resultados obtenidos en este trabajo (tanto los parámetros sísmicos de la nueva zonificación como las aceleraciones resultantes del estudio de peligrosidad) con los resultados pertenecientes al estudio recogido en el libro Amenaza Sísmica en América Central de Benito et al.(2010), y en la posterior publicación de Benito et al. (2012), analizando así las principales diferencias entre ambos.
Resumo:
Las microrredes son agrupaciones de fuentes de generación distribuida, cargas y elementos almacenadores de energía, que pueden actuar individualmente o conectadas a una red mayor. Debido a que presentan una serie de ventajas se están implantando de forma progresiva y creciente en los sistemas eléctricos de potencia. Son sistemas totalmente autónomos y, por ello, altamente flexibles. Ante una situación anómala que pueda producirse en la red principal, ya sea un fallo eléctrico, una disrupción física en la topología o una subida desproporcionada de precio, la microrred debe ser capaz de detectar esa situación y desconectarse a fin de poder protegerse. La situación de islanding se produce cuando por cualquier circunstancia hay una pérdida de la red principal y la microrred queda operando de forma aislada. Los métodos anti-islanding, que ayudan a la detección del fenómeno en las microrredes y a la desconexión de las mismas presentan dificultades a la hora de realizar esa tarea en determinados puntos del plano P-Q. Con este trabajo fin de Máster se pretende profundizar en el conocimiento y aplicabilidad de los métodos de detección de islanding extendidos a microrredes. Se analiza la viabilidad del microinterrumptor inteligente diseñado por los investigadores de la Universidad de Wisconsin - Madison para desarrollar la función de detección y actuación ante una situación de islanding inintencionado. A continuación se realiza un estudio de armónicos en el punto de conexión entre la red principal y la microrred. Por último se utilizan los resultados de este análisis para implementar y validar un nuevo método pasivo de detección de islanding en el microinterruptor basado en la medida y monitorización del nivel de tensión de 5º armónico en el PCC.
Resumo:
El antifunicular de cargas viene siendo empleado en la búsqueda de la mejor directriz para el diseño de arcos. Sin embargo, en muchas ocasiones, su forma acaba impuesta por condicionantes no meramente estructurales y su comportamiento dista de ser el óptimo. En este trabajo se propone un nuevo enfoque en el que son las cargas las que se adaptan a la geometría. Mediante la aplicación de una serie de cargas puntuales adicionales es posible obtener un comportamiento muy próximo a la compresión simple. Lo que se traduce en un importante descenso en las tensiones máximas que implica enormes ventajas. Las cargas se materializan mediante un cable de pretensado y se transmiten al arco por medio de barras, que pueden trabajar tanto a tracción como a compresión, dependiendo de la posición del cable con respecto a la estructura. Para sacar provecho a esta metodología, se ha realizado un programa que obtiene las diferentes configuraciones de este sistema para cualquier geometría introducida. Esta metodología permite diseñar estructuras de formas muy dispares dando solución a las demandas externas de una manera eficiente, elegante e innovadora. The antifunicular geometry has been employed as the optimal shape of a curved structure because it exhibits no bending under design loading. However, this shape is often defined by non-structural issues. Inevitably its behaviour is far from the ideal. The new approach, proposed in this study, consists in adding external loads to the main geometry in order to convert it into an antifunicular one. Adding point loads is possible to transform any geometry into a compression-only structure. This provides an important descent in terms of maximum stresses with great advantages for designing material-efficient structures. In the proposed system the loads are transmitted from a prestressed cable to the arch through struts, which can work in compression or in tension. It is possible to obtain different layouts of the cable for each starting shape. A computer programme has been implemented to solve it easily. This methodology allows to design structures of very different shapes, providing a solution to external demands in an efficient, innovative and elegant way.
Resumo:
Esta tesis considera dos tipos de aplicaciones del diseño óptico: óptica formadora de imagen por un lado, y óptica anidólica (nonimaging) o no formadora de imagen, por otro. Las ópticas formadoras de imagen tienen como objetivo la obtención de imágenes de puntos del objeto en el plano de la imagen. Por su parte, la óptica anidólica, surgida del desarrollo de aplicaciones de concentración e iluminación, se centra en la transferencia de energía en forma de luz de forma eficiente. En general, son preferibles los diseños ópticos que den como resultado sistemas compactos, para ambos tipos de ópticas (formadora de imagen y anidólica). En el caso de los sistemas anidólicos, una óptica compacta permite tener costes de producción reducidos. Hay dos razones: (1) una óptica compacta presenta volúmenes reducidos, lo que significa que se necesita menos material para la producción en masa; (2) una óptica compacta es pequeña y ligera, lo que ahorra costes en el transporte. Para los sistemas ópticos de formación de imagen, además de las ventajas anteriores, una óptica compacta aumenta la portabilidad de los dispositivos, que es una gran ventaja en tecnologías de visualización portátiles, tales como cascos de realidad virtual (HMD del inglés Head Mounted Display). Esta tesis se centra por tanto en nuevos enfoques de diseño de sistemas ópticos compactos para aplicaciones tanto de formación de imagen, como anidólicas. Los colimadores son uno de los diseños clásicos dentro la óptica anidólica, y se pueden utilizar en aplicaciones fotovoltaicas y de iluminación. Hay varios enfoques a la hora de diseñar estos colimadores. Los diseños convencionales tienen una relación de aspecto mayor que 0.5. Con el fin de reducir la altura del colimador manteniendo el área de iluminación, esta tesis presenta un diseño de un colimador multicanal. En óptica formadora de imagen, las superficies asféricas y las superficies sin simetría de revolución (o freeform) son de gran utilidad de cara al control de las aberraciones de la imagen y para reducir el número y tamaño de los elementos ópticos. Debido al rápido desarrollo de sistemas de computación digital, los trazados de rayos se pueden realizar de forma rápida y sencilla para evaluar el rendimiento del sistema óptico analizado. Esto ha llevado a los diseños ópticos modernos a ser generados mediante el uso de diferentes técnicas de optimización multi-paramétricas. Estas técnicas requieren un buen diseño inicial como punto de partida para el diseño final, que será obtenido tras un proceso de optimización. Este proceso precisa un método de diseño directo para superficies asféricas y freeform que den como resultado un diseño cercano al óptimo. Un método de diseño basado en ecuaciones diferenciales se presenta en esta tesis para obtener un diseño óptico formado por una superficie freeform y dos superficies asféricas. Esta tesis consta de cinco capítulos. En Capítulo 1, se presentan los conceptos básicos de la óptica formadora de imagen y de la óptica anidólica, y se introducen las técnicas clásicas del diseño de las mismas. El Capítulo 2 describe el diseño de un colimador ultra-compacto. La relación de aspecto ultra-baja de este colimador se logra mediante el uso de una estructura multicanal. Se presentará su procedimiento de diseño, así como un prototipo fabricado y la caracterización del mismo. El Capítulo 3 describe los conceptos principales de la optimización de los sistemas ópticos: función de mérito y método de mínimos cuadrados amortiguados. La importancia de un buen punto de partida se demuestra mediante la presentación de un mismo ejemplo visto a través de diferentes enfoques de diseño. El método de las ecuaciones diferenciales se presenta como una herramienta ideal para obtener un buen punto de partida para la solución final. Además, diferentes técnicas de interpolación y representación de superficies asféricas y freeform se presentan para el procedimiento de optimización. El Capítulo 4 describe la aplicación del método de las ecuaciones diferenciales para un diseño de un sistema óptico de una sola superficie freeform. Algunos conceptos básicos de geometría diferencial son presentados para una mejor comprensión de la derivación de las ecuaciones diferenciales parciales. También se presenta un procedimiento de solución numérica. La condición inicial está elegida como un grado de libertad adicional para controlar la superficie donde se forma la imagen. Basado en este enfoque, un diseño anastigmático se puede obtener fácilmente y se utiliza como punto de partida para un ejemplo de diseño de un HMD con una única superficie reflectante. Después de la optimización, dicho diseño muestra mejor rendimiento. El Capítulo 5 describe el método de las ecuaciones diferenciales ampliado para diseños de dos superficies asféricas. Para diseños ópticos de una superficie, ni la superficie de imagen ni la correspondencia entre puntos del objeto y la imagen pueden ser prescritas. Con esta superficie adicional, la superficie de la imagen se puede prescribir. Esto conduce a un conjunto de tres ecuaciones diferenciales ordinarias implícitas. La solución numérica se puede obtener a través de cualquier software de cálculo numérico. Dicho procedimiento también se explica en este capítulo. Este método de diseño da como resultado una lente anastigmática, que se comparará con una lente aplanática. El diseño anastigmático converge mucho más rápido en la optimización y la solución final muestra un mejor rendimiento. ABSTRACT We will consider optical design from two points of view: imaging optics and nonimaging optics. Imaging optics focuses on the imaging of the points of the object. Nonimaging optics arose from the development of concentrators and illuminators, focuses on the transfer of light energy, and has wide applications in illumination and concentration photovoltaics. In general, compact optical systems are necessary for both imaging and nonimaging designs. For nonimaging optical systems, compact optics use to be important for reducing cost. The reasons are twofold: (1) compact optics is small in volume, which means less material is needed for mass-production; (2) compact optics is small in size and light in weight, which saves cost in transportation. For imaging optical systems, in addition to the above advantages, compact optics increases portability of devices as well, which contributes a lot to wearable display technologies such as Head Mounted Displays (HMD). This thesis presents novel design approaches of compact optical systems for both imaging and nonimaging applications. Collimator is a typical application of nonimaging optics in illumination, and can be used in concentration photovoltaics as well due to the reciprocity of light. There are several approaches for collimator designs. In general, all of these approaches have an aperture diameter to collimator height not greater than 2. In order to reduce the height of the collimator while maintaining the illumination area, a multichannel design is presented in this thesis. In imaging optics, aspheric and freeform surfaces are useful in controlling image aberrations and reducing the number and size of optical elements. Due to the rapid development of digital computing systems, ray tracing can be easily performed to evaluate the performance of optical system. This has led to the modern optical designs created by using different multi-parametric optimization techniques. These techniques require a good initial design to be a starting point so that the final design after optimization procedure can reach the optimum solution. This requires a direct design method for aspheric and freeform surface close to the optimum. A differential equation based design method is presented in this thesis to obtain single freeform and double aspheric surfaces. The thesis comprises of five chapters. In Chapter 1, basic concepts of imaging and nonimaging optics are presented and typical design techniques are introduced. Readers can obtain an understanding for the following chapters. Chapter 2 describes the design of ultra-compact collimator. The ultra-low aspect ratio of this collimator is achieved by using a multichannel structure. Its design procedure is presented together with a prototype and its evaluation. The ultra-compactness of the device has been approved. Chapter 3 describes the main concepts of optimizing optical systems: merit function and Damped Least-Squares method. The importance of a good starting point is demonstrated by presenting an example through different design approaches. The differential equation method is introduced as an ideal tool to obtain a good starting point for the final solution. Additionally, different interpolation and representation techniques for aspheric and freeform surface are presented for optimization procedure. Chapter 4 describes the application of differential equation method in the design of single freeform surface optical system. Basic concepts of differential geometry are presented for understanding the derivation of partial differential equations. A numerical solution procedure is also presented. The initial condition is chosen as an additional freedom to control the image surface. Based on this approach, anastigmatic designs can be readily obtained and is used as starting point for a single reflective surface HMD design example. After optimization, the evaluation shows better MTF. Chapter 5 describes the differential equation method extended to double aspheric surface designs. For single optical surface designs, neither image surface nor the mapping from object to image can be prescribed. With one more surface added, the image surface can be prescribed. This leads to a set of three implicit ordinary differential equations. Numerical solution can be obtained by MATLAB and its procedure is also explained. An anastigmatic lens is derived from this design method and compared with an aplanatic lens. The anastigmatic design converges much faster in optimization and the final solution shows better performance.
Resumo:
El cerebro humano es probablemente uno de los sistemas más complejos a los que nos enfrentamos en la actualidad, si bien es también uno de los más fascinantes. Sin embargo, la compresión de cómo el cerebro organiza su actividad para llevar a cabo tareas complejas es un problema plagado de restos y obstáculos. En sus inicios la neuroimagen y la electrofisiología tenían como objetivo la identificación de regiones asociadas a activaciones relacionadas con tareas especificas, o con patrones locales que variaban en el tiempo dada cierta actividad. Sin embargo, actualmente existe un consenso acerca de que la actividad cerebral tiene un carácter temporal multiescala y espacialmente extendido, lo que lleva a considerar el cerebro como una gran red de áreas cerebrales coordinadas, cuyas conexiones funcionales son continuamente creadas y destruidas. Hasta hace poco, el énfasis de los estudios de la actividad cerebral funcional se han centrado en la identidad de los nodos particulares que forman estas redes, y en la caracterización de métricas de conectividad entre ellos: la hipótesis subyacente es que cada nodo, que es una representación mas bien aproximada de una región cerebral dada, ofrece a una única contribución al total de la red. Por tanto, la neuroimagen funcional integra los dos ingredientes básicos de la neuropsicología: la localización de la función cognitiva en módulos cerebrales especializados y el rol de las fibras de conexión en la integración de dichos módulos. Sin embargo, recientemente, la estructura y la función cerebral han empezado a ser investigadas mediante la Ciencia de la Redes, una interpretación mecánico-estadística de una antigua rama de las matemáticas: La teoría de grafos. La Ciencia de las Redes permite dotar a las redes funcionales de una gran cantidad de propiedades cuantitativas (robustez, centralidad, eficiencia, ...), y así enriquecer el conjunto de elementos que describen objetivamente la estructura y la función cerebral a disposición de los neurocientíficos. La conexión entre la Ciencia de las Redes y la Neurociencia ha aportado nuevos puntos de vista en la comprensión de la intrincada anatomía del cerebro, y de cómo las patrones de actividad cerebral se pueden sincronizar para generar las denominadas redes funcionales cerebrales, el principal objeto de estudio de esta Tesis Doctoral. Dentro de este contexto, la complejidad emerge como el puente entre las propiedades topológicas y dinámicas de los sistemas biológicos y, específicamente, en la relación entre la organización y la dinámica de las redes funcionales cerebrales. Esta Tesis Doctoral es, en términos generales, un estudio de cómo la actividad cerebral puede ser entendida como el resultado de una red de un sistema dinámico íntimamente relacionado con los procesos que ocurren en el cerebro. Con este fin, he realizado cinco estudios que tienen en cuenta ambos aspectos de dichas redes funcionales: el topológico y el dinámico. De esta manera, la Tesis está dividida en tres grandes partes: Introducción, Resultados y Discusión. En la primera parte, que comprende los Capítulos 1, 2 y 3, se hace un resumen de los conceptos más importantes de la Ciencia de las Redes relacionados al análisis de imágenes cerebrales. Concretamente, el Capitulo 1 está dedicado a introducir al lector en el mundo de la complejidad, en especial, a la complejidad topológica y dinámica de sistemas acoplados en red. El Capítulo 2 tiene como objetivo desarrollar los fundamentos biológicos, estructurales y funcionales del cerebro, cuando éste es interpretado como una red compleja. En el Capítulo 3, se resumen los objetivos esenciales y tareas que serán desarrolladas a lo largo de la segunda parte de la Tesis. La segunda parte es el núcleo de la Tesis, ya que contiene los resultados obtenidos a lo largo de los últimos cuatro años. Esta parte está dividida en cinco Capítulos, que contienen una versión detallada de las publicaciones llevadas a cabo durante esta Tesis. El Capítulo 4 está relacionado con la topología de las redes funcionales y, específicamente, con la detección y cuantificación de los nodos mas importantes: aquellos denominados “hubs” de la red. En el Capítulo 5 se muestra como las redes funcionales cerebrales pueden ser vistas no como una única red, sino más bien como una red-de-redes donde sus componentes tienen que coexistir en una situación de balance funcional. De esta forma, se investiga cómo los hemisferios cerebrales compiten para adquirir centralidad en la red-de-redes, y cómo esta interacción se mantiene (o no) cuando se introducen fallos deliberadamente en la red funcional. El Capítulo 6 va un paso mas allá al considerar las redes funcionales como sistemas vivos. En este Capítulo se muestra cómo al analizar la evolución de la topología de las redes, en vez de tratarlas como si estas fueran un sistema estático, podemos caracterizar mejor su estructura. Este hecho es especialmente relevante cuando se quiere tratar de encontrar diferencias entre grupos que desempeñan una tarea de memoria, en la que las redes funcionales tienen fuertes fluctuaciones. En el Capítulo 7 defino cómo crear redes parenclíticas a partir de bases de datos de actividad cerebral. Este nuevo tipo de redes, recientemente introducido para estudiar las anormalidades entre grupos de control y grupos anómalos, no ha sido implementado nunca en datos cerebrales y, en este Capítulo explico cómo hacerlo cuando se quiere evaluar la consistencia de la dinámica cerebral. Para concluir esta parte de la Tesis, el Capítulo 8 se centra en la relación entre las propiedades topológicas de los nodos dentro de una red y sus características dinámicas. Como mostraré más adelante, existe una relación entre ellas que revela que la posición de un nodo dentro una red está íntimamente correlacionada con sus propiedades dinámicas. Finalmente, la última parte de esta Tesis Doctoral está compuesta únicamente por el Capítulo 9, el cual contiene las conclusiones y perspectivas futuras que pueden surgir de los trabajos expuestos. En vista de todo lo anterior, espero que esta Tesis aporte una perspectiva complementaria sobre uno de los más extraordinarios sistemas complejos frente a los que nos encontramos: El cerebro humano. ABSTRACT The human brain is probably one of the most complex systems we are facing, thus being a timely and fascinating object of study. Characterizing how the brain organizes its activity to carry out complex tasks is highly non-trivial. While early neuroimaging and electrophysiological studies typically aimed at identifying patches of task-specific activations or local time-varying patterns of activity, there has now been consensus that task-related brain activity has a temporally multiscale, spatially extended character, as networks of coordinated brain areas are continuously formed and destroyed. Up until recently, though, the emphasis of functional brain activity studies has been on the identity of the particular nodes forming these networks, and on the characterization of connectivity metrics between them, the underlying covert hypothesis being that each node, constituting a coarse-grained representation of a given brain region, provides a unique contribution to the whole. Thus, functional neuroimaging initially integrated the two basic ingredients of early neuropsychology: localization of cognitive function into specialized brain modules and the role of connection fibres in the integration of various modules. Lately, brain structure and function have started being investigated using Network Science, a statistical mechanics understanding of an old branch of pure mathematics: graph theory. Network Science allows endowing networks with a great number of quantitative properties, thus vastly enriching the set of objective descriptors of brain structure and function at neuroscientists’ disposal. The link between Network Science and Neuroscience has shed light about how the entangled anatomy of the brain is, and how cortical activations may synchronize to generate the so-called functional brain networks, the principal object under study along this PhD Thesis. Within this context, complexity appears to be the bridge between the topological and dynamical properties of biological systems and, more specifically, the interplay between the organization and dynamics of functional brain networks. This PhD Thesis is, in general terms, a study of how cortical activations can be understood as the output of a network of dynamical systems that are intimately related with the processes occurring in the brain. In order to do that, I performed five studies that encompass both the topological and the dynamical aspects of such functional brain networks. In this way, the Thesis is divided into three major parts: Introduction, Results and Discussion. In the first part, comprising Chapters 1, 2 and 3, I make an overview of the main concepts of Network Science related to the analysis of brain imaging. More specifically, Chapter 1 is devoted to introducing the reader to the world of complexity, specially to the topological and dynamical complexity of networked systems. Chapter 2 aims to develop the biological, topological and functional fundamentals of the brain when it is seen as a complex network. Next, Chapter 3 summarizes the main objectives and tasks that will be developed along the forthcoming Chapters. The second part of the Thesis is, in turn, its core, since it contains the results obtained along these last four years. This part is divided into five Chapters, containing a detailed version of the publications carried out during the Thesis. Chapter 4 is related to the topology of functional networks and, more specifically, to the detection and quantification of the leading nodes of the network: the hubs. In Chapter 5 I will show that functional brain networks can be viewed not as a single network, but as a network-of-networks, where its components have to co-exist in a trade-off situation. In this way, I investigate how the brain hemispheres compete for acquiring the centrality of the network-of-networks and how this interplay is maintained (or not) when failures are introduced in the functional network. Chapter 6 goes one step beyond by considering functional networks as living systems. In this Chapter I show how analyzing the evolution of the network topology instead of treating it as a static system allows to better characterize functional networks. This fact is especially relevant when trying to find differences between groups performing certain memory tasks, where functional networks have strong fluctuations. In Chapter 7 I define how to create parenclitic networks from brain imaging datasets. This new kind of networks, recently introduced to study abnormalities between control and anomalous groups, have not been implemented with brain datasets and I explain in this Chapter how to do it when evaluating the consistency of brain dynamics. To conclude with this part of the Thesis, Chapter 8 is devoted to the interplay between the topological properties of the nodes within a network and their dynamical features. As I will show, there is an interplay between them which reveals that the position of a node in a network is intimately related with its dynamical properties. Finally, the last part of this PhD Thesis is composed only by Chapter 9, which contains the conclusions and future perspectives that may arise from the exposed results. In view of all, I hope that reading this Thesis will give a complementary perspective of one of the most extraordinary complex systems: The human brain.
Resumo:
El planteamiento tradicional de análisis de la accidentalidad en carretera pasa por la consideración de herramientas paliativas, como son la identificación y gestión de los puntos negros o tramos de concentración de accidentes, o preventivas, como las auditorías e inspecciones de seguridad vial. En esta tesis doctoral se presenta un planteamiento complementario a estas herramientas, desde una perspectiva novedosa: la consideración de los tramos donde no se producen accidentes; son los denominados Tramos Blancos. La tesis persigue demostrar que existen determinados parámetros del diseño de las carreteras y del tráfico que, bajo características generales similares de las vías, tienen influencia en el hecho de que se produzcan o no accidentes, adicionalmente a la exposición al riesgo, como factor principal, y a otros factores. La propia definición de los Tramos Blancos, entendidos como tramos de carreteras de longitud representativa donde no se han producido accidentes con víctimas mortales o heridos graves durante un periodo largo de tiempo, garantiza que esta situación no se produzca como consecuencia de la aleatoriedad de los accidentes, sino que pudiera deberse a una confluencia específica de determinados parámetros de la geometría de la vía y del tráfico total y de vehículos pesados. Para el desarrollo de esta investigación se han considerado la red de autopistas de peaje y las carreteras convencionales de la Red del Estado de España, que supone un total de 17.000 kilómetros, y los datos de accidentes con víctimas mortales y heridos graves en el periodo 2006-2010, ambos incluidos, en estas redes (un total de 10.000 accidentes). La red viaria objeto de análisis supone el 65% de la longitud de la Red de Carreteras del Estado, por la que circula el 33% de su tráfico; en ella se produjeron en el año 2013 el 47% de los accidentes con víctimas y el 60% de las víctimas mortales de la Red de Carreteras del Estado. Durante la investigación se ha desarrollado una base de datos de 250.130 registros y más de 3.5 millones de datos en el caso de las autopistas de peaje de la Red de Carreteras del Estado y de 935.402 registros y más de 14 millones de datos en el caso de la red convencional del Estado analizada. Tanto las autopistas de peaje como las carreteras convencionales han sido clasificadas según sus características de tráfico, de manera que se valoren vías con nivel de exposición al riesgo similar. Para cada tipología de vía, se ha definido como longitud de referencia para que un tramo se considere Tramo Blanco la longitud igual al percentil 95 de las longitudes de tramos sin accidentes con heridos graves o víctimas mortales durante el periodo 2006-2010. En el caso de las autopistas de peaje, en la tipología que ha sido considerada para la definición del modelo, esta longitud de referencia se estableció en 14.5 kilómetros, mientras que en el caso de las carreteras convencionales, se estableció en 7.75 kilómetros. Para cada uno de los tipos de vía considerados se han construido una base de datos en la que se han incluido las variables de existencia o no de Tramo Blanco, así como las variables de tráfico (intensidad media diaria total, intensidad de vehículos pesados y porcentaje de vehículos pesados ), la velocidad media y las variables de geometría (número de carriles, ancho de carril, ancho de arcén derecho e izquierdo, ancho de calzada y plataforma, radio, peralte, pendiente y visibilidad directa e inversa en los casos disponibles); como variables adicionales, se han incluido el número de accidentes con víctimas, los fallecidos y heridos graves, índices de peligrosidad, índices de mortalidad y exposición al riesgo. Los trabajos desarrollados para explicar la presencia de Tramos Blancos en la red de autopistas de peaje han permitido establecer las diferencias entre los valores medios de las variables de tráfico y diseño geométrico en Tramos Blancos respecto a tramos no blancos y comprobar que estas diferencias son significativas. Así mismo, se ha podido calibrar un modelo de regresión logística que explica parcialmente la existencia de Tramos Blancos, para rangos de tráfico inferiores a 10.000 vehículos diarios y para tráficos entre 10.000 y 15.000 vehículos diarios. Para el primer grupo (menos de 10.000 vehículos al día), las variables que han demostrado tener una mayor influencia en la existencia de Tramo Blanco son la velocidad media de circulación, el ancho de carril, el ancho de arcén izquierdo y el porcentaje de vehículos pesados. Para el segundo grupo (entre 10.000 y 15.000 vehículos al día), las variables independientes más influyentes en la existencia de Tramo Blanco han sido la velocidad de circulación, el ancho de calzada y el porcentaje de vehículos pesados. En el caso de las carreteras convencionales, los diferentes análisis realizados no han permitido identificar un modelo que consiga una buena clasificación de los Tramos Blancos. Aun así, se puede afirmar que los valores medios de las variables de intensidad de tráfico, radio, visibilidad, peralte y pendiente presentan diferencias significativas en los Tramos Blancos respecto a los no blancos, que varían en función de la intensidad de tráfico. Los resultados obtenidos deben considerarse como la conclusión de un análisis preliminar, dado que existen otros parámetros, tanto de diseño de la vía como de la circulación, el entorno, el factor humano o el vehículo que podrían tener una influencia en el hecho que se analiza, y no se han considerado por no disponer de esta información. En esta misma línea, el análisis de las circunstancias que rodean al viaje que el usuario de la vía realiza, su tipología y motivación es una fuente de información de interés de la que no se tienen datos y que permitiría mejorar el análisis de accidentalidad en general, y en particular el de esta investigación. Adicionalmente, se reconocen limitaciones en el desarrollo de esta investigación, en las que sería preciso profundizar en el futuro, reconociendo así nuevas líneas de investigación de interés. The traditional approach to road accidents analysis has been based in the use of palliative tools, such as black spot (or road sections) identification and management, or preventive tools, such as road safety audits and inspections. This thesis shows a complementary approach to the existing tools, from a new perspective: the consideration of road sections where no accidents have occurred; these are the so-called White Road Sections. The aim of this thesis is to show that there are certain design parameters and traffic characteristics which, under similar circumstances for roads, have influence in the fact that accidents occur, in addition to the main factor, which is the risk exposure, and others. White Road Sections, defined as road sections of a representative length, where no fatal accidents or accidents involving serious injured have happened during a long period of time, should not be a product of randomness of accidents; on the contrary, they might be the consequence of a confluence of specific parameters of road geometry, traffic volumes and heavy vehicles traffic volumes. For this research, the toll motorway network and single-carriageway network of the Spanish National Road Network have been considered, which is a total of 17.000 kilometers; fatal accidents and those involving serious injured from the period 2006-2010 have been considered (a total number of 10.000 accidents). The road network covered means 65% of the total length of the National Road Network, which allocates 33% of traffic volume; 47% of accidents with victims and 60% of fatalities happened in these road networks during 2013. During the research, a database of 250.130 registers and more than 3.5 million data for toll motorways and 935.042 registers and more than 14 million data for single carriageways of the National Road Network was developed. Both toll motorways and single-carriageways have been classified according to their traffic characteristics, so that the analysis is performed over roads with similar risk exposure. For each road type, a reference length for White Road Section has been defined, as the 95 percentile of all road sections lengths without accidents (with fatalities or serious injured) for 2006-2010. For toll motorways, this reference length concluded to be 14.5 kilometers, while for single-carriageways, it was defined as 7.75 kilometers. A detailed database was developed for each type of road, including the variable “existence of White Road Section”, as well as variables of traffic (average daily traffic volume, heavy vehicles average daily traffic and percentage of heavy vehicles from the total traffic volume), average speed and geometry variables (number of lanes, width of lane, width of shoulders, carriageway width, platform width, radius, superelevation, slope and visibility); additional variables, such as number of accidents with victims, number of fatalities or serious injured, risk and fatality rates and risk exposure, have also been included. Research conducted for the explanation of the presence of White Road Sections in the toll motorway network have shown statistically significant differences in the average values of variables of traffic and geometric design in White Road Sections compared with other road sections. In addition, a binary logistic model for the partial explanation of the presence of White Road Sections was developed, for traffic volumes lower than 10.000 daily vehicles and for those running from 10.000 to 15.000 daily vehicles. For the first group, the most influent variables for the presence of White Road Sections were the average speed, width of lane, width of left shoulder and percentage of heavy vehicles. For the second group, the most influent variables were found to be average speed, carriageway width and percentage of heavy vehicles. For single-carriageways, the different analysis developed did not reach a proper model for the explanation of White Road Sections. However, it can be assumed that the average values of the variables of traffic volume, radius, visibility, superelevation and slope show significant differences in White Road Sections if compared with others, which also vary with traffic volumes. Results obtained should be considered as a conclusion of a preliminary analysis, as there are other parameters, not only design-related, but also regarding traffic, environment, human factor and vehicle which could have an influence in the fact under research, but this information has not been considered in the analysis, as it was not available. In parallel, the analysis of the circumstances around the trip, including its typology and motivation is an interesting source of information, from which data are not available; the availability of this information would be useful for the improvement of accident analysis, in general, and for this research work, in particular. In addition, there are some limitations in the development of the research work; it would be necessary to develop an in-depth analysis in the future, thus assuming new research lines of interest.
Resumo:
El 12 de agosto de 2014, se registró un sismo de magnitud 5.1, a una profundidad focal de 4 km., en el segmento de falla Bellavista Catequilla, el mismo que fue registrado en 8 estaciones localizadas en la ciudad de Quito. Estas se encuentran ubicadas a distancias epicentrales entre 12 y 19 km. En este artículo se comparan las aceleraciones máximas obtenidas en campo libre, con las que se obtienen al emplear las ecuaciones de movimientos fuertes de Campbell y Borzognia (2013) y el de Zhao et al. (2006). Para ello previamente se determina un plano de ruptura del sismo, utilizando las ecuaciones propuestas por Leonard (2010) y la geometría de las fallas ciegas propuestas por Alvarado (2014). ABSTRACT: On August 12 th 2014, a magnitude 5.1 earthquake occurred at a depth of 4 km, in the Bellavista Catequilla fault segment. This event was recorded by 8 strong-motion stations located between 12 and 19 km from the epicenter, in the city of Quito. In this article, the maximum ground accelerations recorded in free field are compared with the accelerations estimated using the models by Campbell y Borzognia (2013) and Zh ao et al. (2006). To this end, the earthquake rupture plane is determined using the equations proposed by Leonard (2010) and the geometry of the blind fault system of Quito proposed by Alvarado (2014).
Resumo:
El presente trabajo tiene como objetivo general el análisis de las técnicas de diseño y optimización de redes topográficas, observadas mediante topografía convencional (no satelital) el desarrollo e implementación de un sistema informático capaz de ayudar a la definición de la geometría más fiable y precisa, en función de la orografía del terreno donde se tenga que ubicar. En primer lugar se realizará un estudio de la metodología del ajuste mediante mínimos cuadrados y la propagación de varianzas, para posteriormente analizar su dependencia de la geometría que adopte la red. Será imprescindible determinar la independencia de la matriz de redundancia (R) de las observaciones y su total dependencia de la geometría, así como la influencia de su diagonal principal (rii), números de redundancia, para garantizar la máxima fiabilidad interna de la misma. También se analizará el comportamiento de los números de redundancia (rii) en el diseño de una red topográfica, la variación de dichos valores en función de la geometría, analizando su independencia respecto de las observaciones así como los diferentes niveles de diseño en función de los parámetros y datos conocidos. Ha de señalarse que la optimización de la red, con arreglo a los criterios expuestos, está sujeta a los condicionantes que impone la necesidad de que los vértices sean accesibles, y además sean visibles entre sí, aquellos relacionados por observaciones, situaciones que dependen esencialmente del relieve del terreno y de los obstáculos naturales o artificiales que puedan existir. Esto implica la necesidad de incluir en el análisis y en el diseño, cuando menos de un modelo digital del terreno (MDT), aunque lo más útil sería la inclusión en el estudio del modelo digital de superficie (MDS), pero esta opción no siempre será posible. Aunque el tratamiento del diseño esté basado en un sistema bidimensional se estudiará la posibilidad de incorporar un modelo digital de superficie (MDS); esto permitirá a la hora de diseñar el emplazamiento de los vértices de la red la viabilidad de las observaciones en función de la orografía y los elementos, tanto naturales como artificiales, que sobre ella estén ubicados. Este sistema proporcionaría, en un principio, un diseño óptimo de una red constreñida, atendiendo a la fiabilidad interna y a la precisión final de sus vértices, teniendo en cuenta la orografía, lo que equivaldría a resolver un planteamiento de diseño en dos dimensiones y media1; siempre y cuando se dispusiera de un modelo digital de superficie o del terreno. Dado que la disponibilidad de obtener de manera libre el MDS de las zonas de interés del proyecto, hoy en día es costoso2, se planteará la posibilidad de conjuntar, para el estudio del diseño de la red, de un modelo digital del terreno. Las actividades a desarrollar en el trabajo de esta tesis se describen en esta memoria y se enmarcan dentro de la investigación para la que se plantean los siguientes objetivos globales: 1. Establecer un modelo matemático del proceso de observación de una red topográfica, atendiendo a todos los factores que intervienen en el mismo y a su influencia sobre las estimaciones de las incógnitas que se obtienen como resultado del ajuste de las observaciones. 2. Desarrollar un sistema que permita optimizar una red topográfica en sus resultados, aplicando técnicas de diseño y simulación sobre el modelo anterior. 3. Presentar una formulación explícita y rigurosa de los parámetros que valoran la fiabilidad de una red topográfica y de sus relaciones con el diseño de la misma. El logro de este objetivo se basa, además de en la búsqueda y revisión de las fuentes, en una intensa labor de unificación de notaciones y de construcción de pasos intermedios en los desarrollos matemáticos. 4. Elaborar una visión conjunta de la influencia del diseño de una red, en los seis siguientes factores (precisiones a posteriori, fiabilidad de las observaciones, naturaleza y viabilidad de las mismas, instrumental y metodología de estacionamiento) como criterios de optimización, con la finalidad de enmarcar el tema concreto que aquí se aborda. 5. Elaborar y programar los algoritmos necesarios para poder desarrollar una aplicación que sea capaz de contemplar las variables planteadas en el apartado anterior en el problema del diseño y simulación de redes topográficas, contemplando el modelo digital de superficie. Podrían considerarse como objetivos secundarios, los siguientes apartados: Desarrollar los algoritmos necesarios para interrelacionar el modelo digital del terreno con los propios del diseño. Implementar en la aplicación informática la posibilidad de variación, por parte del usuario, de los criterios de cobertura de los parámetros (distribución normal o t de Student), así como los grados de fiabilidad de los mismos ABSTRACT The overall purpose of this work is the analysis of the techniques of design and optimization for geodetic networks, measured with conventional survey methods (not satellite), the development and implementation of a computational system capable to help on the definition of the most liable and accurate geometry, depending on the land orography where the network has to be located. First of all, a study of the methodology by least squares adjustment and propagation of variances will be held; then, subsequently, analyze its dependency of the geometry that the network will take. It will be essential to determine the independency of redundancy matrix (R) from the observations and its absolute dependency from the network geometry, as well as the influence of the diagonal terms of the R matrix (rii), redundancy numbers, in order to ensure maximum re liability of the network. It will also be analyzed first the behavior of redundancy numbers (rii) in surveying network design, then the variation of these values depending on the geometry with the analysis of its independency from the observations, and finally the different design levels depending on parameters and known data. It should be stated that network optimization, according to exposed criteria, is subject to the accessibility of the network points. In addition, common visibility among network points, which of them are connected with observations, has to be considered. All these situations depends essentially on the terrain relief and the natural or artificial obstacles that should exist. Therefore, it is necessary to include, at least, a digital terrain model (DTM), and better a digital surface model (DSM), not always available. Although design treatment is based on a bidimensional system, the possibility of incorporating a digital surface model (DSM) will be studied; this will allow evaluating the observations feasibility based on the terrain and the elements, both natural and artificial, which are located on it, when selecting network point locations. This system would provide, at first, an optimal design of a constrained network, considering both the internal reliability and the accuracy of its points (including the relief). This approach would amount to solving a “two and a half dimensional”3 design, if a digital surface model is available. As the availability of free DSM4 of the areas of interest of the project today is expensive, the possibility of combining a digital terrain model will arise. The activities to be developed on this PhD thesis are described in this document and are part of the research for which the following overall objectives are posed: 1. To establish a mathematical model for the process of observation of a survey network, considering all the factors involved and its influence on the estimates of the unknowns that are obtained as a result of the observations adjustment. 2. To develop a system to optimize a survey network results, applying design and simulation techniques on the previous model. 3. To present an explicit and rigorous formulation of parameters which assess the reliability of a survey network and its relations with the design. The achievement of this objective is based, besides on the search and review of sources, in an intense work of unification of notation and construction of intermediate steps in the mathematical developments. 4. To develop an overview of the influence on the network design of six major factors (posterior accuracy, observations reliability, viability of observations, instruments and station methodology) as optimization criteria, in order to define the subject approached on this document. 5. To elaborate and program the algorithms needed to develop an application software capable of considering the variables proposed in the previous section, on the problem of design and simulation of surveying networks, considering the digital surface model. It could be considered as secondary objectives, the following paragraphs: To develop the necessary algorithms to interrelate the digital terrain model with the design ones. To implement in the software application the possibility of variation of the coverage criteria parameters (normal distribution or Student t test) and therefore its degree of reliability.
Resumo:
El extraordinario auge de las nuevas tecnologías de la información, el desarrollo de la Internet de las Cosas, el comercio electrónico, las redes sociales, la telefonía móvil y la computación y almacenamiento en la nube, han proporcionado grandes beneficios en todos los ámbitos de la sociedad. Junto a éstos, se presentan nuevos retos para la protección y privacidad de la información y su contenido, como la suplantación de personalidad y la pérdida de la confidencialidad e integridad de los documentos o las comunicaciones electrónicas. Este hecho puede verse agravado por la falta de una frontera clara que delimite el mundo personal del mundo laboral en cuanto al acceso de la información. En todos estos campos de la actividad personal y laboral, la Criptografía ha jugado un papel fundamental aportando las herramientas necesarias para garantizar la confidencialidad, integridad y disponibilidad tanto de la privacidad de los datos personales como de la información. Por otro lado, la Biometría ha propuesto y ofrecido diferentes técnicas con el fin de garantizar la autentificación de individuos a través del uso de determinadas características personales como las huellas dáctilares, el iris, la geometría de la mano, la voz, la forma de caminar, etc. Cada una de estas dos ciencias, Criptografía y Biometría, aportan soluciones a campos específicos de la protección de datos y autentificación de usuarios, que se verían enormemente potenciados si determinadas características de ambas ciencias se unieran con vistas a objetivos comunes. Por ello es imperativo intensificar la investigación en estos ámbitos combinando los algoritmos y primitivas matemáticas de la Criptografía con la Biometría para dar respuesta a la demanda creciente de nuevas soluciones más técnicas, seguras y fáciles de usar que potencien de modo simultáneo la protección de datos y la identificacíón de usuarios. En esta combinación el concepto de biometría cancelable ha supuesto una piedra angular en el proceso de autentificación e identificación de usuarios al proporcionar propiedades de revocación y cancelación a los ragos biométricos. La contribución de esta tesis se basa en el principal aspecto de la Biometría, es decir, la autentificación segura y eficiente de usuarios a través de sus rasgos biométricos, utilizando tres aproximaciones distintas: 1. Diseño de un esquema criptobiométrico borroso que implemente los principios de la biometría cancelable para identificar usuarios lidiando con los problemas acaecidos de la variabilidad intra e inter-usuarios. 2. Diseño de una nueva función hash que preserva la similitud (SPHF por sus siglas en inglés). Actualmente estas funciones se usan en el campo del análisis forense digital con el objetivo de buscar similitudes en el contenido de archivos distintos pero similares de modo que se pueda precisar hasta qué punto estos archivos pudieran ser considerados iguales. La función definida en este trabajo de investigación, además de mejorar los resultados de las principales funciones desarrolladas hasta el momento, intenta extender su uso a la comparación entre patrones de iris. 3. Desarrollando un nuevo mecanismo de comparación de patrones de iris que considera tales patrones como si fueran señales para compararlos posteriormente utilizando la transformada de Walsh-Hadarmard. Los resultados obtenidos son excelentes teniendo en cuenta los requerimientos de seguridad y privacidad mencionados anteriormente. Cada uno de los tres esquemas diseñados han sido implementados para poder realizar experimentos y probar su eficacia operativa en escenarios que simulan situaciones reales: El esquema criptobiométrico borroso y la función SPHF han sido implementados en lenguaje Java mientras que el proceso basado en la transformada de Walsh-Hadamard en Matlab. En los experimentos se ha utilizado una base de datos de imágenes de iris (CASIA) para simular una población de usuarios del sistema. En el caso particular de la función de SPHF, además se han realizado experimentos para comprobar su utilidad en el campo de análisis forense comparando archivos e imágenes con contenido similar y distinto. En este sentido, para cada uno de los esquemas se han calculado los ratios de falso negativo y falso positivo. ABSTRACT The extraordinary increase of new information technologies, the development of Internet of Things, the electronic commerce, the social networks, mobile or smart telephony and cloud computing and storage, have provided great benefits in all areas of society. Besides this fact, there are new challenges for the protection and privacy of information and its content, such as the loss of confidentiality and integrity of electronic documents and communications. This is exarcebated by the lack of a clear boundary between the personal world and the business world as their differences are becoming narrower. In both worlds, i.e the personal and the business one, Cryptography has played a key role by providing the necessary tools to ensure the confidentiality, integrity and availability both of the privacy of the personal data and information. On the other hand, Biometrics has offered and proposed different techniques with the aim to assure the authentication of individuals through their biometric traits, such as fingerprints, iris, hand geometry, voice, gait, etc. Each of these sciences, Cryptography and Biometrics, provides tools to specific problems of the data protection and user authentication, which would be widely strengthen if determined characteristics of both sciences would be combined in order to achieve common objectives. Therefore, it is imperative to intensify the research in this area by combining the basics mathematical algorithms and primitives of Cryptography with Biometrics to meet the growing demand for more secure and usability techniques which would improve the data protection and the user authentication. In this combination, the use of cancelable biometrics makes a cornerstone in the user authentication and identification process since it provides revocable or cancelation properties to the biometric traits. The contributions in this thesis involve the main aspect of Biometrics, i.e. the secure and efficient authentication of users through their biometric templates, considered from three different approaches. The first one is designing a fuzzy crypto-biometric scheme using the cancelable biometric principles to take advantage of the fuzziness of the biometric templates at the same time that it deals with the intra- and inter-user variability among users without compromising the biometric templates extracted from the legitimate users. The second one is designing a new Similarity Preserving Hash Function (SPHF), currently widely used in the Digital Forensics field to find similarities among different files to calculate their similarity level. The function designed in this research work, besides the fact of improving the results of the two main functions of this field currently in place, it tries to expand its use to the iris template comparison. Finally, the last approach of this thesis is developing a new mechanism of handling the iris templates, considering them as signals, to use the Walsh-Hadamard transform (complemented with three other algorithms) to compare them. The results obtained are excellent taking into account the security and privacy requirements mentioned previously. Every one of the three schemes designed have been implemented to test their operational efficacy in situations that simulate real scenarios: The fuzzy crypto-biometric scheme and the SPHF have been implemented in Java language, while the process based on the Walsh-Hadamard transform in Matlab. The experiments have been performed using a database of iris templates (CASIA-IrisV2) to simulate a user population. The case of the new SPHF designed is special since previous to be applied i to the Biometrics field, it has been also tested to determine its applicability in the Digital Forensic field comparing similar and dissimilar files and images. The ratios of efficiency and effectiveness regarding user authentication, i.e. False Non Match and False Match Rate, for the schemes designed have been calculated with different parameters and cases to analyse their behaviour.
Resumo:
Esta investigación indaga sobre la relación entre el método geométrico empleado por Pablo Palazuelo y el proceso del proyecto arquitectónico. La elección de este pintor y escultor madrileño como hilo conductor de esta tesis no es fortuita, puesto que la arquitectura desempeña una influencia esencial sobre su obra. Un influjo que le llega en parte a través de su formación académica, dado que cursó estudios de arquitectura en la School of Arts and Crafts de la ciudad de Oxford (1933-1936). Así mismo diseñó propuestas estrechamente vinculadas a un lugar construido, con el consiguiente condicionante de las trazas del mismo. La hipótesis de trabajo formulada a partir de textos elaborados por autores como Víctor Nieto Alcaide y Juan Daniel Fullaondo sugería una interconexión con la arquitectura orgánica. Como comprobación del grado de profundidad en otros análisis publicados, se han seleccionado los textos que indagan en el proceso que el artista desarrollaba durante la producción de su obra, y se adentran en cuestiones estructurales que trascienden el ámbito formal. Siguiendo esta pauta, además de una acotación temporal, se han escogido los realizados por Santiago Amón, Carme Bonell, Valerio Bozal, Manuel J. Borja-Villel, Francisco Calvo Serraller, Claude Esteban, Julián Gállego, Teresa Grandas, Max Hölzer, George Limbour, Kevin Power y Carlos Rodríguez-Spiteri. A estos autores se suman las fuentes orales consultadas dentro de un entorno intrínsecamente próximo a sus realizaciones, procedentes de Pere Casanovas y Soledad Lorenzo. Además de personas que en diferentes etapas de su vida coincidieron por distintos motivos con sus realizaciones, como son Ramón Ayerza, Mariano Bayón, José Antonio Corrales, Luis Gordillo, Rafael Moneo, José Rodríguez-Spiteri y Antonio Tornero. A partir del acceso obtenido a los escritos, libros, bocetos y abundante obra gráfica y escultórica que atesora la Fundación del pintor, se ha podido elaborar un andamiaje tanto teórico como geométrico que ha servido de base para confrontar estas premisas. Esta empresa se ha estructurado en una narración que, además de los estudios precedentes citados, comienza con los cimientos del pensamiento de Palazuelo. Elaborada a partir de sus escritos, donde defendía un sincretismo que concilia las visiones de las culturas occidental y oriental. En los siguientes apartados, se han analizado las principales obras gráficas y escultóricas del autor haciendo un especial hincapié en el método productivo. Una gestación que se resiste a una mera enumeración cronológica, por lo que la clasificación que se propone en este trabajo trata de ser lo más fiel posible al espíritu expresado por Palazuelo basado en linajes y coherencias, para desvelar las herramientas empleadas y poder compararlas con el proceso del proyectual. Este recorrido se completa con una última sección se reúnen por primera vez las dieciséis obras y los dieciséis proyectos más representativos que ilustran la aproximación más directa que obró Palazuelo entre sus investigaciones geométricas y un locus determinado. Durante casi cuatro años se desarrolló un inventariado y catalogación pormenorizada de la documentación y piezas sobre papel, lienzo y metal realizadas por Palazuelo. Esta indagación saca a la luz un conjunto constituido por casi cuatro mil obras, en su mayoría inéditas, que constituyen el archivo de la citada institución. En definitiva, esta investigación construye un tejido gráfico y geométrico referido a uno de los artistas españoles más importantes del siglo XX, entreverado por su pensamiento teórico y realizaciones en dibujos, maquetas, esculturas y propuestas arquitectónicas. Las cuales permiten establecer los acuerdos y desacuerdos con el proceso de la arquitectura para proponer una nueva aproximación geométrica interdisciplinar. ABSTRACT This research investigates the relationship between the geometric method used by Palazuelo and the architectural design’s process. Choosing this Spanish painter and sculptor as thread of this thesis is not fortuitous, since the architecture has an essential influence on his work. An influx that arrives in part through his academic training, as he was an architecture student at the School of Arts and Crafts of the city of Oxford (1933-1936). Furthermore his proposals designed closely linked to a built place, therefore conditioned by its traces. The working hypothesis formulated from texts written by authors like Victor Nieto Alcaide and Juan Daniel Fullaondo suggested an interconnection with organic architecture. As a check on the degree of depth in other published reviews, articles that explore the process that the artist developed during the production of his work, and penetrate into structural issues beyond formal domain have been selected. Following this pattern, along with a temporal dimension, assays by Santiago Amón, Carme Bonell, Valerio Bozal, Manuel J. Borja-Villel, Francisco Calvo Serraller, Claude Esteban, Julián Gállego, Teresa Grandas, Max Hölzer, George Limbour, Kevin Power and Carlos Rodriguez-Spiteri have been selected. Oral sources within an inherently environment close to his achievements, as Pere Casanovas and Soledad Lorenzo, are also added. In addition to people coincided with his accomplishments, such as Ramón Ayerza, Mariano Bayón, José Antonio Corrales, Luis Gordillo, Rafael Moneo, José Rodríguez-Spiteri and Antonio Tornero. From obtained access to the writings, books, sketches and abundant graphic and sculptural work that holds the Foundation painter, it has been able to develop a theoretical and geometric framework that have served as the basis for confronting these premises. This dissertation has been structured in a narrative that ⎯in addition to the previously mentioned studies⎯, begins with the foundations of Palazuelo thought. A structure built from his writings, where he defended a syncretism that reconciles the views of Western and Eastern cultures. In the following sections, his main graphic and sculptural works have been analyzed with particular emphasis on the productive method. A process that resists mere chronological enumeration, so the classification proposed in this investigation tries to be as faithful as possible to the spirit expressed by Palazuelo, based on bloodlines and coherences, to uncover the tools he used and to compare them with the architectural design process. This tour is completed with a final chapter that gathers the sixteen proposals and sixteen works most representative projects that illustrate the more direct approach that Palazuelo worked between geometric investigations and a given locus. For nearly four years, a detailed inventory and cataloguing of documents and works on paper, canvas and metal made by Palazuelo was developed. This research brings to light a set consisting of nearly four thousand works, mostly unpublished, that constitute the current archive of the aforementioned institution. Ultimately, this research builds a graph and geometric fabric referred to one of the most important Spanish artists of the twentieth century, interspersed by his theoretical thinking and achievements in drawings, models, sculptures and architectural proposals. Which allow establishing agreements and disagreements with the process of architecture to propose a new geometric interdisciplinary approach.