864 resultados para Arquitectura moderna y contemporánea


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tesis doctoral se centra principalmente en técnicas de ataque y contramedidas relacionadas con ataques de canal lateral (SCA por sus siglas en inglés), que han sido propuestas dentro del campo de investigación académica desde hace 17 años. Las investigaciones relacionadas han experimentado un notable crecimiento en las últimas décadas, mientras que los diseños enfocados en la protección sólida y eficaz contra dichos ataques aún se mantienen como un tema de investigación abierto, en el que se necesitan iniciativas más confiables para la protección de la información persona de empresa y de datos nacionales. El primer uso documentado de codificación secreta se remonta a alrededor de 1700 B.C., cuando los jeroglíficos del antiguo Egipto eran descritos en las inscripciones. La seguridad de la información siempre ha supuesto un factor clave en la transmisión de datos relacionados con inteligencia diplomática o militar. Debido a la evolución rápida de las técnicas modernas de comunicación, soluciones de cifrado se incorporaron por primera vez para garantizar la seguridad, integridad y confidencialidad de los contextos de transmisión a través de cables sin seguridad o medios inalámbricos. Debido a las restricciones de potencia de cálculo antes de la era del ordenador, la técnica de cifrado simple era un método más que suficiente para ocultar la información. Sin embargo, algunas vulnerabilidades algorítmicas pueden ser explotadas para restaurar la regla de codificación sin mucho esfuerzo. Esto ha motivado nuevas investigaciones en el área de la criptografía, con el fin de proteger el sistema de información ante sofisticados algoritmos. Con la invención de los ordenadores se ha acelerado en gran medida la implementación de criptografía segura, que ofrece resistencia eficiente encaminada a obtener mayores capacidades de computación altamente reforzadas. Igualmente, sofisticados cripto-análisis han impulsado las tecnologías de computación. Hoy en día, el mundo de la información ha estado involucrado con el campo de la criptografía, enfocada a proteger cualquier campo a través de diversas soluciones de cifrado. Estos enfoques se han fortalecido debido a la unificación optimizada de teorías matemáticas modernas y prácticas eficaces de hardware, siendo posible su implementación en varias plataformas (microprocesador, ASIC, FPGA, etc.). Las necesidades y requisitos de seguridad en la industria son las principales métricas de conducción en el diseño electrónico, con el objetivo de promover la fabricación de productos de gran alcance sin sacrificar la seguridad de los clientes. Sin embargo, una vulnerabilidad en la implementación práctica encontrada por el Prof. Paul Kocher, et al en 1996 implica que un circuito digital es inherentemente vulnerable a un ataque no convencional, lo cual fue nombrado posteriormente como ataque de canal lateral, debido a su fuente de análisis. Sin embargo, algunas críticas sobre los algoritmos criptográficos teóricamente seguros surgieron casi inmediatamente después de este descubrimiento. En este sentido, los circuitos digitales consisten típicamente en un gran número de celdas lógicas fundamentales (como MOS - Metal Oxide Semiconductor), construido sobre un sustrato de silicio durante la fabricación. La lógica de los circuitos se realiza en función de las innumerables conmutaciones de estas células. Este mecanismo provoca inevitablemente cierta emanación física especial que puede ser medida y correlacionada con el comportamiento interno del circuito. SCA se puede utilizar para revelar datos confidenciales (por ejemplo, la criptografía de claves), analizar la arquitectura lógica, el tiempo e incluso inyectar fallos malintencionados a los circuitos que se implementan en sistemas embebidos, como FPGAs, ASICs, o tarjetas inteligentes. Mediante el uso de la comparación de correlación entre la cantidad de fuga estimada y las fugas medidas de forma real, información confidencial puede ser reconstruida en mucho menos tiempo y computación. Para ser precisos, SCA básicamente cubre una amplia gama de tipos de ataques, como los análisis de consumo de energía y radiación ElectroMagnética (EM). Ambos se basan en análisis estadístico y, por lo tanto, requieren numerosas muestras. Los algoritmos de cifrado no están intrínsecamente preparados para ser resistentes ante SCA. Es por ello que se hace necesario durante la implementación de circuitos integrar medidas que permitan camuflar las fugas a través de "canales laterales". Las medidas contra SCA están evolucionando junto con el desarrollo de nuevas técnicas de ataque, así como la continua mejora de los dispositivos electrónicos. Las características físicas requieren contramedidas sobre la capa física, que generalmente se pueden clasificar en soluciones intrínsecas y extrínsecas. Contramedidas extrínsecas se ejecutan para confundir la fuente de ataque mediante la integración de ruido o mala alineación de la actividad interna. Comparativamente, las contramedidas intrínsecas están integradas en el propio algoritmo, para modificar la aplicación con el fin de minimizar las fugas medibles, o incluso hacer que dichas fugas no puedan ser medibles. Ocultación y Enmascaramiento son dos técnicas típicas incluidas en esta categoría. Concretamente, el enmascaramiento se aplica a nivel algorítmico, para alterar los datos intermedios sensibles con una máscara de manera reversible. A diferencia del enmascaramiento lineal, las operaciones no lineales que ampliamente existen en criptografías modernas son difíciles de enmascarar. Dicho método de ocultación, que ha sido verificado como una solución efectiva, comprende principalmente la codificación en doble carril, que está ideado especialmente para aplanar o eliminar la fuga dependiente de dato en potencia o en EM. En esta tesis doctoral, además de la descripción de las metodologías de ataque, se han dedicado grandes esfuerzos sobre la estructura del prototipo de la lógica propuesta, con el fin de realizar investigaciones enfocadas a la seguridad sobre contramedidas de arquitectura a nivel lógico. Una característica de SCA reside en el formato de las fuentes de fugas. Un típico ataque de canal lateral se refiere al análisis basado en la potencia, donde la capacidad fundamental del transistor MOS y otras capacidades parásitas son las fuentes esenciales de fugas. Por lo tanto, una lógica robusta resistente a SCA debe eliminar o mitigar las fugas de estas micro-unidades, como las puertas lógicas básicas, los puertos I/O y las rutas. Las herramientas EDA proporcionadas por los vendedores manipulan la lógica desde un nivel más alto, en lugar de realizarlo desde el nivel de puerta, donde las fugas de canal lateral se manifiestan. Por lo tanto, las implementaciones clásicas apenas satisfacen estas necesidades e inevitablemente atrofian el prototipo. Por todo ello, la implementación de un esquema de diseño personalizado y flexible ha de ser tomado en cuenta. En esta tesis se presenta el diseño y la implementación de una lógica innovadora para contrarrestar SCA, en la que se abordan 3 aspectos fundamentales: I. Se basa en ocultar la estrategia sobre el circuito en doble carril a nivel de puerta para obtener dinámicamente el equilibrio de las fugas en las capas inferiores; II. Esta lógica explota las características de la arquitectura de las FPGAs, para reducir al mínimo el gasto de recursos en la implementación; III. Se apoya en un conjunto de herramientas asistentes personalizadas, incorporadas al flujo genérico de diseño sobre FPGAs, con el fin de manipular los circuitos de forma automática. El kit de herramientas de diseño automático es compatible con la lógica de doble carril propuesta, para facilitar la aplicación práctica sobre la familia de FPGA del fabricante Xilinx. En este sentido, la metodología y las herramientas son flexibles para ser extendido a una amplia gama de aplicaciones en las que se desean obtener restricciones mucho más rígidas y sofisticadas a nivel de puerta o rutado. En esta tesis se realiza un gran esfuerzo para facilitar el proceso de implementación y reparación de lógica de doble carril genérica. La viabilidad de las soluciones propuestas es validada mediante la selección de algoritmos criptográficos ampliamente utilizados, y su evaluación exhaustiva en comparación con soluciones anteriores. Todas las propuestas están respaldadas eficazmente a través de ataques experimentales con el fin de validar las ventajas de seguridad del sistema. El presente trabajo de investigación tiene la intención de cerrar la brecha entre las barreras de implementación y la aplicación efectiva de lógica de doble carril. En esencia, a lo largo de esta tesis se describirá un conjunto de herramientas de implementación para FPGAs que se han desarrollado para trabajar junto con el flujo de diseño genérico de las mismas, con el fin de lograr crear de forma innovadora la lógica de doble carril. Un nuevo enfoque en el ámbito de la seguridad en el cifrado se propone para obtener personalización, automatización y flexibilidad en el prototipo de circuito de bajo nivel con granularidad fina. Las principales contribuciones del presente trabajo de investigación se resumen brevemente a continuación: Lógica de Precharge Absorbed-DPL logic: El uso de la conversión de netlist para reservar LUTs libres para ejecutar la señal de precharge y Ex en una lógica DPL. Posicionamiento entrelazado Row-crossed con pares idénticos de rutado en redes de doble carril, lo que ayuda a aumentar la resistencia frente a la medición EM selectiva y mitigar los impactos de las variaciones de proceso. Ejecución personalizada y herramientas de conversión automática para la generación de redes idénticas para la lógica de doble carril propuesta. (a) Para detectar y reparar conflictos en las conexiones; (b) Detectar y reparar las rutas asimétricas. (c) Para ser utilizado en otras lógicas donde se requiere un control estricto de las interconexiones en aplicaciones basadas en Xilinx. Plataforma CPA de pruebas personalizadas para el análisis de EM y potencia, incluyendo la construcción de dicha plataforma, el método de medición y análisis de los ataques. Análisis de tiempos para cuantificar los niveles de seguridad. División de Seguridad en la conversión parcial de un sistema de cifrado complejo para reducir los costes de la protección. Prueba de concepto de un sistema de calefacción auto-adaptativo para mitigar los impactos eléctricos debido a la variación del proceso de silicio de manera dinámica. La presente tesis doctoral se encuentra organizada tal y como se detalla a continuación: En el capítulo 1 se abordan los fundamentos de los ataques de canal lateral, que abarca desde conceptos básicos de teoría de modelos de análisis, además de la implementación de la plataforma y la ejecución de los ataques. En el capítulo 2 se incluyen las estrategias de resistencia SCA contra los ataques de potencia diferencial y de EM. Además de ello, en este capítulo se propone una lógica en doble carril compacta y segura como contribución de gran relevancia, así como también se presentará la transformación lógica basada en un diseño a nivel de puerta. Por otra parte, en el Capítulo 3 se abordan los desafíos relacionados con la implementación de lógica en doble carril genérica. Así mismo, se describirá un flujo de diseño personalizado para resolver los problemas de aplicación junto con una herramienta de desarrollo automático de aplicaciones propuesta, para mitigar las barreras de diseño y facilitar los procesos. En el capítulo 4 se describe de forma detallada la elaboración e implementación de las herramientas propuestas. Por otra parte, la verificación y validaciones de seguridad de la lógica propuesta, así como un sofisticado experimento de verificación de la seguridad del rutado, se describen en el capítulo 5. Por último, un resumen de las conclusiones de la tesis y las perspectivas como líneas futuras se incluyen en el capítulo 6. Con el fin de profundizar en el contenido de la tesis doctoral, cada capítulo se describe de forma más detallada a continuación: En el capítulo 1 se introduce plataforma de implementación hardware además las teorías básicas de ataque de canal lateral, y contiene principalmente: (a) La arquitectura genérica y las características de la FPGA a utilizar, en particular la Xilinx Virtex-5; (b) El algoritmo de cifrado seleccionado (un módulo comercial Advanced Encryption Standard (AES)); (c) Los elementos esenciales de los métodos de canal lateral, que permiten revelar las fugas de disipación correlacionadas con los comportamientos internos; y el método para recuperar esta relación entre las fluctuaciones físicas en los rastros de canal lateral y los datos internos procesados; (d) Las configuraciones de las plataformas de pruebas de potencia / EM abarcadas dentro de la presente tesis. El contenido de esta tesis se amplia y profundiza a partir del capítulo 2, en el cual se abordan varios aspectos claves. En primer lugar, el principio de protección de la compensación dinámica de la lógica genérica de precarga de doble carril (Dual-rail Precharge Logic-DPL) se explica mediante la descripción de los elementos compensados a nivel de puerta. En segundo lugar, la lógica PA-DPL es propuesta como aportación original, detallando el protocolo de la lógica y un caso de aplicación. En tercer lugar, dos flujos de diseño personalizados se muestran para realizar la conversión de doble carril. Junto con ello, se aclaran las definiciones técnicas relacionadas con la manipulación por encima de la netlist a nivel de LUT. Finalmente, una breve discusión sobre el proceso global se aborda en la parte final del capítulo. El Capítulo 3 estudia los principales retos durante la implementación de DPLs en FPGAs. El nivel de seguridad de las soluciones de resistencia a SCA encontradas en el estado del arte se ha degenerado debido a las barreras de implantación a través de herramientas EDA convencionales. En el escenario de la arquitectura FPGA estudiada, se discuten los problemas de los formatos de doble carril, impactos parásitos, sesgo tecnológico y la viabilidad de implementación. De acuerdo con estas elaboraciones, se plantean dos problemas: Cómo implementar la lógica propuesta sin penalizar los niveles de seguridad, y cómo manipular un gran número de celdas y automatizar el proceso. El PA-DPL propuesto en el capítulo 2 se valida con una serie de iniciativas, desde características estructurales como doble carril entrelazado o redes de rutado clonadas, hasta los métodos de aplicación tales como las herramientas de personalización y automatización de EDA. Por otra parte, un sistema de calefacción auto-adaptativo es representado y aplicado a una lógica de doble núcleo, con el fin de ajustar alternativamente la temperatura local para equilibrar los impactos negativos de la variación del proceso durante la operación en tiempo real. El capítulo 4 se centra en los detalles de la implementación del kit de herramientas. Desarrollado sobre una API third-party, el kit de herramientas personalizado es capaz de manipular los elementos de la lógica de circuito post P&R ncd (una versión binaria ilegible del xdl) convertido al formato XDL Xilinx. El mecanismo y razón de ser del conjunto de instrumentos propuestos son cuidadosamente descritos, que cubre la detección de enrutamiento y los enfoques para la reparación. El conjunto de herramientas desarrollado tiene como objetivo lograr redes de enrutamiento estrictamente idénticos para la lógica de doble carril, tanto para posicionamiento separado como para el entrelazado. Este capítulo particularmente especifica las bases técnicas para apoyar las implementaciones en los dispositivos de Xilinx y su flexibilidad para ser utilizado sobre otras aplicaciones. El capítulo 5 se enfoca en la aplicación de los casos de estudio para la validación de los grados de seguridad de la lógica propuesta. Se discuten los problemas técnicos detallados durante la ejecución y algunas nuevas técnicas de implementación. (a) Se discute el impacto en el proceso de posicionamiento de la lógica utilizando el kit de herramientas propuesto. Diferentes esquemas de implementación, tomando en cuenta la optimización global en seguridad y coste, se verifican con los experimentos con el fin de encontrar los planes de posicionamiento y reparación optimizados; (b) las validaciones de seguridad se realizan con los métodos de correlación y análisis de tiempo; (c) Una táctica asintótica se aplica a un núcleo AES sobre BCDL estructurado para validar de forma sofisticada el impacto de enrutamiento sobre métricas de seguridad; (d) Los resultados preliminares utilizando el sistema de calefacción auto-adaptativa sobre la variación del proceso son mostrados; (e) Se introduce una aplicación práctica de las herramientas para un diseño de cifrado completa. Capítulo 6 incluye el resumen general del trabajo presentado dentro de esta tesis doctoral. Por último, una breve perspectiva del trabajo futuro se expone, lo que puede ampliar el potencial de utilización de las contribuciones de esta tesis a un alcance más allá de los dominios de la criptografía en FPGAs. ABSTRACT This PhD thesis mainly concentrates on countermeasure techniques related to the Side Channel Attack (SCA), which has been put forward to academic exploitations since 17 years ago. The related research has seen a remarkable growth in the past decades, while the design of solid and efficient protection still curiously remain as an open research topic where more reliable initiatives are required for personal information privacy, enterprise and national data protections. The earliest documented usage of secret code can be traced back to around 1700 B.C., when the hieroglyphs in ancient Egypt are scribed in inscriptions. Information security always gained serious attention from diplomatic or military intelligence transmission. Due to the rapid evolvement of modern communication technique, crypto solution was first incorporated by electronic signal to ensure the confidentiality, integrity, availability, authenticity and non-repudiation of the transmitted contexts over unsecure cable or wireless channels. Restricted to the computation power before computer era, simple encryption tricks were practically sufficient to conceal information. However, algorithmic vulnerabilities can be excavated to restore the encoding rules with affordable efforts. This fact motivated the development of modern cryptography, aiming at guarding information system by complex and advanced algorithms. The appearance of computers has greatly pushed forward the invention of robust cryptographies, which efficiently offers resistance relying on highly strengthened computing capabilities. Likewise, advanced cryptanalysis has greatly driven the computing technologies in turn. Nowadays, the information world has been involved into a crypto world, protecting any fields by pervasive crypto solutions. These approaches are strong because of the optimized mergence between modern mathematical theories and effective hardware practices, being capable of implement crypto theories into various platforms (microprocessor, ASIC, FPGA, etc). Security needs from industries are actually the major driving metrics in electronic design, aiming at promoting the construction of systems with high performance without sacrificing security. Yet a vulnerability in practical implementation found by Prof. Paul Kocher, et al in 1996 implies that modern digital circuits are inherently vulnerable to an unconventional attack approach, which was named as side-channel attack since then from its analysis source. Critical suspicions to theoretically sound modern crypto algorithms surfaced almost immediately after this discovery. To be specifically, digital circuits typically consist of a great number of essential logic elements (as MOS - Metal Oxide Semiconductor), built upon a silicon substrate during the fabrication. Circuit logic is realized relying on the countless switch actions of these cells. This mechanism inevitably results in featured physical emanation that can be properly measured and correlated with internal circuit behaviors. SCAs can be used to reveal the confidential data (e.g. crypto-key), analyze the logic architecture, timing and even inject malicious faults to the circuits that are implemented in hardware system, like FPGA, ASIC, smart Card. Using various comparison solutions between the predicted leakage quantity and the measured leakage, secrets can be reconstructed at much less expense of time and computation. To be precisely, SCA basically encloses a wide range of attack types, typically as the analyses of power consumption or electromagnetic (EM) radiation. Both of them rely on statistical analyses, and hence require a number of samples. The crypto algorithms are not intrinsically fortified with SCA-resistance. Because of the severity, much attention has to be taken into the implementation so as to assemble countermeasures to camouflage the leakages via "side channels". Countermeasures against SCA are evolving along with the development of attack techniques. The physical characteristics requires countermeasures over physical layer, which can be generally classified into intrinsic and extrinsic vectors. Extrinsic countermeasures are executed to confuse the attacker by integrating noise, misalignment to the intra activities. Comparatively, intrinsic countermeasures are built into the algorithm itself, to modify the implementation for minimizing the measurable leakage, or making them not sensitive any more. Hiding and Masking are two typical techniques in this category. Concretely, masking applies to the algorithmic level, to alter the sensitive intermediate values with a mask in reversible ways. Unlike the linear masking, non-linear operations that widely exist in modern cryptographies are difficult to be masked. Approved to be an effective counter solution, hiding method mainly mentions dual-rail logic, which is specially devised for flattening or removing the data-dependent leakage in power or EM signatures. In this thesis, apart from the context describing the attack methodologies, efforts have also been dedicated to logic prototype, to mount extensive security investigations to countermeasures on logic-level. A characteristic of SCA resides on the format of leak sources. Typical side-channel attack concerns the power based analysis, where the fundamental capacitance from MOS transistors and other parasitic capacitances are the essential leak sources. Hence, a robust SCA-resistant logic must eliminate or mitigate the leakages from these micro units, such as basic logic gates, I/O ports and routings. The vendor provided EDA tools manipulate the logic from a higher behavioral-level, rather than the lower gate-level where side-channel leakage is generated. So, the classical implementations barely satisfy these needs and inevitably stunt the prototype. In this case, a customized and flexible design scheme is appealing to be devised. This thesis profiles an innovative logic style to counter SCA, which mainly addresses three major aspects: I. The proposed logic is based on the hiding strategy over gate-level dual-rail style to dynamically overbalance side-channel leakage from lower circuit layer; II. This logic exploits architectural features of modern FPGAs, to minimize the implementation expenses; III. It is supported by a set of assistant custom tools, incorporated by the generic FPGA design flow, to have circuit manipulations in an automatic manner. The automatic design toolkit supports the proposed dual-rail logic, facilitating the practical implementation on Xilinx FPGA families. While the methodologies and the tools are flexible to be expanded to a wide range of applications where rigid and sophisticated gate- or routing- constraints are desired. In this thesis a great effort is done to streamline the implementation workflow of generic dual-rail logic. The feasibility of the proposed solutions is validated by selected and widely used crypto algorithm, for thorough and fair evaluation w.r.t. prior solutions. All the proposals are effectively verified by security experiments. The presented research work attempts to solve the implementation troubles. The essence that will be formalized along this thesis is that a customized execution toolkit for modern FPGA systems is developed to work together with the generic FPGA design flow for creating innovative dual-rail logic. A method in crypto security area is constructed to obtain customization, automation and flexibility in low-level circuit prototype with fine-granularity in intractable routings. Main contributions of the presented work are summarized next: Precharge Absorbed-DPL logic: Using the netlist conversion to reserve free LUT inputs to execute the Precharge and Ex signal in a dual-rail logic style. A row-crossed interleaved placement method with identical routing pairs in dual-rail networks, which helps to increase the resistance against selective EM measurement and mitigate the impacts from process variations. Customized execution and automatic transformation tools for producing identical networks for the proposed dual-rail logic. (a) To detect and repair the conflict nets; (b) To detect and repair the asymmetric nets. (c) To be used in other logics where strict network control is required in Xilinx scenario. Customized correlation analysis testbed for EM and power attacks, including the platform construction, measurement method and attack analysis. A timing analysis based method for quantifying the security grades. A methodology of security partitions of complex crypto systems for reducing the protection cost. A proof-of-concept self-adaptive heating system to mitigate electrical impacts over process variations in dynamic dual-rail compensation manner. The thesis chapters are organized as follows: Chapter 1 discusses the side-channel attack fundamentals, which covers from theoretic basics to analysis models, and further to platform setup and attack execution. Chapter 2 centers to SCA-resistant strategies against generic power and EM attacks. In this chapter, a major contribution, a compact and secure dual-rail logic style, will be originally proposed. The logic transformation based on bottom-layer design will be presented. Chapter 3 is scheduled to elaborate the implementation challenges of generic dual-rail styles. A customized design flow to solve the implementation problems will be described along with a self-developed automatic implementation toolkit, for mitigating the design barriers and facilitating the processes. Chapter 4 will originally elaborate the tool specifics and construction details. The implementation case studies and security validations for the proposed logic style, as well as a sophisticated routing verification experiment, will be described in Chapter 5. Finally, a summary of thesis conclusions and perspectives for future work are included in Chapter 5. To better exhibit the thesis contents, each chapter is further described next: Chapter 1 provides the introduction of hardware implementation testbed and side-channel attack fundamentals, and mainly contains: (a) The FPGA generic architecture and device features, particularly of Virtex-5 FPGA; (b) The selected crypto algorithm - a commercially and extensively used Advanced Encryption Standard (AES) module - is detailed; (c) The essentials of Side-Channel methods are profiled. It reveals the correlated dissipation leakage to the internal behaviors, and the method to recover this relationship between the physical fluctuations in side-channel traces and the intra processed data; (d) The setups of the power/EM testing platforms enclosed inside the thesis work are given. The content of this thesis is expanded and deepened from chapter 2, which is divided into several aspects. First, the protection principle of dynamic compensation of the generic dual-rail precharge logic is explained by describing the compensated gate-level elements. Second, the novel DPL is originally proposed by detailing the logic protocol and an implementation case study. Third, a couple of custom workflows are shown next for realizing the rail conversion. Meanwhile, the technical definitions that are about to be manipulated above LUT-level netlist are clarified. A brief discussion about the batched process is given in the final part. Chapter 3 studies the implementation challenges of DPLs in FPGAs. The security level of state-of-the-art SCA-resistant solutions are decreased due to the implementation barriers using conventional EDA tools. In the studied FPGA scenario, problems are discussed from dual-rail format, parasitic impact, technological bias and implementation feasibility. According to these elaborations, two problems arise: How to implement the proposed logic without crippling the security level; and How to manipulate a large number of cells and automate the transformation. The proposed PA-DPL in chapter 2 is legalized with a series of initiatives, from structures to implementation methods. Furthermore, a self-adaptive heating system is depicted and implemented to a dual-core logic, assumed to alternatively adjust local temperature for balancing the negative impacts from silicon technological biases on real-time. Chapter 4 centers to the toolkit system. Built upon a third-party Application Program Interface (API) library, the customized toolkit is able to manipulate the logic elements from post P&R circuit (an unreadable binary version of the xdl one) converted to Xilinx xdl format. The mechanism and rationale of the proposed toolkit are carefully convoyed, covering the routing detection and repairing approaches. The developed toolkit aims to achieve very strictly identical routing networks for dual-rail logic both for separate and interleaved placement. This chapter particularly specifies the technical essentials to support the implementations in Xilinx devices and the flexibility to be expanded to other applications. Chapter 5 focuses on the implementation of the case studies for validating the security grades of the proposed logic style from the proposed toolkit. Comprehensive implementation techniques are discussed. (a) The placement impacts using the proposed toolkit are discussed. Different execution schemes, considering the global optimization in security and cost, are verified with experiments so as to find the optimized placement and repair schemes; (b) Security validations are realized with correlation, timing methods; (c) A systematic method is applied to a BCDL structured module to validate the routing impact over security metric; (d) The preliminary results using the self-adaptive heating system over process variation is given; (e) A practical implementation of the proposed toolkit to a large design is introduced. Chapter 6 includes the general summary of the complete work presented inside this thesis. Finally, a brief perspective for the future work is drawn which might expand the potential utilization of the thesis contributions to a wider range of implementation domains beyond cryptography on FPGAs.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente comunicación tiene como objetivo analizar las diferentes condiciones que son necesarias para que se produzca el aprendizaje dentro de entornos de trabajo de estructura no convencional. Para ello, utilizamos como ejemplos los Colectivos de arquitectura tan prolíficos en estas últimas décadas. La palabra “Colectivo” está sometida a un fuerte debate ya que su definición acaba siempre siendo difusa... ¿es un colectivo una agrupación de 4 personas? ¿es una cuestión de número, de posicionamiento o de metodología de trabajo?. La Confianza Generalmente las comunidades de aprendizaje están formadas por personas que se comprometen en un proceso de aprendizaje colectivo a través de un entorno que permite la producción de fricciones para compartir el conocimiento. En la teoría para la creación del conocimiento de Nonaka & Konno (1998), se introduce el concepto japonés de “ba” que traducido significa “lugar”, como un espacio compartido donde se produce la gestión del conocimiento. Explica como el conocimiento se adquiere a través de la experiencia de uno mismo y del reflejo que deja la de otros. Para que esto ocurra el “ba” requiere que los individuos eliminen barreras entre unos y otros en una atmosfera que enfatice “cuidado, amor, confianza y compromiso”. A esto Kolb and Kolb (2005) añaden que para mantener este espacio es necesaria una estructura de soporte en la que los miembros puedan confiar, y en el que se comprendan sus diferencias a través de la conversación. La confianza, la comunicación y la afectividad son elementos imprescindibles en una estructura de trabajo en colectivo. Esto da lugar a una falta de protocolos de actuación a la hora de introducir nuevos miembros en el grupo. Las condiciones necesarias para incorporarse en estas estructuras difieren mucho de un colectivo a otro. En algunos casos esta anexión se produce exclusivamente por criterios de índole profesional, en otras ocasiones son vínculos afectivos ligados a la amistad o empatía personal lo que las inducen e incluso hay casos donde el puro azar por necesidades diversas conlleva a la exitosa incorporación de un nuevo miembro. Este punto es uno de los que mejor evidencia la diferencia entre estos espacios de aprendizaje y los espacios de Coworking y Networking, en los cuales aunque se establecen relaciones profesionales, los niveles de sinergias y de aprendizaje son muy inferiores. La identidad Las “Community of practices” (Cop) son consideradas como un tipo de comunidad de aprendizaje (Lave & Wenger, 1991, Wenger, 1998, Wenger et al. 2002) que explica e ilustra los desafíos que estas comunidades presentan. Generalmente, se describen como un grupo de gente conectada por un interés común y que definen sus identidades a través del rol que tienen y de la relación que comparten con la actividad del grupo. En el caso de los colectivos de arquitectura estos conceptos se presenta de formas diferentes. Existen colectivos en los que se desvincula completamente la identidad personal de la identidad grupal, prevaleciendo esta última y configurándose a través de los intereses y objetivos comunes. Sin embargo otros colectivos defienden fuertemente la identidad personal y profesional de cada individuo que lo forma y el interés común se reduce a la necesidad de compartir experiencias y establecer sinergias. Por otro lado, Li et al (2009) muestra como las “Community of practices” (Cop) tienen una falta de consistencia en la interpretación de su concepto que hace difícil el describir, desarrollar y medir su efectividad. En los entornos de colectivos es común describirse a través del "hacer", entendiendo esto no como un hándicap sino como una manera de permanecer abiertos a reinventarse con cada nuevo proyecto. Grupos Abiertos o Cerrados Una comunidad puede existir en el tiempo a pesar de que cambien sus participantes. (Lave & Wenger, 1991, Wenger, 1998, Wenger et al. 2002). La mayoría de los colectivos que conocemos empiezan a trabajar como estructuras abiertas, con un número difuso de integrantes y con grandes diferencias de compromiso entre los miembros. Sin embargo, con el paso de los años y la evolución de la estructura se producen dos situaciones opuestas: 1. Colectivos que se consolidan y se cierran, formados por individuos con una implicación total en la estructura de trabajo y unos objetivos comunes. En estos casos el número de integrantes suele ser reducido o haber disminuido desde su formación y al producirse una especialización de los roles de trabajo entre los diferentes miembros, los entornos de aprendizaje se amplían a la interactuación puntual con personas ajenas al colectivo. Estos aprendizajes están en cierto modo dirigidos y también son más eficaces porque se eligen a priori los agentes externos con los que relacionarse e intercambiar conocimientos, sean estos profesionales de otras disciplinas u otros colectivos. Otra forma de interactuación suele ser a través de talleres o actividades públicas con participación ciudadana. Lo cual produce el acercamiento a otros agentes sociales, abriendo y enriqueciendo la propia disciplina. 2. En el otro extremo están los colectivos que mantienen una estructura abierta en el tiempo, provocando un aumento constante del número de miembros y un amplio abanico de niveles de implicación. En estos casos no existe un objetivo común ni una metodología de trabajo predeterminada sino que se producen asociaciones puntuales y acotadas en el tiempo. De esta manera los niveles de aprendizaje se mantienen elevados dentro del propio colectivo por estar en constante cambio, lo que no implica que también se produzcan las interactuaciones mencionadas anteriormente con otros agentes. Conclusión Los colectivos de arquitectura pueden considerarse comunidades de aprendizaje con diferentes configuraciones y características comunes como la paridad, la confianza y la tendencia a establecer redes con otros grupos. Y muestran como aprendizaje y producción pueden funcionar dentro de una misma entidad. Por otro lado, su nivel de adaptabilidad a los retos reales del entorno externo que les rodea influye en la permanencia o extinción de estas estructuras de trabajo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Las Redes de Procesadores Evolutivos-NEP propuestas en [Mitrana et al., 2001], son un modelo computacional bio-inspirado a partir de la evolución de poblaciones de células, definiendo a nivel sintáctico algunas propiedades biológicas. En este modelo, las células están representadas por medio de palabras que describen secuencias de ADN. Informalmente, en algún instante de tiempo, el sistema evolutivo está representado por una colección de palabras cada una de las cuales representa una célula. El espacio genotipo de las especies, es un conjunto que recoge aquellas palabras que son aceptadas como sobrevivientes (es decir, como \correctas"). Desde el punto de vista de la evolución, las células pertenecen a especies y su comunidad evoluciona de acuerdo a procesos biológicos como la mutación y la división celular. éstos procesos representan el proceso natural de evolución y ponen de manifiesto una característica intrínseca de la naturaleza: el paralelismo. En este modelo, estos procesos son vistos como operaciones sobre palabras. Formalmente, el modelo de las NEP constituyen una arquitectura paralela y distribuida de procesamiento simbólico inspirada en la Máquina de conexión [Hillis, 1981], en el Paradigma de Flujo Lógico [Errico and Jesshope, 1994] y en las Redes de Procesadores Paralelos de Lenguajes (RPPL) [Csuhaj-Varju and Salomaa, 1997]. Al modelo NEP se han ido agregando nuevas y novedosas extensiones hasta el punto que actualmente podemos hablar de una familia de Redes de Procesadores Bio-inspirados (NBP) [Mitrana et al., 2012b]. Un considerable número de trabajos a lo largo de los últimos años han demostrado la potencia computacional de la familia NBP. En general, éstos modelos son computacionalmente completos, universales y eficientes [Manea et al., 2007], [Manea et al., 2010b], [Mitrana and Martín-Vide, 2005]. De acuerdo a lo anterior, se puede afirmar que el modelo NEP ha adquirido hasta el momento un nivel de madurez considerable. Sin embargo, aunque el modelo es de inspiración biológica, sus metas siguen estando motivadas en la Teoría de Lenguajes Formales y las Ciencias de la Computación. En este sentido, los aspectos biológicos han sido abordados desde una perspectiva cualitativa y el acercamiento a la realidad biológica es de forma meramente sintáctica. Para considerar estos aspectos y lograr dicho acercamiento es necesario que el modelo NEP tenga una perspectiva más amplia que incorpore la interacción de aspectos tanto cualitativos como cuantitativos. La contribución de esta Tesis puede considerarse como un paso hacia adelante en una nueva etapa de los NEPs, donde el carácter cuantitativo del modelo es de primordial interés y donde existen posibilidades de un cambio visible en el enfoque de interés del dominio de los problemas a considerar: de las ciencias de la computación hacia la simulación/modelado biológico y viceversa, entre otros. El marco computacional que proponemos en esta Tesis extiende el modelo de las Redes de Procesadores Evolutivos (NEP) y define arquitectura inspirada en la definición de bloques funcionales del proceso de señalización celular para la solución de problemas computacionales complejos y el modelado de fenómenos celulares desde una perspectiva discreta. En particular, se proponen dos extensiones: (1) los Transductores basados en Redes de Procesadores Evolutivos (NEPT), y (2) las Redes Parametrizadas de Procesadores Evolutivos Polarizados (PNPEP). La conservación de las propiedades y el poder computacional tanto de NEPT como de PNPEP se demuestra formalmente. Varias simulaciones de procesos relacionados con la señalización celular son abordadas sintáctica y computacionalmente, con el _n de mostrar la aplicabilidad e idoneidad de estas dos extensiones. ABSTRACT Network of Evolutionary Processors -NEP was proposed in [Mitrana et al., 2001], as a computational model inspired by the evolution of cell populations, which might model some properties of evolving cell communities at the syntactical level. In this model, cells are represented by words which encode their DNA sequences. Informally, at any moment of time, the evolutionary system is described by a collection of words, where each word represents one cell. Cells belong to species and their community evolves according to mutations and division which are defined by operations on words. Only those cells accepted as survivors (correct) are represented by a word in a given set of words, called the genotype space of the species. This feature is analogous with the natural process of evolution. Formally, NEP is based on an architecture for parallel and distributed processing inspired from the Connection Machine [Hillis, 1981], the Flow Logic Paradigm [Errico and Jesshope, 1994] and the Networks of Parallel Language Processors (RPPL) [Csuhaj-Varju and Salomaa, 1997]. Since the date when NEP was proposed, several extensions and variants have appeared engendering a new set of models named Networks of Bio-inspired Processors (NBP) [Mitrana et al., 2012b]. During this time, several works have proved the computational power of NBP. Specifically, their efficiency, universality, and computational completeness have been thoroughly investigated [Manea et al., 2007, Manea et al., 2010b, Mitrana and Martín-Vide, 2005]. Therefore, we can say that the NEP model has reached its maturity. Nevertheless, although the NEP model is biologically inspired, this model is mainly motivated by mathematical and computer science goals. In this context, the biological aspects are only considered from a qualitative and syntactical perspective. In view of this lack, it is important to try to keep the NEP theory as close as possible to the biological reality, extending their perspective incorporating the interplay of qualitative and quantitative aspects. The contribution of this Thesis, can be considered as a starting point in a new era of the NEP model. Then, the quantitative character of the NEP model is mandatory and it can address completely new different types of problems with respect to the classical computational domain (e.g. from the computer science to system biology). Therefore, the computational framework that we propose extends the NEP model and defines an architecture inspired by the functional blocks from cellular signaling in order to solve complex computational problems and cellular phenomena modeled from a discrete perspective. Particularly, we propose two extensions, namely: (1) Transducers based on Network of Evolutionary Processors (NEPT), and (2) Parametrized Network of Polarized Evolutionary Processors (PNPEP). Additionally, we have formally proved that the properties and computational power of NEP is kept in both extensions. Several simulations about processes related with cellular signaling both syntactical and computationally have been considered to show the model suitability.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Se presentan en este artículo dos reportajes y una reflexión que, de alguna forma concilian, desde la Arquitectura, ciencia y humanismo y demuestran que es posible conseguir la imprescindible armonía entre las edificaciones industriales y la misión que desempeñan sin necesidad de recurrir a un funcionalismo estéril que, causando la desintegración del entorno, perdiese toda su vigencia en el mismo plazo en el que la alta tecnología que alberga quedara desfasada.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dipoli es un edificio plurifuncional localizado en el campus de Otaniemi que acoge los servicios generales del alumnado. Tanto encargo como propiedad pertenecía, hasta 2013, a la Asociación de Estudiantes de Helsinki University of Technology TKK (actualmente conocida como Aalto University), cuando se vendió y traspasó a la propia universidad. La tesis estudia este proyecto (1961-66) como uno de los ejemplos más significativos de la obra de los arquitectos Reima (1923-93)y Raili Pietilä (1926-), quienes se unieron tanto personal como profesionalmente el mismo año de la convocatoria del concurso (1961). Debido a la dificultad del encargo por la dimensión y flexibilidad de los espacios requeridos, el primer premio quedó desierto puesto que ninguna propuesta cumplía con todos los requisitos establecidos. El jurado otorgó el segundo premio a su proyecto junto con Osmo Lappo y solicitó posteriormente a ambos un desarrollo más profundo del mismo. Finalmente optaron por construir el edificio planteado por los Pietilä. En él debía desarrollarse un amplio abanico de actividades sociales como reuniones, entretenimiento nocturno, actuaciones, proyecciones de películas, cenas y bailes, así como servir de comedor durante los meses de invierno y espacio destinado a congresos en la época estival. Además, en dicho edificio se pretendía acoger el Sindicato de Estudiantes de la Universidad Tecnológica de Helsinki y se localizaría en el nuevo campus de Otaniemi a escasos kilómetros de la capital, donde Alvar Aalto ya estaba diseñando varios equipamientos universitarios siguiendo el planeamiento general que proyectó en el concurso de 1949. El elemento más característico de este proyecto es la cubierta, una estructura continua formada a partir de un caparazón hueco de hormigón in situ capaz de absorber dos lenguajes diferentes y generar, bajo ella, un espacio singular con multitud de posibilidades funcionales. Su geometría permite dividir el programa en estancias de menor tamaño sin perder ni la identidad ni unidad formal. La manera en que se iluminan los espacios bajo ella se consigue de formas diferentes: si bien la volumetría de líneas cartesianas presenta un sistema de aperturas longitudinales por donde penetra la luz cenital, en la forma más libre aparecen un conjunto de lucernarios de diferente tamaños y posiciones aparentemente aleatorias que introducen la luz natural por el plano del techo de forma más controlada, apoyada por la disposición de las ventanas perimetrales. El juego de espesores de la cubierta ofrece un conjunto de matices que pretenden resolver los tres condicionantes principales del proyecto, la adecuación de los usos en su interior, la compatibilidad de circulaciones de los usuarios y la inserción en el lugar. La percepción de este plano horizontal atraviesa lecturas múltiples, desde su uso primario de cubrición y cuya distancia con el plano del suelo se comprime para tensionar la grieta de luz al tiempo que ofrece nuevas relaciones con el paisaje hasta convertirse en fachada al apoyarse en el suelo y crear un límite físico entre interior y exterior. El objetivo fundamental de la tesis es entender mejor la traza particular de Dipoli desde una visión rigurosa que amplíe el conocimiento del edificio y al mismo tiempo explique el espacio propuesto a través de las diferentes herramientas de proyecto. Para ello se ha elaborado una documentación de la obra que parte de recopilar, seleccionar y redibujar la información existente desde el estado previo a la construcción del objeto terminado. El sentido de volver al Centro de Estudiantes de Otaniemi, supone, además de ayudar a comprender el trabajo de sus autores, entender el proceso de la historia de la arquitectura finlandesa y detectar relaciones con otras obras más lejanas con las que pudiese compartir ciertos valores, facilitando un entendimiento más global de la historia. Esta investigación se inicia desde la hipótesis que la forma final del edificio y su relación con el lugar, para proponer un tipo de arquitectura que confía en la observación sensible del programa, del uso, de las escalas de los espacios, del movimiento de las personas y su relación y anclaje con el lugar. Y en este sentido, el trabajo se desarrolla guiado por estos aspectos que se manifiestan también desde la influencia y comprensión de otros trabajos propios y ajenos. Para detectar las claves de proyecto que les han permitido la construcción espacial y formal de su arquitectura, entendiendo éstas como el conjunto de herramientas y mecanismos que reflexionan sobre una particular composición volumétrica y espacios dinámicos que ofrecen un aspecto exterior expresivo, la tesis se articula sobre dos capítulos principales “Contextos” y “Proyecto y Construcción” donde se quiere estudiar el proyecto en su forma más completa. Esta pareja de apartados aborda la descripción del marco temporal, físico, cultural, personal y profesional de los arquitectos, el análisis y síntesis de la propuesta y, por último, la repercusión del proyecto. Contextos pretende ubicar la obra además de facilitar la comprensión del conjunto de aspectos y condicionantes que determinaron la materialización de Dipoli. Este capítulo se subdivide a su vez en cinco apartados: Contexto Histórico, Físico y Cultural, Personal, Profesional e Incidencia de Dipoli. El Contexto histórico se centra en la descripción pormenorizada del conjunto de situaciones que influyen en el arquitecto cuando se toman decisiones durante el proceso de proyectar. El objetivo es definir los condicionantes que pueden haber afectado directa o indirectamente la obra. El capítulo comienza subrayando los temas de interés comunes para el resto de sus homólogos finlandeses. Principalmente se centra en la década de 1950 como etapa previa a la gestación de Dipoli. También atiende el proceso de evolución de la arquitectura finlandesa desde finales del S.XIX unido a la crisis de identidad nacional que el maestro Alvar Aalto superará por sus obras pero también por su personalidad y supondrá una gran sombra al resto de sus compañeros en el marco nacional e internacional provocando una reacción contraria a sus proyectos y persona entre el resto de arquitectos. Por este motivo, al tiempo que se gestaba el proyecto de Dipoli emergieron un grupo de profesionales que defendían fuertemente las trazas cartesianas del racionalismo como Aulis Blomstedt o Juhani Pallasmaa y que consiguieron abrir una nueva perspectiva intelectual. Por tanto será inevitable que la presencia del maestro nórdico Alvar Aalto aparezca a lo largo de toda la tesis, permitiéndonos un mejor entendimiento de la carga orgánica y humana de sus trabajos desde la perspectiva de los Pietilä. Posteriormente este capítulo desgrana aquellos intereses que dominaban el marco arquitectónico internacional y que pudieron influir en las soluciones planteadas. Dipoli será puesto en relación a diversas arquitecturas contemporáneas que presentan un enfoque diferente al esbozado por el Movimiento Moderno y cuyo marco de referencias guarda algún tipo de relación con los mismos temas de proyecto. Es el caso del grupo Team 10 o determinados ejemplos de arquitectos alemanes como Hugo Häring y Hans Scharoun, incluso puntos en común con el sistema constructivista del vanguardismo soviético. Estas relaciones con otras arquitecturas matizan su carácter singular e incluso se revisa en qué medida esta propuesta amplifica los aspectos que comparten. En cuanto al Contexto físico y cultural, una primera aproximación al ámbito donde el edificio se sitúa nos revela las características generales de un lugar claramente diferente a la ubicación del resto de edificios del campus. A continuación se adentra en el origen del nuevo centro universitario desde el planeamiento urbanístico de Alvar Aalto y revela tanto la forma de disponer las construcciones como las propuestas que el maestro había desarrollado con anterioridad a la convocatoria del concurso. Además aquí se destacan aquellos aspectos que propiciaron la elección del solar. Prosigue adentrándose en el programa propuesto por el jurado –entre cuyos miembros se encontraba el propio Aalto- y el análisis de las propuestas presentadas por cada uno de los arquitectos que obtuvieron una mención. Por último, se estudian y definen las obras más relevantes localizadas en el entorno físico del proyecto y que existían con anterioridad, destacando principalmente el trabajo de los Siren (Heikki y Kaija) y Alvar Aalto por los motivos desarrollados en el punto anterior. Prosigue con el Contexto Personal donde se seleccionan de datos biográficos que expliquen, en parte, las circunstancias personales que perfilaron su manera de entender la arquitectura y que consecuentemente influyeron en su camino intelectual hasta llegar a Dipoli. A continuación se indaga en la relación profesional y personal con Raili Paatelainen para establecer en qué medida participaron ambos en la propuesta. Este apartado concluye con el estudio de la etapa docente que profundiza en los temas de proyecto que Pietilä presentaba a los alumnos en sus clases de proyectos. En el proceso de comprensión de la evolución teórica y proyectual de los arquitectos se considera imprescindible la revisión de otros edificios propios que se enmarcan en el Contexto profesional. Éstos forman parte de la etapa de mayor actividad del estudio como son el Pabellón de Finlandia para la Exposición de Bruselas (1956-58), la Iglesia de Kaleva en Tampere (1959-66) y el Pabellón Nórdico para la Bienal de Venecia de 1960. Se completa la visión de estos tres ejemplos previos a Dipoli desde las investigaciones teóricas que realizó de forma paralela y que se difundieron a través de varias exposiciones. Nos centraremos en aquellas tres que fueron más relevantes en la madurez del arquitecto (Morfología y Urbanismo, La Zona y Estudios Modulares) para establecer relaciones entre unos aspectos y otros. En esta sección no se pretende realizar un análisis en profundidad, ni tampoco recoger la mayor parte de la obra de los Pietilä, sino más bien revelar los rasgos más significativos que faciliten el entendimiento de los valores anteriormente mencionados. Por último, Incidencia de Dipoli se refiere a la repercusión del edificio durante su construcción y finalización. Desde esta premisa, recoge el conjunto de críticas publicadas en las revistas de mayor difusión internacional que decidieron mostrar la propuesta además desde el propio interés del proyecto, por tratarse de un arquitecto reconocido internacionalmente gracias a la repercusión que obtuvieron sus proyectos anteriores. Se analiza el contenido de los artículos para establecer diversos encuentros con el capítulo Contextos y con los propios escritos de Pietilä. También se recogen las opiniones de críticos relevantes como Kenneth Frampton, Bruno Zevi o Christian Norberg-Schulz, destacando aquellos aspectos por los que mostraron un interés mayor. También se recoge y valora la opinión de sus homólogos finlandeses y que contradictoriamente se sitúa en el polo opuesto a la del juicio internacional. Se adentra en las situaciones complejas que propició el rechazo del edificio al desvincularse por completo de la corriente racionalista que dominaba el pensamiento crítico finés unido a la búsqueda de nuevas alternativas proyectuales que les distanciase del éxito del maestro Alvar Aalto. Pretende esclarecer tanto la justificación de dichos comentarios negativos como los motivos por los cuales Reima y Raili no obtuvieron encargos durante casi diez años, tras la finalización de Dipoli. Nos referiremos también a la propia opinión de los arquitectos. Para ello, en el apartado Morfología Literal se recoge el texto que Reima Pietilä publicó en el número 9 de la revista Arkkitehti para contrarrestar las numerosas críticas recibidas. Se subraya aquellos aspectos de proyecto que inciden directamente en la percepción y razón de ser de la propuesta. Por último, se manifiesta la valoración crítica de dos personas muy próximas al entorno personal y profesional de los Pietilä: Roger Connah y Malcolm Quantrill. Ambas figuras son las que han adentrado en el trabajo de los arquitectos con mayor profundidad y aportado una visión más completa del contexto arquitectónico de Finlandia en el s.XX. Se han interesado principalmente por el conocimiento morfológico que les ha llevado a la observación de los fenómenos de la naturaleza. Se apunta también la falta de objetividad de sus opiniones originadas en parte por haber colaborado profesionalmente y ser amigo íntimo de la familia respectivamente. El valor de la documentación aportada por ambos reside principalmente en la fiel transmisión de las explicaciones del propio Pietilä. El último capítulo Proyecto y Construcción engloba tanto la descripción exhaustiva del proyecto como el análisis de la obra. Al tiempo que se explica la propuesta, se establecen continuamente relaciones y paralelismos con otras arquitecturas que ayudan a entenderla. Para ello, se establecen tres apartados elementales: “El lugar”, “Programa y geometrías” y “Presencia y materialidad física” y se pretende identificar aquellas herramientas de proyecto en las que confía para la materialización de la obra al tiempo que se profundiza en la evolución de la propuesta. En cuanto a El lugar, se describe de manera pormenorizada el recorrido hasta alcanzar el edificio y cómo la mirada atenta de la naturaleza que lo rodea está continuamente presente en todos los dibujos de la propuesta. Se realiza un estudio tanto de la multiplicidad de accesos como del vacío existente en planta baja que forma parte del espacio público y que atraviesa el edificio diagonalmente. Desde aquí se evaluará los espacios intermedios existentes que matizan los ámbitos donde se desarrolla cada una de las actividades. A continuación se enfoca el estudio de la ventana como elemento relevante en la transición de espacios interiores y exteriores para posteriormente adentrarnos en la importancia de los recorridos en la planta superior y cómo las salas polivalentes se acomodan a estos. Programas y geometrías explica la solución y desarrollo de la propuesta a través de los tanteos de la planta. Detecta simultáneamente aquellos aspectos que aparecen en otros proyectos y que pueden haber influido en el desarrollo de la obra. Una vez que han sido estudiados los dos niveles se introduce la sección para analizar las conexiones entre ambos planos, destacando los tipos de escaleras y accesos que propician la multiplicidad de recorridos y en consecuencia el movimiento de las personas. En el último apartado se identifica la geometría de la estructura a través de la descripción formal de la cubierta y sus apoyos en planta para conocer cómo responde el volumen definitivo a la adecuación de los usos. El carácter del edificio a través del empleo de los materiales y las técnicas de construcción utilizadas se indaga desde la Materialidad física. Este punto de vista esclarece temas de proyecto como la relación multisensorial de Dipoli y el concepto del tiempo relacionado con espacios de carácter dinámico o estático. Una vez se ha realizado un análisis de la obra construida a través de sus recorridos, se plantea un último regreso al exterior para observar la presencia del edificio a través de su tamaño, color y texturas. Este apartado nos mostrará la mirada atenta a la escala del proyecto como vector de dirección que pretende encontrar la inserción adecuada del edificio en el lugar, cerrando el proceso de proyecto. El motivo de desarrollar esta tesis en torno a Dipoli se apoya en su consideración como paradigma de una arquitectura que confía en la observación sensible del programa, uso, las escalas de los espacios, circulaciones y su relación y anclaje con el lugar como argumentos fundamentales de proyecto, cuya realidad concreta consigue situar la propuesta en el marco histórico de la arquitectura nórdica e internacional. Además la distancia histórica desde mundo actual respecto a la década de los años 60 del s.XX nos permite entender el contexto cultural donde se inserta Dipoli que continúa nuestra historia reciente de la arquitectura y concibe la obra construida como una extensión de nuestro mundo contemporáneo. Por ello se valora el proyecto desde la mirada hacia atrás que analiza las diferencias entre la realidad construida y las intenciones de partida. Esta revisión dotada de una distancia crítica nos permite adentrarnos en la investigación de manera objetiva. Igualmente presenta una distancia histórica (referida al tiempo transcurrido desde su construcción) y socio-cultural que favorece la atenuación de prejuicios y aspectos morales que puedan desviar una mirada analítica y se alejen de una valoración imparcial. Dipoli, enmarcada en dicho periodo, mantiene la capacidad crítica para ser analizada. ABSTRACT The dissertation defends Dipoli ( 1961-1966 ) as one of the most significant examples of the Reima ( 1923-1993 ) Raili Pietilä (1926 -), who joined both personally and professionally the same year of the project´s competition (1961). Due to the difficulty of the commission by the size and flexibility of the required areas, there was not first prize awarded because none of the submitted proposals met all the requirements. The jury awarded Dipoli with second prize together with a competing scheme by Osmo Lappo. The board subsequently asked for a further development of both proposals and finally selected the one by Pietilä. The completed project allows a wide range of social activities such as meetings, night entertainment, performances, film screenings, dinners and dance to take place while the facility can also serve as a dining hall during winter months and conference center in the summer when necessary. In addition, the building was intended to house the Helsinki University of Technology (now Aalto University) Student Union. The University, at the time being designed by Alvar Aalto following his successful entry to the master plan competition in 1949, was located a few kilometers from the capital on the new campus in Otaniemi. The most characteristic element of the project is its roof which can be described as a continuous form achieved an in-situ concrete cavity structure that can modulate two different geometric languages and generate a singular space under it. The building is, in general terms, an unique shell space with many functional possibilities. Its geometry allows the program to split its functions into smaller sizes without losing the identity or formal unity of the general object. The way in which the spaces are illuminated is solved in two different ways. First, while the Cartesian-line volume presents a series of longitudinal openings into which natural light penetrates, the free-form volume shows a set of skylights in apparently random positions that vary in size and that introduce natural light through the roof in a more controlled manner. In addition the perimeter openings are present that relate directly to the nature that surrounds the building. The adaptable thickness of the roof provides a set of solutions that resolve the three main issues of the project: the adequacy of the functions in the interior areas, the complex capability for user flows and circulation and the manner in which the building is inserted in its context. The perception of the roof´ horizontal plane offers multiple interpretations, from its primary use as a primitive cover whose distance from the ground compresses the void and creates a light tension, to the new relationships with the landscape where by the roof becomes a façade cladding and rests directly on the ground to create a physical boundary between interior and exterior. The main scope of this research is to better understand the particular trace of Dipoli from a rigorous architectural view to deep into the knowledge of the building and, at the same time, to explain the space through a series of project design tools that have been used. For this reason, an accurate documentation has arisen from collecting, selecting and redrawing the existing information from the sketching stage to the built object. A through reanalysis of the Otaniemi Student Center therefore provides not only a more complete understanding of the work of the architects, but also leads to a better comprehension of the history of Finnish architecture, which is related to other cultural relationships and which shares certain architectural values which a more comprehensive understanding of general architectural history. This research starts from the working hypothesis that the final shape of the building and its relationship to its place created a type of architecture that relies on a sensitive observation of the program, the use of varying scales of space, the movement and flow of people and finally the coexistence with the natural context. In this sense, the work is developed based on those aspects that are also reflected in the influence of others architects by understanding both their own and other architects´ work. In order to obtain a personal reading of the project facts that allowed the architects construct Dipoli (understanding the facts as a set of tools and project mechanisms that are able to generate a particular volumetric composition and dynamic spaces that at the same time provide an expressive exterior), the research hinges on two main sections, "Contexts" and "Design and Construction", that study the project from all perspectives. This two parts address the description of temporal , physical , cultural , personal and professional framework, analysis and synthesis of the proposal and finally, the national and international influences on the project. Contexts seek to place the work and to facilitate the understanding of all aspects and conditions that led to the creation of Dipoli. This chapter is subdivided into five sections: Historical Context, Cultural and Physical, Personal, Professional and Dipoli Influences. Historical Context focuses on a detailed description of a set of precedents that influenced the architect when making decisions during design process. The objective is to define the conditions that could directly or indirectly shape the work. This chapter begins by highlighting issues of common interest to the rest its Finnish counterparts. The text is mainly focused on the 1950s as a prelude to Dipoli´s conception. It will also address the process of Finnish architecture from the late nineteenth century as linked to the national identity crisis that the great master Alvar Aalto overcame with both his works and personality, being a great drain on the rest of his colleagues. This aspect caused a reaction against Aalto and his projects. For this reason, at the time that Dipoli came into being a number of professionals who strongly defended the traces of Cartesian Rationalism, including Juhani Pallasmaa and Aulis Blomstedt emerged and brought a new intellectual perspective to the Finnish architecture scene. It is thus inevitable that the presence of Alvar Aalto will be apparent throughout the dissertation to allow a better understanding of the organizational and human character of their work from the Pietiläs´ perspective. Later, this chapter identifies those interests that dominated the international architectural framework that could have influenced Dipoli. The project will be placed in relation to various contemporary architectural works that were created using a different approach to that outlined by the Modern Movement. This is present in the case of Team 10 group and with specific examples of German architects including Hans Scharoun and Hugo Häring, as well as some commonalities with Soviet Constructivism. These relationships with other architecture qualify its singular character and even extend how this proposal amplifies those shared aspects. Physical and Cultural Context involves the unique site where the building is located which includes different features from the location of other buildings on the campus. IT then progresses into the origin of the new campus from the urban planning of Alvar Aalto and reveals both the setting and proposed constructions that Aalto had developed. This section also highlights the aspects that led to the choice of the site. I go deep into the program proposed by the jury (of whom Aalto was a member) and the analysis of the alternative proposals that received a special commendation. Finally, I study and define the most relevant works located near Dipoli, emphasizing primarily the work of the Sirens (Heikki and Kaija) and Alvar Aalto for the reasons developed in the previous section. I then proceed with the Personal Context, where a series of biographical data are selected to begin to explain the personal circumstances that outlined the Pietilas´ architectural understanding and consequently could have influenced their intellectual approach to design Dipoli. Then the text explores their professional and personal relationship to establish what extent they participated in the proposal. This section concludes with the study of the Reima Pietilä´s teaching period at Oulu that explores the issues he presented to his students there. In the process of understanding the Pietiläs´ theoretical and design evolution, it must be considered essential to study other buildings that are part of their professional context. These projects belong to the most active stage of their office and include the Finnish Pavilion for the World´s Fair in Brussels (1956-1958), Kaleva Church in Tampere (1959-1966) and the Nordic Pavilion at the 1960 Venice Biennale. We will complete the view of Dipoli from previous theoretical investigations performed in parallel that were spread through several exhibitions. We will focus on the three that were most relevant to the evolution of the architect (Morphology and Urbanism, the Zone, and Stick Studies) to establish a series of useful relationships. This section is not intended to be an in-depth analysis nor to collect most of the work of the Pietiläs´; but rather to reveal the most significant features that facilitate an understanding of the above values. Finally, Dipoli´s Impact refers to the influence of the building from many points of view during its construction and after its completion. It collects the reviews published in the world's most relevant magazines which had decided to show the alternate proposals, generally conceived of by internationally-renowned architects. I analyze the content of the articles in order to establish a series of parallels with the chapter Contexts and own writings Pietilä to clarify if main design directions were clear at that time. The views of relevant critics, including Kenneth Frampton, Bruno Zevi and Christian Norberg -Schulz, are also collected here. This episode also collects and assesses the views of these critics´ Finnish counterparts that generally stood at the opposite side of the international debate. It delves into the complex situation that led to the rejection of the building by the rationalists that dominated the Finnish critical thinking while searching for new alternatives to distance themselves from the Alvar Aalto´s success. It aims to clarify both the justification for these negative comments and the reasons why Reima and Raili not obtain a single commission for nearly ten years after the completion of Dipoli. From the critics we will approach the opinion of Reima Pietilä himself. To do this, in the Literal Morphology section we will see how the architect tried to defend his position. Those design tool that directly affected the perception of the proposal are provided through the figures of Roger Connah and Malcolm Quantrill. Finally, a critical –personal and professional- review of these two very close figures will take place. Despite knowing that both delved into the work of architects with greater depth and provided a complete view of the Finnish architectural context in 20th century, they have focused mainly morphological knowledge which has led to the observation of natural phenomena. It also notes the lack of objectivity in their views caused in part by, in the case of Connah, collaborating professionally and in that of Quantrill being a close friend of the Pietilä family. The value of the documentation provided by both resides mainly in the faithful transmission of the Pietiläs´ own explanations. The final chapter covers both Design and Construction and provides a comprehensive project description in order tofaithfully analyse the work. As the proposal is being explained, relationships of its built form are continuously linked to other architectural projects to gain a better understanding of Dipoli itself. To do this we have set three basic sections: "The Place", "Geometries & Function" and "Presence and Materiality. Construction process" that intended to identify those project tools for the realization of the work while deepens the proposal´s evolution. The Place describes how to approach and reach the building in detail and how the view out towards the surrounding natural setting is continuously shown in the proposal´s drawings. We will study both the multiplicity of entrances as well as the corridor downstairs as part of the public space that diagonally goes through the building. Then, the existing voids in the concrete cave for public activities will be evaluated. Lastly, the study will focus on the openings as a significant element in the transition from interior and exterior areas to describe the importance of the circulation on the second floor and how function is able to accommodate through the areas of void. Geometries & Function explains the final solution and the development of the proposal through the floor plan. Simultaneously it detects those aspects that appear in other projects and that may have influenced the development of the work. Once we have analyzed both levels –ground and second floor- section drawings come into the topic to study the connections between the two levels and highlighting the types of hierarchy for the multiple paths to organize the flows of people inside the building. In the last section the structural geometry is identified through the description of the form and how it responds to the final volumetrical settings. The character of the building through the use of materials and construction techniques inquires from Presence and Materiality. This point of view clarifies multisensory project issues as Dipoli relationship to the dynamic or static character or different spaces inside the building. Once the analysis has been made we will step back to a final return to the building´s exterior to analyze the presence of the building through its scale, colour and textures. This section emphasizes the project´s scale and orientation to find the proper insertion of the building in place. In short, this dissertation has been done by the idea that Pietiläs´special abilities were allowed from a sensitive observation of the program, the creation of a variety of special scales, dynamic circulation and the relating relationship with the project´s location as fundamental design tools. From this aspect, Dipoli could be more usefully framed in the historical context of Nordic and international architecture. The dissertation allows us to better understand the cultural context of the 1960s, in which Dipoli was established since it continues our recent architectural history. The final built form is conceived as an extension of our contemporary world. Therefore the project is assessed through the comparison of the architects´ intentions and the final completed project.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este proyecto surge por la problemática ocasionada por elevadas cantidades de ruido ambiental producido por aviones en sus operaciones cotidianas como despegue, aterrizaje o estacionamiento, que afecta a zonas pobladas cercanas a recintos aeroportuarios. Una solución para medir y evaluar los niveles producidos por el ruido aeronáutico son los sistemas de monitorado de ruido. Gracias a ellos se puede tener un control acústico y mejorar la contaminación ambiental en las poblaciones que limitan con los aeropuertos. El objetivo principal será la elaboración de un prototipo de sistema de monitorado de ruido capaz de medir el mismo en tiempo real, así como detectar y evaluar eventos sonoros provocados por aviones. Para ello se cuenta con un material específico: ordenador portátil, tarjeta de sonido externa de dos canales, dos micrófonos y un software de medida diseñado y desarrollado por el autor. Este será el centro de control del sistema. Para su programación se utilizará la plataforma y entorno de desarrollo LabVIEW. La realización de esta memoria se estructurará en tres partes. La primera parte está dedicada al estado del arte, en la que se explicarán algunos de los conceptos teóricos que serán utilizados para la elaboración del proyecto. En la segunda parte se explica la metodología seguida para la realización del sistema de monitorado. En primer lugar se describe el equipo usado, a continuación se expone como se realizó el software de medida así como su arquitectura general y por último se describe la interfaz al usuario. La última parte presenta los experimentos realizados que demuestran el correcto funcionamiento del sistema. ABSTRACT. This project addresses for the problematics caused by high quantities of environmental noise produced by planes in his daily operations as takeoff, landing or parking produced in populated areas nearly to airport enclosures. A solution to measure and to evaluate the levels produced by the aeronautical noise are aircraft noise monitoring systems. Thanks to these systems it is possible to have an acoustic control and improve the acoustic pollution in the populations who border on the airports. The main objective of this project is the production of a noise monitoring systems prototype capable of measuring real time noise, beside detecting and to evaluate sonorous events produced by planes. The specific material used is portable computer,sound external card of two channels, two microphones and a software of measure designed and developed by the author. This one will be the control center of the system. For his programming is used the platform of development LabVIEW. This memory is structured in three parts. The first part is dedicated to the condition of the art, in that will be explained some of the theoretical concepts that will be used for the production of the project. The second phase is to explain the methodology followed for the development of the noise monitoring systems. First a description of the used equipment, the next step, it is exposed how was realized the software of measure and his general architecture and finally is described the software user interface. The last part presents the realized experiments that demonstrate the correct use of the system.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El término inglés serendipity hace referencia al hallazgo de algo interesante, por casualidad, o a la habilidad de reconocer un descubrimiento –aunque este no tenga exactamente relación con lo que se está buscando. Durante los últimos cuatro años, Pneumatic Serendipity ha buscado de manera intencionada la coincidencia, el accidente, que permita establecer nuevas relaciones a través de la construcción de prototipos. A lo largo de diferentes talleres y seminarios, se han ido proponiendo experimentos que lleven a los estudiantes a reflexionar sobre la forma, estructura y construcción en el proyecto arquitectónico. Experimentos planificados por los tutores de los talleres –y que forman parte de una investigación más extensa–, pero espontáneos en la exploración y análisis por parte de los alumnos. Todos esos son aspectos que no solo resultan especialmente indisociables en las estructuras neumáticas sino que, a través de ellos, se llega a poner en cuestión la idea misma de habitar y percibir la arquitectura. La vuelta a las cuestiones que animaron el debate de la Arquitectura Radical de los años 60 y 70, en el momento de máxima apertura a esa clase de experimentaciones, ha sido fundamental para formar una conciencia común sobre las propuestas desarrolladas. Con ello se ha animado a la discusión y anclaje de los proyectos a temas de aquel contexto, reinterpretados en la lógica de la época del digital y de la comunidad 2.0 –la tecnología en relación al espesor o la ligereza, las revueltas sociales, la arquitectura-protesta y la arquitectura pop-up, la crisis energética y la energía en el proyecto de arquitectura.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Advierte del peligro del cambio de uso previsto.Da a conocer el recinto, sus arquitecturas modernas, los autores y su relación con los hitos de la cornisa histórica. Muestra dibujos de la Tesis Doctoral.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El trabajo del arquitecto francés Léon Jaussely (1875-1932) apenas es conocido en España excepto por su propuesta para el Plan de Enlaces de Barcelona. Por otra parte, incluso en Francia, su labor de urbanista continua siendo relativamente desconocida, respecto a la de otros contemporáneos, como Tony Garnier o Alfred Agache, de la que se ha denominado Escuela Francesa de Urbanismo. Este olvido puede estar vinculado a la dispersión de su obra y a que algunos de los documentos más significativos de sus planes (memorias y planos de ordenación) no hayan llegado hasta nosotros. Sin embargo, la documentación conservada y su obra escrita (artículos y los cursos de Art urbain que impartió en l?École des Hautes Études Urbaines y l?École des Beaux-Arts), permiten reconstruir el pensamiento de Jaussely y también la evolución de su modo de intervenir en la ciudad, ambos estrechamente vinculados a las transformaciones disciplinares de las primeras décadas del siglo XX.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesis propone el concepto y diseño de una arquitectura cognitiva para representación de conocimiento profesional especializado en clases de dominios relacionados con el mundo físico. Constituye una extensión de los trabajos de B.Chandrasekaran, potenciando el concepto de arquitectura basada en tareas genéricas propuesta por dicho autor. En base a la arquitectura propuesta, se ha desarrollado un entorno como herramienta de construcción de sistemas expertos de segunda generación, así como un lenguaje para programación cognitiva (DECON)- Dicho entorno, programado en lenguaje C sobre UNIX, ha sido utilizado para el desarrollo de un sistema para predicción de avenidas en la Cuenca Hidrográfica del Jucar, en el marco del proyecto SAIH. Primeramente, la tesis plantea el problema de la modelización del comportamiento de los sistemas físicos, reflejando las limitaciones de las formas clásicas de representación del conocimiento para abordar dicho problema, así como los principales enfoques más recientes basados en el concepto de arquitectura cognitiva y en las técnicas de simulación cualitativa. Se realiza después una síntesis de la arquitectura propuesta, a nivel del conocimiento, para detallar posteriormente su desarrollo a nivel simbólico y de implementación, así como el método general para la construcción de modelos sobre la arquitectura. Se muestra también un resumen de los principales aspectos del desarrollo de software. Finalmente, en forma de anejos, se presenta un caso de estudio, el sistema SIRAH (Sistema Inteligente de Razonamiento Hidrológico), junto con la gramática formal del lenguaje de soporte para la definición de modelos.---ABSTRACT---The thesis proposes the concept and design of a cognitive architecture for professional knowledge representation, specialized in domain classes related to the physical world. It is an extensión of the Chandrasekaran's work, improving the concept of Generic Task based architecture introduced by this author. Based on the proposed architecture, an environment has been developed, as a case of second generation building expert systems tool, as well as a language for cognitive programming (DECON). The environment, programmed in C lenguage on UNIX operating system, has been used to develop a system for flood prediction in the Jucar watershed, inside of the SAIH project. Firstly, the behavior modeling problem of physical systems is discussed, showing the limitations of the classical representations to tackle it, beside the most recent approaches based on cognitive architecture concepts and qualitative simulation technique. An overview of the architecture at the knowledge level is then made, being followed by its symbolic and implementation level description, as well as a general guideline for building models on top of the architecture. The main aspects of software development are also introduced. Finaly, as annexes, a case of study -the SIRAH system (Sistema Inteligente de RAzonamiento Hidrológico)- is introduced, along with the formal grammar of the support language for model definition.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Un sistema de monitorización personal está pensado para mantener un control constante de ciertos parámetros vitales, de forma que se pueda realizar un registro de los mismos o generar algún tipo de alarma si se salen fuera de sus parámetros habituales o alcanzan cotas de riesgo. En este aspecto, se convierten en una opción cada vez más atractiva cuanto menos invasivos son, de forma que el objetivo es conseguir un sistema que monitorice al paciente sin entorpecer sus acciones cotidianas. Por este motivo, los dispositivos wearables son una buena opción. Un reloj, un colgante o una pulsera son elementos que llevan muchas personas, y por tanto, susceptibles de incorporar un procesador y algunos sensores que realicen las medidas. En este Trabajo de Fin de Grado se pretende realizar un prototipo sencillo de un sistema de monitorización personal que ilustre el funcionamiento de una red de área personal (WBAN) a partir de una plataforma de desarrollo preexistente. La plataforma en cuestión es el eZ430-Chronos de Texas Instruments, un System on Chip que incorpora sensores de aceleración, temperatura y presión. El System on Chip se encapsula en la forma de un reloj de pulsera. Además, se dispone de una banda, fabricada por BM innovations, que permite medir el ritmo cardíaco. En primer lugar se hará un análisis del sistema disponible, por un lado de la arquitectura hardware y firmware del dispositivo, y por otro lado de la arquitectura del software del cliente para PC. El firmware disponible en un principio permite únicamente la captura y registro de algunos parámetros del entorno, así como de las pulsaciones. Adicionalmente, el eZ430-Chronos dispone de un cliente para PC que le permite descargar los datos almacenados en la memoria flash al PC, así como configurar ciertos valores. En una segunda fase, se modificará el firmware para convertirlo en un sistema de monitorización personal, en el que se le retira al usuario la capacidad de control sobre la ejecución y se automatizan los procesos de adquisición y descarga de datos. Además, se creará una aplicación para PC que tenga la misma funcionalidad que el software original, aparte de incluir algunas características adicionales.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El cambio estilístico fundamental en danza se produce mayoritariamente por una evolución de la concepción del espacio, así como de la percepción del mismo. La concepción espacial del coreógrafo y sus ideas estéticas, se traducen en un tipo u otro de creación. Ante esta hipótesis, planteamos una investigación que defina las concepciones clásica y contemporánea del diseño espacial coreográfico y valore el modo en que los elementos coreográficos espaciales, tienden a uno y otro estilo. El procedimiento que seguimos para nuestra investigación contiene dos partes. La primera es un profundo estudio cualitativo y reflexivo del papel que juega el espacio en la danza desde el punto de vista del coreógrafo fundamentalmente,entrando en la piel del intérprete y el espectador cuando esto aporta contenido relevante. Basándonos en el análisis de lo escrito acerca de este elemento coreográfico desde los años 50 y la aportación de la experiencia y evaluación personal al respecto, elaboramos un estudio del espacio y la repercusión estilística que su concepción conlleva. La segunda parte se trata de diseñar, validar y aplicar, un sistema de análisis que nos permita estudiar el diseño espacial de una obra en particular, con la intención de poder recoger las ideas presentes en la obra coreográfica y con ello definir la tendencia estilística del creador. Tras la revisión de los datos obtenidos en la aplicación del sistema, procedimos a realizar los ajustes pertinentes para poder concluir que aplicando este sistema de análisis metodológico original, se puede evaluar el diseño espacial de una obra. Nos vemos en disposición de afirmar que nuestra herramienta de análisis es válida para hacer una valoración de la estructura espacial de diferentes composiciones coreográficas. En definitiva, hemos aunado el conocimiento teórico del tema con la parte vivencial que otorga realizar la carrera de danza en el Conservatorio, para intentar dar un paso, aunque humilde hacia delante, en el mundo de la danza.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Eero Saarinem

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La perspectiva del arquitecto en los aspectos de calidad ambiental, y salud en un contexto sostenible, se amplía al considerar las radiaciones como elemento a tener en cuenta en el diseño arquitectónico. En ese sentido, además del confort higrotérmico y de la calidad del aire, se puede considerar la calidad electromagnética del espacio en relación a la salud de las personas. En este trabajo, se experimenta sobre la influencia del campo geomagnético en relación con diversos materiales de construcción, para ello se toman datos con un geomagnetómetro. Se observa que los materiales de construcción por sus propiedades magnéticas tienen la capacidad de modificar en mayor o menor medida el campo geomagnético natural sobre el cual se desarrolla la vida. Se concluye que la consideración de la relación entre la magnitud del campo geomagnético y los materiales de construcción puede formar parte del criterio de elección de materiales para una arquitectura saludable y sostenible.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Relación de diversas hipótesis sobre las proporciones del Partenón