940 resultados para Instalación


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente investigación se inicia planteando el objetivo de identificar los parámetros geométricos que son exclusivos del proceso de generación de la Forma y relacionarlos con los invariantes relacionados con la Fabricación digital aplicada a la Arquitectura. Con ello se pretende recuperar la geometría como herramienta principal del proceso de Proyecto ampliando su ámbito de actuación al encontrar una relación con los procesos de fabricación digital. El primer capítulo describe los antecedentes y contexto histórico centrándose especialmente en la influencia de la capacidad de definir geometrías complejas digitalmente mediante la aplicación de algoritmos. En los primeros ejemplos la aproximación del Arquitecto a proyectos con geometrías complejas no euclídeas aún se emplea sin precisión en la comunicación de la geometría ideada para su puesta en obra. Las técnicas constructivas obligan a asumir una tolerancia de desviación entre proyecto y obra y la previsión del comportamiento de esa geometría no permite asegurar su comportamiento final. No será hasta la introducción de herramientas CAD en el proceso de ideación arquitectónica cuando el Arquitecto se capacite para generar geometrías no representables de forma analógica. Sin embargo, la imposibilidad de trasladar la geometría proyectada a la praxis constructiva impedirá la plasmación de un proceso completo, salvo en las contadas ocasiones que se recogen en este texto. “El análisis cronológico de las referencias establece como aspecto esencial para la construcción de geometrías complejas la capacidad primero para definir y comunicar de forma precisa e inequívoca la geometría y después la capacidad de analizar el desempeño prestacional de dicha propuesta geométrica”. La presente investigación se inicia planteando el objetivo de identificar los parámetros geométricos que son exclusivos del proceso de generación de la Forma y relacionarlos con los invariantes relacionados con la Fabricación digital aplicada a la Arquitectura. Con ello se pretende recuperar la geometría como herramienta principal del proceso de Proyecto ampliando su ámbito de actuación al encontrar una relación con los procesos de fabricación digital. El primer capítulo describe los antecedentes y contexto histórico centrándose especialmente en la influencia de la capacidad de definir geometrías complejas digitalmente mediante la aplicación de algoritmos. En los primeros ejemplos la aproximación del Arquitecto a proyectos con geometrías complejas no euclídeas aún se emplea sin precisión en la comunicación de la geometría ideada para su puesta en obra. Las técnicas constructivas obligan a asumir una tolerancia de desviación entre proyecto y obra y la previsión del comportamiento de esa geometría no permite asegurar su comportamiento final. No será hasta la introducción de herramientas CAD en el proceso de ideación arquitectónica cuando el Arquitecto se capacite para generar geometrías no representables de forma analógica. Sin embargo, la imposibilidad de trasladar la geometría proyectada a la praxis constructiva impedirá la plasmación de un proceso completo, salvo en las contadas ocasiones que se recogen en este texto. “El análisis cronológico de las referencias establece como aspecto esencial para la construcción de geometrías complejas la capacidad primero para definir y comunicar de forma precisa e inequívoca la geometría y después la capacidad de analizar el desempeño prestacional de dicha propuesta geométrica”. Establecida la primera conclusión, el capítulo de contexto histórico continúa enfocándose sobre la aplicación de las técnicas digitales en el Proceso de proyecto primero, y en la puesta en obra después. Los casos de estudio identifican claramente como un punto de inflexión para la generación de formas complejas mediante un software CAD el Museo Guggenheim de Bilbao en 1992. El motivo esencial para elegir este proyecto como el primer proyecto digital es el uso de la herramienta de definición digital de la geometría para su reproducción inequívoca en obra. “La revolución digital ha aportado al Arquitecto la posibilidad de abandonar las tipologías arquitectónicas basados en restricciones geométricas-constructivas. La aplicación de técnicas de fabricación digital ha permitido la capacidad de diseñar con independencia del sistema constructivo y libertad formal. En este nuevo contexto las prestaciones suponen los nuevos límites conceptuales, ya que el acceso y disposición de la información del comportamiento de las alternativas que cada geometría conlleva demanda del Arquitecto la jerarquización de los objetivos y la formulación en un conjunto coherente de parámetros”. Los proyectos que emplean herramientas digitales para la resolución de las distintas etapas del proceso proyectual se verán incrementados de forma exponencial desde 1992 hasta nuestros días. A pesar del importante auge de las técnicas de diseño asistido por ordenador el principal desafío sigue siendo la vinculación de las geometrías y materiales propuestos con las capacidades de las técnicas de manufactura y puesta en obra. El proceso de diseño para fabricación en un entorno digital es una tecnología madura en otras industrias como la aeroespacial o la automovilística, incluso la de productos de consumo y decoración, sin embargo en el sector de Construcción es un sistema inmaduro e inconexo. Las particularidades de la industria de la construcción aún no han sido abordadas en su totalidad y las propuestas de investigación realizadas en este ámbito se han centrado hasta 2015 en partes del proceso y no en el proceso total. “El principal obstáculo para la estandarización e implantación globalizada de un proceso digital desde el origen de la forma hasta la construcción es la inexistencia de un protocolo integrado que integre las limitaciones de fabricación, económicas y de puesta en obra junto a la evaluación de desempeño prestacional durante la fases iniciales de proyecto”. En el capítulo número 3 se estudian los distintos procesos de generación de la forma. Se propone una definición específica para el ámbito de la investigación de “forma” en el entendemos que se incluye la envolvente exterior y el conjunto organizativo de espacios interiores conectados. Por lo tanto no es excluyente del interior. El objetivo de este estudio es analizar y clasificar los procesos para la generación digital de formas en los distintos proyectos seleccionados como emblemáticos de cada tipología. Se concluye que la aproximación a este proceso es muy variada y compleja, con aplicación segregada y descoordinada entre los distintos agentes que han intervenir. En un proceso de generación formal analógico los parámetros que intervienen son en parte conscientes y en parte inconscientes o aprendidos. El Arquitecto sólo tiene control sobre la parte consciente de los parámetros a integrar en el diseño, de acuerdo a sus conocimientos y capacidades será capaz de manejar un número limitado de parámetros. La parte aprendida permanece en el inconsciente y dirige el proceso analógico, aportando prejuicios estéticos incorporados durante el proceso formativo y propio del entorno cultural. “El empleo de herramientas digitales basadas en la evaluación prestacional durante el proceso de selección formal permite al Arquitecto conocer “en tiempo real” el desempeño en el conjunto de prestaciones evaluadoras del conjunto de alternativas geométricas a la propuesta previamente definida por la intuición arquitectónica. El proceso definido no persigue identificar una solución óptima sino asistir al Arquitecto en el proceso de generación de la forma mediante la evaluación continua de los vectores direccionales más idóneos que el procedimiento generativo plantea”. La definición de complejidad en generación y producción de formas en relación con el proceso de diseño digital paramétrico global o integrado, es esencial para establecer un protocolo que optimice su gestión. “Se propone como definición de complejidad como factor resultante de multiplicar el número de agentes intervinientes por el número de parámetros e interacciones comunes que intervienen en el proceso de generación de la forma, dividido por la complejidad de intercambio de información digital desde el origen hasta la fase de fabricación y construcción”. Una vez analizados los procesos de generación digital de Arquitectura se propone identificar los parámetros geométricos que definen el proceso de Diseño digital, entendiendose por Diseño el proceso que engloba desde la proposición de una forma inicial basada en la intuición del Arquitecto, la generación y evaluación de variantes y posterior definición digital para producción, tanto de un objeto, un sistema o de la totalidad del Proyecto. En la actualidad el proceso de Diseño es discontinuo y lineal organizandose los parámetros por disciplinas en las que está estructurada las atribuciones profesionales en la industria de la construcción. Para simplificar la identificación y listado se han agrupado siguiendo estos grupos de conocimiento. Entendemos parametros invariables aquellos que son independientes de Tipologías arquitectónicas o que dependen del mismo proceso de generación de la Forma. “El listado de los parámetros que intervienen en un proceso de generación formal es una abstracción de una realidad compleja. La parametrización de las decisiones que intervienen en la selección de una forma determinada mediante “well defined problems” es imposible. El proceso que esta tesis describe entiende esta condición como un elemento que pone en valor el propio procedimiento generativo por la riqueza que la subjetividad que el equipo de diseño aporta”. La segunda parte esencial de esta investigación pretende extraer las restricciones propias del estado del arte de la fabricación digital para posteriormente incorporarlos en los procesos digitales de definición de la Forma arquitectónica. “La integración de las restricciones derivadas de las técnicas de fabricación y construcción digitales en el proceso de generación de formas desde el ámbito de la Arquitectura debe referirse a los condicionantes geométricos asociados a cada sistema constructivo, material y técnica de fabricación. La geometría es además el vínculo que permite asociar el conjunto de parámetros prestacionales seleccionados para un Proyecto con los sistemas de fabricación digital”. A estos condicionantes geométricos obtenidos del análisis de cada sistema de fabricación digital se les ha denominado “invariantes geométricos”. Bajo este término se engloban tanto límites dimensionales de fabricación, como materiales compatibles, tolerancias de manufactura e instalación y cualidades prestacionales asociadas. El objetivo de esta propuesta es emplear la geometría, herramienta fundamental y propia del Arquitecto, como nexo de unión entre el conjunto complejo y heterogéneo de parámetros previamente listados y analizados. Para ello se han simplificado en tablas específicas para cada parámetro prestacional los condicionantes geométricos que se derivan de los Sistemas de fabricación digital compatibles (ver apéndice 1). El estudio y evaluación de las capacidades y objetivos de las distintas plataformas de software disponibles y de las experiencias profesionales evaluadas en los proyectos presentados, permiten concluir que la propuesta de plataforma digital de diseño integral multi-paramétrico de formas arquitectónicas requiere de un protocolo de interoperatibilidad específico aún no universalmente establecido. Actualmente el enfoque de la estrategia para normalizar y universalizar el contexto normativo para regular la interoperatibilidad se centra en figura del gestor denominado “BIM manager”. Las atribuciones y roles de esta figura se enfocan a la gestión del continente y no del contenido (Definición de los formatos de intercambio, niveles de desarrollo (LOD) de los componentes o conjuntos constructivos, detección de interferencias y documentación del propio modelo). Siendo este ámbito un desarrollo necesario para la propuesta de universalización del sistema de diseño para fabricación digital integrado, la presente investigación aporta un organigrama y protocolo asociado. El protocolo: 1. Establece la responsabilidad de identificar y definir la Información que debe determinar el proceso de generación y desarrollo de la forma arquitectónica. 2. Define la forma digital apropiada para generar la geometría del Proyecto, incluyendo la precisión necesaria para cada componente y el nivel de detalle necesario para su exportación inequívoca al proceso de fabricación. 3. Define el tempo de cada etapa de diseño identificando un nivel de detalle acorde. 4. Acopla este organigrama dentro de las estructuras nuevas que se proponen en un entorno BIM para asegurar que no se producen solapes o vacíos con las atribuciones que se identifican para el BIM Manager. “El Arquitecto debe dirigir el protocolo de generación coordinada con los sistemas de producción digital para conseguir que la integración completa. El protocolo debe asistir al proceso de generación de forma mediante la evaluación del desempeño prestacional de cada variante en tiempo real. La comunicación entre herramientas digitales es esencial para permitir una ágil transmisión de información. Es necesario establecer un protocolo adaptado a los objetivos y las necesidades operativas de cada proyecto ya que la estandarización de un protocolo único no es posible”. Una decisión estratégica a la hora de planificar una plataforma de diseño digital común es establecer si vamos a optar por un Modelo digital único o diversos Modelos digitales federados. Cada uno de los modos de trabajo tiene fortalezas y debilidades, no obstante en el ámbito de investigación se ha concluido que un proceso integrado de Diseño que incorpore la evaluación prestacional y conceptual definida en el Capítulo 3, requiere necesariamente de varios modelos de software distintos que han de relacionarse entre sí mediante un protocolo de comunicación automatizado. Una plataforma basada en un modelo federado consiste en establecer un protocolo de comunicación entre los programas informáticos empleados por cada disciplina. En este modelo de operación cada equipo de diseño debe establecer las bases de comunicación en función del número y tipo de programas y procesos digitales a emplear. En esta investigación se propone un protocolo basado en los estándares de intercambio de información que estructura cualquier proceso de generación de forma paramétrico “La investigación establece el empleo de algoritmos evolutivos como el sistema actual óptimo para desarrollar un proceso de generación de formas basadas en la integración y coordinación de invariantes geométricos derivados de un conjunto de objetivos prestacionales y constructivos. No obstante, para la aplicación en el caso práctico realizado se ha podido verificar que la evaluación del desempeño aún no puede realizarse en una única herramienta y por lo tanto el proceso de selección de las variantes genéticas óptimas ha de ejecutarse de forma manual y acumulativa. El proceso debe realizarse de manera federada para la selección evolutiva de los invariantes geométricos dimensionales”. La evaluación del protocolo de integración y los condicionantes geométricos obtenidos como parámetros geométricos que controlan las posibles formas compatibles se realiza mediante su aplicación en un caso práctico. El ejercicio simula la colaboración multidisciplinar con modelos federados de plataformas distintas. La elección del tamaño y complejidad constructiva del proyecto se ha modulado para poder alcanzar un desarrollo completo de cada uno de los parámetros prestacionales seleccionados. Continuando con el mismo objetivo propuesto para los parámetros prestacionales, la tipología constructiva-estructural seleccionada para el ejercicio permite la aplicación la totalidad de invariantes geométricos asociados. El objetivo de este caso práctico es evaluar la capacidad alterar la forma inicialmente propuesta mediante la evaluación del desempeño prestacional de conjunto de variantes geométricas generadas a partir de un parámetro dimensional determinado. Para que este proceso tenga sentido, cada una de las variantes debe ser previamente validada conforme a las limitaciones geométricas propias de cada sistema de fabricación y montaje previstos. El interés de las conclusiones obtenidas es la identificación de una variante geométrica distante a la solución simétrica inicialmente como la solución óptima para el conjunto de parámetros seleccionados. Al tiempo se ha comprobado como la participación de un conjunto de parámetros multi-disciplinares que representan la realidad compleja de los objetivos arquitectónicos favorecen la aparición de variaciones genéticas con prestaciones mejoradas a la intuición inicial. “La herencias tipológicas suponen un límite para la imaginación de variantes formales al proceso de ideación arquitectónica. El ejercicio realizado demuestra que incluso en casos donde aparentemente la solución óptima aparenta ser obvia una variante aleatoria puede mejorar su desempeño global. La posibilidad de conocer las condiciones geométricas de las técnicas de fabricación digital compatibles con el conjunto de parámetros seleccionados por el Arquitecto para dirigir el proceso asegura que los resultados del algoritmo evolutivo empleado sean constructivamente viables. La mejora de imaginación humana con la aportación de geometrías realmente construibles supone el objetivo último de esta tesis”. ABSTRACT Architectural form generation process is shifting from analogical to digital. Digital technology has changed the way we design empowering Architects and Engineers to precisely define any complex geometry envisioned. At the same time, the construction industry, following aeronautical and automotive industries, is implementing digital manufacturing techniques to improve efficiency and quality. Consequently construction complexity will no longer be related to geometry complexity and it is associated to coordination with digital manufacturing capacities. Unfortunately it is agreed that non-standard geometries, even when proposed with performance optimization criteria, are only suitable for projects with non-restricted budgets. Furthemore, the lack of coordinated exportation protocol and geometry management between design and construction is avoiding the globalization of emergence process in built projects Present research first objective is to identify exclusive form-generation parameters related to digital manufacturing geometrical restraints. The intention was to use geometry as the form-generation tool and integrate the digital manufacturing capacities at first stages of the project. The first chapter of this text describes the investigation historical context focusing on the influence between accurate geometry definition at non-standard forms and its construction. At first examples of non-Euclidean geometries built the communication between design and construction were based on analogical partial and imprecise documentation. Deficient communication leads to geometry adaptation on site leaving the final form uncontrolled by the Architect. Computer Aided Design enable Architects to define univocally complex geometries that previously where impossible to communicate. “The univocally definition of the Form, and communication between design and construction is essential for complex geometry Projects”. The second chapter is focused on digital technologies application in form finding process and site construction. The case studies selected identifies a clear inflexion node at 1992 with the Guggenheim Museum in Bilbao. The singularity of this project was the use of Aeronautics software to define digitally the external envelope complex geometry to enable the contractor to build it. “The digital revolution has given the Architect the capacity to design buildings beyond the architectural archetypes driven by geometric-constructive limitations. The application of digital manufacturing techniques has enabled a free-form construction without geometrical limitations. In this new context performance shall be the responsible to set new conceptual boundaries, since the behavior of each possible geometry can be compare and analyze beforehand. The role of the Architect is to prioritize the performance and architectural objectives of each project in a complete and coherent set of parameters”. Projects using digital tools for solving various stages of the design process were increased exponentially since 1992 until today. Despite the significant rise of the techniques of computer-aided design the main challenge remains linking geometries and materials proposed at each design with the capabilities of digital manufacturing techniques. Design for manufacturing in a digital environment is a mature technology in other industries such as aerospace and automotive, including consumer products and decoration, but in the construction sector is an immature and disjointed system. The peculiarities of the construction industry have not yet been addressed in its entirety and research proposals made in this area until 2015 have focused in separate parts of the process and not the total process. “The main obstacle to global standardization and implementation of a complete digital process from the form-finding to construction site is the lack of an integrated protocol that integrates manufacturing, economic and commissioning limitations, together with the performance evaluation of each possible form”. The different form generation processes are studied at chapter number 3. At the introduction of this chapter there is a specific definition of "form" for the research field. Form is identified with the outer envelope geometry, including the organizational set of connected indoor spaces connected to it. Therefore it is not exclusive of the interior. The aim of this study is to analyze and classify the main digital form generation processes using different selected projects as emblematic of each type. The approach to this process is complex, with segregated and uncoordinated different actors have to intervene application. In an analogical form-generation process parameters involved are partly conscious and partly unconscious or learned. The architect has control only over limited part of the parameters to be integrated into the design, according to their knowledge and. There is also a learned aesthetical prejudice that leads the form generation process to a specific geometry leaving the performance and optimization criteria apart from the decision making process. “Using performance evaluation digital tools during form finding process provides real-time comparative information to the Architect enabling geometry selection based on its performance. The generative form generation process described at this document does not ambition to identify the optimum geometry for each set of parameters. The objective is to provide quick information at each generation of what direction is most favorable for the performance parameters selected”. Manufacturing complexity definition in relation to a global and integral process of digital design for manufacture is essential for establishing an efficient managing protocol. “The definition of complexity associated to design for production in Architecture is proposed as the factor between number of different agents involved in the process by the number of interactions required between them, divided by the percentage of the interchange of information that is standardized and proof of information loss”. Design in architecture is a multi-objective process by definition. Therefore, addressing generation process linked to a set of non-coherent parameters requires the selection of adequate generative algorithm and the interaction of the architect. During the second half of the twentieth century and early twenty-first century it have been developed various mathematical algorithms for multi-parametric digital design. Heuristic algorithms are the most adequate algorithms for architectural projects due to its nature. The advantage of such algorithms is the ability to efficiently handle large scale optimization cases where a large number of design objectives and variables are involved. These generative processes do not pursue the optimum solution, in fact it will be impossible to proof with such algorithm. This is not a problem in architectural design where the final goal is to guide the form finding process towards a better performance within the initial direction provided by the architect. This research has focused on genetic algorithms due to its capacity to generate geometric alternatives in multiple directions and evaluate the fitness against a set of parameters specified in a single process. "Any protocol seeks to achieve standardization. The design to manufacturing protocol aims to provide a coordinated and coherent form generation process between a set of design parameters and the geometrical requirements of manufacturing technique. The protocol also provides an information exchange environment where there is a communication path and the level of information is ensured. The research is focused on the process because it is considered that each project will have its own singularities and parameters but the process will stay the same. Again the development of a specific tool is not a goal for the research, the intention is to provide an open source protocol that is valid for any set of tools”. Once the digital generation processes are being analized and classified, the next step is to identify the geometric parameters that define the digital design process. The definition of design process is including from the initial shape proposal based on the intuition of the architect to the generation, evaluation, selection and production of alternatives, both of an object , system or of the entire project . The current design process in Architecture is discontinuous and linear, dividing the process in disciplines in which the construction industry is structured. The proposal is to unify all relevant parameters in one process. The parameters are listed in groups of knowledge for internal classification but the matrix used for parameter relationship determination are combined. “A multi-parameter determination of the form-finding process is the integration all the measurable decisions laying behind Architect intuition. It is not possible to formulate and solve with an algorithm the design in Architecture. It is not the intention to do so with the proposal of this research. The process aims to integrate in one open protocol a selection of parameters by using geometry as common language. There is no optimum solution for any step of the process, the outcome is an evaluation of performance of all the form variations to assist the Architect for the selection of the preferable solution for the project”. The research follows with the geometrical restrictions of today Digital manufacturing techniques. Once determined it has been integrated in the form-finding process. “Digital manufacturing techniques are integrated in the form-finding process using geometry as common language. Geometric restraints define the boundary for performance parametric form-finding process. Geometrical limitations are classified by material and constructive system”. Choose between one digital model or several federate models is a strategic decision at planning a digital design for manufacturing protocol. Each one of the working models have strengths and weakens, nevertheless for the research purposes federated models are required to manage the different performance evaluation software platforms. A protocol based on federated models shall establish a communication process between software platforms and consultants. The manager shall integrate each discipline requirements defining the communication basis. The proposed protocol is based on standards on information exchange with singularities of the digital manufacturing industry. “The research concludes evolutionary algorithms as current best system to develop a generative form finding process based on the integration and coordination of a set of performance and constructive objectives. However, for application in professional practice and standardize it, the performance evaluation cannot be done in only one tool and therefore the selection of optimal genetic variants must be run in several iterations with a cumulative result. Consequently, the evaluation process within the geometrical restraints shall be carried out with federated models coordinated following the information exchange protocol”. The integration protocol and geometric constraints evaluation is done by applying in a practical case study. The exercise simulates multidisciplinary collaboration across software platforms with federated models. The choice of size and construction complexity of the project has been modulated to achieve the full development of each of the parameters selected. Continuing with the same objective proposed for the performance parameters the constructive and structural type selected for the exercise allows the application all geometric invariants associated to the set of parameters selected. The main goal of the case study is to proof the capacity of the manufacturing integrated form finding process to generate geometric alternatives to initial form with performance improved and following the restrictions determined by the compatible digital manufacturing technologies. The process is to be divided in consecutive analysis each one limited by the geometrical conditions and integrated in a overall evaluation. The interest of this process is the result of a non-intuitive form that performs better than a double symmetrical form. The second conclusion is that one parameter evaluation alone will not justify the exploration of complex geometry variations, but when there is a set of parameters with multidisciplinary approach then the less obvious solution emerge as the better performing form. “Architectural typologies impose limitation for Architects capacity to imagine formal variations. The case study and the research conclusions proof that even in situations where the intuitive solution apparently is the optimum solution, random variations can perform better when integrating all parameters evaluation. The capacity of foreseing the geometrical properties linking each design parameter with compatible manufacturing technologies ensure the result of the form-finding process to be constructively viable. Finally, the propose of a complete process where the geometry alternatives are generated beyond the Architect intuition and performance evaluated by a set of parameters previously selected and coordinated with the manufacturing requirements is the final objective of the Thesis”.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El desarrollo de las redes IP ha marcado un creciente interés por unificar todas las comunicaciones sobre una misma infraestructura aprovechando así el cableado existente. Con esta idea nació la tecnología conocida como VoIP (Voice Over Internet Protocol) que consiste en la trasmisión de la voz sobre paquetes IP. El objetivo principal de este proyecto es el diseño e implementación de una infraestructura de voz sobre IP que utilice una red de datos existente. La primera parte del proyecto estará formada por un estudio detallado de los factores que influyen en esta tecnología: codecs, protocolos y otros factores a tener en cuenta. Tras esta parte, aprovechando la experiencia adquirida durante casi tres años en una empresa integradora de servicios, se realizará un caso de estudio en el que, bajo las premisas impuestas por un supuesto cliente, se diseñará una solución que cumpla todos los requisitos y aporte un valor añadido sobre el sistema de telefonía que posee el cliente. El diseño de la mejor solución se hará utilizando productos del fabricante Cisco Systems y, además del coste económico, se valorarán los esfuerzos personales que costará montar dicha solución, incluyendo un valor añadido como es el dotar de buzón de voz y mensajería a todos los usuarios. La última parte del caso de estudio consistirá en la implementación de la infraestructura anteriormente diseñada adquiriendo conocimientos sobre virtualización de servidores utilizando productos de la compañía VMWare (especialista en virtualización), instalación y parametrización de aplicativos de Cisco y, finalmente, la interconexión con la red pública a través de gateways para poder hacer llamadas al exterior. El proyecto finalizará con la presentación de unas conclusiones finales y la exposición de unas líneas futuras de trabajo. ABSTRACT. The IP network development has marked a growing interest in unifying all communications over the same infrastructure taking advantage of the existing wiring. From this idea, a technology was born known as VoIP (Voice Over Internet Protocol) which consists of the transmission of voice packets over the IP network. The main goal of this project is the design and implementation of a VoIP infrastructure for transmitting voice packets over the existing wired network infrastructure on the client. The first part of the project will consist of a detailed study of the factors influencing this technology: codecs, protocols, and other factors to consider. After this part, drawing on the experience gained during nearly three years in an integrated services company, a case study will be made under the premises imposed for a supposed client. A solution that serves all the requirements will be designed and provide an added value on the customer’s telephone system. The design of the best solution will be done using Cisco Systems products and besides the economic cost of the whole solution, the personal effort cost will be valued. The added value named before will be provided with two important applications such as voice mail and instant messaging for all users. The last part of the case study will consist in the implementation of an infrastructure designed to acquire knowledge about virtualization, using VMWare company products (specialist in virtualization), installation and configuration of applications from Cisco Systems and finally the interconnection with the public network through gateway routers in order to make external calls. The project will end with the presentation of final conclusions and exposing future working lines.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El cambio climático y sus efectos requieren con urgencia el desarrollo de estrategias capaces no solo de mitigar pero también permitir la adaptación de los sistemas afectados por este fenómeno a los cambios que están provocando a nivel mundial. Olas de calor más largas y frecuentes, inundaciones, y graves sequías aumentan la vulnerabilidad de la población, especialmente en asentamientos urbanos. Este fenómeno y sus soluciones potenciales han sido ampliamente estudiados en las últimas décadas desde diferentes perspectivas y escalas que analizan desde el fenómeno regional de isla de calor al aumento de la intensidad energética necesaria en los edificios para mantener las condiciones de confort en los escenarios de calentamiento que se predicen. Su comprensión requiere el entendimiento de este fenómeno y un profundo análisis de las estrategias que pueden corregirlo y adaptarse a él. En la búsqueda de soluciones a este problema, las estrategias que incorporan sistemas naturales tales como las cubiertas ajardinadas, las fachadas vegetadas y bosques urbanos, se presentan como opciones de diseño capaces de proporcionan múltiples servicios al ecosistema urbano y de regular y hacer frente a los efectos del cambio climático. Entre los servicios que aportan estos sistemas naturales se incluyen la gestión de agua de tormentas, el control del efecto isla de calor, la mejora de la calidad del aire y del agua, el aumento de la diversidad, y como consecuencia de todo lo anterior, la reducción de la huella ecológica de las ciudades. En la última década, se han desarrollado múltiples estudios para evaluar y cuantificar los servicios al ecosistema proporcionados por las infraestructuras verdes, y específicamente las cubiertas ajardinadas, sin embargo, determinados servicios como la capacidad de la regulación del microclima urbano no ha sido apenas estudiados. La mayor parte de la literatura en este campo la componen estudios relacionados con la capacidad de las cubiertas ajardinadas de reducir el efecto de la isla de calor, en una escala local, o acerca de la reducción de la demanda energética de refrigeración debida a la instalación de cubiertas ajardinadas en la escala de edificio. La escala intermedia entre estos dos ámbitos, la calle, desde su ámbito habitable cercano al suelo hasta el límite superior del cañón urbano que configura, no han sido objeto detallado de estudio por lo que es esta escala el objeto de esta tesis doctoral. Esta investigación tiene como objeto contribuir en este campo y aportar un mayor entendimiento a través de la cuantificación del impacto de las cubiertas ajardinadas sobre la temperatura y humedad en el cañón urbano en la escala de calle y con un especial foco en el nivel peatonal. El primer paso de esta investigación ha sido la definición del objeto de estudio a través del análisis y revisión de trabajos tanto teóricos como empíricos que investigan los efectos de cubiertas ajardinadas en el entorno construido, entendidas como una herramienta para la adaptación y mitigación del impacto del cambio climático en las ciudades. La literatura analizada, revela el gran potencial de los sistemas vegetales como herramientas para el diseño pasivo puesto que no solo son capaces de mejorar las condiciones climáticas y microclimaticas en las ciudades reduciendo su demanda energética, sino también la necesidad de mayor análisis en la escala de calle donde confluyen el clima, las superficies urbanas y materiales y vegetación. Este análisis requiere una metodología donde se integren la respuesta térmica de edificios, las variaciones en los patrones de viento y radiación, y la interacción con la vegetación, por lo que un análisis cuantitativo puede ayudar a definir las estrategias más efectivas para lograr espacios urbanos más habitables. En este contexto, el objetivo principal de esta investigación ha sido la evaluación cuantitativa del impacto de la cubierta ajardinada en el microclima urbano a escala de barrio en condiciones de verano en los climas mediterráneos continentales. Para el logro de este objetivo, se ha seguido un proceso que persigue identificar los modelos y herramientas de cálculo capaces de capturar el efecto de la cubierta ajardinada sobre el microclima, identificar los parámetros que potencian o limitan este efecto, y cuantificar las variaciones que microclima creado en el cañón urbano produce en el consumo de energía de los edificios que rodean éste espacio. La hipótesis principal detrás de esta investigación y donde los objetivos anteriores se basan es el siguiente: "una cubierta ajardinada instalada en edificios de mediana altura favorece el establecimiento de microclimas a nivel peatonal y reduce las temperaturas en el entorno urbano donde se encuentra”. Con el fin de verificar la hipótesis anterior y alcanzar los objetivos propuestos se ha seguido la siguiente metodología: • definición del alcance y limitaciones del análisis • Selección de las herramientas y modelos de análisis • análisis teórico de los parámetros que afectan el efecto de las cubiertas ajardinadas • análisis experimental; • modelización energética • conclusiones y futuras líneas de trabajo Dada la complejidad de los fenómenos que intervienen en la generación de unas determinadas condiciones microclimáticas, se ha limitado el objeto de este estudio a las variables de temperatura y humedad, y sólo se han tenido en cuenta los componentes bióticos y abióticos del sistema, que incluyen la morfología, características superficiales del entorno estudiado, así como los elementos vegetales. Los componentes antrópicos no se han incluido en este análisis. La búsqueda de herramientas adecuadas para cumplir con los objetivos de este análisis ha concluido en la selección de ENVI-met v4 como el software más adecuado para esta investigación por su capacidad para representar los complejos fenómenos que caracterizan el microclima en cañones urbanos, en una escala temporal diaria y con unas escala local de vecindario. Esta herramienta supera el desafío que plantean los requisitos informáticos de un cálculo completo basado en elementos finitos realizados a través de herramientas de dinámica de fluidos computacional (CFD) que requieren una capacidad de cálculo computacional y tiempo privativos y en una escala dimensional y temporal limitada a esta capacidad computacional lo que no responde a los objetivos de esta investigación. ENVI-met 4 se basa es un modelo tridimensional del micro clima diseñado para simular las interacciones superficie-planta-aire en entornos urbanos. Basado en las ecuaciones fundamentales del equilibrio que representan, la conservación de masa, energía y momento. ENVI-met es un software predictivo, y como primer paso ha requerido la definición de las condiciones iniciales de contorno que se utilizan como punto de partida por el software para generar su propio perfil de temperatura y humedad diaria basada en la localización de la construcción, geometría, vegetación y las superficies de características físicas del entorno. La geometría de base utilizada para este primer análisis se ha basado en una estructura típica en cuanto al trazado urbano situada en Madrid que se ha simulado con una cubierta tradicional y una cubierta ajardinada en sus edificios. La estructura urbana seleccionada para este análisis comparativo es una red ortogonal con las calles principales orientadas este-oeste. El edificio típico que compone el vecindario se ha definido como “business as usual” (BAU) y se ha definido con una cubierta de baldosa de hormigón estándar, con un albedo 0.3, paredes con albedo 0.2 (construcción de muro de ladrillo típico) y cerramientos adiabáticos para evitar las posibles interferencias causadas por el intercambio térmico con el ambiente interior del edificio en los resultados del análisis. Para el caso de la cubierta ajardinada, se mantiene la misma geometría y características del edificio con excepción de la cobertura superficial de la azotea. Las baldosas de hormigón se han modificado con una cubierta ajardinada extensiva cubierta con plantas xerófilas, típicas en el clima de Madrid y caracterizado por su índice de densidad foliar, el “leaf area density” (LAD), que es la superficie total de superficie de hojas por unidad de volumen (m2/m3). El análisis se centra en los cañones urbanos entendidos como el espacio de calle comprendido entre los límites geométricos de la calle, verticales y horizontales, y el nivel superior de la cota urbana nivel de cubiertas. Los escenarios analizados se basan en la variación de la los principales parámetros que según la literatura analizada condicionan las variaciones microclimáticas en el ámbito urbano afectado por la vegetación, la velocidad del viento y el LAD de la azotea. Los resultados han sido registrados bajo condiciones de exposición solar diferentes. Las simulaciones fueron realizadas por los patrones de viento típico de verano, que para Madrid se caracterizan por vientos de componente suroeste que van desde 3 a 0 m/s. las simulaciones fueron realizadas para unas condiciones climáticas de referencia de 3, 2, 1 y 0 m/s a nivel superior del cañón urbano, como condición de contorno para el análisis. Los resultados calculados a 1,4 metros por encima del nivel del suelo, en el espacio habitado, mostraron que el efecto de la cubierta ajardinada era menor en condiciones de contorno con velocidades de viento más altas aunque en ningún caso el efecto de la cubierta verde sobre la temperatura del aire superó reducciones de temperatura de aire superiores a 1 º C. La humedad relativa no presentó variaciones significativas al comparar los diferentes escenarios. Las simulaciones realizadas para vientos con velocidad baja, entre 0 y 1 m/s mostraron que por debajo de 0.5 m/s la turbulencia del modelo aumentó drásticamente y se convirtió en el modelo inestable e incapaz de producir resultados fiables. Esto es debido al modelo de turbulencia en el software que no es válido para velocidades de viento bajas, lo que limita la capacidad de ENVI-met 4 para realizar simulaciones en estas condiciones de viento y es una de las principales conclusiones de este análisis en cuanto a la herramienta de simulación. También se comprobó el efecto de las densidades de la densidad de hoja (LAD) de los componentes vegetales en el modelo en la capa de aire inmediatamente superior a la cubierta, a 0,5 m sobre este nivel. Se compararon tres alternativas de densidad de hoja con la cubierta de baldosa de hormigón: el techo verde con LAD 0.3 (hierba típica o sedum), LAD 1.5 (plantas mixtas típicas) y LAD 2.5 (masa del árbol). Los resultados mostraron diferencias de temperatura muy relevante entre las diferentes alternativas de LAD analizadas. Los resultados muestran variaciones de temperatura que oscilan entre 3 y 5 º C al comparar el estándar de la azotea concreta con albedo 0, 3 con el techo con vegetación y vegetación densa, mostrando la importancia del LAD en la cuantificación de los efectos de las cubiertas vegetales en microclima circundante, lo que coincide con los datos reportados en la literatura existente y con los estudios empíricos analizados. Los resultados de los análisis teóricos han llegado a las siguientes conclusiones iniciales relacionadas con la herramienta de simulación y los resultados del modelo: En relación con la herramienta ENVI-met, se han observado limitaciones para el análisis. En primer lugar, la estructura rígida de la geometría, las bases de datos y el tamaño de la cuadrícula, limitan la escala y resolución de los análisis no permitiendo el desarrollo de grandes zonas urbanas. Por otro lado la estructura de ENVI-met permite el desarrollo de este tipo de simulación tan complejo dentro de tiempos razonables de cálculo y requerimientos computacionales convencionales. Otra limitación es el modelo de turbulencia del software, que no modela correctamente velocidades de viento bajas (entre 0 y 1 m/s), por debajo de 0,5 m/s el modelo da errores y no es estable, los resultados a estas velocidades no son fiables porque las turbulencias generadas por el modelo hacen imposible la extracción de patrones claros de viento y temperatura que permitan la comparación entre los escenarios de cubierta de hormigón y ajardinada. Además de las limitaciones anteriores, las bases de datos y parámetros de entrada en la versión pública del software están limitados y la complejidad de generar nuevos sistemas adaptándolos al edificio o modelo urbano que se quiera reproducir no es factible salvo en la versión profesional del software. Aparte de las limitaciones anteriores, los patrones de viento y perfiles de temperatura generados por ENVI-met concuerdan con análisis previos en los que se identificaban patrones de variación de viento y temperaturas en cañones urbanos con patrones de viento, relación de aspecto y dimensiones similares a los analizados en esta investigación. Por lo tanto, el software ha demostrado una buena capacidad para reproducir los patrones de viento en los cañones de la calle y capturar el efecto de enfriamiento producido por la cubierta verde en el cañón. En relación con el modelo, el resultado revela la influencia del viento, la radiación y el LAD en la temperatura del aire en cañones urbanos con relación de aspecto comprendida entre 0,5 y 1. Siendo el efecto de la cubierta verde más notable en cañones urbanos sombreados con relación de aspecto 1 y velocidades de viento en el nivel de “canopy” (por encima de la cubierta) de 1 m/s. En ningún caso las reducciones en la temperatura del aire excedieron 1 º C, y las variaciones en la humedad relativa no excedieron 1% entre los escenarios estudiados. Una vez que se han identificado los parámetros relevantes, que fueron principalmente la velocidad del viento y el LAD, se realizó un análisis experimental para comprobar los resultados obtenidos por el modelo. Para éste propósito se identificó una cubierta ajardinada de grandes dimensiones capaz de representar la escala urbana que es el objeto del estudio. El edificio usado para este fin fue el parking de la terminal 4 del aeropuerto internacional de Madrid. Aunque esto no es un área urbana estándar, la escala y la configuración del espacio alrededor del edificio fueron considerados aceptables para el análisis por su similitud con el contexto urbano objeto de estudio. El edificio tiene 800 x 200 m, y una altura 15 m. Está rodeado de vías de acceso pavimentadas con aceras conformando un cañón urbano limitado por el edificio del parking, la calle y el edificio de la terminal T4. El aparcamiento está cerrado con fachadas que configuran un espacio urbano de tipo cañón, con una relación de aspecto menor que 0,5. Esta geometría presenta patrones de viento y velocidad dentro del cañón que difieren ligeramente de los generados en el estudio teórico y se acercan más a los valores a nivel de canopo sobre la cubierta del edificio, pero que no han afectado a la tendencia general de los resultados obtenidos. El edificio cuenta con la cubierta ajardinada más grande en Europa, 12 Ha cubiertas por con una mezcla de hierbas y sedum y con un valor estimado de LAD de 1,5. Los edificios están rodeados por áreas plantadas en las aceras y árboles de sombra en las fachadas del edificio principal. El efecto de la cubierta ajardinada se evaluó mediante el control de temperaturas y humedad relativa en el cañón en un día típico de verano. La selección del día se hizo teniendo en cuenta las predicciones meteorológicas para que fuesen lo más semejantes a las condiciones óptimas para capturar el efecto de la cubierta vegetal sobre el microclima urbano identificadas en el modelo teórico. El 09 de julio de 2014 fue seleccionado para la campaña de medición porque las predicciones mostraban 1 m/s velocidad del viento y cielos despejados, condiciones muy similares a las condiciones climáticas bajo las que el efecto de la cubierta ajardinada era más notorio en el modelo teórico. Las mediciones se registraron cada hora entre las 9:00 y las 19:00 en 09 de julio de 2014. Temperatura, humedad relativa y velocidad del viento se registraron en 5 niveles diferentes, a 1.5, 4.5, 7.5, 11.5 y 16 m por encima del suelo y a 0,5 m de distancia de la fachada del edificio. Las mediciones fueron tomadas en tres escenarios diferentes, con exposición soleada, exposición la sombra y exposición influenciada por los árboles cercanos y suelo húmedo. Temperatura, humedad relativa y velocidad del viento se registraron con un equipo TESTO 410-2 con una resolución de 0,1 ºC para temperatura, 0,1 m/s en la velocidad del viento y el 0,1% de humedad relativa. Se registraron las temperaturas de la superficie de los edificios circundantes para evaluar su efecto sobre los registros usando una cámara infrarroja FLIR E4, con resolución de temperatura 0,15ºC. Distancia mínima a la superficie de 0,5 m y rango de las mediciones de Tª de - 20 º C y 250 º C. Los perfiles de temperatura extraídos de la medición in situ mostraron la influencia de la exposición solar en las variaciones de temperatura a lo largo del día, así como la influencia del calor irradiado por las superficies que habían sido expuestas a la radiación solar así como la influencia de las áreas de jardín alrededor del edificio. Después de que las medidas fueran tomadas, se llevaron a cabo las siguientes simulaciones para evaluar el impacto de la cubierta ajardinada en el microclima: a. estándar de la azotea: edificio T4 asumiendo un techo de tejas de hormigón con albedo 0.3. b. b. cubierta vegetal : T4 edificio asumiendo una extensa cubierta verde con valor bajo del LAD (0.5)-techo de sedum simple. c. c. cubierta vegetal: T4 edificio asumiendo una extensa cubierta verde con alta joven valor 1.5-mezcla de plantas d. d. cubierta ajardinada más vegetación nivel calle: el edificio T4 con LAD 1.5, incluyendo los árboles existentes a nivel de calle. Este escenario representa las condiciones actuales del edificio medido. El viento de referencia a nivel de cubierta se fijó en 1 m/s, coincidente con el registro de velocidad de viento en ese nivel durante la campaña de medición. Esta velocidad del viento se mantuvo constante durante toda la campaña. Bajo las condiciones anteriores, los resultados de los modelos muestran un efecto moderado de azoteas verdes en el microclima circundante que van desde 1 º a 2 º C, pero una contribución mayor cuando se combina con vegetación a nivel peatonal. En este caso las reducciones de temperatura alcanzan hasta 4 ºC. La humedad relativa sin embargo, no presenta apenas variación entre los escenarios con y sin cubierta ajardinada. Las temperaturas medidas in situ se compararon con resultados del modelo, mostrando una gran similitud en los perfiles definidos en ambos casos. Esto demuestra la buena capacidad de ENVI-met para reproducir el efecto de la cubierta ajardinada sobre el microclima y por tanto para el fin de esta investigación. Las diferencias más grandes se registraron en las áreas cercanas a las zonas superiores de las fachadas que estaban más expuestas a la radiación del sol y también el nivel del suelo, por la influencia de los pavimentos. Estas diferencias se pudieron causar por las características de los cerramientos en el modelo que estaban limitados por los datos disponibles en la base de datos de software, y que se diferencian con los del edificio real. Una observación importante derivada de este estudio es la contribución del suelo húmedo en el efecto de la cubierta ajardinada en la temperatura del aire. En el escenario de la cubierta ajardinada con los arboles existentes a pie de calle, el efecto del suelo húmedo contribuye a aumentar las reducciones de temperatura hasta 4.5ºC, potenciando el efecto combinado de la cubierta ajardinada y la vegetación a pie de calle. Se realizó un análisis final después de extraer el perfil horario de temperaturas en el cañón urbano influenciado por el efecto de las cubiertas ajardinadas y los árboles. Con esos perfiles modificados de temperatura y humedad se desarrolló un modelo energético en el edificio asumiendo un edificio cerrado y climatizado, con uso de oficinas, una temperatura de consigna de acuerdo al RITE de 26 ºC, y con los sistemas por defecto que establece el software para el cálculo de la demanda energética y que responden a ASHRAE 90.1. El software seleccionado para la simulación fue Design Builder, por su capacidad para generar simulaciones horarias y por ser una de las herramientas de simulación energética más reconocidas en el mercado. Los perfiles modificados de temperatura y humedad se insertaron en el año climático tipo y se condujo la simulación horaria para el día definido, el 9 de Julio. Para la simulación se dejaron por defecto los valores de conductancia térmica de los cerramientos y la eficiencia de los equipos de acuerdo a los valores que fija el estándar ASHRAE para la zona climática de Madrid, que es la 4. El resultado mostraba reducciones en el consumo de un día pico de hasta un 14% de reducción en las horas punta. La principal conclusión de éste estudio es la confirmación del potencial de las cubiertas ajardinadas como una estrategia para reducir la temperatura del aire y consumo de energía en los edificios, aunque este efecto puede ser limitado por la influencia de los vientos, la radiación y la especie seleccionada para el ajardinamiento, en especial de su LAD. Así mismo, en combinación con los bosques urbanos su efecto se potencia e incluso más si hay pavimentos húmedos o suelos porosos incluidos en la morfología del cañón urbano, convirtiéndose en una estrategia potencial para adaptar los ecosistemas urbanos el efecto aumento de temperatura derivado del cambio climático. En cuanto a la herramienta, ENVI-met se considera una buena opción para éste tipo de análisis dada su capacidad para reproducir de un modo muy cercano a la realidad el efecto de las cubiertas. Aparte de ser una herramienta validada en estudios anteriores, en el caso experimental se ha comprobado por medio de la comparación de las mediciones con los resultados del modelo. A su vez, los resultados y patrones de vientos generados en los cañones urbanos coinciden con otros estudios similares, concluyendo por tanto que es un software adecuado para el objeto de esta tesis doctoral. Como líneas de investigación futura, sería necesario entender el efecto de la cubierta ajardinada en el microclima urbano en diferentes zonas climáticas, así como un mayor estudio de otras variables que no se han observado en este análisis, como la temperatura media radiante y los indicadores de confort. Así mismo, la evaluación de otros parámetros que afectan el microclima urbano tales como variables geométricas y propiedades superficiales debería ser analizada en profundidad para tener un resultado que cubra todas las variables que afectan el microclima en el cañón urbano. ABSTRACT Climate Change is posing an urgency in the development of strategies able not only to mitigate but also adapt to the effects that this global problem is evidencing around the world. Heat waves, flooding and severe draughts increase the vulnerability of population, and this is especially critical in urban settlements. This has been extensively studied over the past decades, addressed from different perspectives and ranging from the regional heat island analysis to the building scale. Its understanding requires physical and dimensional analysis of this broad phenomenon and a deep analysis of the factors and the strategies which can offset it. In the search of solutions to this problem, green infrastructure elements such as green roofs, walls and urban forests arise as strategies able provide multiple regulating ecosystem services to the urban environment able to cope with climate change effects. This includes storm water management, heat island effect control, and improvement of air and water quality. Over the last decade, multiple studies have been developed to evaluate and quantify the ecosystem services provided by green roofs, however, specific regulating services addressing urban microclimate and their impact on the urban dwellers have not been widely quantified. This research tries to contribute to fill this gap and analyzes the effects of green roofs and urban forests on urban microclimate at pedestrian level, quantifying its potential for regulating ambient temperature in hot season in Mediterranean –continental climates. The study is divided into a sequence of analysis where the critical factors affecting the performance of the green roof system on the microclimate are identified and the effects of the green roof is tested in a real case study. The first step has been the definition of the object of study, through the analysis and review of theoretical and empirical papers that investigate the effects of covers landscaped in the built environment, in the context of its use as a tool for adaptation and mitigation of the impact of climate change on cities and urban development. This literature review, reveals the great potential of the plant systems as a tool for passive design capable of improving the climatic and microclimatic conditions in the cities, as well as its positive impact on the energy performance of buildings, but also the need for further analysis at the street scale where climate, urban surfaces and materials, and vegetation converge. This analysis requires a methodology where the thermal buildings response, the variations in the patterns of wind and the interaction of the vegetation are integrated, so a quantitative analysis can help to define the most effective strategies to achieve liveable urban spaces and collaterally, , the improvement of the surrounding buildings energy performance. In this specific scale research is needed and should be customized to every climate, urban condition and nature based strategy. In this context, the main objective for this research was the quantitative assessment of the Green roof impact on the urban microclimate at a neighbourhood scale in summer conditions in Mediterranean- continental climates. For the achievement of this main objective, the following secondary objectives have been set: • Identify the numerical models and calculation tools able to capture the effect of the roof garden on the microclimate. • Identify the enhancing or limiting parameter affecting this effect. • Quantification of the impact of the microclimate created on the energy consumption of buildings surrounding the street canyon analysed. The main hypothesis behind this research and where the above objectives are funded on is as follows: "An extensive roof installed in medium height buildings favours the establishment of microclimates at the pedestrian level and reduces the temperatures in the urban environment where they are located." For the purpose of verifying the above hypothesis and achieving the proposed objectives the following methodology has been followed: - Definition of hypothesis and objectives - Definition of the scope and limitations - Theoretical analysis of parameters affecting gren roof performance - Experimental analysis; - Energy modelling analyisis - Conclusions and future lines of work The search for suitable tools and models for meeting the objectives of this analysis has led to ENVI-met v4 as the most suitable software for this research. ENVI met is a three-dimensional micro-climate model designed to simulate the surface-plant-air interactions in urban environments. Based in the fundamental equations representing, mass, energy and momentum conservation, the software has the capacity of representing the complex phenomena characterizing the microclimate in urban canyons, overcoming the challenge posed by the computing requirements of a full calculus based on finite elements done via traditional computational fluid dynamics tools. Once the analysis tool has been defined, a first set of analysis has been developed to identify the main parameters affecting the green roof influence on the microclimate. In this analysis, two different scenarios are compared. A neighborhood with standard concrete tile roof and the same configuration substituting the concrete tile by an extensive green roof. Once the scenarios have been modeled, different iterations have been run to identify the influence of different wind patterns, solar exposure and roof vegetation type on the microclimate, since those are the most relevant variables affecting urban microclimates. These analysis have been run to check the conditions under which the effects of green roofs get significance. Since ENVI-met V4 is a predictive software, the first step has been the definition of the initial weather conditions which are then used as starting point by the software, which generates its own daily temperature and humidity profile based on the location of the building, geometry, vegetation and the surfaces physical characteristics. The base geometry used for this first analysis has been based on a typical urban layout structure located in Madrid, an orthogonal net with the main streets oriented East-West to ease the analysis of solar radiation in the different points of the model. This layout represents a typical urban neighborhood, with street canyons keeping an aspect ratio between 0.5 and 1 and high sky view factor to ensure correct sun access to the streets and buildings and work with typical wind flow patterns. Finally, the roof vegetation has been defined in terms of foliage density known as Leaf Area Density (LAD) and defined as the total one-sided leaf area per unit of layer volume. This index is the most relevant vegetation characteristic for the purpose of calculating the effect of vegetation on wind and solar radiation as well as the energy consumed during its metabolic processes. The building as usual (BAU) configuring the urban layout has been defined with standard concrete tile roofs, considering 0.3 albedo. Walls have been set with albedo 0.2 (typical brick wall construction) and adiabatic to avoid interference caused by thermal interchanges with the building indoor environment. For the proposed case, the same geometry and building characteristics have been kept. The only change is the roof surface coverage. The gravel on the roof has been changed with an extensive green roof covered with drought tolerant plants, typical in Madrid climate, and characterized by their LAD. The different scenarios analysed are based in the variation of the wind speed and the LAD of the roof. The results have been recorded under different sun exposure conditions. Simulations were run for the typical summer wind patterns, that for Madrid are characterized by South-west winds ranging from 3 to 0 m/s. Simulations were run for 3, 2, 1 and 0 m/s at urban canopy level. Results taken at 1.4 m above the ground showed that the green roof effect was lower with higher wind speeds and in any case the effect of the green roof on the air temperatures exceeded air temperature reductions higher than 1ºC. Relative humidity presented no variations when comparing the different scenarios. For the analysis at 0m/s, ENVI-met generated error and no results were obtained. Different simulations showed that under 0.5 m/s turbulence increased dramatically and the model became unstable and unable to produce reliable results. This is due to the turbulence model embedded in the software which is not valid for low wind speeds (below 1 m/s). The effect of the different foliage densities was also tested in the model. Three different alternatives were compared against the concrete roof: green roof with LAD 0.3 ( typical grass or sedum), 1.5 (typical mixed plants) and 2.5 (tree mass). The results showed very relevant temperature differences between the different LAD alternatives analyzed. Results show temperature variations ranging between 3 and 5 ºC when comparing the standard concrete roof with albedo 0, 3 with the vegetated roof and vegetated mass, showing the relevance of the LAD on the effects of green roofs on microclimate. This matches the data reported in existing literature and empirical studies and confirms the relevance of the LAD in the roof effect on the surrounding microclimate. The results of the theoretical analysis have reached the following initial conclusions related to both, the simulation tool and the model results: • In relation to the tool ENVI-met, some limitations for the analysis have been observed. In first place, the rigid structure of the geometry, the data bases and the grid size, limit the scale and resolution of the analysis not allowing the development of large urban areas. On the other hand the ENVI-met structure enables the development of this type of complex simulation within reasonable times and computational requirements for the purpose of this analysis. Additionally, the model is unable to run simulations at wind speeds lower than 0.5 m/s, and even at this speed, the results are not reliable because the turbulences generated by the model that made impossible to extract clear temperature differences between the concrete and green roof scenarios. Besides the above limitations, the wind patterns and temperature profiles generated by ENVImet are in agreement with previous analysis identifying wind patterns in urban canyons with similar characteristics and aspect ratio. Therefore the software has shown a good capacity for reproducing the wind effects in the street canyons and seems to capture the cooling effect produced by the green roof. • In relation to the model, the results reveals the influence of wind, radiation and LAD on air temperature in urban canyons with aspect ratio comprised between 0.5 and 1. Being the effect of the green roof more noticeable in shaded urban canyons with aspect ratio 1 and wind speeds of 1 m/s. In no case the reductions in air temperature exceeded 1ºC. Once the relevant parameters have been identified, mainly wind speed and LAD, an experimental analysis was conducted to test the results obtained by the model. For this purpose a large green roof was identified, able to represent the urban scale which is the object of the studio. The building identified for this purpose was the terminal 4, parking building of the international Madrid Airport. Even though this is not a standard urban area, the scale and configuration of the space around the building were deemed as acceptable for the analysis. The building is an 800x200 m, 15 m height parking building, surrounded by access paved paths and the terminal building. The parking is enclosed with facades that configure an urban canyon-like space, although the aspect ratio is lower than 0.5 and the wind patterns might differ from the theoretical model run. The building features the largest green roof in Europe, a 12 Ha extensive green roof populated with a mix of herbs and sedum with a LAD of 1.5. The buildings are surrounded by planted areas at the sidewalk and trees shading the main building facades. Green roof performance was evaluated by monitoring temperatures and relative humidity in the canyon in a typical summer day. The day selection was done taking into account meteorological predictions so the weather conditions on the measurement day were as close as possible as the optimal conditions identified in terms of green roof effects on the urban canyon. July 9th 2014 was selected for the measurement campaign because the predictions showed 1 m/s wind speed and sunny sky, which were very similar to the weather conditions where the effect of the green roof was most noticeable in the theory model. Measurements were registered hourly from 9:00am to 19:00 on July 9th 2014. Temperature, relative humidity and wind speed were recorded at 5 different levels, at 1.5, 4.5, 7.5, 11.5 and 16 m above ground and at 0.5 m distance from the building façade. Measurements were taken in three different scenarios, sunny exposure, shaded exposure, and shaded exposure influenced by nearby trees and moist soil. Temperature, relative humidity and wind speed were registered using a TESTO 410-2 anemometer, with 0.1ºC resolution for temperature, 0.1 m/s resolution for wind speed and 0.1 % for relative humidity. Surface temperatures were registered using an infrared camera FLIR E4, with temperature resolution 0.15ºC. Minimal distance to surface of 0.5 m and Tª measurements range from -20ºC and 250ºC. The temperature profiles measured on the site showed the influence of solar exposure on the temperature variations along the day, as well as the influence of the heat irradiated by the building surfaces which had been exposed to the sun radiation and those influenced by the moist soft areas around the building. After the measurements were taken, the following simulations were conducted to evaluate the impact of the green roof on the microclimate: a. Standard roof: T4 building assuming a concrete tile roof with albedo 0.3. b. Green roof: T4 building assuming an extensive green roof with low LAD value (0.5)-Simple Sedum roof. c. Green roof: T4 building assuming an extensive green roof with high LAD value 1.5- Lucerne and grasses d. Green roof plus street level vegetation: T4 Building, LAD 1.5 (Lucerne), including the existing trees at street level. This scenario represents the current conditions of the building. The urban canopy wind was set as 1 m/s, the wind speed register at that level during the measurement campaign. This wind speed remained constant over the whole campaign. Under the above conditions, the results of the models show a moderate effect of green roofs on the surrounding microclimate ranging from 1ºC to 2ºC, but a larger contribution when combining it with vegetation at pedestrian level, where 4ºC temperature reductions are reached. Relative humidity remained constant. Measured temperatures and relative humidity were compared to model results, showing a close match in the profiles defined in both cases and the good capacity of ENVI met to capture the impact of the green roof in this analysis. The largest differences were registered in the areas close to the top areas of the facades which were more exposed to sun radiation and also near to the soil level. These differences might be caused by differences between the materials properties included in the model (which were limited by the data available in the software database) and those in the real building. An important observation derived from this study is the contribution of moist soil to the green roof effect on air temperatures. In the green roof scenario with surrounding trees, the effect of the moist soil contributes to raise the temperature reductions at 4.5ºC. A final analysis was conducted after extracting the hourly temperature profile in the street canyon influenced by the effect of green roofs and trees. An energy model was run on the building assuming it was a conventional enclosed building. Energy demand reductions were registered in the building reaching up to 14% reductions at the peak hour. The main conclusion of this study is the potential of the green roofs as a strategy for reducing air temperatures and energy consumption in the buildings, although this effect can be limited by the influence of high speed winds. This effect can be enhanced its combination with urban forests and even more if soft moist pavements are included in the urban canyon morphology, becoming a potential strategy for adapting urban ecosystems to the increasing temperature effect derived from climate change.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este proyecto consiste en el análisis de las técnicas de compresión de gas natural, tanto técnica como económicamente, así como el diseño de la estación de compresión localizada en Irún, provincia de Guipúzcoa, con la mejor opción. El proyecto define el interés de este tipo de instalaciones, su funcionamiento, detalla los distintos sistemas de los que consta la estación de compresión y estudia la rentabilidad económica en base al presupuesto de la instalación y a la retribución de las actividades reguladas del sector gasista. Los distintos sistemas de los que consta la estación de compresión, y que forman parte del contenido del proyecto son, todos los necesarios para el funcionamiento de la estación: sistemas mecánicos, instrumentación y control, obra civil y sistemas auxiliares (sistemas eléctricos, de seguridad y antiintrusión).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis integra un estudio reflexivo sobre la relación de dependencia entre la creación y la memoria a través del análisis de la última obra del escultor Juan Muñoz: Double Bind (Tate Modern, Londres, 2001). Desde esta posición es obligado replantear el análisis de la obra, lo que hace necesario su estudio cubriendo el mayor espectro posible de información accesible más allá de la obra en sí, para aproximarse a la convergencia entre memoria y creación. La perspectiva de análisis propuesta abre camino a nuevas consideraciones so¬bre la relevancia del conocimiento en el desarrollo del proceso creativo. Este análisis no debe tan sólo suponer una aportación al conocimiento del trabajo de Juan Muñoz. Debe también desprenderse de él la innegable participación y necesaria lectura del pasado en el presente. La amnesia de los tiempos pasados impide completar el atlas de imágenes en las que se apoya la creación impidiendo el conocimiento del origen de las fuentes de inspi¬ración y las bases de la creación de una determinada obra. Este hecho limita y distorsiona sus posibles interpretaciones. Pretendo un acercamiento al entendimiento de la forma de mirar y de crear a través del tiempo que es memoria. La memoria tiene un cometido de crucial importancia para la actividad mental y juega un papel fundamental en la conducta y en la creación. La obra es el resultado de la búsqueda de una idea que exprese algo que el creador no puede ex¬presar de otra manera. Es la necesidad de expresar las ideas mediante un lenguaje que se desarrolla en el tiempo y en el espacio, reflejo del ser que responde al pensamiento. Es una forma de experiencia donde subyacen las sendas del pasado y donde se plantea el futuro. Sólo el creador accede a la obra desde dentro, el observador llega a ella desde el exterior y mediante su propia subjetividad. Las obras son formas de experiencia de sus autores, comunicar el mensaje de dicha experiencia supone por tanto interpretar. Persiguiendo la necesidad de saber y entender, pretender explicar el sentido de una cosa implica una apreciación intencionada asociada al entendimiento del intérprete. Las obras son produc¬tos que portan un mensaje y que contienen en su estructura las trazas del tiempo vivido por su creador. Si se quiere adquirir un acercamiento que represente la posición de un autor, será necesario no solo mirar a través de ella, si no introducirse en el contexto de su historia. Mirar hacia atrás, hacia la profundidad del presente para tener conciencia del pensamiento presente y futuro. Recorrer de este modo la instalación Double Bind de Juan Muñoz proporciona una síntesis de sus preocupaciones e intereses a la vez que aporta un conocimiento no necesariamente inmediato, pero relevante y trascendente de la obra, su creador y la historia. ABSTRACT This thesis comprises a reflective study of the dependence relationship between creation and memory through the analysis of the latest work by the sculptor Juan Muñoz: Double Bind (Tate Modern, London, 2001). From this position, it is mandatory to rethink the analysis of the work, making it necessary to cover the widest possible range of information available beyond the work itself, in order to obtain a closer view of the convergence between memory and creation. The proposed analytical approach opens up new considerations on the relevance of knowledge during the development of the creative process. This analysis should not only make a contribution to the knowledge of the work of Juan Muñoz. It should also infer the undeniable involvement and the necessary reading of the past in the present. Amnesia regarding past makes it impossible to complete the atlas of images on which the creation is based, blocking knowledge of the origin of the sources of inspiration and the basis for the creation of a specific work. This fact limits and distorts its possible interpretations. My intention is an approach to how to understand memory as the way of looking and creating over time. Memory has a crucial role to mental activity and plays a key role in behaviour and creation. The work is the result of finding an idea that expresses something that the creator can not express otherwise. It is the need to express ideas by means of a language that develops throughout time and space, a reflection of the being that responds to the thought. It is a way of experience underlying the paths of the past and where the future is set out. Only the creator can access the work from the inside. The observer sees it from the outside and in accordance with his/her own subjectivity. The works form a part of the experience of their authors, thus implying the interpretation of the message of their experience being passed on. The pursuit of knowledge and understanding, and trying to explain the meaning of something implies a deliberate appreciation associated with the understanding of the interpreter. The works are products bearing a message and containing in their structure traces of the time lived by their creator. If one wants to come close to what the author’s posture represents, it will not only be necessary to penetrate it, but also to introduce oneself into the context of its history. Take a look back, towards the depth of the present in order to become aware of present and future thinking. To go across the installation of Double Bind by Juan Muñoz in this way offers a synthesis of his concerns and interests while also providing a not necessarily immediate knowledge, but one which is relevant and important to the work, its creator and history.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente proyecto tiene la finalidad de elaborar las perspectivas de futuro de la energía solar fotovoltaica, especialmente en España. Para ello se analiza en profundidad la tecnología fotovoltaica y su industria a nivel mundial para conocer en qué punto de desarrollo se encuentra. También se detalla la evolución del mercado fotovoltaico a nivel mundial, realzando los factores más importantes que lo han hecho posible. Para ir aproximándose al mercado fotovoltaico en España, se estudia más en profundidad el mercado fotovoltaico europeo. No sería suficiente analizar la tecnología y la evolución del mercado para realizar perspectivas probables, por lo que se realiza un estudio del coste de la tecnología con todos los factores asociados. Destaca el estudio de coste de la instalación fotovoltaica, formada por el módulo y el BoS, y el coste de generación mediante instalaciones fotovoltaicas. Siendo la energía solar fotovoltaica una tecnología muy ligada a la política, se estudia el marco regulatorio en Europa y un concepto que se está desarrollando cada vez más, el autoconsumo. También es importante, pese a que no haya tenido demasiada relevancia en el pasado, analizar la posibilidad del almacenamiento energético. En especial el uso de las baterías, su tecnología, mercado y cómo influirá al desarrollo de la energía solar fotovoltaica en la edificación. Con todos los factores nombrados anteriormente analizados, se podrá realizar las perspectivas del mercado fotovoltaico mundial y europeo para finalmente centrarse en el caso de España. En vistas a darle mayor importancia al desarrollo de la energía solar fotovoltaica en España, se realiza un estudio detallado del marco político, autoconsumo, potencia instalada y perspectivas del propio país, los cuales se resumirán en las conclusiones finales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis se centra en el análisis de dos aspectos complementarios de la ciberdelincuencia (es decir, el crimen perpetrado a través de la red para ganar dinero). Estos dos aspectos son las máquinas infectadas utilizadas para obtener beneficios económicos de la delincuencia a través de diferentes acciones (como por ejemplo, clickfraud, DDoS, correo no deseado) y la infraestructura de servidores utilizados para gestionar estas máquinas (por ejemplo, C & C, servidores explotadores, servidores de monetización, redirectores). En la primera parte se investiga la exposición a las amenazas de los ordenadores victimas. Para realizar este análisis hemos utilizado los metadatos contenidos en WINE-BR conjunto de datos de Symantec. Este conjunto de datos contiene metadatos de instalación de ficheros ejecutables (por ejemplo, hash del fichero, su editor, fecha de instalación, nombre del fichero, la versión del fichero) proveniente de 8,4 millones de usuarios de Windows. Hemos asociado estos metadatos con las vulnerabilidades en el National Vulnerability Database (NVD) y en el Opens Sourced Vulnerability Database (OSVDB) con el fin de realizar un seguimiento de la decadencia de la vulnerabilidad en el tiempo y observar la rapidez de los usuarios a remiendar sus sistemas y, por tanto, su exposición a posibles ataques. Hemos identificado 3 factores que pueden influir en la actividad de parches de ordenadores victimas: código compartido, el tipo de usuario, exploits. Presentamos 2 nuevos ataques contra el código compartido y un análisis de cómo el conocimiento usuarios y la disponibilidad de exploit influyen en la actividad de aplicación de parches. Para las 80 vulnerabilidades en nuestra base de datos que afectan código compartido entre dos aplicaciones, el tiempo entre el parche libera en las diferentes aplicaciones es hasta 118 das (con una mediana de 11 das) En la segunda parte se proponen nuevas técnicas de sondeo activos para detectar y analizar las infraestructuras de servidores maliciosos. Aprovechamos técnicas de sondaje activo, para detectar servidores maliciosos en el internet. Empezamos con el análisis y la detección de operaciones de servidores explotadores. Como una operación identificamos los servidores que son controlados por las mismas personas y, posiblemente, participan en la misma campaña de infección. Hemos analizado un total de 500 servidores explotadores durante un período de 1 año, donde 2/3 de las operaciones tenían un único servidor y 1/2 por varios servidores. Hemos desarrollado la técnica para detectar servidores explotadores a diferentes tipologías de servidores, (por ejemplo, C & C, servidores de monetización, redirectores) y hemos logrado escala de Internet de sondeo para las distintas categorías de servidores maliciosos. Estas nuevas técnicas se han incorporado en una nueva herramienta llamada CyberProbe. Para detectar estos servidores hemos desarrollado una novedosa técnica llamada Adversarial Fingerprint Generation, que es una metodología para generar un modelo único de solicitud-respuesta para identificar la familia de servidores (es decir, el tipo y la operación que el servidor apartenece). A partir de una fichero de malware y un servidor activo de una determinada familia, CyberProbe puede generar un fingerprint válido para detectar todos los servidores vivos de esa familia. Hemos realizado 11 exploraciones en todo el Internet detectando 151 servidores maliciosos, de estos 151 servidores 75% son desconocidos a bases de datos publicas de servidores maliciosos. Otra cuestión que se plantea mientras se hace la detección de servidores maliciosos es que algunos de estos servidores podrán estar ocultos detrás de un proxy inverso silente. Para identificar la prevalencia de esta configuración de red y mejorar el capacidades de CyberProbe hemos desarrollado RevProbe una nueva herramienta a través del aprovechamiento de leakages en la configuración de la Web proxies inversa puede detectar proxies inversos. RevProbe identifica que el 16% de direcciones IP maliciosas activas analizadas corresponden a proxies inversos, que el 92% de ellos son silenciosos en comparación con 55% para los proxies inversos benignos, y que son utilizado principalmente para equilibrio de carga a través de múltiples servidores. ABSTRACT In this dissertation we investigate two fundamental aspects of cybercrime: the infection of machines used to monetize the crime and the malicious server infrastructures that are used to manage the infected machines. In the first part of this dissertation, we analyze how fast software vendors apply patches to secure client applications, identifying shared code as an important factor in patch deployment. Shared code is code present in multiple programs. When a vulnerability affects shared code the usual linear vulnerability life cycle is not anymore effective to describe how the patch deployment takes place. In this work we show which are the consequences of shared code vulnerabilities and we demonstrate two novel attacks that can be used to exploit this condition. In the second part of this dissertation we analyze malicious server infrastructures, our contributions are: a technique to cluster exploit server operations, a tool named CyberProbe to perform large scale detection of different malicious servers categories, and RevProbe a tool that detects silent reverse proxies. We start by identifying exploit server operations, that are, exploit servers managed by the same people. We investigate a total of 500 exploit servers over a period of more 13 months. We have collected malware from these servers and all the metadata related to the communication with the servers. Thanks to this metadata we have extracted different features to group together servers managed by the same entity (i.e., exploit server operation), we have discovered that 2/3 of the operations have a single server while 1/3 have multiple servers. Next, we present CyberProbe a tool that detects different malicious server types through a novel technique called adversarial fingerprint generation (AFG). The idea behind CyberProbe’s AFG is to run some piece of malware and observe its network communication towards malicious servers. Then it replays this communication to the malicious server and outputs a fingerprint (i.e. a port selection function, a probe generation function and a signature generation function). Once the fingerprint is generated CyberProbe scans the Internet with the fingerprint and finds all the servers of a given family. We have performed a total of 11 Internet wide scans finding 151 new servers starting with 15 seed servers. This gives to CyberProbe a 10 times amplification factor. Moreover we have compared CyberProbe with existing blacklists on the internet finding that only 40% of the server detected by CyberProbe were listed. To enhance the capabilities of CyberProbe we have developed RevProbe, a reverse proxy detection tool that can be integrated with CyberProbe to allow precise detection of silent reverse proxies used to hide malicious servers. RevProbe leverages leakage based detection techniques to detect if a malicious server is hidden behind a silent reverse proxy and the infrastructure of servers behind it. At the core of RevProbe is the analysis of differences in the traffic by interacting with a remote server.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente trabajo se centra en la elaboración de un estudio y análisis de una red de suministros, con el objetivo de reducir el stock de producto terminado y hacer una propuesta de rediseño de la red de abastecimiento y distribución. Los principales agentes implicados en el proyecto son la empresa Aguabuena1, matriz española de la multinacional Goodwater¹, SERTEC¹, la empresa de servicio técnico oficial de Aguabuena y principal agente implicado en el proyecto, y las 24 empresas de servicio técnico, EST’s, que trabajan con contratos de exclusividad para SERTEC en todo el territorio nacional, así como los proveedores de los equipos de filtrado de agua y los clientes. La actual red de suministros presenta evidentes deficiencias. Los problemas de abastecimiento que existen no permiten, por un lado, respetar los contratos de nivel de servicio establecidos entre SERTEC y los clientes y por otro, multiplican el número de traslados de material entre almacenes para satisfacer la demanda (estos almacenes están controlados y gestionados por las diferentes empresas de servicio técnico). Los traslados conllevan una gran dispersión del stock, en hasta 40 localizaciones en todo el territorio, y suponen unos costes de transporte elevados entre los puntos de origen, los almacenes de producto terminado donde se localiza el equipo de filtrado, y los puntos de destino donde se instalará el producto. Además el gran volumen de stock conlleva una inversión en equipos muy elevada y supone asumir un coste financiero excesivo para la organización. Con la elaboración del presente proyecto se pretende reducir el número de localizaciones con stock dentro del territorio nacional, a través del rediseño de la red de suministro, con una propuesta que se adapte a las necesidades de los clientes y agentes implicados. Antes de describir las nuevas propuestas de red de abastecimiento fue necesario conocer el coste y características de la red de distribución actual, con el fin de obtener un modelo con el que comparar las nuevas propuestas posibles a implementar. Por ello se realizó un análisis profundo de la operativa, características y costes del modelo logístico o red que se tiene implementada en la actualidad en el sistema. Este análisis permitió además dar a conocer el coste logístico que supone la actual red de abastecimiento que era, en líneas generales, desconocido para SERTEC, Aguabuena y las 24 EST’s. En esta etapa de análisis de la situación y del sistema logístico actual fue necesaria la recopilación de información al respecto: datos de demanda, datos de stock, datos de cobertura, maestro de materiales, almacenes, costes de transporte², almacenaje², expedición², preparación2… con el objetivo de evaluar el sistema logístico actual y tener unos baremos con los que estimar los costes de las propuestas futuras de red de abastecimiento. Una vez analizado el sistema actual, se identificaron oportunidades de mejora del mismo y se inició una nueva fase de diseño de propuestas de red para la distribución. La metodología seguida para la propuesta de escenarios de red fue la siguiente: En una primera etapa se realizó una sesión de trabajo con diferentes participantes que, a través de la técnica de brainstorming, realizaron una serie de propuestas de red. Estas propuestas de red fueron recogidas y evaluadas inicialmente aceptándose algunas de ellas para su valoración cualitativa específica. La segunda etapa consistió en la valoración cualitativa, que se realizó conforme a unos criterios establecidos y consensuados entre los participantes en la sesión de propuestas anterior. Se ponderó cada uno de los criterios y se resumió la valoración de cada escenario de red a través de medias ponderadas. Los escenarios o propuestas con mejor valoración pasaron a la tercera etapa del proceso; la etapa de análisis cuantitativo. En esta etapa se definieron y evaluaron de forma explícita los costes logísticos y financieros que conllevaba cada una de las propuestas de escenario de red. Para ello se establecieron algunas hipótesis de simplificación y cálculo en cada una de las propuestas, y se construyeron las cadenas de costes completas del proceso de distribución, desde la salida del producto desde el proveedor, hasta su instalación final en el punto de destino. Estas cadenas reflejan los costes imputables en el proceso de distribución, su valor y responsable y permiten tener una visión general y resumida de la propuesta de red logística. Entre las hipótesis de simplificación en las propuestas de escenario destaca la elaboración de un modelo de programación lineal que minimiza el coste de transporte desde n localizaciones con stock, especificadas de antemano, a todas las provincias del territorio nacional para diferentes tipologías de envío entre origen y destino. Una vez evaluadas las diferentes propuestas de escenario de red de forma cualitativa y cuantitativa se compararon las valoraciones de cada una de las propuestas y se procedió a señalar una o varias propuestas de posible implementación futura. Finalmente, para estas propuestas de implementación se realizó un estudio previo de riesgos y los impactos previstos para cada riesgo identificado, así como un análisis inicial del impacto ambiental que supondrían las propuestas de red a implementar. Los resultados obtenidos en el desarrollo del presente proyecto fueron los siguientes: Como conclusión de los análisis previos, se definieron 3 posibles escenarios de red a implementar en un futuro. Cada uno de los cuales cumple los requisitos y objetivos que se pretendían alcanzar al inicio del proyecto además de adecuarse a los requisitos iniciales establecidos y los acuerdos de nivel de servicio vigentes. Estos escenarios se denominaron C.1, C.2, y D.2 correspondientes con la nomenclatura que se fue dando a los diferentes escenarios en su etapa de proposición. - El escenario C.1 conlleva, según el estudio realizado, una reducción de localizaciones con stock de 40 a 1, con una reducción del volumen de stock del 84% y un aumento del coste logístico del 40% respecto a la situación actual. - El escenario C.2 conlleva, según el estudio realizado, una reducción de localizaciones con stock de 40 a 9, con una reducción del volumen de stock del 63% y un aumento del coste logístico del 5% respecto a la situación actual. - El escenario D.2 conlleva, según el estudio realizado, una reducción de localizaciones con stock de 40 a 16, con una reducción del volumen de stock del 42% y una reducción del coste logístico del 24% respecto a la situación actual. Los resultados obtenidos del proyecto estaban en consonancia con los objetivos propuestos y las metas a alcanzar en el inicio del mismo. Las conclusiones y recomendaciones derivadas de la realización de este proyecto se resumen en los siguientes puntos: - El rediseño de las redes de abastecimiento y distribución es un proceso complejo que engloba la integración y coordinación de numerosos agentes, procesos, y actividades. Es necesaria una atención especial y un enfoque claro en la visión de conjunto y coherencia que deben tener estos procesos de rediseño. - Las herramientas de análisis tales como la Programación Lineal o la simulación por ordenador de redes logísticas, así como los fundamentos estadísticos relativos a las distribuciones de probabilidad, simulación y valoración suponen una potente ayuda a la hora de caracterizar y rediseñar sistemas logísticos. - Las oportunidades de mejora operativa y económica en las organizaciones, derivadas del desarrollo de soluciones específicas adaptadas a las necesidades y características particulares de cada cadena de suministro, permiten obtener una ventaja competitiva y facilitan la mejora continua en aquellas organizaciones dispuestas al cambio y adaptación como pilares del crecimiento empresarial sostenible.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente tesis doctoral desarrolla la obra del arquitecto Antonio Vallejo Álvarez (n. 1903, t. 1928, f. 2002) cuya larga carrera profesional permite observar una evolución que tiene como fondo la de la arquitectura española desde los planteamientos academicistas de principios del siglo XX, pasando por el primer racionalismo, hasta la influencia del Movimiento Moderno. Antonio Vallejo nació en Almonacid de Zorita, un pueblo de la provincia de Guadalajara pequeño pero singular ya que entonces se construía el Salto de Bolarque, instalación energética crucial en la época que albergaba además elementos de arquitectura culta. La familia le envió a Madrid a estudiar en las Escuelas Pías de San Fernando y luego en la vieja escuela de arquitectura de la calle Escritorios perteneciente a la Real Academia de Bellas Artes de San Fernando. Terminada la carrera realizó unas primeras edificaciones de corte historicista con relativa abundancia de estilemas academicista que van desapareciendo paulatinamente a la vez que evolucionan hacia el “decó”. De esta depuración, que puede observarse muy bien en los números 69,73 y 62 de la calle Viriato de Madrid, resulta un primer racionalismo en el que las balconadas y cuerpos volados se apoyan sobre una trama racionalista ortogonal cada vez más rígida. Simultáneamente trabajó en esta época en la Oficina de Información sobre la Ciudad del Ayuntamiento de Madrid junto a Bernardo Giner de los Ríos y Fernando García Mercadal, entre otros. Más tarde se incorporó a las órdenes del primero a la Oficina de Construcciones escolares donde se mantuvo hasta el estallido de la guerra civil. Al amparo de la Ley Salmón fundó la empresa promotora de viviendas Ar-In donde realizó una arquitectura en la que la trama racionalista cobra una gran fuerza expresiva, matizada y potenciada por grandes balcones aterrazados de corte higienista. Sus exponentes máximos son el conjunto en la calle Narváez esquina a Alcalde Sáinz de Baranda, y la manzana de Guzmán el Bueno, 75 de Madrid. La guerra civil interrumpe el proceso y tras ella nuestro autor ensaya la supervivencia del racionalismo mediante la superposición de la trama en grandes cuerpos de alzado de ladrillo ocupando las plantas de pisos, sobre un basamento de granito en la planta baja y una especie de pórtico enmarcando los huecos del ático a modo de remate. En las ventanas se colocan embocaduras de caliza de diversas formas. Esta arquitectura, muy en la línea del gusto de la época, será sublimada mediante un magnífico ejemplo de manierismo en su gran obra de la Residencia de los Agustinos Recoletos y la Iglesia de Santa Rita de Madrid. Superados los al menos tres lustros de postguerra, Vallejo inicia un proceso que podríamos llamar estructuralista en la medida en que la asunción de la situación de la estructura en el edificio y el módulo por ella creada definen sus características formales. Aquí, tras trabajar el hormigón armado en algunos edificios como los del Residencial Bellas Vistas de Madrid, lo hace con mucho más convencimiento en edificios con estructuras de acero como el colegio del Sagrado Corazón de Guadalajara. Es también importante hablar de la provincia de Almería, a cuya capital llega nuestro arquitecto inmediatamente después de la guerra civil para alejarse de las indeseables consecuencias que hubiera podido tener su fidelidad al gobierno de la República con el que colaboró hasta el último momento. En la ciudad desarrolló una extensa labor como constructor a través de Duarín SA, que se había formado sobre los restos de su promotora. También como arquitecto, con una labor paralela a la madrileña pero con menor presión ambiental, lo que contribuyó a que en cierta medida el proceso de afloramiento de su arquitectura estructuralista, heredera lejana de su primer racionalismo, fuese más rápido, como prueban realizaciones como los edificios de la calle Juan Pérez, 18 y del Paseo de la Estación, 19. ABSTRACT This thesis deals with the works in architecture from Antonio Vallejo Álvarez (b. 1903, g. 1928, d. 2002) whose long career enables us to concentrate on the evolution of the Spanish Architecture from the Academicism taking place at the beginning of XXth century , until the influence of the Modern Movement, taking also into account Racionalism. Antonio Vallejo was born in Almonacid de Zorita, a village in the province of Guadalajara small but unique because then Salto de Bolarque the crucial energy facility at the time also housed elements of classical architecture is built. His family sent him to study to Madrid in Escuelas Pías de San Fernando first, and then he attended lessons in the old Architecture school from Escritorios street belonging this last one to la Real Academia de Bellas Artes de San Fernando. Once he finished his degree on Architecture, he worked on some historicist buildings with a great use of academicist stylemes which will be disappearing little by little, turning into “deco”. From this depurationn, whose traces can be found in 69, 73, 62 at Viriato street in Madrid, our architect ends up with a first racionalism in which balconies and flown bodies are suspended on a racionalist and orthogonal more and more rigid. At that time, he was also working in the Information Office in Madrid Town Hall together with Bernardo Giner de los Ríos y Fernando García Mercadal, among others. Later, he worked for Bernardo Giner de los Ríos in the School Building Offices until the breaking out of the Civil War. Under Salmón law, he founded a developer for buildings named Ar-In, where he developed a type of Architecture in which racionalism develops a magnificent expressive force, empowered by great terraced balconies with higienistain court. His great masterpieces at this time are the buildings from Narvaez opposite to Alcalde Sáinz de Baranda and the block in 75 Guzmán El Bueno, in Madrid. Civil war interrupts somehow his process and once the war is over, our architect works on the survival of racionalism by overlapping on large bodies of brick elevation occupying different floor plants, on a base of granite on the ground floor and a sort of portico framing the gaps in the attic by way of auction. On the Windows he se colocan embocaduras de caliza de diversas formas. This type of architecture, very much enjoyed at that time, will be sublimed as a great example of manierism in his great work such as the case of Agustinos Recoletos Residence and Santa Rita Church in Madrid. About fifteen years after the war, in the post-war era, Vallejo starts a process which we could call structuralist, as lons as the asumption from the situation of the structure in the building and the created module define his main features. Here, once our architect works with reinforce concrete in some of his buildings such as Residencial Bellas Vistas de Madrid, he improves his technique with steel strucutres such as the on in the school Sagrado Corazón in Guadalajara. It is also remarkable to speak about the province of Almería, where our architect arrives inmediately after the civil war, to get rid of the consequences of his loyalty to the Republic movement to which he collaborated until his death. He developed a great career as a builder there through Duarín SA, which was launched though his former enterprise. Similary as the way he worked in Madrid,he, also as an arquitect, did his work in Almería with less environmental pressure though, fact which contributed to the flourishing of the structuralist architecture, as an heir from his first racionalism, as it can be shown from buildings in streets such as 18 Juan Pérez, and 19 Paseo de la Estación.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El estudio sistemático de la transmisión de energía eléctrica en sistemas no lineales (no sinusoidales) cobra una primordial importancia por la implantación, cada vez más ex-tendida, de sistemas no lineales de conversión de la energía eléctrica en las redes de distribución de energía eléctrica. El hecho de la deformación de las corrientes de distribución (periódicas no sinusoidales) en instalaciones de iluminación y alumbrado, es ya conocido por el uso de reactancias con lámparas de descarga, provocadas por los efectos de histéresis en sus núcleos, y por la utilización de equipos auxiliares, tales como fuentes de alimentación conmutadas, o no, con lámparas halógenas, lámparas de bajo consumo y lámparas Led, con un uso mucho mas extendido hoy en día. En este trabajo se desarrollan las expresiones del flujo de energía eléctrica en cargas no lineales, para su aplicación en circuitos eléctricos no lineales de iluminación y alum-brado. Se reconsideran las definiciones y formulaciones de los distintos conceptos de potencia: instantánea, activa, aparente, reactiva y se establece la potencia de distorsión. Se definen los conceptos de ángulo de desplazamiento y factor de desplazamiento, para proponer una definición más genérica del factor de potencia. Se analiza el concepto de corrección del factor de potencia mediante la conexión de una rama capacitiva en para-lelo con la luminaria o instalación, y se evalúan sus posibles limitaciones y efectos. Se comprueban y comentan algunos resultados obtenidos experimentalmente en ensayos realizados en laboratorio con ciertas lámparas de estos tipos, estableciéndose unas conclusiones significativas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La medición del volumen de hormigón puesto en obra con la mayor precisión posible es de la mayor importancia cuando este se coloca sin utilizar encofrados que restrinjan su movimiento, como puede ocurrir durante la ejecución de pilotes in situ por el método de barrena continua con inyección de hormigón a través de la misma (Pilotes CFA) o en la ejecución del sostenimiento de túneles mediante el método de proyección de hormigón. En ambos casos se utilizan bombas alternativas para transportar el hormigón, y en ambos casos un control de calidad adecuado requeriría efectuar una correlación entre la posición del útil de colocación de hormigón (extremo inyector de la barrena para los pilotes CFA, tobera o boquilla en las máquinas de proyectar hormigón) y el volumen de hormigón colocado. La medición continua volumen -normalmente obtenido integrando el caudal- no ha sido sin embargo resuelta de forma satisfactoria. La práctica habitual de contar emboladas, multiplicarlas por el volumen de cada una y por la eficiencia de la bomba, es propensa a error, y propuestas innovadoras como la de R. D. Browne y P. B. Bamforth para la determinación en línea de la eficiencia no se han implementado en la práctica. El trabajo que se presenta en esta Tesis Doctoral pretende aportar nueva luz sobre el problema de la estimación en línea del volumen bombeado, cuando se utilizan bombas alternativas para la puesta en obra del mismo, con independencia del tipo de mezcla que se emplee. El estudio intenta abarcar todo el proceso de bombeo desde que la mezcla suministrada entra en la tolva de la máquina hasta que la misma llega al final del circuito de transporte. El trabajo se inicia con una exposición del problema y un estudio crítico del estado del arte, seguido por la presentación de la instalación experimental con la que se efectuó un importante número de ensayos de bombeo, en los que se obtuvieron registros continuos y discontinuos de las variables que intervienen en el proceso y de los resultados del mismo (volumen bombeado). Se realiza a continuación un primer análisis de los datos obtenidos, que incluye el del comportamiento de las mezclas en el bombeo y su evolución en el tiempo, la forma en que los parámetros de mezcla y operación afectan a la forma de los pulsos de presión y una comparación entre los volúmenes medidos y los estimados por el método utilizado en la actualidad y por el propuesto por Browne y Bamforth, que pone de manifiesto los errores a que estos pueden conducir. Posteriormente, se realiza un conjunto de análisis que permite establecer un modelo del proceso de bombeo tanto en régimen estacionario como transitorio, que a su vez permite calcular numéricamente la evolución en el tiempo de la presión en cualquier punto de una tubería de transporte de este material para una instalación, mezcla y condiciones de operación dadas. Este modelo depende de un conjunto de 9 parámetros, que en su mayoría, o bien son fijos, o son medibles, o son calculables en forma continua, siendo el resto, entre ellos la eficiencia volumétrica de la bomba, medibles de forma discontinua. En la práctica, si se instala sobre una bomba la instrumentación adecuada, solo uno de los parámetros del modelo puede considerarse como incógnita: la eficiencia volumétrica de la bomba. Sobre esta base, por último, se propone un método para la estimación en línea de la eficiencia volumétrica, basado en un ajuste paramétrico utilizando el modelo del proceso, que permite estimar el volumen bombeado con una precisión del orden del 1%. Como resultado adicional, pero con entidad propia, se propone un método para el control en línea de la bombeabilidad del hormigón, basado en datos obtenidos monitorizando el proceso de bombeo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Until a few years ago, most of the network communications were based in the wire as the physical media, but due to the advances and the maturity of the wireless communications, this is changing. Nowadays wireless communications offers fast, secure, efficient and reliable connections. Mobile communications are in expansion, clearly driven by the use of smart phones and other mobile devices, the use of laptops, etc… Besides that point, the inversion in the installation and maintenance of the physical medium is much lower than in wired communications, not only because the air has no cost, but because the installation and maintenance of the wire require a high economic cost. Besides the economic cost we find that wire is a more vulnerable medium to external threats such as noise, sabotages, etc… There are two different types of wireless networks: those which the structure is part of the network itself and those which have a lack of structure or any centralization, in a way that the devices that form part of the network can connect themselves in a dynamic and random way, handling also the routing of every control and information messages, this kind of networks is known as Ad-hoc. In the present work we will proceed to study one of the multiple wireless protocols that allows mobile communications, it is Optimized Link State Routing, from now on, OLSR, it is an pro-active routing, standard mechanism that works in a distributed in order to stablish the connections among the different nodes that belong to a wireless network. Thanks to this protocol it is possible to get all the routing tables in all the devices correctly updated every moment through the periodical transmission of control messages and on this way allow a complete connectivity among the devices that are part of the network and also, allow access to other external networks such as virtual private networks o Internet. This protocol could be perfectly used in environments such as airports, malls, etc… The update of the routing tables in all the devices is got thanks to the periodical transmission of control messages and finally it will offer connectivity among all the devices and the corresponding external networks. For the study of OLSR protocol we will have the help of the network simulator “Network Simulator 2”, a freeware network simulator programmed in C++ based in discrete events. This simulator is used mainly in educational and research environments and allows a very extensive range of protocols, both, wired networks protocols and wireless network protocols, what is going to be really useful to proceed to the simulation of different configurations of networks and protocols. In the present work we will also study different simulations with Network Simulator 2, in different scenarios with different configurations, wired networks, and Ad-hoc networks, where we will study OLSR Protocol. RESUMEN. Hasta hace pocos años, la mayoría de las comunicaciones de red estaban basadas en el cable como medio físico pero debido al avance y madurez alcanzados en el campo de las comunicaciones inalámbricas esto está cambiando. Hoy día las comunicaciones inalámbricas nos ofrecen conexiones veloces, seguras, eficientes y fiables. Las comunicaciones móviles se encuentran en su momento de máxima expansión, claramente impulsadas por el uso de teléfonos y demás dispositivos móviles, el uso de portátiles, etc… Además la inversión a realizar en la instalación y el mantenimiento del medio físico en las comunicaciones móviles es muchísimo menor que en comunicaciones por cable, ya no sólo porque el aire no tenga coste alguno, sino porque la instalación y mantenimiento del cable precisan de un elevado coste económico por norma. Además del coste económico nos encontramos con que es un medio más vulnerable a amenazas externas tales como el ruido, escuchas no autorizadas, sabotajes, etc… Existen dos tipos de redes inalámbricas: las constituidas por una infraestructura que forma parte más o menos de la misma y las que carecen de estructura o centralización alguna, de modo que los dispositivos que forman parte de ella pueden conectarse de manera dinámica y arbitraria entre ellos, encargándose además del encaminamiento de todos los mensajes de control e información, a este tipo de redes se las conoce como redes Ad-hoc. En el presente Proyecto de Fin de Carrera se procederá al estudio de uno de los múltiples protocolos inalámbricos que permiten comunicaciones móviles, se trata del protocolo inalámbrico Optimized Link State Routing, de ahora en adelante OLSR, un mecanismo estándar de enrutamiento pro-activo, que trabaja de manera distribuida para establecer las conexiones entre los nodos que formen parte de las redes inalámbricas Ad-hoc, las cuales carecen de un nodo central y de una infraestructura pre-existente. Gracias a este protocolo es posible conseguir que todos los equipos mantengan en todo momento las tablas de ruta actualizadas correctamente mediante la transmisión periódica de mensajes de control y así permitir una completa conectividad entre todos los equipos que formen parte de la red y, a su vez, también permitir el acceso a otras redes externas tales como redes privadas virtuales o Internet. Este protocolo sería usado en entornos tales como aeropuertos La actualización de las tablas de enrutamiento de todos los equipos se conseguirá mediante la transmisión periódica de mensajes de control y así finalmente se podrá permitir conectividad entre todos los equipos y con las correspondientes redes externas. Para el estudio del protocolo OLSR contaremos con el simulador de redes Network Simulator 2, un simulador de redes freeware programado en C++ basado en eventos discretos. Este simulador es usado principalmente en ambientes educativos y de investigación y permite la simulación tanto de protocolos unicast como multicast. El campo donde más se utiliza es precisamente en el de la investigación de redes móviles Ad-hoc. El simulador Network Simulator 2 no sólo implementa el protocolo OLSR, sino que éste implementa una amplia gama de protocolos, tanto de redes cableadas como de redes inalámbricas, lo cual va a sernos de gran utilidad para proceder a la simulación de distintas configuraciones de redes y protocolos. En el presente Proyecto de Fin de Carrera se estudiarán también diversas simulaciones con el simulador NS2 en diferentes escenarios con diversas configuraciones; redes cableadas, redes inalámbricas Ad-hoc, donde se estudiará el protocolo antes mencionado: OLSR. Este Proyecto de Fin de Carrera consta de cuatro apartados distintos: Primeramente se realizará el estudio completo del protocolo OLSR, se verán los beneficios y contrapartidas que ofrece este protocolo inalámbrico. También se verán los distintos tipos de mensajes existentes en este protocolo y unos pequeños ejemplos del funcionamiento del protocolo OLSR. Seguidamente se hará una pequeña introducción al simulador de redes Network Simulator 2, veremos la historia de este simulador, y también se hará referencia a la herramienta extra NAM, la cual nos permitirá visualizar el intercambio de paquetes que se produce entre los diferentes dispositivos de nuestras simulaciones de forma intuitiva y amigable. Se hará mención a la plataforma MASIMUM, encargada de facilitar en un entorno académico software y documentación a sus alumnos con el fin de facilitarles la investigación y la simulación de redes y sensores Ad-hoc. Finalmente se verán dos ejemplos, uno en el que se realizará una simulación entre dos PCs en un entorno Ethernet y otro ejemplo en el que se realizará una simulación inalámbrica entre cinco dispositivos móviles mediante el protocolo a estudiar, OLSR.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objeto de este proyecto es la definición y construcción del polideportivo multiusos de Sanchinarro. Esta edificación corresponderá a la primera instalación del futuro complejo deportivo de Sanchinarro. El motivo de este proyecto es suministrar al barrio de Sanchinarro de instalaciones de dotación deportiva que puedan dar servicio a todas las edades. Se propondrá en el proyecto un diseño de un complejo deportivo y se redactará y definirá la construcción de un polideportivo, convirtiéndose este en el objeto predominante del presente proyecto. Igualmente se pretende obtener el mejor equilibrio posible entre la funcionalidad de las instalaciones proyectadas y su estética, optimizando todos aquellos factores y agentes que intervienen, con el objetivo de producir un producto de alta calidad y rentable al mismo tiempo

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Emilio Pemjean es un arquitecto de la luz. Pero la luz que él maneja no es aquella que, día tras día, ilumina de manera distinta el objeto construido. La luz con la que él trabaja es una luz construida por medio de la fotografía. Un destello recreado a voluntad en el interior de una maqueta y capturado en una imagen. Una luz congelada en el tiempo que remite a un tiempo ya pasado o quizás inventado. En su trabajo, a medio camino entre la instalación, la arquitectura y la fotografía, la luz siempre es el tema. De hecho, intentar distinguir entre el espacio y la luz en su obra es tan difícil como intentar separar al arquitecto del fotógrafo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo principal de este proyecto es estudiar, desde un punto de vista práctico, las posibilidades que ofrece la plataforma de ejercicios de ciberseguridad propuesta por la Universidad de Rhode Island en Estado Unidos, denominada Open Cyber Challenge Platform (OCCP); para ello primero nos ubicaremos dentro del campo de la ciberseguridad, estudiando porqué este área está tomando tanta relevancia, observando datos de estudios reales realizados por instituciones de prestigio, al mismo tiempo estudiaremos la tendencia actual y futura de los ciberataques. Seguidamente, analizaremos el estado del arte de la enseñanza en ciberseguridad y como se está enfocando por parte de las universidades y empresas más importantes en el sector. En esta parte del sector se está imponiendo una novedosa forma para desarrollar el aprendizaje tanto práctico como teórico basada en simular situaciones reales mediante escenarios virtuales. Una vez vistas otras opciones, nos centraremos en OCCP, podremos estudiar el estado de desarrollo de esta plataforma, la situación actual y las principales características. Además detallaremos el primer escenario propuesto por ellos mismos, estudiando los principales componentes, la topología de la red virtual de la empresa virtualizada, los principales ficheros de configuración, e incluso la montaremos y ejecutaremos y podremos observar como el equipo rojo ataca el servidor web de la empresa que lo tiene que proteger el equipo azul y consigue que la web deje de funcionar. También incluiremos una guía de instalación del escenario para que el lector pueda probar con su propio ordenador las posibilidades de esta plataforma. VirtualBox es un programa gratuito de virtualización perteneciente a la empresa Oracle. Más adelante estudiaremos este programa centrándonos en el servicio web ofrecido por VirtualBox ya que es utilizado por la plataforma Open Cyber Challenge Platform como virtualizador o hipervisor. Podremos ver como suelen funcionar los servicios web de este tipo en general y después nos centraremos principalmente en el archivo descriptivo de las interfaces que ofrece esta plataforma. Finalmente, resumiremos los resultados y conclusiones proponiendo un trabajo futuro ya que como hemos dicho esta plataforma está en estado de desarrollo y seguramente al final de la lectura del proyecto incluso el lector se haya podido percatar del potencial tan elevado que tiene una plataforma de este estilo. ABSTRACT. The main objective of this project is to study, from a practical standpoint the possibilities offered by the cybersecurity exercises platform proposed by the University of Rhode Island in United States, called Cyber Challenge Open Platform (OCCP); therefore we will place first in the field of cybersecurity, studying why this area is taking so much relevance, watching real data studies by prestigious institutions and the current and future trend of cyber-attacks. Then, we will discuss the state of the art of teaching cybersecurity and how universities and major companies in the sector are focusing to reach the aims among students or workers. In this part of the sector it is increasing the popularity of a new way to develop both practical and theoretical learning based on simulating real situations through virtual scenarios. Once seen other options, we will focus on OCCP, we can study the state of development of this platform, the current situation and main characteristics. In addition we will detail the first proposed scenario by the very own university, studying the main components, the topology of the virtual network virtualized enterprise, the main configuration files, and even we would mount and execute it. We will see how the red team attacks the web server of the company and get it thrown out. At the same time the blue team will have to protect it. We will also include an installation guide of the scenario so that the reader can test in their own computer the possibilities of this tool. VirtualBox is a free virtualization program belonging to the Oracle enterprise. Later on we will study this program focusing on the web service provided by VirtualBox because it is used by the Open Cyber Challenge Platform like hypervisor. We will see how this kind of web services work and then we will focus mainly on the descriptive file of the interfaces provided by this tool. Finally we summarize the results and conclusions proposing a future work since as we have said this platform is in the development stage and certainly at the end of reading the project even the reader may have realized of such high potential as would have a tool of this kind.